Å få sparken av en algoritme

Av Dr. Christina Colclough

Nr 2 2019

I stedet for å frykte roboter, må vi kunne beherske dem og få på plass reguleringer. Det sier Christina J. Colclough, direktør for plattform- og byråarbeidere, digitalisering og handel hos UNI Global Union.

Foto: Markus Spiske
Dr Christina Colclough,
er Director of Platform & Agency Workers, Digitalisation and Trade for UNI Global Union. Hun er antakelig den internasjonale fagbevegelsens fremste ekspert på data og digitalisering og er en svært mye brukt foredragsholder globalt.
Oversatt av Rolv Rynning Hansen

Denne artikkelen ble opprinnelig publisert av Internasjonalt senter for fagforeningsrettigheter (IKT) i International Union Rights Journal (Fokus på Industri 4.0 – Vol. 25/3, oktober 2018).


Tenk deg om et øyeblikk og vurdere om du ville hatt jobben din hvis en algoritme hadde vært ansvarlig for å ansette deg? Tenk på alle opplysninger om din økonomi, dine helsedata, dine venner på sosiale medier. Er du medlem av en fagforening? Har du en Fitbit (smart sportsklokke)? Hvordan er dine handlevaner og hva gjør du på fritiden? Og så spør, hvordan vil alt dette påvirke arbeidslivet ditt? Vil du bli ansatt, sparket, disiplinert eller forfremmet?

Det som virker som et bisart spørsmål, er faktisk noe som vi alle trenger å tenke på og reagere på. ‘Management-by-algorithm’ sprer seg, og flere og flere data fra mange forskjellige kilder brukes i menneskelige prosesser. Det er kritisk: over hele verden (med et visst unntak i Europa) er det svært få bestemmelser som beskytter mot misbruk av arbeidstakeres personopplysninger i og av bedrifter. Fagforeningene må forsøke å fylle dette hullet i ­lovverket og sette arbeidstakernes datarettigheter på dagsordenen for å kunne holde både bedriftsledelsen og regjeringene ansvarlige.

Hva er dette med data?

Facebook/Cambridge Analytica skandalen viste altfor tydelig verdien av (personlige) data. Datas betydning for reklame, profilering og markedsføring er så stor at det blir tilbudt og solgt for et ukjent beløp hvert år. I 2014 ble verdien av datastrømmer anslått å være 2,8 billioner US dollar. Se nå dette enorme tallet i forhold til det faktum at tre år senere, i 2017, anslo World Economic Forum at 90 prosent av alle data på den tiden hadde blitt produsert siden 2015. Vi kan bare prøve å forestille oss hva verdien av dagens datastrømmer egentlig er.

Vi etterlater dataspor hele tiden: fra våre sosiale mediaprofiler, våre likes og innlegg, til kundeservice telefonsamtaler, besøk til legen, bruk av våre GPS-er eller kontantuttak fra banken. Vi gir gjerne vekk våre navn og e-postadresser når vi logger på gratis Wi-Fi-hotspots i kafeer, flyplasser eller togstasjoner, og vi har mer eller mindre blitt så vant til «gratis» digitale tjenester så vi nesten blir irritert når en mobilapp koster penger. Saken er at ingenting er gratis. Det vi har gjort, og fortsatt gjør, er fritt og ofte frivillig å gi bort vår plassering, vaner, aktiviteter og meninger. Med andre ord betaler vi med våre data.

Men hvem kjøper, leser, analyserer og selger faktisk disse dataene? Det korte svaret er at vi ikke vet, og vi kan heller ikke vite det. Informanter på innsiden, som UNI har snakket med, estimerer at de store teknologibedriftene som Google, Amazon, Facebook, Apple, Microsoft og Alibaba eier mer enn 70 prosent av verdens samlede data.

Denne konsentrasjonen av hva som er en verdifull ressurs, setter disse selskapene i en uakseptabel posisjon når det kommer til økonomisk, digital, sosial og jevn politisk makt.

Arbeidere over hele verden har svært få juridiske rettigheter til å kreve innsikt og innflytelse på bruken av deres personopplysninger. Vi vet om eksistensen av såkalte datameglere, firmaer som lever av å kjøpe og selge data. Vi vet at bedrifter driver datamining av arbeiderens data. Selger de så dem? Og i så fall, til hvem? Hvem får vite hva dine helsedata inneholder, eller hvor produktiv en algoritme eller et selskap mener du er? Hvordan er disse dataene – som tilsynelatende er lett tilgjengelig for alle som har råd til å betale – brukt av bedrifter til å styre arbeidstakere?

Overvåkning, manipulasjon og algoritmisk kontroll

Øynene våre har blitt delvis åpnet pga erfaringene med hvordan data ble brukt til å målrette og manipulere velgere som i USAs valg og i Brexit-avstemminga, men politikere og eksperter vier svært lite oppmerksomhet til hvordan data blir brukt, og potensielt misbrukt, i forhold til arbeid. Det er en kraftig økning i bruken av algoritmer, data og kunstig intelligens (KI) i forhold til menneskelige ressurser og produktivitetsplanlegging. Det popper opp bedrifter som tilbyr KI-løsninger for å redusere kostnadene ved å håndtere mennesker. Fra autonom sortering av jobbsøkere og applikasjoner, til bruk av omfattende data for å måle produktivitet, til å sjekke ansattes humør og holdninger, til måter å automatisk finne ut hva som motiverer deg, og mye mer …

Mens noe av dette kan ha positive effekter, er det stor risiko for arbeidernes privatliv og det er stor risiko for at vi blir målt mot en ­digital norm. Blir du ikke bli forfremmet på grunn av dine helsedata? Vil du ikke få en jobb fordi du er et fagforeningsmedlem, eller har spesielle venner, eller har personlige egenskaper som algoritmen har blitt fortalt å avvise?

Alle dette kan høres hypotetisk ut, men er dessverre ikke det. I UNI Global Union ser vi allerede hvordan disse autonome systemene har en skadelig effekt på arbeidstakere. Spesielt de på ikke-organiserte arbeidsplasser, hvor det ikke er noen kontroll og balanse i form av organisert arbeid, og ingen midler til å oppnå avtaler for å rette opp misligheter.

I et tilfelle var bankansatte i et kundesenter sentrale i et system som måler kundenes og arbeidernes tone og stemme. Det gir deretter arbeiderne råd/instruks om hva de skal si selge og gjøre, og overvåker dem for å lykkes med å gjøre det «rette». For disse ikke-organiserte arbeidstakere har systemet vært katastrofalt. Bedømmelsen var knyttet til ytelse, men systemet klarte ikke å gjenkjenne kvinnelige stemmer så vel som mannlige stemmer, og ga etniske minoritetsaksenter lav score i forhold til hvite menn. Selv om arbeiderne kunne gå gjennom innspillingene med ledelsen, ble feilene sjelden rettet. Alt dette la til data i arbeidstakernes digitale fotavtrykk og kunne ikke bare skade dem i den nåværende jobben, men potensielt også gjøre det vanskeligere for dem å finne en annen jobb.

Det er mange andre eksempler: Ett selskap ga alle arbeidstakere med en FitBit i en konkurranse for å bli et sunt selskap, men brukte deretter GPS-dataene til å gi en advarsel til en overvektig arbeidstaker, som tilsynelatende ikke beveget seg mye i fritiden, om at han kunne bli en byrde for selskapet. Det er lagerarbeidere bevegelsene for hver hånd og arm spores for å sjekke effektivitet i pakking varer, hjemmesykepleiere som er får advarsler om de bruker for mye tid med en klient og arbeidere som får sparken fordi en algoritme sa de burde få det.

Fagforeningenes svar

Det kan være liten tvil om at fagforeningene må handle nå. Vi må organisere, organisere og atter organisere. Vi må bygge allianser med likesinnede andre og kreve en del av datafordelene. Vi må tette de regulatoriske hullene og kreve datarettigheter for arbeidstakerne. Dette bør gjøres på alle nivåer: fra kollektive avtaler til nasjonal og internasjonal lovgivning og konvensjoner. Vi bør mobilisere den internasjonale arbeidsorganisasjonen (ILO), FNs menneskerettighetsråd, nasjonale myndigheter, sivilsamfunnet og selskapene selv.

UNI Global Union jobber med disse problemene over hele verden. Vi diskuterer hvordan vi, fagforeningene, kan hamre inn betydningen av data og dra nytte av innsikten de kan gi. Vi må heve stemmene mot monopolisering av dataeierskap og spør om data skal gjøres til et felleseie, et «commons», et offentlig gode som blir gjort tilgjengelig for alle. En ting er å beskytte våre grunnleggende rettigheter, den andre er å ta det ett skritt videre og kreve et kollektivt eierskap av data. Begge er like viktige.

Vi har også skrevet to sentrale dokumenter, nemlig Topp ti prinsipper for arbeidernes personvern og beskyttelse og Topp ti prinsipper for etisk KI. Dokumentene henger sammen og lister opp de vesentligste kravene vi må stille for å unngå en fremtid hvor arbeidstakere blir utsatt for algoritmiske beslutningsprosesser utenfor menneskelig kontroll og innsikt.

Arbeidernes datarettigheter

Disse prinsippene dekker de viktigste spørsmålene om adgangsrett, innflytelse og konsultasjon.­ I hovedsak fastsetter de at arbeidere må:

  • bli informert før databehandling
  • ha rett til forklaring i forbindelse med algoritmisk beslutningstaking;
  • ha rett til dataportabilitet (dvs. arbeidere må ha lov til å ta med seg dataene når de forlater et selskap) og

har rett til å motsette seg og stille spørsmål om databehandling.
I tillegg bør selskapene forplikte seg til dataminimaliseringsprinsippet, og enda viktigere, å være åpen og ansvarlig i sin databruk. Dette siste punktet er avgjørende og bemerkelses­verdig fraværende i EUs generelle ­databeskyttelsesforordning.

Etisk K

Begrepet «kunstig intelligens» dekker her alle automatiserte/semi-automatiserte systemer, inkludert algoritmisk beslutningstaking. Her dekker våre prinsipper viktige spørsmål som åpenhet, ansvar og kontroll. For det første må vi kreve at autonome systemer kan spores, noe som betyr at dataene som brukes i algoritmen, kan identifiseres.

Alt for ofte vil du høre dataeksperter som sier at det ikke er mulig å pakke ut algoritmen. Dette er helt uakseptabelt. Forestill deg hva det innebærer: at verken ledelse eller arbeidstakere kan kreve å vite på hvilket grunnlag (data) et algoritmisk utfall er bygget på. Dette kan i sin tur føre til en situasjon hvor ledelsen enten bevisst eller utilsiktet underordner kontrollen og ansvaret til en algoritme med alle de risikoer og farer dette stiller ikke bare for arbeidstakere, men samfunnet generelt. Vi må aldri nå situasjonen der ledelsen ganske enkelt kan trekke på skuldrene sine og si, «Algoritmen sa at jeg skulle sparke deg, men jeg vet ikke hvorfor.»

Mennesker må til enhver tid ha kontroll over systemet, ikke omvendt. Vi må heller ikke gi inntrykk av at autonomt system (roboter, algoritmer) kan gjøres ansvarlige. Roboter er ting; de er varer og må aldri tilskrives juridisk ansvar.Det hasterDet haster definitivt nå. Fagforeninger over hele verden må ta opp disse grunnleggende problemene. Vi kan rett og slett ikke stole på at andre vil gjøre det. Digital teknologi utvikler seg med stor hastighet, og våre etiske krav til dem må være klare. Vi kan ikke risikere at folk blir forhindret i å jobbe eller blomstre på arbeidsmarkedet på grunn av en algoritme som ingen hevder å kontrollere, og ingen kan ­­rette opp.

UNI Global Union mener at et kollektivt eierskap til data, etisk KI og datarettigheter for arbeiderne er sentrale spørsmål for fagforeninger. Vi må forplikte bedriftsledelser samt regjeringer til å ta ansvar. Bare ved å gjøre det, kan vi sikre et digitalt arbeidsliv som gir kontroll, er inkluderende og åpent for alle.