Kunstig intelligens kan gjøre verden mer rettferdig

Mitt forrige innlegg ga et overblikk over hva kunstig intelligens (jeg bruker AI som forkortelse) er, historien bak det og litt hva det kan brukes til i dag. Det er et spennende, men stort tema. Det er ekstreme mengder muligheter, og derfor også trusler og barrierer. 

Et interessant tema er hvordan sosiale konsekvenser kan kunstig intelligens ha? Her er det MYE å ta av! Det er spesielt to bedrifter jeg har lagt merke til, som bruker AI i kampen mot klimakrise, barnearbeid og diskriminering. Gjøre verden mer rettferdig. Suksessen kommer når vi klarer å programmere AI som ikke inneholder den menneskelige biasen. 

“Our ability to reach unity in diversity will be the beauty and the test of our civilisation.”

– Mahatma Gandhi
Bærekraft og arbeidsforhold

Jeg hørte nylig en podcast episode, av TED Talks Daily – med Jamila Gordon. En rå dame, med en inspirerende historie og visjon! Det hun fortalte ga all inspirasjon til dette innlegget. Hør episoden hennes her. Gordon er grunnlegger og CEO av Lumachain. Det er en teknologiplattform som drives av kunstig intelligens, for å bedre føre informasjon mellom alle ledd i en forsyningskjede. På denne måten kan innkjøpere og konsumenter av maten vite hvor det kommer fra, tilstand og kvaliteten på det de kjøper, samt at det er bærekraftig og etisk produsert. 

Bilde lånt av Kinsey – Unsplash.com

I følge bedriften selv, skal dette gi kundene deres både gode økonomiske og samfunnsmessige konsekvenser. Brukes av denne AI’en skal bidra til å ende brukes av moderne slave- og barnearbeid, som er Lumachains overordnede mål. 

Det hele fungerer med en algoritme som kobler “ødelagte linker”, som sørger for at partene i forsyningskjeden kan gjøre handel i et trygt økosystem. “Smart-tag” sporing gjør det mulig å følge historien til produktet – litt som når du sporer et par sko du har bestilt på nett.

En kunstig intelligent ansettelsesprosess kan gi økt mangfold

Menneskelig bias kan være en årsak til ansettelsesprosesser som forhindrer mangfold. Det er ofte underbevisste ting, som fører til at vi dømmer folk på bakgrunn at ting som ikke er relevant til jobben i utgangspunktet. En sak fra ledernytt.no nevner noen positive effekter med et allsidig arbeidsmiljø. Det kan gi økt produktivitet, innovasjon, tilfredshet på jobb, og gjør det lettere å ta beslutninger. 

“Bedrifter med ledergrupper bestående av minst 30 prosent kvinner kan statistisk gi en gjennomsnittlig ytelsesøkning på 6 prosent, sammenlignet med konkurrentene.”

– Ledernytt.no

Det er et tema som har vært i søkelyset en stund. Mange bedrifter har gjort flere tiltak. Frida Polli er grunnlegger og CEO hos Pymetrics, en AI styrt plattform som matcher folk (basert på ferdigheter og erfaring) med jobber. Polli har skrevet en artikkel i Harvard Business Review, der peker hun på to måter AI kan forbedre ansettelsesprosessen:

  1. Å forhindre underbevisste, menneskelig bias. De må designes på en måte som gjør det mulig å finne hvor eventuelle feil ligger, og kunne omprogrammeres. De må testes og reguleres etter behov, før de blir satt i bruk. 
  1. Å vurdere alle alle søkere, ikke bare et knippe “tilfeldig” utvalgte. Bedrifter har innrømmet at det noen ganger bare er en liten del av søkere som blir vurdert, da det ikke er nok ressurser. Det betyr at ikke alle søknader blir lest, og mange gode kandidater går under radaren.  
Bilde lånt av Possessed Photography – Unsplash.com

Det er mye en AI kan gjøre, men vi må ikke legge skjul på at en sterk intuisjon ofte kan være en positiv ting. Samarbeid mellom mennesker og algoritmer er kan gi “det beste av begge verdener”. 

Så… Hvordan unngå bias i en AI?

Både Lumachain og Pymetrics ønsker å gjøre en positiv endring. For å oppnå målene sine trenger de algoritmer og AI’s som kan løse problemer, ikke bare skape flere utfordringer. Så i hvor stor grad vil en AI gjøre det den er programmert til å gjøre? En utfordring for algoritmer i ansettelsesprosesser er at vil lære av tidligere data, som gjør at den vil lære menneskelige bias. Da er man tilbake på scratch. 

En undersøkelse fra MIT understreker problemet med opplæringen. Gapet mellom testene og realiteten er for stor. I tillegg til dette viser et team fra Google at resultatene vi får av en test i opplæringen kan være basert på en faktor som ikke er tilgjengelig i virkeligheten, som vil gjøre AI´en bias. Opplæringen skjer gjennom maskinlæring og dyp læring, ved at data blir gitt i forskjellige lag, for å kunne veie forskjellige faktorer mot hverandre. Hvordan dette skjer er vanskelig å styre, og fører til feil. Et eksempel er en AI som ble vist bilder av hunder og og ulver. Den ble fortalt hva som var hva, men når den skulle finne det ut selv etter prøvetiden, sa den at en hund var en ulv. Grunnen til at feilen skjedde var at AI’en hadde brukt snøen i bakgrunnen på bildene av ulv som faktor. Så når den ble presentert for et bilde av en hund med snø i bakgrunnen, ville den tro det var en ulv. 

Jeg er positiv til brukes av AI på denne måten. Det er mye forskning som tyder på at vi er klare over trusler og barrierer, som gjør de mulighet å overstige. Jeg er også spent på å se hvor langt utviklingen på disse områdene vil ha kommet innen noen år, hvor jeg kanskje står i en posisjon, der jeg kan bruke denne teknologien selv.

– Madeleine

3 thoughts on “Kunstig intelligens kan gjøre verden mer rettferdig

  1. Hei Madeleine!
    Dette var et veldig fint innlegg, og jeg syns du har valgt en spesielt interessant vinkling på bloggoppgaven! Du skriver godt, det er interessant å lese og du har med bilder og kilder i løpende tekst – bra! For å pirke litt kunne jeg ønsket meg en fullstendig kildeliste nederst i innlegget i tillegg til løpende tekst, pluss at du har et par små skriveleifer her og der – som sagt bare pirk!
    Dersom du ikke enda har gjort det, håper jeg du deler dette innlegget på Linkedin 🙂

Leave a Reply

Your email address will not be published. Required fields are marked *