tre menn som programmerer på en datamaskin

Tre menn programmerer på en datamaskin. Kjønnsbalansen innenfor tek-bransjen er svært skjev. Foto: Colourbox.com

Kunstig intelligens: Innholdet er laget av menn. Algoritmene er laget av menn.

Fenomenet kalles for «brogramming», programvareutvikling sterkt preget av stereotypiske maskuline normer. Kan kvinnelige KI-forbilder snu trenden?

Av Elina Melteig
Publisert 8. mars 2024

Kunstig intelligens (KI) har tatt verden med storm. Det er mange utfordringer, men det er også stort potensiale for effektivisering innen mange bransjer. Den siste tiden har det vært debatt om hvordan KI  kan bidra til å forsterke fordommer og diskriminering ved at «sykepleier» blir assosiert med kvinner og «professor» blir assosiert med menn. Fire personer som jobber med ulike sider av kunstig intelligens deler sine synspunkter:

– Fraværet av kvinner i denne bransjen er påfallende og bekymringsfullt, sier professor Ingrid Glad, ved Universitetet i Oslo.

Hun forsker på KI, og mener det er utfordringer knyttet til at få kvinner er med på å utvikle algoritmene.

– Det er viktig at kvinner ikke er bare er med i beslutninger om, og bruken av, KI, men også at de bidrar til det som er inne i algoritmene, forklarer hun.

Inne i kodene gjøres det viktige valg som reflekterer holdninger og verdier, og som er med på å avgjøre hvordan programmene lærer.

Ingrid Glad

Hun forteller at KI vil påvirke svært mange aspekter ved livene våre fremover.

– Det er viktig for utviklingen av KI at hele befolkningen er med, ikke bare halve. Utviklingen innebærer at vi må ta stilling til mange etiske spørsmål. Jeg tror dette er noe kvinner er både engasjerte i, og interesserte i å delta i, mener Glad. Kvinner kan ha andre innfallsvinkler, andre behov, og kanskje andre verdier og talenter.

Håper på en Inga-effekt

Glad er optimist med tanke på fremtiden, til tross for at det er anslått at det kun er syv prosent av programmererne som er kvinner på verdensbasis. Glad forteller at 80 prosent av artiklene som handler om forskning på KI kun har mannlige forfattere. Likevel håper hun flere kvinner vil engasjere seg i KI fremover.

Leder for NORA (Norwegian Artificial Intelligence Research Consortium), Klas Pettersen, deler Glads tanker og legger til:

– Dersom kunstig intelligens blir for mannsdominert påvirker det arbeidsmiljøet. Da kan vi gå glipp av mange talenter.

Som leder skal man være oppmerksom på at det kan bli guttastemning.

Klas Pettersen

– Da blir det også vanskelig å rekruttere kvinner. Heldigvis har vi noen gode rollemodeller, slik som Ingrid Glad og Inga Strümke. Vi håper å se en Inga-effekt på rekruttering til KI-feltet, sier Pettersen og viser til at fysiker Inga Strümke har utmerket seg som formidler om KI. 

Brogramming – internett er laget av menn

– Det er et problem i tekbransjen at den er dominert av menn. I miljøet kalles dette dels humoristisk, og dels kritisk, for brogramming. Altså programvareutvikling sterkt preget av stereotypiske maskuline normer. Store språkmodeller, som Gemini fra Google og ChatGPT fra Open AI, baserer seg på data hentet fra internett slik som nettleksikonet Wikipedia. Dette innholdet er stort sett laget, og skrevet, av hvite menn. Det er anslått at kun ti prosent av innholdet på Wikipedia er skrevet av kvinner. Og, dersom det er skjevheter i inndata, så vil du få skjevheter i utdata, sier professor i medieinnovasjon, Petter Bae Brandtzæg ved Universitetet i Oslo.

For å illustrere poenget forteller Brandtzæg om en chatbot utviklet av Microsoft i 2016. Den skulle læres opp med data fra Twitter. Tanken var å lage en chatbot som jenter kunne snakke med. I løpet av 16 timer med trening på Twitter ble den en kvinnehater som sa «I hate feminists».

– Dette ble hetende Tays lov: Shit in og shit out, som det heter, sier Brandtzæg.

Modellene er trent på historiske data og fanger ikke alltid opp at samfunnet endrer seg

Brandtzæg mener at det er en utfordring for språkmodellene at de ikke alltid tar opp i seg at samfunnet endrer seg. Språkmodellene er i stor grad  trent opp på historiske data. Da vil også disse KI-modellen i liten grad ta opp i seg nye samfunnsbevegelser som metoo eller blacklivesmatter. Et annet eksempel er at det tittelen «helsesykepleier» historisk har vært en kvinnerolle, og at språkmodeller ikke nødvendigvis kobler at «sykepleier» er kjønnsnøytralt.

– Det man jobber med nå er finjustering av modellene slik at de ikke har slike skjevheter. Vi er langt ifra fri for skjevhetene ennå, men jeg tror at vi kan komme dit. Det skjer mye positivt i modellene, også skal vi huske at også mennesker og samfunnet har kjønnsstereotypier. I fremtiden kan kanskje algoritmene bli mer balanserte enn oss mennesker, sier Brandtzæg.

Pettersen forteller at det nylig har gått motsatt vei: Googles bildegenerator ble beskyldt for å gå for langt i den andre retningen:

– Algoritmene vil i utgangspunktet generere et bilde av en lege som en mannlig lege hvis vi ikke gjør noe med det. Så forsøker man å rette opp i skjevheten ved å påtvinge algoritmen til å vise bilder av kvinner og forskjellige etnisiteter. Det kan få litt absurde konsekvenser, sier Pettersen.

Kan kunstig intelligens bli for «woke»?

Da google hadde lagt til inkludering, gav bildegeneratoren blant annet mørkhudete, kvinnelige paver.

– Det viser urealistiske historiske begivenheter og det gjør at algoritmene blir dårlige. Dette skjer fordi datagrunnlaget er skjevt, og også fordi vi har en lang historie med å være et diskriminerende samfunn, sier Pettersen.

Google blir anklaget for å være woke. Dette er en kulturkamp som foregår, særlig i USA.

Klas Pettersen 

Likevel er han optimistisk med tanke på den kunstige intelligensen:

– Datagrunnlaget viser en historisk skjevhet eller diskriminering, men diskriminering kan også ligge i underbevisstheten til en offentlig saksbehandler. Det er lettere å gjøre noe med diskriminering i KI enn i hodet til en saksbehandler, sier Pettersen. Diskrimineringen vi ser i KI er det som har vært. Et annet spørsmål er hvordan samfunnet skal bli. KI kan bidra til å avdekke denne diskrimineringen.

Ulike språkmodeller for ulike politiske holdninger

Brandtzæg forklarer at dette er en pågående debatt, særlig på plattformen X og i USA. Hva KI-modellen representerer er blitt en kamp om både politikk og ytringsfrihet.

– Mange mener ChatGPT ikke er nøytral, men venstrevridd og woke og at normene presenterer venstre liberale verdier i amerikansk politikk, forklarer han. 

Ifølge ham har gründeren Elon Musk derfor satset på å lage en språkmodell som skal være mer høyreorientert.

I dette bildet blir KI brukt politisk. Det blir en krig mellom ulike KI-modeller om hvilke verdier og ytringer som skal dominere.

Petter Bae Brandtzæg

Han har blant annet vært kritisk til at ChatGPT er tatt inn i skolene i Oslo:

– Barn  må ha lese og skriveferdigheten på plass før de kan håndtere slike mektige KI-verktøy. ChatGPT er knapt ett år gammelt. Vi vet ikke alt om fordeler og ulemper, og det er mange fallgruver. Det er en stor ulempe at vi lener oss på kommersielle aktører i USA, uten å ha kontroll på hva slags data som er i modellene. Det er dessuten store etiske utfordringer knyttet til opphavsrett og feilinformasjon og et normsett i dataene og algoritmene som verken gjenspeiler norsk kultur eller normer, sier Brandtzæg.

Samtaleroboter oppleves tryggere enn mennesker

På et område forteller Brandtzæg at samtaleroboter som ChatGPT kan ha en fordel fremfor mennesker: De kan oppleves tryggere i situasjoner hvor man trenger hjelp knyttet til  mental helse. Han forteller at studier viser at ChatGPT ofte er flinkere til å tolke emosjoner enn mennesker, og derfor kan gi mer balanserte råd. Forskning viser at  at unge opplever seg mer sett og hørt av ChatGPT enn av fageksperter.   

– Samtaleroboter innenfor mental helse kan av mange oppleves tryggere å snakke med enn et menneske, fordi de ikke har fordommer knyttet til om du har langt hår eller skinnjakke, eller sliter med ting du skammer deg over, sier Brandtzæg.

Skjevheter i kunstig intelligens rammer dem som allerede er utsatt

Samtaleroboter som «hater feminister», eller bildegeneratorer som kun gir deg kvinnelige sykepleiere er ikke det største problemet med kunstig intelligens.

– Feil bruk av kunstig intelligens i offentlig sektor kan få store skadevirkninger. Det rammer ofte dem som allerede er utsatt, sier professor i digital innovasjon, Margunn Aanestad ved Universitetet i Oslo.

Hun har flere eksempler på at kunstig intelligens har fått negative samfunnskonsekvenser.

– I Nederland ble KI tatt i bruk for å oppdage svindel med velferdsordninger. De ville flagge risikokandidater for trygdesvindel. En kombinasjon av design og hvilke parametre som ble lagt inn, slik som etnisitet, gjorde at 25-30.000 mennesker ble feilaktig merket som trygdemisbrukere, forteller Aanestad.

Hun forteller at det finnes mye forskning på hvordan kunstig intelligens tas i bruk. Selv har hun et prosjekt hvor hun følger Helfos prosess med å ta i bruk KI.

Offentlig sektor må være forsiktige – men ikke for forsiktige

– Offentlig sektor bør være forsiktig, men ikke altfor forsiktig heller. Man må finne de områdene der det er potensiale for å gjøre ting mer effektivt enn man gjør i dag, forklarer hun. Jeg har vært imponert over Helfo med tanke på at det er en grundig prosess for å se på det juridiske handlingsrommet de har og kritisk vurdere hva de egentlig får ut av modellene, sier hun.

Selv om det er utfordringer og fallgruver knyttet til KI, er det likevel enighet blant de fire: KI er kommet for å bli, og det vil endre samfunnet vårt. Å ikke ta i bruk et så potensielt godt verktøy vil ikke være et samfunnsgode, men det må brukes med omhu, og det bør være et mangfold blant dem som utvikler og påvirker utviklingen.

Emneord: Informatikk, Matematikk