Kent-Andre Mardal

Kent-Andre Mardal skal sørge for at kunstig intelligens ikke lenger lar seg lure. I dag kan den tro at et bilde av en panda er et bilde av en apekatt hvis man legger på et, for oss, usynlig støyfilter. Foto: Yngve Vogt. Illustrasjon: Hanne Utigard

Manipulering og hemmelighetskremmeri kan ødelegge kunstig intelligens

Det er lett å lure kunstig intelligens, for eksempel ved å legge ekstra informasjon i et bilde. Ny matematikk skal avsløre hvordan den kunstige intelligensen tar beslutningene sine.

Av Yngve Vogt, Wenche Willoch
Publisert 6. nov. 2019

Et av de store problemene med kunstig intelligens er at den ikke gir noen som helst forklaringer på konklusjonene sine. Du kan sammenligne dette hemmelighetskremmeriet med en mystisk og uhåndgripelig svart boks som ingen kommer på innsiden av.

Et klassisk problem med kunstig intelligens er når kreftlegen i fremtiden skal bruke den nye teknologien til å dobbeltsjekke en diagnose. Hvis legen er overbevist om at pasienten er frisk, kan det bli et stort dilemma om teknologien mener nøyaktig det motsatte. Hvem skal kreftlegen tro på – seg selv eller den kunstige intelligensen? Uansett hva legen bestemmer seg for, kan konsekvensene bli alvorlige hvis pasienten får feil behandling.

Professor Kent-Andre Mardal på Matematisk institutt ved UiO skal nå, i samarbeid med sju andre forskere, utvikle helt ny matematikk for å avsløre hvordan den kunstige intelligensen tar beslutningene sine. Den nye matematikken deres skal gjøre det mulig for kreftlegen, og alle oss andre, å vurdere hvem som har rett: den menneskelige hjernen eller den kunstige intelligensen.

Manipulasjon

Den samme matematikken skal også kunne brukes til å løse et annet stort problem. I dag er det uheldigvis mulig å manipulere den kunstige intelligensen slik at den kommer med fullstendig gale svar.

Et eksempel er når kunstig intelligens brukes til å gjenkjenne dyr på bilder. Tenk deg at du har et bilde av en panda. Da kan programvaren med stor sannsynlighet slå fast at dyret på bildet nettopp er en panda. Men hvis du legger et støyfilter oppå bildet, vil den kunstige intelligensen gå bananas og kanskje hevde at pandaen er en apekatt.

Sykkel eller grønn strek?
Ved hjelp av disse bildene skal du lære ordet «sykkel» på et fremmed språk. Men hva om du tror ordet betyr «grønn strek»? Foto: Eivind Torgersen/UiO.

Forklaringen på dette fenomenet er at kunstig intelligens trenes opp til å tolke en mengde bilder av pandaer og andre dyr ved ene og alene å ta hensyn til hver av de enkelte pikslene, altså bildepunktene, i alle bildene. Jo flere bilder maskinen trenes til å gjenkjenne, desto sikrere kan den slå fast hvilket dyr som er avbildet. Problemet er at maskinen ikke er trent opp til å tolke bilder på samme måte som oss mennesker.

Støyfilteret gjør at en del av pikslene blir annerledes selv om bildene ser helt like ut for oss. Mens støyen er usynlig for oss mennesker, trigger den datamaskinen til å ta feil avgjørelser.

Støyen kan også være synlig, men forvirrende, det er ikke sikkert den kunstige intelligensen forstår sykkel som fremkomstmiddelet med to hjul på bildet til venstre når det også er annen informasjon som går igjen hver gang. Sykkel kan like gjerne bety den grønne streken. Les mer om dette her: Når skal kunstig intelligens bli gunstig intelligens?

Hacking

Du lurer kanskje på hvorfor noen skulle finne på å legge støy på bilder? Det lille og for oss usynlige støylaget kan ødelegge mye for samfunnet. Det virker da totalt unødig?

– Støy på bilder kan brukes med ondsinnet hensikt, sier Mardal.

Mulighetene er bedrøvelig mange. Tenk deg et samfunn der selvkjørende biler er hacket til å misforstå omgivelsene sine. Rent teoretisk er det mulig å legge støyfilter på bilskilt, slik at de automatiske bomstasjonene ikke oppdager bilnummeret. Hvis du klistrer gaffatape på en helt spesiell måte på et stoppskilt, kan dataprogrammet uheldigvis tolke forbudsskiltet som et fartsgrenseskilt.

– Vi kan ikke ha biler som oppfører seg galt og i verste fall forveksler en person i veien med litt tåke. Ved å lure systemet kan den kunstige intelligensen gjøre feil som er helt unaturlige for oss mennesker å gjøre. Hvis ingen makter å hindre dette, kan vi bare glemme slike ting som selvkjørende biler. Selv om den kunstige intelligensen er trent opp og i snitt konkluderer bedre enn vi mennesker gjør, har den grunnleggende problemer som vi mennesker ikke har tenkt på og som tilsynelatende kan dukke opp helt ut av det blå, påpeker Mardal.

Ny matematikk

Han poengterer at det både er viktig å kunne garantere at den kunstige intelligensen tolker rett og at det skal være mulig å forstå hvordan den har kommet frem til konklusjonene sine.

Det han skal gjøre helt spesifikt, og her er det lurt for deg, kjære leser, å rette deg opp i ryggen, for den neste setningen er overhodet ikke av det enkle slaget: Mardal skal bruke konsepter fra elementmetoden, en kjær metode for dem som ånder for å løse partielle diffensialligninger, som kort fortalt er den matematiske beskrivelsen av fysiske prosesser.

– Den samme teknikken skal vi bruke til å analysere hvor robuste algoritmene i kunstig intelligens er. Vi ønsker at det ikke skal bli mulig å lure systemet samtidig som vi vil avsløre innholdet i den svarte boksen. Poenget er å kunne forstå strukturene i den svarte boksen matematisk.

Den nye matematikken skal med andre ord brukes til å sikre at svarene fra kunstig intelligens, med størst mulig sannsynlighet, blir korrekte. Kent-Andre Mardal mener at de matematiske utfordringene med kunstig intelligens er svært viktige for allmennheten:

– Dette er den mest tidsriktige anvendelsen av matematikk i dag.

Demens

Den matematiske forskningen er støttet med 16 millioner kroner av IKT Pluss, som er en av Forskningsrådets store satsinger. Et av de store problemene som Mardal skal løse gjennom denne satsingen, i samarbeid med Oslo universitetssykehus, er å bruke kunstig intelligens til å diagnostisere demens.

Mens vi er våkne samles det i løpet av dagen en del giftstoffer i hjernen. Hjernen renses når man sover. Rensefunksjonen er dessverre dårligere hos demente.

Kunstig intelligens skal brukes til å slå fast om en person har demens ved å se på hvordan hjernen blir renset. For å klare dette blir den kunstige intelligensen trent opp på et testmateriale. Det består av en serie MR-bilder av 100 pasienter. Her har alle pasientene fått kontrastvæske. Så er det tatt ti runder med MR-bilder av hjernen i løpet av 48 timer.

Ved å trene opp den kunstige intelligensen, der de sammenligner endringene i hjernen hos pasienter med og uten demens, håper forskerne at denne metoden i fremtiden både kan brukes til å diagnostisere demens og slå fast hvor langt demensen er kommet.

Per Kristian Eide, professor ved Universitetet i Oslo og hjernekirurg på Oslo universitetssykehus, poengterer at samarbeidet med matematikerne gir ny og verdifull kunnskap.

– Den nye metoden kan, sammen med bildediagnostikk, brukes til å undersøke hvor godt stoffer skilles ut av hjernen hos mennesker. I neste omgang kan dette gi informasjon om personer er i faresonen for å utvikle demens, bekrefter Per Kristian Eide.

Artikkelen ble først publisert i Apollon

Emneord: AI