Tønnes Nygaard

– Roboten gikk som en full mann på vei hjem fra byen, forteller Tønnes Nygaard om da han skulle lære roboten å gå. Men den lærte lynraskt. Foto: Gunhild M. Haugnes/UiO

Nå kommer robotene som lærer som et menneske

Å klippe plenen er bare starten på robot-revolusjonen

Av Gunhild M. Haugnes
Publisert 11. okt. 2016

Doktorgradsstipendiat Tønnes Nygaard leker med en firebent robot inne på en av lab-ene ved Institutt for informatikk.

Motoren og sensorene på roboten er kjøpt inn, men delene har han og kollegene laget selv – enten i en 3D-printer eller på et verksted.

EPEC

Dette er en del av prosjektet EPEC (Engineering Predictability with Embodied Cognition).

EPEC er støttet av Forskningsrådet gjennom FRINATEK-ordningen.

– Ved hjelp av denne roboten håper vi å bygge en robust og fleksibel plattform som kan brukes til eksperimenter – hvor vi tester ut en rekke oppgaver i hverdagen, ikke minst innen eldreomsorg, sier han.

Skal forstå hva den gjør

Målet er at den gjennom sensorene og algoritmene som utvikles skal kunne forstå at det den gjør påvirker verden rundt.

– Hvis den for eksempel dytter et glass, så vil det velte. Eller hvis den dytter en dør så vil den åpne seg, sier Nygaard.

Menneskene er overlegne robotene når det gjelder å se, høre og på annet vis sanse det som skjer og samtidig kombinere dette med innlært kunnskap. På den måten kan mennesker utføre kloke handlinger basert på erfaring.

I EPEC-prosjektet er målet å utvikle en robot-modell som kan lære på samme måte som et menneske, ved at den selv sanser og tilpasser seg miljøet rundt seg selv og handler ut fra det.

Interessert i forskningsnyheter om realfag og teknologi? Abonner på vårt ukentlige nyhetsbrev eller følg oss på Facebook.

Tilpasse seg omgivelsene

– Hvis den brekker et bein, må den finne andre måter å bevege seg på. Den skal også kunne tilpasse seg miljøet rundt seg, som ulike typer underlag den beveger seg på og temperaturforskjeller.

Det gjør den ved å samle inn dybdeinformasjon som sensorer og laser på roboten har fanget opp om miljøet rundt roboten.

Jim Tørresen, Charles Martin, Kai Olav Ellefsen

– Vi kombinerer all denne informasjonen, deretter utvikler vi programvare som hjelper dem til å tåle mest mulig av uforutsette ting og lære av erfaringene. Det er mye data, vi klarer ikke definere alt. Men vi nærmer oss noe som er bra, smiler Nygaard.

Kroppen utvikler intelligens

Modellene er basert på et konsept om at kroppen spiller en viktig rolle når det gjelder vår egen intelligens. Dette konseptet kalles kroppslig nedfelt kognisjon, og er basert på viten fra psykologi og filosofi.

– Det handler om å sanse hvordan kroppsdeler oppfører seg og samhandler, de fungerer bra sammen  når vi er i bevegelse uten at vi tenker over det.  

– Det nye i dette prosjektet er at vi utformer atferdsmodeller samt kombinere disse med fremtidsbeskrivende systemer. Dermed har vi som mål å nøyaktig modellere atferd og forutsi fremtidige handlinger og hendelser, sier prosjektleder og professor Jim Tørresen ved Institutt for informatikk.

Skal tilpasse seg brukeren

Modellene vil bli testet i tverrfaglige miljøer innen musikk og robotikk.

  • Innen musikk handler det om å gi lytterne en mer aktiv kontroll over musikkens utvikling enn ved vanlig lytting – for eksempel ved at musikken tilpasser seg lytterens humør.
  • I robotikk, er målet å utvikle roboter som utfører koordinerte handlinger i samspill med andre roboter og mennesker.

Tørresen påpeker at målet med systemet er å utvikle en god interaksjon mellom menneske og maskin.

– Roboter og musikksystemer skal bli mer forutseende og lettere se og sanse hva en bruker ønsker seg av oppførsel til systemet. Vi er opptatt av at teknologi skal bli brukervennlig og kunne tilpasse seg den menneskelige brukeren. Paraplyen i prosjektet er kunstig intelligens, sier Tørresen.

Emneord: Informatikk, AI