OPPSIKTSVEKKENDE: Resultatene fra Ole-Christoffer Granmos forskning innen maskinlæring på CAIR ved Universitetet i Agder, viser at det er mulig å slå nevrale nettverk med langt enklere metoder. (Foto: Universitetet i Agder)

OPPSIKTSVEKKENDE: Resultatene fra Ole-Christoffer Granmos forskning innen maskinlæring på CAIR ved Universitetet i Agder, viser at det er mulig å slå nevrale nettverk med langt enklere metoder. (Foto: Universitetet i Agder)

AI-gjennombrudd i Agder

CAIR – Centre for Artificial Intelligence Research – ved Universitetet i Agder feiret ettårsdagen sin med å lansere oppsiktsvekkende forskningsresultater.

Den 22. mars feiret forskningssenteret CAIR – Centre for Artificial Intelligence Research – ved Universitetet i Agder sin ettårsdag. Dette første året har vært preget av raskt voksende aktivitet, og senteret har gått fra å huse 14 forskere til 22. I tillegg er fem forskere til i ferd med å ansettes på senteret.

På årsdagen for etableringen av senteret feiret CAIR seg selv med å presentere en del av arbeidet som har blitt gjort det siste året, ved å vise AI-anvendelser blant annet innen helse, chatboter og kraftproduksjon. Til sist kunngjorde direktøren ved CAIR, professor Ole-Christoffer Granmo, resultater av sin egen forskning det siste året.

Denne forskningen er svært oppsiktsvekkende, og Granmo karakteriserer den selv som «et stort gjennombrudd», som representerer et stort fremskritt på området.

Slår nevrale nettverk

Algoritmene som Granmo har utviklet viser seg å gi bedre resultater enn alle de klassiske maskinlæringsalgoritmene. Selv de komplekse nevrale nettverkene, som de fleste av de store gjennombruddene for kunstig intelligens de siste få årene er basert på, kommer til kort mot Granmos oppdagelse, som han kaller «Tsetlin-maskinen».

Denne algoritmen mener Granmo vil bli et nytt verktøy innen en rekke AI-disipliner, som kunstig språk, bildetolkning, gjenkjenning av mønstre, resonnering, planlegging og diagnostikk.

Samtidig er denne nye teknikken adskillig enklere enn for eksempel nevrale nettverk, og mer egnet for datamaskinene som kjører den. Det gjør løsningen både raskere og mer presis enn tidligere algoritmer.

Tsetlin-maskinen

Oppdagelsen til Granmo består av to deler. Den første delen er basert på forskning fra 1950-tallet, gjort i daværende Sovjetunionen. Der studerte matematikeren og fysikeren Michael Lvovitch Tsetlin hvordan biologiske systemer lærer, og hvordan modellere dette matematisk.

Tsetlin studerte hvordan rotter lærte veien i labyrinter, der en ostebit i den ene retningen er premien for å lære seg veien. Dette formulerte Tsetlin i en såre enkel modell, som Granmo har overført til datamaskinvennlig null og en.

I tillegg har Granmo koblet inn setningslogikk, som har sin opprinnelse fra antikkens filosofi, og som ble brukt i datidens vitenskap og filosofi for å formulere logiske utsagn og mer kompliserte logiske setninger.

– Dette er et verktøy mennesket kan bruke til å lage presise resonnementer og utvikle argumentasjon, og det handler om kunnskapsmodellering. Dette er et ekstremt kraftfullt språk, sa Granmo under presentasjonen sin.

Setningslogikk lar seg direkte overføre til de grunnleggende kombinatoriske kretsene som datamaskiner er bygd opp av, med logiske porter for Og, Eller,og Ikke-operasjoner. Dermed vil den boolske algebraen som finnes i setningslogikken direkte la seg implementere i datamaskinen.

Når vi kombinerer tusenvis av «rottehjerner» som hver tar én beslutning, med setningslogikk i form av boolsk algebra, så har vi det Granmo omtaler som en Tsetlin-maskin.

Neste steg

Jobben til Granmo er slett ikke over med denne lanseringen. Han må både gjøre funnene kjent, i tillegg til å forske videre på algoritmene sine. Dagens resultater skal Granmo både publisere på nettsiden for dette, Arxiv.org som drives av anerkjente Cornell University, i tillegg til at han vurderer hvilke vitenskapelige tidsskrifter som også skal publisere rapporten hans.

Deretter skal Granmo jobbe videre med Tsetlin-maskinen. Det neste skrittet er å lage en «dyp Tsetlin-maskin», altså at det skal ligge mange lag av Tsetlin-maskiner oppå hverandre, tilsvarende det vi ser i dype nevrale nettverk.  

– Nå har jeg slått byggesteinen i dyp læring, altså det nevrale nettverket. Det er stort, det er ikke noe som skjer ofte. Jeg vet ikke om noen andre som har slått det på den måten. Hvis jeg klarer å ta det neste skrittet og få dyp læring, så er det et virkelig stort gjennombrudd. Det betyr at da vil dyp læring slik vi har den i dag, bli gammeldags over natten, forklarer Granmo for Computerworld.

­– Men så stort skritt har vi ikke tatt nå, nå har vi tatt det første skrittet, fastslår professor Ole-Christoffer Granmo, leder for CAIR-senteret ved Universitetet i Agder.

forskning