UTVIKLING: Det er sant at kunstig intelligens i form av maskinlæring har hatt en utrolig utvikling de siste årene. Men det er først og fremst på grunn av tilgang til mer data og mer regnekraft, ikke en revolusjonerende utvikling av metoder. (Foto: Bjørn Rosvoll)

iHuman og kunstig intelligens – en virkelighetsorientering

AGI er fortsatt science fiction, skriver Lillian Smestad.

Publisert Sist oppdatert

Dokumentarthrilleren iHuman adresserer, blant flere andre ting, en av de største teknologiske revolusjonene noensinne; kunstig intelligens. Den fokuserer på AGI – Artificial General Intelligence, en kunstig intelligens med mental kapasitet et menneske fullverdig, og filmen advarer i tydelig ordelag om en dyster fremtid. For meg som data scientist, som jobber med kunstig intelligens hver dag, må jeg si den tegner et bilde som er fjernt fra min og mine kollegaers hverdag.

La det være sagt først som sist. Vi har ikke AGI i dag, og vi er ikke i nærheten av å utvikle det. Det vi opererer med er altså «snever kunstig intelligens», som er spesialdesignet for en spesifikk oppgave – styrken til AI er å automatisere det ubeskrivelige. Kanskje er det misvisende å i det hele tatt snakke om intelligens – vi som jobber med dette foretrekker begrepet maskinlæring, som er det som gjerne menes når man bruker begrepet AI. Det er denne teknologien som gjør at du kan låse opp smarttelefonen din ved å vise den ansiktet ditt, som sorterer vekk søppelpost, som foreslår den perfekte fredagsfilmen på Netflix for deg, for å nevne noe.

Det er sant at kunstig intelligens i form av maskinlæring har hatt en utrolig utvikling de siste årene. Men det er først og fremst på grunn av tilgang til mer data og mer regnekraft, ikke en revolusjonerende utvikling av metoder. Til tross for en tilsynelatende enorm utvikling er vi fortsatt langt unna maskiner som kan tenke, langt unna en teknologi som har noe som minner om intelligens – AGI er fortsatt science fiction. Vi vet jo ikke en gang hva intelligens er, så hvordan skal vi klare å programmere det inn i en maskin?

Vi trenger ikke mer frykt, vi trenger kunnskap

Når det er sagt, så bidrar iHuman til å sette problematisk bruk av teknologi og kunstig intelligens på dagsordenen – og jeg er takknemlig for at den gjør det. Med sitt format når den flere enn det en stortingsmelding gjør og snakker til et bredere publikum. Men jeg stiller meg tvilende til om den gjør det på en konstruktiv måte.

Filmen tar i bruk sterkt emosjonelle virkemidler; effekter som opprørende visualiseringer og skrekkfilmliknende musikk når den forteller sin historie. Dette er et bevisst valg fra regissørens side, for at filmen skal ryste folket, og spesielt vekke ungdommen. Den spiller helt klart på frykt, ja, tenderer mot propaganda. Jeg tenker: vi trenger ikke mer frykt, vi trenger kunnskap. Oppfordrer filmen egentlig til å skaffe seg kunnskap? Dersom alt man oppnår er at publikum blir skremt og føler seg maktesløse etter å ha sett denne filmen, er den en bjørnetjeneste. Hvis den derimot engasjerer, gjør folk mer bevisste, og baner vei for samfunnsdebatt rundt dette viktige temaet, har vi kommet videre. 

Fremgangsmåten og midlene filmen benytter seg av kan diskuteres, men det er tydelig at filmens visjon er et uttalt ønske om å forsikre oss om at vi utvikler en teknologi som ivaretar menneskets beste – og det støtter jeg meg helhjertet til. Det er bedre å være føre var, sånn at vi er forberedt når det blir brennaktuelt. Vi har så lite å tape, og enormt å vinne.

Pussig nok var det ingen slik type diskusjon når internett først kom, eller når smartelefonene ble lansert – og som de teknologiene har endret livene våre!

Ubalansert fremstilling

Filmen har som uttalt agenda å sette problematisk bruk av kunstig intelligens på dagsordenen. Den tar altså ikke for seg AI som teknologi og veier de positive og negative sidene opp mot hverandre. Joda, den nevner i meget korte åndedrag store globale utfordringer AI kan hjelpe til med å løse, men iHuman konsentrerer seg nærmest utelukkende på farene. Dette er altså ikke en balansert fremstilling.

Filmen handler til stor grad om teknologigigantene. Blir vi manipulert av dem? Det er det liten tvil om. Dette er dypt bekymringsverdig. Folk flest trenger nok denne vekkeren for å innse hva deres digitale fotavtrykk kan brukes til. Hver og en må tenke over hvilken persondata en deler, for eksempel ved å gi blank aksept til alle plagsomme bokser som dukker opp på nettsider, og vite hva bruksadferden din på sosiale medier blir brukt til. Dette handler dog i sin kjerne ikke om AI direkte. Heller om at vi gir personlige data til gigantselskaper, og hva vi tillater at de gjør med den. Vi gir dem alle rettigheter, og det bruker de flittig. Vi er kunden og produktet.

Fordomsfulle algoritmer

Noe helt vesentlig filmen tar opp er problematisk bruk av algoritmer i dagens samfunn, gitt teknologi vi har tilgjengelig nå. Selv om AGI ikke eksisterer, finnes allerede AI-teknologi som kan gjøre skade. Til tross for at algoritmene ikke nødvendigvis gjør en bedre jobb enn et menneske, så gir skalerbarheten og hastigheten muligheten til å sette forskjellsbehandling i system på en helt annen måte enn før. Det finnes allerede algoritmer som med ikke ubetydelig presisjon kan avgjøre en persons politisk tilhørighet, sinnsstemning, personlighetstrekk og liknende. Det er mange bekymringsverdige anvendelser en kan tenke seg gitt denne informasjonen. Hvordan kan denne teknologien brukes, hva aksepterer vi ikke at det brukes til? Dette er ting vi må ta stilling til. Vi må si hva slags samfunn vi ønsker oss.

En fare er også aktører som tar i bruk algoritmer uten grundig kvalitetskontroll, og blindt stoler på at de gjør det de er ment å gjøre på en etisk måte. For det er fort gjort at den gjør det vi ba den om, men ikke det vi egentlig ville.

Dette viste seg i et eksempel fra Amazon, som prøvde bygge en algoritme som kunne gjøre ansettelsesprosessene deres mer effektive. Algoritmen skulle filtrere ut gode jobbsøknader. Amazon er godt kjent med teknologi som kunstig intelligens og bygger mye med slike systemer integrert. De er godt bevandret, ingen noviser. I utviklingen av algoritmen hadde de tatt kjønn ut av likningen – det vil si, de hadde tatt en eksplisitt definisjon ut av likningen. Algoritmen ble ikke matet med kjønn eller navn. Men AI automatiserer det som vanskelig lar seg beskrive og finner korrelasjoner som er langt fra rett frem. Altså fant algoritmen ut at menn og kvinner ordlegger seg forskjellig i jobbsøknader, og at denne ordbruken historisk sett var meget god for å forutsi hvem som ble tilbudt en jobb. Den foretrakk ord som menn typisk brukte i sine jobbsøknader, dermed ville menn blitt prioritert ovenfor kvinner.

Eksempelet belyser at vi ikke kommer unna menneskelige fordommer som eksisterer i datagrunnlaget. Om mennesker har vært fordomsfulle, og vi bruker denne dataen til å trene en algoritme, vil algoritmen reprodusere forskjellsbehandlingen. Dette kan vi også anse som en gyllen mulighet. Forskjellsbehandling blir tydeliggjort, slik at vi er nødt til å ta stilling til den. En algoritme lærer tross alt bare mønstrene som var i dataene vi gav den. Gjennom algoritmene møter vi oss selv i døra. Utover bevisstgjøringen, er det en gyllen mulighet fordi det er lettere å endre en algoritme enn det er å endre menneskers holdninger.

Hvem har ansvaret?

Vi må være oppmerksomme på fallgruvene. Vi må sørge for at datasettene vi bruker til å trene algoritmene er representative. Dette er en del av vårt ansvar som utviklere av kunstig intelligens, og noe jeg merker en arbeidsplass som Inmeta tar på alvor.

Eksempelvis har vi avvist et maskinlæringsprosjekt hos en stor kunde, fordi det viste seg i våre undersøkelser at datagrunnlaget var skjevt og løsningen dermed ikke kunne bli god – noe vi beskrev til kunden i en 60 sider lang rapport, hvor vi også gjorde rede for hvilke prosessendringer de bør gjøre for å bekjempe skjevhet. Beslutningstakere og innkjøpere av kunstig intelligens må også ta sin del av ansvaret. Det finnes ingen snarvei til å utvikle solid teknologi, det tar tid.

Til syvende og sist hviler ansvaret på staten. Det er staten som må regulere, som den gjør med regelverk på andre fronter. Nå kommer internasjonale og nasjonale strategier for kunstig intelligens på banen med retningslinjer for hvordan teknologien kan og bør utvikles. Dette er viktig, fordi vi vil unngå scenarioer som i Kina – der de tester å benytte ansiktsgjenkjenning fritt i det offentlige rom. Algoritmer i videokameraer identifiserer folk som krysser gaten på rødt lys og trekker de i sosiale poeng, som brukes for tilgang til ulike offentlige tjenester. Overvåkingssamfunn; storebror ser deg.

Ja, AI blir brukt og muliggjør ting som ellers ikke ville vært mulig, men til syvende og sist handler dette ikke så mye om AI i seg selv, men om hvilken type samfunn vi vil ønsker oss. Vi må definere hva vi syns er greit og ikke.

Vi sover ikke ved rattet

Et sitat fra filmen lyder: «Det vi ser nå er som et tog på full fart nedover en mørk tunnel – og det virker som om vi sover ved rattet». Har vi det? Nei, det vil jeg ikke si – men tiden for å ta stilling til dette, den er nå. Det argumenteres i filmen for at kunstig intelligens er en ustoppelig styrke – og det sier jeg meg enig i. Kunstig intelligens har potensiale til å være et ekstremt nyttig verktøy. Og helt på lik linje med annen teknologi som har blitt introdusert: så lenge den gir store nok fordeler og effektiviserer livene våre, kommer det til å veie tyngre enn de etiske konsekvensene i startfasen. Vi modnes med teknologi, vi tråkker feil, og vi lærer av det. Samfunnets evne til å regulere inntrer tross alt ikke før det oppstår et problem. Ethvert verktøy kan også brukes som et våpen. Det er opp til oss.

La meg avslutningsvis dra denne metaforen om å sovne bak rattet litt videre: er vi egentlig klar over hva slags fartøy vi befinner oss i? Med «vi» mener jeg et inkluderende vi. Når suksessen til kunstig intelligens får såpass stor innvirkning på samfunnet, tenker jeg at noe av det viktigste nå er en folkeopplysning. Desto flere som har en idé om hva kunstig intelligens er, hva den kan brukes til og hva den ikke er god på, desto bedre. Vi må få en felles eierskapsfølelse til dette nye verktøyet som har kommet for å bli. Våre avgjørelser må være basert på kunnskap. Vi må ha en diskusjon om bruken av teknologi – det dreier seg om vår fremtid. Den bygger vi sammen.