HASTER: Teknologien fosser fram mens arbeidet med lovgivning og etiske kjøreregler for kunstig intelligens går i krabbefart. (Foto: Istock)

Kunstig intelligens kommer ikke til å vente på jussen

LEDER: En felles forståelse av hva som er etisk riktig, og hvem som skal ha ansvar for beslutninger tatt av kunstig intelligens, står åpent. Samtidig fosser teknologien frem.

Teknologiutviklingen har en lei tendens til å løpe i sirkler rundt utviklingen av lover, regler og konsensus om etikk. Siden dataalderens barndom har it-utviklingen endret samfunnet og utfordret lover og regler med jevne mellomrom. Listen er lang: Opphavsrett, datainnsamling, personvern, skatteunndragelser og anonyme pengetransaksjoner, for å nevne noe.

Denne uka kom en ny og forbedret versjon av Chatgpt. Den skal etter sigende være så god på amerikansk juss, at den har bestått juss-eksamen med svært gode resultater.

Bør vi rett og slett ta i bruk en supersmart chat-bot for å etablere etikk og juss for kunstig intelligens? Chatgpt bruker tross alt bare sekunder der vi bruker år. Den ser på alle tilgjengelige data, der vi må sette ned utvalg og ekspertgrupper, etterfulgt av forhandlinger.

Åpenbart bør ikke Chatgpt få sette etiske og juridiske grenser for seg selv, men akkurat nå trenger vi faktisk hastighet.

For vi står overfor en teknologi som er mye mer potent enn noe vi har sett tidligere. Den kunstige intelligensen gir oss ikke bare råd, den kommer til å ta beslutninger for oss. På stadig flere områder. Vi kommer til å se det i automatisering av standardsystemer, på forskjellige typer beslutningsstøtte. Det er så effektivt at det garantert vil forplante høyere og høyere i beslutningshierarkiet.

Samtidig står helt sentrale spørsmål ubesvart. Ikke minst det aller mest grunnleggende: Hvem har egentlig ansvar for en beslutning tatt av kunstig intelligens?

I tradisjonelle beslutningsprosesser bekles roller av eksperter og ansvarspersoner, som forholder seg til et dokumentert faktagrunnlag. Alt er transparent, alt kan etterprøves, ansvarsforholdene er klare.

Med kunstig intelligens er ansvarsforholdene i stor grad pulverisert eller snudd på hodet. Spiller rekkefølgen og ordlyden i spørsmålene noen rolle? Hvis datagrunnlaget er stordata på nett, hvem har ansvar for det? Kan datagrunnlaget påvirkes og manipuleres? Hvordan virker algoritmene, og hvordan foregår vekting av sannsynligheter på forskjellige stadier? Hva med de som har utviklet selve motoren? Hvordan har resultatene blitt brukt?

Det eneste som er sikkert er at den kunstige intelligensen ikke er en juridisk person i seg selv. Så den kan ikke stilles til ansvar. Selv om det faktisk er den som har tatt en beslutning.

Det skjer heldigvis ting. Både hos myndigheter og ute i forretningslivet. Alle er enige om at kunstig intelligens må være etisk. For eksempel sjefen for forskning og innovasjon i Telenor, Ieva Martinkenaite, som Computerworld snakket med tidligere i år. Eller regjeringens strategi for kunstig intelligens fra 2020. I sistnevnte står det blant annet at:

«Regjeringen vil at Norge skal gå foran i utvikling og bruk av kunstig intelligens med respekt for den enkeltes rettigheter og friheter. Kunstig intelligens i Norge skal bygge på etiske prinsipper, respekt for personvernet og god digital sikkerhet.» (Nasjonal strategi for kunstig intelligens)

Ikke minst i EU, der det pågår et arbeid med den såkalte AI Act, en lovgivning som er ment å regulere bruken. Der har medlemslandene forhandlet seg fram til en felles posisjon på en ny forordning. Den skal gi sikker og lovlig bruk av kunstig intelligens som respekterer grunnleggende rettigheter. I EU er neste skritt såkalte trilogforhandlinger. Det er uformelle møter mellom minsterrådet, Europa-parlamentet og Europa-kommisjonen, som skal skje senere i år.

Selv om dette arbeidet haster, går det uendelig mye tregere enn teknologiutviklingen. Den nye versjonen av Chatgpt viser at toget på alle måter har forlatt stasjonen. Det kommer ikke til å stoppe for å vente på jussen. EU startet sitt arbeid i 2021, og vi får bare håpe at resultatet fremdeles er relevant for tilgjengelig teknologi den dagen lovverket blir vedtatt og ratifisert i medlemslandene.

Det hjelper ikke at alle er enige om at vi må ha etisk kunstig intelligens, all den tid det ikke eksisterer konsensus om akkurat hva det innebærer. Det hjelper ikke en gang at vi er enige om hva som er uetisk hvis vi ikke er enige om hvordan overtramp skal straffes. På toppen av det hele kjenner nettet ingen landegrenser, noe som begrenser rekkevidden til et nasjonalt lovverk.

Så hvem vet – gitt at dette haster – kanskje lovgiverne i EU burde lene seg litt på den kunstige intelligensen likevel?