ØNSKER KONTROLL: «Å dempe utryddelsesrisikoen fra AI bør være en global prioritet ved siden av andre samfunnsmessige risikoer som pandemier og atomkrig», lyder setningen som over 200 eksperter og bransjefolk stiller seg bak. (Foto: Istock)

Ekspert-opprop: Kunstig intelligens utgjør eksistensiell trussel

Verdens ledere bør sørge for å redusere risikoen for utryddelse som følge av kunstig intelligens (AI), mener en gruppe ledere og teknologieksperter.

Oppropet består av kun én setning og ble tirsdag publisert på nettsiden til den ideelle organisasjonen Center for AI Safety.

«Å dempe utryddelsesrisikoen fra AI bør være en global prioritet ved siden av andre samfunnsmessige risikoer som pandemier og atomkrig», lyder setningen som over 200 eksperter og bransjefolk stiller seg bak.

Ifølge Center for AI Safety er målet med oppropet å innlede en diskusjon om teknologiens farer. Det står ingenting konkret om hva de mener er utryddelsestruet.

Blant dem som har signert, er Sam Altman, toppsjefen i selskapet OpenAI som skapte skriveroboten ChatGPT, som ved hjelp av svært lite informasjon kan lage lange tekster om nærmest hvilket som helst tema.

Frykter tap av kontroll

En annen som stiller seg bak oppropet, er Geoffrey Hinton, professor emeritus i datateknologi. Han utviklet deler av teknologien som danner grunnlaget for AI-systemer, og er kjent som en av bransjens «gudfedre».

Med på listen er også titalls akademikere, samt spesialister fra selskaper som Google og Microsoft - som begge leder an i utviklingen av AI.

Ekspertenes fremste bekymring er knyttet til at maskinene skal kunne utføre et så bredt Spekter av aktiviteter at de blir i stand til å utvikle sin egen programmering.

I så fall mener enkelte at mennesket kan miste kontrollen over superintelligente maskiner, og at dette kan få katastrofale følger for artene og planeten.

Men en mer nærliggende fare er at skriveroboter kan komme til å oversvømme nettet med desinformasjon, at tendensiøse algoritmer kan spy ut rasistisk innhold, eller at AI-drevet automatisering kan utradere millioner av arbeidsplasser.

Musk krevde pause

Oppropet ble publisert to måneder etter at Tesla-sjefen Elon Musk og hundrevis av andre publiserte et åpent brev der de ba om en pause i utviklingen av AI-teknologi inntil man er sikker på at den er trygg. Brevet vakte imidlertid omfattende kritikk fra de som mente at advarselen om en samfunnskollaps var sterkt overdrevet.

Den amerikanske akademikeren Emily Bender, som sammen med flere andre har forfattet en innflytelsesrik AI-kritisk artikkel, mente at oppropet hausset opp AI og ble laget for å skape blest om utviklingen.

Hun og flere andre kritikere har refset AI-selskaper for å nekte å offentliggjøre kildene for sine data eller røpe hvordan de er framskaffet – noe som gjerne blir omtalt som et «svart boks»-problem.

Hvis noe går galt med AI, kommer ingen gassmasker til å hjelpe deg.

Sam Altman, Open AI

Altman, som for tiden reiser rundt i verden i et forsøk på å skape en verdensomspennende debatt rundt AI, har flere ganger hintet om at teknologien som hans eget selskap har utviklet, utgjør en global trussel.

– Hvis noe går galt med AI, kommer ingen gassmasker til å hjelpe deg, sa han til en gruppe journalister i Paris fredag.

Men han forsvarer fortsatt selskapets beslutning om ikke å offentliggjøre kildedata.

(©NTB)