HASTER: Behovet for ikke-diskriminerende, etiske og pålitelige KI-drevne systemer er viktig for en KI-basert fremtid, og det haster, mener Capgemini. (Foto: peshkov/iStockphoto)

Organisasjoner sliter med å møte utfordringene som knytter seg til kunstig intelligens

En ny rapport fra Capgemini viser at 70 prosent av kunder forventer at organisasjoner skal tilrettelegge for rettferdige og transparente interaksjoner innen kunstig intelligens.

Publisert Sist oppdatert

I den nye rapporten fra Capgemini Research Institute, “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust,” kommer det frem at forbrukere som tror at organisasjoner er fullstendig transparente omkring hvordan de bruker deres personlige data, har falt fra 76 prosent i 2019 til 62 prosent i dag.

Rapporten viser også at mange mangler en dedikert leder med ansvar for etikk og KI (kunstig intelligens). Ifølge undersøkelsen er det kun 53 prosent av organisasjonene som oppgir å ha dette.

Til tross for at rapporten likevel viser at flere organisasjoner i økende grad har en bevissthet rundt etikk og kunstig intelligens, skal implementeringen ha vært inkonsekvent. 

I 2019 rapporterte for eksempel 66 prosent ledere at de hadde tatt aktive steg mot å utvikle mål rundt «rettferdighet» i KI-systemene, sammenlignet med 65 prosent i 2020. Det skriver Capgemini i en pressemelding.

Transparens har også sunket fra 73 prosent til 59 prosent, på tross av at 58 prosent av bedrifter oppgir at de jobber aktivt med å skape bevissthet rundt utfordringer knyttet til bruk av KI blant ansatte.

-Vi ser at våre kunder har en økende bevissthet rundt den rollen KI baserte beslutninger begynner å få i samfunnet, og deres eget ansvar i dette. Kundene krever klarhet og en tydelig innsikt i hva som foregår “bak skjermene”, i tillegg til et skjerpet lovverk og regler. Tiden hvor man kan sitte på gjerdet “og se det litt an” er definitiv forbi, sier Robert Engels, CTO I&D Europe i Capgemini, i meldingen.

Etikk har blitt en forutsetning

Den amerikanske Federal Trade Commission (FTC) utstendte i starten av 2020 et krav om transparens innen KI, som sier at når et KI-aktivert system tar en negativ beslutning, bør organisasjonen vise de berørte forbrukerne de viktigste faktorene som ble brukt for å komme frem til avgjørelsen og gi dem mulighet til å endre feil informasjon.

Imidlertid viser undersøkelsen at der 73 prosent av organisasjonene globalt informerte brukerne om hvordan KI-beslutninger kan påvirke dem i 2019, ligger tallet i dag på 59 prosent.

Ifølge rapporten er dette en indikasjon på dagens omstendigheter forårsaket av COVID-19, samt samfunnsmessige og miljømessige behov, økende kompleksitet av KI-modeller og en endring i forbrukeratferd, som alle har påvirket funksjonaliteten til de eksisterende KI-modellene.

Nye faktorer, inkludert preferanser innen sikkerhet og mangel på opplæringsdata for lignende situasjoner fra fortiden, har betydd at organisasjoner redesigner systemene sine som er tilpasset den nye normalen; dette har imidlertid ført til mindre åpenhet.

- Kunstig intelligens gjentar det den ser og vil ha vanskeligheter med å være upartisk og rettferdig dersom den ikke får innspill på hvordan det kan gjøres. I dette ligger det et ansvar for hele organisasjonen å sørge for at vi gjør det vi kan for å være oppmerksomme på skjevheter og la brukere inspisere og forstå de beslutningene som tas» sier Robert Engels, CRO I&D Europe, Capgemini, i meldingen.

I rapporten står det beskrevet tydelige punkter for hvordan det må jobbe for å bygge mer robuste KI-systemer for å ivareta innbyggerne. Blant annet peker Capgemini på at vi må sørge for menneskelig tilsyn av KI-systemer og at transparenten må forbedres ved hjelp av teknologiske verktøy.

Du kan lese hele rapporten og anbefalingene her.