VERDIKJEDER: Samfunnet blir gjennomsyret av kunstig intelligente løsninger, og bak dem står lange verdikjeder av data.(Foto: Evry)

Suksess skapes gjennom forklarlig kunstig intelligens

Evnen til å forklare algoritmene bak kunstig intelligens blir avgjørende for å skape tillit og ta teknologi i bruk på nye og mer avanserte områder. Morgendagens vinnere behersker «Explainable AI». Slik knekker du koden.

Publisert Sist oppdatert

Du har nettopp sett sesongavslutningen på en bra serie på Netflix. Du er åpen for nye forslag, og tar sjansen på House of Cards «fordi du så» Orange is the New Black.

Algoritmene bak anbefalingen inneholder mer enn bare sjanger: her kommer kunstig intelligens inn i bildet.

Forstå behovet for tillit

Personalisering og skreddersydde løsninger har eksistert lenge. Men forklaringen på hvordan algoritmene har kommet frem til hva nettopp du skal eksponeres for, er gjerne mer diffuse.

Resultatet av å la kunstig intelligens og avanserte algoritmer lære på egenhånd, er såkalte «black box’er»: avanserte kodelinjer som selv utvikleren sliter med å forklare.

På samme måte som når en lege bruker symptomer til å avdekke sykdom, handler forklarlig AI om å fortelle hvorfor en AI-løsning kom frem til svaret den gjorde. Ville du trodd på en ukjent lege som kom bort til deg med beskjed om at du har fått kreft? Reaksjonen din ville sannsynligvis ha vært å finne ut hvordan legen har kommet frem til dette.

For at det skal være mulig å kunne ta i bruk AI på nye og mer avanserte måter – for eksempel innenfor medisin og helse, er det helt nødvendig å «fjerne» de sorte boksene, og omgjøre dem til transparente forklaringer.

Forstå trusselen

Analyseselskapet Gartner har utpekt «Explainable AI» (XAI) som én av årets ti viktigste trender innen dataanalyse. I november lanserte Google sitt åpne rammeverk for XAI, tre måneder etter IBM, som var først ut. Det er gode grunner til at aktørene nå utvikler slike verktøy.

Samfunnet blir gjennomsyret av kunstig intelligente løsninger, og bak dem står lange verdikjeder av data. Når du booker taxi via app på mobilen, sjekker beste alternativ i kollektivtransport-appen eller søker på ulike varer på nettet, er det disse verdikjedene som sørger for at du får opp resultater i form av forslag, anbefalinger og konklusjoner. Men først må aktørene ha ditt samtykke, og det ga du sannsynligvis i det øyeblikket du lastet ned appen.

Men hva med aktører som du ikke har gitt ditt samtykke til? Eller de aktørene som har fått syv samtykker fra deg, og som mangler det siste for at de skal kunne tilby deg noe enda mer skreddersydd? Med en «black box» er det enkelt for dem å konstruere dette samtykket, og «gjemme» det i den sorte boksen.

Et samtykkeregister kunne være nyttig, men det løser dessverre ikke problemet.

Forstå mulighetene i egen forretning

Snart vil «alle» forretningskritiske funksjoner inneholde AI, også dine – om du ikke allerede opererer med kunstig intelligens. Dine produkter og løsninger er avhengig av tillit for å lykkes. Hva har en søker som blir nektet lån, en kandidat som ikke får jobben eller en person som må nøye seg med en høy forsikringsrente til felles? De forventer alle et svar på hvorfor det ble slik. Dette vil også gjelde for fremtidens løsninger og tjenester.

Derfor må du sikte mot «hvite» eller gjennomsiktige bokser som både ansatte og ikke-tekniske hoder forstår. Dette er egentlig ikke et teknisk spørsmål, det handler om valg av design.

Når du blir i stand til å forklare beslutningsprosessene til algoritmene, vil du samtidig oppdage en tilleggsverdi med teknologien – som kanskje kan bli til ditt neste produkt?

Forstå ditt neste trekk

Det finnes tre konkrete råd for deg som leverer AI-løsninger til sluttbrukere, og som vil dra nytte av forklarlig AI:

1. Tenk strategisk rundt hvordan brukerne dine eksponeres for kunstig intelligens. Hvilken opplevelse vil du skape? Og hvordan skal du anvende data for å oppnå dette?

2. Definer et abstraksjonsnivå som gjør forklaringen din «god nok». Hva har brukerne lyst til å vite, og hva er konsekvensene av svaret?

3. Få på plass løsninger som gjør det mulig for deg å hente kontinuerlige forklaringer på algoritmene du anvender i tråd med at disse utvikles.

Brukerne kommer til å velge de løsningene som oppleves som tryggest og som gir dem mest verdi. Tør du la være å spille med åpne kort?