NYE UTFRODRINGER: Etter hvert som stemmeetterligningsteknologien blir mer og mer avansert i likhet med den raske utviklingen innen annen kunstig intelligens, øker også risikoen for telefonsvindel basert på kunstige stemmer. Nye tall viser at antallet ofre for denne typen telefonsvindel er i kraftig vekst, skriver Jelle Wieringa i KnowBe4 i dette innlegget. (Foto: Unsplash)

AI øker risikoen ved svindelsamtaler dramatisk

Debatt: En tredjedel av ofre for telefonsvindel kan ikke høre forskjell på en virkelig stemme og en stemme skapt av kunstig intelligens – det gir særlig nye utfordringer for eldre, som er dem som oftest utsettes for svindelsamtaler, skriver Jelle Wieringa i KnowBe4.

Publisert

Forestill deg at du blir ringt opp av barnet eller barnebarnet ditt, som sier at han eller hun står i en akutt situasjon og trenger penger her og nå for å få løst situasjonen. I tillegg høres stemmen i telefonen virkelig ut som den person samtalen kommer fra.

Vil du hjelpe i en slik situasjon?

Etter hvert som stemmeetterligningsteknologien blir mer og mer avansert i likhet med den raske utviklingen innen annen kunstig intelligens, øker også risikoen for telefonsvindel basert på kunstige stemmer. Nye tall viser at antallet ofre for denne typen telefonsvindel er i kraftig vekst, da ofrene ikke er forberedt på at noe slikt er mulig – og ikke minst at det er så overbevisende.

Scenariet med de eldre ovenfor er én ting, men forestill deg at det er sjefen din som ringer til regnskapsavdelingen og vil ha overført et stort beløp til en ny kunde? Det er en helt ny avart av CEO-svindel som vi må være forberedt på.

Svindlere som bruker kunstig intelligens til å etterligne bestemte personers stemmer som en del av telefonsvindel, satser på at du skal hjelpe. Og ifølge den nye rapporten “Beware the Artificial Impostor” (pass deg for den kunstige bedrageren) fra McAfee, lar mange intetanende ofre seg lure av den typen samtaler.

25 prosent av respondentene svarer at de enten selv har vært utsatt for svindelsamtaler basert på nærmest naturtro, kunstig intelligens-skapte stemmer, eller at de kjenner noen som har vært utsatt for det. Og i og med at det finnes nettjenester som for eksempel selskapet ElevenLabs, som tilbyr Instant Voice Cloning gjennom å generere en syntetisk stemme basert på 30 minutters lydopptak av en ekte stemme, er det kun et spørsmål om tid før det satses mer på svindel basert på stemmeetterligning.

Ifølge McAfees undersøkelse vil nesten halvdelen (48 prosent) hjelpe hvis de mottar en samtale om et trafikkuhell, mens 47 prosent vil hjelpe hvis det dreier seg om tyveri, 43 prosent hvis det dreier seg om en mistet lommebok, og 41 prosent hvis samtalen kommer fra en nærstående person som er på ferie.

70 prosent usikre på stemmens autentisitet

I forretningsverdenen strekker nivået for denne typen stemmebasert svindel seg fra et falskt gavekort fra den administrerende direktøren, til omfattende digital svindel.

Det verste av alt er at 35 prosent av de spurte ikke var i stand til å avgjøre om stemmen de hørte i telefonen var en ekte stemme eller ikke, mens ytterligere 35 prosent ikke hadde noen idé om hvorvidt de kunne skille mellom en virkelig stemme og en stemme skapt av kunstig intelligens. Det betyr at den eneste reelle konteksten for å kunne avgjøre om en samtale er svindel eller ikke, ligger i den kjensgjerning at selve samtalen kommer uventet.

I forretningsverdenen strekker nivået for denne typen stemmebasert svindel seg fra et falskt gavekort fra den administrerende direktøren, til omfattende digital svindel. Og uansett nivå, krever det at både ledelsen og medarbeiderne fortløpende blir opplært og trent i kunnskap og bevissthet om sikkerhet, slik at de er oppmerksomme og på vakt, selv når stemmen i telefonen høres kjent ut.

Jelle Wieringa, KnowBe4