UTFORDRINGER: Kunstig intelligens vil skape store utfordringer på sikkerhetsfronten i 2024, spår Simula Consulting. (Foto: Getty Images/Istock)

– Kunstig intelligens vil trigge store investeringer innen sikkerhet og personvern

Simula Consulting er et av landets fremste miljøer innen praktisk bruk av kunstig intelligens (AI). Nå varsler de vekst innen AI-skapte sikkerhetsbehov.

Direktør for Simula Consulting, Holger Hussmann spår at behovet for datasikkerhet vil eksplodere i 2024, og at AI kommer til å få skylden.

Han mener også at juridiske utfordringer knyttet til personvern og opphavsrett vil by på store utfordringer det kommende året.

– Neste år vil vi for alvor merke konsekvensene av AI-bølgen. Samlet sett vil kunstig intelligens berike og utvikle samfunnet, men medaljens bakside ligger innen et sterkt økende sikkerhetsbehov, sier Hussmann. 

Spår dobling

– Jeg vil ikke bli overrasket dersom sikkerhetsrelaterte kostnader som følge av AI vil dobles i løpet av ett til to år. Det vil trigge store investeringer og en fremvekst av nye type tjenester og en rekke bedriftsetableringer, sier han.

Hussmann advarer mot å ta lett på sikkerhetsutfordringene som skapes av økt bruk av kunstig intelligens innen en rekke områder – både i offentlig og privat sektor.

UTFORDRING: Direktøren i SImula Consulting, Holger Hussmann, advarer om sikkerhetsutfordringer i kjølvannet av kunstig intelligens. (Foto: Simula Consulting)

– Dersom vi ikke møter de nye trusselbehovene, vil vi heller ikke kunne ta ut det store potensialet som ligger i å ta i bruk kunstig intelligens på bred basis. Derfor er det ingen vei utenom. På mange måter blir sikkerhetsinvesteringene en utgift til inntekts ervervelse, sier Hussmann.

Trusselbildet

I 2024 er det mange områder knyttet til AI-bølgen som ifølge Simula Consulting vil føre til økte sikkerhetsbehov. Herunder kommer det også de store behovene for å unngå å trå juridisk feil innen personvern og opphavsrett.

Om utfordringene Hussmann peker på, sier han: 

– Dette er et øyeblikksbilde, basert på hva vi ser akkurat nå. Det eneste som er sikkert, er at vi vil måtte forholde oss til et trusselbilde og utfordringer som fortløpende vil endre seg, avslutter Hussmann.

Slik vil AI utfordre samfunnet:

Deepfake

  • Realistiske forfalskninger av lyd, video og bilder.
  • Økende bruk av deep learning-algoritmer vil føre til mer realistiske og overbevisende deepfake-videoer og lydopptak, som kan brukes til å utføre angrep som utpressing eller desinformasjon.

Automatiserte og sofistikert datakriminalitet i forskjellige former

  • Angripere kan utnytte AI for å automatisere skanning og identifikasjon av sårbarheter i systemer og programvare, noe som kan resultere i hyppigere og mer målrettede angrep.
  • Malware: AI brukes til å generere skadevare som er svært utfordrende å oppdage, noe som gjør det lettere for angripere å infiltrere målsystemer og unngå oppdagelse.
  • AI-drevet angrep på autonome kjøretøy og IoT-enheter: Autonome kjøretøy og IoT- enheter blir en del av hverdagen, kan AI brukes til å hacke og kontrollere dem, noe som kan føre til farlige situasjoner på veiene eller datalekkasjer fra enhetene.
  • AI-støttet sosial manipulasjon: Angripere kan bruke AI til å analysere og forutsi menneskelig atferd på sosiale medier, og deretter lage målrettede kampanjer for desinformasjon, politisk påvirkning og spredning av falske nyheter.

Juridiske utfordringer

  • Lovverk for AI er vanskelig å få på plass fordi teknologien går så raskt – for øyeblikket går teknologien veldig mye raskere enn jussen.
  • Det er mange fallgruver knyttet til opphavsrett og personvern for fremoverlente bedrifter som er raske til å ta i bruk AI.
  • Derfor vil det være nyttig å etablere retningslinjer i samråd med eksperter for bruk av AI i bedriften som for eksempel bør ta hensyn til personopplysninger, kildekritikk og kvalitetssikring.
  • Samtidig bør man legge til rette for god opplæring og bruk av AI-verktøy i bedrifter, for å unngå å opptre uaktsomt.