Kronikk: Utviklingen av kunstig intelligens lar cyberkriminelle kreve løsepenger for virtuelle kidnappinger
Cyberkriminelle utnytter fremveksten av kunstig intelligens og maskinlæring til å skape deepfake-stemmer for å manipulere identiteter, utføre virtuell kidnapping og kreve løsepenger. Dette er trusler vi i Norge må være forberedt på å møte.
Kommunikasjon- og markedssjef i Trend Micro, Karianne Myrvold, er bekymret for hvordan cyberkriminelle tar i bruk kunstig intelligens, og om vi er godt nok forberedt på teknologiutviklingens skyggesider.
Med fremveksten av ny
teknologi som kunstig intelligens (AI) og maskinlæring (ML), har vi sett mange
positive endringer i livene våre. Men som med ethvert kraftig verktøy, er det
også en mørk side. Cyberkriminelle har funnet måter å utnytte AI og ML til egen
vinning, og vi har sett økende misbruk av teknologien i deres angreps- og
svindelmetoder.
Amerikanske FBI har
nylig advart om at cyberkriminelle har begynt å manipulere bilder og videoer
ved hjelp av såkalt deepfake-teknologi for å kreve løsepenger. Dette har vist
seg å være en lønnsom metode for disse kriminelle. Bare i 2022 sto svindel
basert på falske identiteter for nesten 30 milliarder kroner i tap bare i USA.
Cyberkriminelle har fått
tilgang til en rekke nye verktøy takket være utviklingen innen generativ AI,
blant annet innen deepfake-stemmer, som kan skapes ved hjelp av selv begrenset
tilgang til biometriske data fra aktuelle ofre sine profiler i sosiale medier.
AI-verktøy som ElevenLabs og VoiceLab tillater brukere å lage stemmer som høres
svært autentiske ut. Selv om norsk språk for øyeblikket ikke støttes av disse
verktøyene, er det bare et spørsmål om tid før også våre biometriske stemmer
kan bli kopiert og misbrukt.
En uhyggelig hendelse
som illustrerer denne trusselen, er historien om Jennifer DeStefano i USA. Hun
ble ringt opp av en svindler som hevdet å ha kidnappet hennes 15-årige datter.
Han truet med vold og krevde at Jennifer betalte løsepenger for å få datteren
sin tilbake igjen. I bakgrunnen kunne hun høre en stemme som hørtes ut som datterens,
men det hele viste seg å være en svindel - et eksempel på hvordan denne
teknologien blir misbrukt.
Vi har også sett mange
tilfeller der lignende teknologi har blitt brukt til å lure bekymrede
familiemedlemmer til å betale for fiktive kriser. Cyberkriminelle utnytter det
faktum at mennesker i pressede situasjoner er mer sannsynlig å handle
irrasjonelt og emosjonelt. Dette åpner for mer sofistikerte former for svindel,
som SIM-jacking, hvor angriperen tar over offerets mobilnummer for å omdirigere
all kommunikasjon til en enhet de kontrollerer. Disse angrepene er vanligvis
godt forberedt. Ofrene kan være tilfeldige, men utøvelsen av svindelen er nøye
planlagt. Svindlerne utvikler en troverdig historie og bruker trusler og
manipulasjon for å påvirke offerets følelser. De bruker avansert teknologi som
ChatGPT, deepfake-video og -stemmer generert fra offerets sosiale
media-profiler. Utvekslingen av informasjon om "lønnsomme ofre" på
det mørke nettet gjør det enda enklere for cyberkriminelle å gjenta sine
angrep.
Med AI-teknologi som
utvikler seg raskt og blir mer tilgjengelig, kan vi forvente en økning i denne
typen cyberangrep. Det som kanskje er mest skremmende er at disse angrepene
innebærer et sofistikert nivå som langt overstiger det mange av dagens
cybersikkerhetsløsninger er i stand til å håndtere. Men det er også her vi kan
finne løsninger. Med økt datainnsamling fra disse hendelsene, kan vi forbedre
sikkerhetsanalysene våre og utvikle mer effektive sensorer for å oppdage og
motvirke disse truslene tidlig.
Dette er vår virkelighet
i dag, og det er viktig at vi alle er bevisste på de risikoene vi står overfor
og tar grep for å beskytte oss selv og våre nærmeste mot disse truslene. Vi må
fortsette å utdanne oss selv og andre, og støtte forskning og utvikling av
bedre sikkerhetsverktøy. Dette er et løpende arbeid hvor vi alle bør være vårt
ansvar bevisst for å være en del av løsningen.