Kan AI vara ett verktyg för att begå brott?

24 april, 2023

Det är mycket prat om AI nu. Men inte så mycket om den ”mörka” sidan, och mer specifikt, hur AI kan användas för att begå brott. Något vi bör prata mer om, då vi ser att AI gör snabba framsteg med den mycket omtalade AI botten chat-GPT4 som ett exempel. Men Chat-bottar som chat-GTP är dock bara toppen på isberget. Det är viktigt att vi redan nu förbereder vårt samhälle och våra företag för hur tekniken kommer se ut inom en snar framtid, och hur den kommer att påverka oss. 

Till exempel kan AI användas till att ändra en persons röst och utseende för att efterlikna en annan person, detta med endast några minuter inspelad röst och en bild som referens. Än så länge är denna typ av realtidsgenererad avbild inte särskilt trovärdig, och de flesta av oss skulle inse att något inte stod rätt till. Men framstegen är stora, och utvecklingen går i rasande takt. Det är bara en fråga om tid tills det kommer vara otroligt svårt att avgöra om personen man ser och pratar med är AI genererad eller inte. När dessa AI verktyg blir mer sofistikerade och när de sedan blir tillgängliga för allmänheten kan det komma att användas för att begå exempelvis bedrägerier. Ett samtal från chefen eller styrelsemedlemmen kan istället vara en bedragare som är ute efter pengar eller känslig information.

Det kommer alltså inom en snar framtid inte vara säkert att förlita sig på personens röst eller utseende när man har ett digitalt samtal. Det är därför viktigt att ha rutiner och processer på plats som en bedragare eller AI har svårt att känna till eller efterskapa redan nu. Fysisk säkerhet, fraser eller ord, tvåstegsverifiering, rutiner kring signering eller beslut m.m.
Det är även viktigt att i rättsliga fall, att man säkrar sin digitala bevisning och att man kan påvisa dess riktighet. Med andra ord, att det man presenterar eller använder som bevis, inte är manipulerat eller ändrat.

Med hjälp av AI kan man redan idag:

  • Ändra utseende på en person i en video eller bild
  • Automatiskt generera CV och anställningsbrev
  • Förvränga och ändra ljudinspelningar
  • Genera bilder på personer och/eller händelser
  • Skapa falska nyhetsartiklar
  • Efterlikna personalbrev/personalinformation
  • Skapa program eller appar som liknar ett företags tjänster
  • Tillverka fishing mail som riktar sig till specifika personer eller företag
  • Skapa falska offerter/fakturor
  • Ändra vilket telefonnummer som syns när man ringer
  • I realtid ändra sitt utseende och/eller röst i ett videosamtal

Och mycket mer.

Utvecklingen kring AI går inte längre att ignorera, och även om branschen man tillhör inte specifikt jobbar med AI så kommer sättet vi gör affärer och hur vi kommunicerar påverkas av tekniken. Det är därför hög tid att framtidssäkra med och mot AI. I vårt digitalforensiska center bistår vi dagligen kunder med stöttning kring IT-frågor, digitala utredningar och bevishantering i digitala miljöer. Det finns även ett brinnande intresse för ny teknik och innovationer i branschen, och i förlängning AI.

Har du frågor om hur AI och digital teknik kan komma att påverka din digitala säkerhet i framtiden, och hur detta borde hanteras? Behöver du säkra digitala bevis för en utredning? Vill du försäkra dig om att ljudinspelningar eller video inte är manipulerade?
Kontaka Daniel Lindgren på vårt digitalforensiska center.