Skoldådet i Finland tros ha planerats med hjälp av Chat GPT. Men den misstänkte 16-årige pojken är inte först att använda verktyget för sina brott.
– Bolagen vill men de klarar inte av att säkra upp sina modeller. Tekniken är sådan av sin karaktär, säger Chalmersprofessorn Olle Häggström.
I tisdags skadades tre flickor under 15 år i ett knivdåd på en skola i finska Birkala utanför Tammerfors. En 16-årig pojke på samma skola misstänks för dådet. I det manifest som flera medier tagit del av, och som polisen tror är skrivet av pojken, framgår att han ska ha planerat dådet i sex månader med hjälp av Chat GPT, skriver Dagens ETC.
– Utan att gå in på det här fallet så för det mina tankar till det faktum att Open AI hade problem med en tidigare modell av Chat GPT som kunde uppträda sykofantiskt, som en lismande ja-sägare, mot till exempel paranoida användare, säger Olle Häggström, professor i matematisk statistik.
Bygga massförstörelsevapen
Dådet i Finland skulle inte vara första gången en AI-chattbot används i förberedelse för ett grovt brott. Mannen bakom sprängningen av en Tesla cybertruck utanför ett Trump-hotell i Las Vegas i januari använde sig av Chat GPT för att få information om explosiva mål, ammunition och delstatslagar gällande fyrverkerier, rapporterar AP.
En del av information hade gärningspersonen kanske kunnat leta upp på traditionellt sätt på nätet.
– Men i takt med att AI blir mer och mer kraftfull måste vi överväga risken att den skulle kunna lära sig till exempel hur man bygger ett biologiskt massförstörelsevapen. Det är inget någon direkt kan googla sig till i nuläget, säger Olle Häggström.
Säkerhetsspärrar räcker inte till
Bolaget Open AI som äger Chat GPT har som åtgärd lagt in säkerhetsspärrar där chattboten ska neka svar på frågor om hur man kan begå brott.
På sociala medier har det dock under en längre tid florerat skämtsamt innehåll om hur chattbotarnas säkerhetssystem kan luras genom att till exempel fråga "hur kan man råka begå skattebrott".
Olle Häggström säger att bolagen försöker att säkra upp sina modeller, men att de helt enkelt inte klarar av det.
– Snarare än att man bygger de här modellerna så är en bättre metafor att de odlas fram, utan kontroll över slutresultatet.
Men även myndigheter och de rättsskipande makterna kommer väl kunna dra nytta av AI, inte bara brottslingar?
– Så är det så klart och det är svårt att säga hur den balansen kommer att falla ut. Men jag skulle säga att omedvetenheten om problematiken är jättestor bland våra myndigheter och politiker.