Utrikes

Problem när AI ”hallucinerar”

Jerry Zhu
loadingBilden är skapad av AI-botten Microsoft Copilot. Den ombads skapa en karta där den markerade alla länder som börjar på bokstaven S. Foto: Microsoft Copilot
Bilden är skapad av AI-botten Microsoft Copilot. Den ombads skapa en karta där den markerade alla länder som börjar på bokstaven S. Foto: Microsoft Copilot

Chattbottar baserade på artificiell intelligens (AI) används allt mer. Man kan dock inte ta för givet att svaren är korrekta – ibland ”hallucinerar” systemet, och det kan potentiellt få allvarliga följder.

En man som fick rådet att äta ett farligt ämne i stället för salt, och en rapport från ett konsultföretag baserad på referenser som inte existerade, är båda exempel på vad som numera kallas för ”AI-hallucinationer” – det som händer när AI-program fyller kunskapsluckor genom att ”gissa” sig fram eller misstolka data.

Man bör komma ihåg att artificiell intelligens, trots namnet, inte har någon egen ”intelligens” i vardaglig, mänsklig mening. AI-system lär sig språkmönster (till exempel meningsstrukturer, sammanhang och tonfall) för att ”träna” sig. Det ”förstår” inte egentligen betydelsen av ord.

Två allvarliga ”hallucinationer”

I USA blev en 60-årig man sjuk efter att ha ätit natrium­bromid i stället för vanligt salt under tre månader. Han berättade för läkarna att han hade frågat Chat GPT och fått rekommendationen därifrån. För att bekräfta frågade läkarna också Chat GPT om vad som borde ersätta bordssalt i kosten, och AI-programmet föreslog återigen natriumbromid, utan några varningar eller källor. Ämnet kan påverka andningen, nervsystemet och hormonerna.

I ett annat fall, i oktober 2025, tvingades konsultföretaget Deloitte att återbetala motsvarande en halv miljon kronor, en del av betalningen för en rapport till den australiska regeringen. Generativ AI hade använts för att ta fram rekommendationer baserade på referenser som inte existerade.

Kvalitetsjournalistik – så arbetar Svenska Epoch Times

Svenska Epoch Times är opartisk och tar inte politisk ställning. Publicerat material ska vara sant. Om vi har gjort fel ska vi skyndsamt rätta det.

Vi vill med vår sammantagna rapportering ge ett bredare perspektiv på samtidens relevanta frågor. Detta innebär inte att alla artiklar alltid ger ”båda sidor”, framförallt inte korta artiklar eller intervjuer där intentionen endast är att rapportera något som hänt just nu.

Vi är medlemmar i TU – mediehusens branschorganisation. Här finns de pressetiska reglerna vi följer.

Feedback

Läs mer

Mest lästa

Nyhetstips

Har du tips på något vi borde skriva om? Skicka till es.semithcope@spit

Utrikes

Problem när AI ”hallucinerar”

Jerry Zhu
loadingBilden är skapad av AI-botten Microsoft Copilot. Den ombads skapa en karta där den markerade alla länder som börjar på bokstaven S. Foto: Microsoft Copilot
Bilden är skapad av AI-botten Microsoft Copilot. Den ombads skapa en karta där den markerade alla länder som börjar på bokstaven S. Foto: Microsoft Copilot

Chattbottar baserade på artificiell intelligens (AI) används allt mer. Man kan dock inte ta för givet att svaren är korrekta – ibland ”hallucinerar” systemet, och det kan potentiellt få allvarliga följder.

En man som fick rådet att äta ett farligt ämne i stället för salt, och en rapport från ett konsultföretag baserad på referenser som inte existerade, är båda exempel på vad som numera kallas för ”AI-hallucinationer” – det som händer när AI-program fyller kunskapsluckor genom att ”gissa” sig fram eller misstolka data.

Man bör komma ihåg att artificiell intelligens, trots namnet, inte har någon egen ”intelligens” i vardaglig, mänsklig mening. AI-system lär sig språkmönster (till exempel meningsstrukturer, sammanhang och tonfall) för att ”träna” sig. Det ”förstår” inte egentligen betydelsen av ord.

Två allvarliga ”hallucinationer”

I USA blev en 60-årig man sjuk efter att ha ätit natrium­bromid i stället för vanligt salt under tre månader. Han berättade för läkarna att han hade frågat Chat GPT och fått rekommendationen därifrån. För att bekräfta frågade läkarna också Chat GPT om vad som borde ersätta bordssalt i kosten, och AI-programmet föreslog återigen natriumbromid, utan några varningar eller källor. Ämnet kan påverka andningen, nervsystemet och hormonerna.

I ett annat fall, i oktober 2025, tvingades konsultföretaget Deloitte att återbetala motsvarande en halv miljon kronor, en del av betalningen för en rapport till den australiska regeringen. Generativ AI hade använts för att ta fram rekommendationer baserade på referenser som inte existerade.

Kvalitetsjournalistik – så arbetar Svenska Epoch Times

Svenska Epoch Times är opartisk och tar inte politisk ställning. Publicerat material ska vara sant. Om vi har gjort fel ska vi skyndsamt rätta det.

Vi vill med vår sammantagna rapportering ge ett bredare perspektiv på samtidens relevanta frågor. Detta innebär inte att alla artiklar alltid ger ”båda sidor”, framförallt inte korta artiklar eller intervjuer där intentionen endast är att rapportera något som hänt just nu.

Vi är medlemmar i TU – mediehusens branschorganisation. Här finns de pressetiska reglerna vi följer.

Feedback

Svenska Epoch Times

Publisher / VD / ansvarig utgivare
Vasilios Zoupounidis
Ställföreträdande ansvarig utgivare
Aron Lamm
Politisk chefredaktör
Daniel Sundqvist
Opinionschef
Lotta Gröning
Sportchef
Jonas Arnesen
Kulturchef
Einar Askestad

Svenska Epoch Times AB
DN-skrapan
Rålambsvägen 17
112 59 Stockholm

Epoch Times är en unik röst bland svenska medier. Vi är fristående och samtidigt en del av det stora globala medienätverket Epoch Media Group. Vi finns i 36 länder på 23 språk och är det snabbast växande nätverket av oberoende nyhetsmedier i världen. Svenska Epoch Times grundades år 2006 som webbtidning.

Epoch Times är en heltäckande nyhetstidning med främst riksnyheter och internationella nyheter.

Vi vill rapportera de viktiga händelserna i vår tid, inte för att de är sensationella utan för att de har betydelse i ett långsiktigt perspektiv.

Vi vill upprätthålla universella mänskliga värden, rättigheter och friheter i det vi publicerar. Svenska Epoch Times är medlem i Tidningsutgivarna (TU).

© Svenska Epoch Times AB 2025