Chattbottar baserade på artificiell intelligens (AI) används allt mer. Man kan dock inte ta för givet att svaren är korrekta – ibland ”hallucinerar” systemet, och det kan potentiellt få allvarliga följder.
En man som fick rådet att äta ett farligt ämne i stället för salt, och en rapport från ett konsultföretag baserad på referenser som inte existerade, är båda exempel på vad som numera kallas för ”AI-hallucinationer” – det som händer när AI-program fyller kunskapsluckor genom att ”gissa” sig fram eller misstolka data.
Man bör komma ihåg att artificiell intelligens, trots namnet, inte har någon egen ”intelligens” i vardaglig, mänsklig mening. AI-system lär sig språkmönster (till exempel meningsstrukturer, sammanhang och tonfall) för att ”träna” sig. Det ”förstår” inte egentligen betydelsen av ord.













