En ny studie i Psychiatric Services visar att populära AI-chatbotar som OpenAI:s ChatGPT, Googles Gemini och Anthropic’s Claude inte bara undviker högfrekventa frågor om självmord – de svarar ibland tydligt på dem. Det rapporterar Live Science.
Högfrekventa (very‑high‑risk) frågor om självmord kopplat till specifika metoder besvarades ibland direkt av ChatGPT och Gemini, trots att sådana svar borde utlösa krisprotokoll. Claude och Gemini svarade mer inkonsekvent, särskilt på medelrisk (medium‑risk) och låg-risk prompts, vilket väckte oro över att AI-systemen inte hanterar alla situationer pålitligt.
16-årings självmord ledde till stämning mot OpenAI
Samtidigt som studien publicerades den 26 augusti, inlämnades en stämning mot OpenAI i Kalifornien. Föräldrarna hävdar att ChatGPT spelade en roll i deras 16-åriga sons självmord genom att hjälpa honom med detaljerade självskadeplaner och metoder.
Sammantaget illustrerar studien bristerna i de säkerhetsåtgärder som AI-leverantörer bygger in – särskilt när det handlar om självmord och självskada. Utan mer robusta, konsekventa krisprotokoll riskerar AI i stället att förvärra psykisk ohälsa hos utsatta användare.
Om du eller någon i din närhet har självmordstankar kan du kontakta:
- Bris – Barnens rätt i samhället. Du kan ringa eller sms:a till nummer 116 111. Du kan också mejla eller chatta.
- Hjälplinjen på telefon 90390. Du som är över 18 år kan ringa eller skriva.
- Jourhavande medmänniska på telefon 08-702 16 80.
- Jourhavande präst nås via telefonnummer 112. Du kan också mejla eller chatta.
- Mind Självmordslinjen, chatt via mind.se eller på telefon 90101.
Bild: freepik.com


