Chockerande studie: ChatGPT gav självmordstips

Humanoid robot med röda ögon och ond blick

En ny studie i Psychiatric Services visar att populära AI-chatbotar som OpenAI:s ChatGPTGoogles Gemini och Anthropic’s Claude inte bara undviker högfrekventa frågor om självmord – de svarar ibland tydligt på dem. Det rapporterar Live Science.

Högfrekventa (very‑high‑risk) frågor om självmord kopplat till specifika metoder besvarades ibland direkt av ChatGPT och Gemini, trots att sådana svar borde utlösa krisprotokoll. Claude och Gemini svarade mer inkonsekvent, särskilt på medelrisk (medium‑risk) och låg-risk prompts, vilket väckte oro över att AI-systemen inte hanterar alla situationer pålitligt.

16-årings självmord ledde till stämning mot OpenAI

Samtidigt som studien publicerades den 26 augusti, inlämnades en stämning mot OpenAI i Kalifornien. Föräldrarna hävdar att ChatGPT spelade en roll i deras 16-åriga sons självmord genom att hjälpa honom med detaljerade självskadeplaner och metoder.

Sammantaget illustrerar studien bristerna i de säkerhetsåtgärder som AI-leverantörer bygger in – särskilt när det handlar om självmord och självskada. Utan mer robusta, konsekventa krisprotokoll riskerar AI i stället att förvärra psykisk ohälsa hos utsatta användare.

Om du eller någon i din närhet har självmordstankar kan du kontakta:

Bild: freepik.com

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *