Vi testade nyligen vilken AI_assistent som är bäst på att hantera vardagliga situationer, men hur bra är de på att känna igen och bemöta antisemitism och extremism? En ny omfattande studie från den amerikanska organisationen Anti-Defamation League (ADL) visar att skillnaderna mellan de största AI-modellerna är betydligt större än många kanske tror.
I studien har ADL testat sex välkända AI-assistenter: ChatGPT, Claude, Gemini, Llama, DeepSeek och Grok. Modellerna har utsatts för tusentals prompter med antisemitisk, antisionistisk och extremistisk problematik – både i form av direkta påståenden, längre dialoger samt analyser av dokument och bilder.
Stora skillnader i resultat
Resultatet visar en tydlig spridning. Anthropic-modellen Claude placerade sig i topp, följd av ChatGPT. Längst ner i rankningen hamnade xAI:s Grok, som enligt ADL hade svårt att konsekvent identifiera och bemöta problematiskt innehåll.
Claude fick högst totalbetyg med 80 av 100 möjliga poäng, medan Grok landade på 21 poäng – en skillnad på hela 59 poäng. Ingen av modellerna presterade dock felfritt, och ADL betonar att samtliga behöver förbättras.
Kontext avgörande – och där brister flera
En viktig slutsats i rapporten är att flera AI-assistenter klarar relativt enkla och isolerade uttalanden, men får stora problem när uppgifterna kräver sammanhang, längre resonemang eller analys över flera steg. Grok lyckades exempelvis ibland markera mot antisemitism i korta frågor, men misslyckades ofta helt i längre dialoger och vid dokumentanalys.
Enligt ADL innebär det att vissa modeller i dagsläget är olämpliga för uppgifter som innehållsmoderering, kundsupport eller automatiserad granskning av text och bilder.
ADL menar att bristande förmåga att förstå och bemöta hat och extremism inte bara är ett tekniskt problem, utan kan få verkliga konsekvenser för både individer och samhällsdebatt.


