Ein verblüffendes Paradoxon der künstlichen Intelligenz.
Chatbots sollen Desinformation erkennen – scheitern aber an ihren eigenen Inhalten.
Die Fehlerraten sind alarmierend hoch.
Tests zeigen massive Schwächen bei KI-Erkennung
Führende KI-Chatbots sind kaum in der Lage, Videos zu erkennen, die mit künstlicher Intelligenz erstellt wurden – selbst dann nicht, wenn sie vom selben Unternehmen stammen. Tests mit ChatGPT, Gemini und Grok zeigen Fehlerraten von bis zu 95 Prozent.
Laut ANSA.it stammen die Ergebnisse aus einer Untersuchung der Monitoring-Plattform NewsGuard, die sich auf die Analyse von Online-Desinformation spezialisiert hat.
Getestet wurden Videos, die mit Sora, dem KI-Videotool von OpenAI, erstellt wurden.
Hohe Fehlerraten – selbst mit Wasserzeichen
Die Zahlen im Überblick
In der Praxis erkannten die Chatbots KI-generierte Videos ohne Wasserzeichen kaum:
Grok (xAI): 95 % nicht erkannt
ChatGPT (OpenAI): 92,5 % nicht erkannt
Gemini (Google): 78 % nicht erkannt
Besonders brisant: ChatGPT scheiterte häufig, obwohl Sora aus demselben Unternehmen stammt.
Selbst bei Videos mit klar sichtbaren Wasserzeichen traten weiterhin Fehler auf. Grok erkannte in 30 % der Fälle KI-Inhalte nicht korrekt, ChatGPT in 7,5 %. Nur Gemini bestand alle Tests mit Wasserzeichen.
Breaking News direkt aufs Smartphone
Verpasse keine Eilmeldung mehr – jetzt den imTicker WhatsApp-Kanal abonnieren:
imTicker auf WhatsApp abonnieren
Falsche Bestätigungen durch Chatbots
In einem Testfall erkannten ChatGPT und Gemini ein gefälschtes Video nicht als KI-Produkt. Es zeigte angeblich einen US-Einwanderungsbeamten bei der Festnahme eines sechsjährigen Kindes. Beide Modelle erklärten fälschlicherweise, der Vorfall sei durch Nachrichtenquellen bestätigt.
Ein anderes Beispiel betraf ein Video über eine angebliche Lieferung chinesischer Kampfflugzeuge an den Iran. Grok erklärte, es handle sich um einen Bericht von „Sora News“ – ein Medium, das nicht existiert.
Kritik von NewsGuard
NewsGuard kritisiert vor allem die fehlende Transparenz der Modelle. KI-Tools würden ihre eigenen Grenzen selten offenlegen und Nutzer nicht ausreichend darüber informieren, dass sie Inhalte nicht zuverlässig verifizieren können.
Gerade im Kampf gegen Desinformation sei dies problematisch.
Reaktionen der Unternehmen
Google erklärte, derzeit nur eine Verifizierungsfunktion namens SynthID anzubieten.
OpenAI bestätigte, dass ChatGPT nicht feststellen könne, ob Inhalte KI-generiert sind.
xAI reagierte nicht auf eine Anfrage von NewsGuard.
Die Debatte über Verantwortung und Kennzeichnungspflichten für KI-Inhalte dürfte damit weiter an Fahrt aufnehmen.










