Eine NewsGuard-Analyse der zehn führenden generativen KI-Tools zeigt: Die Wahrscheinlichkeit, dass sie falsche Informationen zu aktuellen Nachrichten liefern, hat sich binnen eines Jahres nahezu verdoppelt. Inzwischen enthalten mehr als ein Drittel ihrer Antworten Falschbehauptungen.
Trotz technischer Fortschritte scheitern die Systeme an einer ihrer grundlegendsten Aufgaben: Fakten von Fiktion zu trennen. Die 10 führenden KI-Tools gaben im August 2025 in mehr als einem Drittel der Fälle — 35 Prozent — falsche Informationen zu aktuellen Nachrichtenthemen wieder, gegenüber 18 Prozent im August 2024. Die Versprechen der Branche, verlässlichere Systeme zu entwickeln, bleiben damit bislang unerfüllt.
Der Anstieg geht auf einen grundlegenden Kompromiss zurück: Seit die Chatbots verstärkt Echtzeit-Websuchen nutzen, geben sie kaum noch keine Antworten. Die Quote der Nicht-Antworten sank von 31 Prozent im August 2024 auf null Prozent im August 2025. Mit 35 Prozent hat sich ihre Wahrscheinlichkeit, falsche Informationen zu wiederholen, jedoch nahezu verdoppelt. Statt auf Wissensgrenzen zu verweisen oder heikle Fragen zu vermeiden, greifen die Systeme zunehmend auf ein durch Desinformation belastetes Online-Umfeld zurück – oft gespeist von staatlichen Akteuren wie russischen Propagandanetzwerken – und behandeln unzuverlässige Quellen als glaubwürdig.
McKenzie Sadeghi, newsguardtech.com, 09/2025 (online)