Nur sehr wenige Redakteure und Journalisten wissen, wie Große Sprachmodelle arbeiten. Sie vertrauen ChatGPT, Grok und anderen nahezu blind. Welche Vektorisierungen und Wortmatrizen verwendet worden sind, auf deren Basis solch ein Großes Sprachmodell arbeitet, weiß da niemand. […]
Wirklich trauen kann man nur dem KI-Tool, dessen Großes Sprachmodell man selbst entwickelt hat, dessen Trainingsdaten man überprüft, dessen Wissensbasis man referenziert und dessen Entscheidungen man regelmäßig überprüft. […]
Das allerdings wäre ein K.-o.-Kriterium für den Einsatz von solchen Werkzeugen in Redaktionen. Wer nämlich diese Qualitätskontrolle in Sachen KI betreibt, der hat einen wesentlich größeren Arbeitsaufwand, als sich Medienmanager das bislang so vorstellen. […]
Weil in den mir vorliegenden KI-Richtlinien der Medienhäuser in technischer Hinsicht so gut wie nichts technisch solide reguliert ist hinsichtlich des KI-Einsatzes, sind deren Bestimmungen auch nicht alltagstauglich. Wir finden stattdessen wohlfeile Formulierungen für Sonntagsreden darin.
So gesehen schaden derartige KI-Richtlinien mehr, als sie nutzen. Denn in den Medienhäusern glaubt man, doch etwas für den verantwortungsvollen Umgang mit KI-Tools in Redaktionen getan zu haben. Das Ganze erfüllt aber allenfalls eine Alibifunktion.
Peter Welchering, berliner-zeitung.de, 02.03.2026 (online)

