Wer einen Redaktions-Chatbot im journalistischen Alltag verantwortungsvoll anwenden will, muss wissen, wie das dahinter liegende Große Sprachmodell trainiert wurde. Er muss wissen, wie Vektorrechnungen und Wortmatrizen modelliert sind, auf deren Basis ein Großes Sprachmodell Worte zu Zahlenwerten und letztlich Bits und Bytes werden lässt, die dann berechnet werden können.
Denn nur dann kann der Journalist, der ein KI-Tool nutzt, einschätzen, mit welchem Bias das Tool Text erzeugt oder wie manipulativ die verrechneten Wortbedeutungen im Text wirken. Er muss außerdem wissen, mit welchen Lernmethoden (überwachtes, unüberwachtes, bestärkendes Lernen) in der Trainingsphase gearbeitet wurde.
KI-Tools können keine neutralen oder auch nur ideologiearmen Texte generieren. Die von ihnen verrechneten Wortbedeutungen hängen immer von den Vektorisierungen und zugrunde liegenden Wortmatrizen ab. Sie sind von den Trainingsdaten beeinflusst. Im besten Fall weisen diese Texte eine schwache Tendenz auf. Ich schlechtesten Fall sind sie hoch manipulativ.
Soll Journalismus weiterhin seine wichtige Aufgabe in einem demokratischen Rechtsstaat wahrnehmen und unvoreingenommen, an Wahrhaftigkeit orientiert informieren, dann müssen diejenigen, die Journalismus ausüben, auch in der Lage sein, KI-Werkzeuge reflektiert als journalistisches Arbeitsmittel einzusetzen. Das setzt aber nun mal einiges an Grundlagenwissen in diesem Bereich und an Anwendungswissen voraus.
Peter Welchering, berliner-zeitung.de, 08.12.2025 (online)

