Wie sollen Medien die Nutzung von KI kennzeichnen, wie sollen sie mit Fehlern umgehen und warum behandeln wir Texte nicht wie hausgemachte Pasta? Die Gedanken dazu von Kolumnist Reto Vogt.
Dem deutschen TV-Sender ZDF sind diese Woche zwei bemerkenswerte (im negativen Sinne) Fehler passiert: In einem Beitrag der Sendung «Heute Journal» (Link führt zu X, der Originalbeitrag wurde «aus redaktionellen Gründen gekürzt») wurde erstens KI-generiertes Bildmaterial verwendet und zweitens eine weitere Sequenz gezeigt, die zwar real ist, aber aus einem anderen Kontext aus dem Jahr 2022 stammt.
Im Nachgang hat sich der Sender zwar entschuldigt, aber dabei gleich den dritten Fehler begangen: Das Problem sei die fehlende Kennzeichnung und Einordnung des KI-generierten Videos. Dabei ist das Gegenteil der Fall: Problematisch ist die Verwendung des Materials an sich. Denn: Was im Video zu sehen ist, hat so nie stattgefunden. Einen solchen Ausschnitt in einer Nachrichtensendung zu zeigen, ist mindestens fahrlässig, aber eigentlich unzulässig.
Manipulation wird von Plattformen nicht verhindert
Nach wie vor fehlt in vielen Redaktionsstuben (und darüber hinaus) das Bewusstsein für KI-generierte Inhalte. Wichtig zu betonen ist in diesem Fall aber auch eine andere Perspektive: Die Manipulatoren sind nicht die Journalist:innen, sondern erstens diejenigen, die die KI-Fälschungen erstellen und zweitens die Plattformen, die das zulassen. Das soll keine Entschuldigung für die Fehler sein, die beim ZDF passiert sind, aber dennoch: Die schiere Masse an KI-Fakes und die fehlende zuverlässige Möglichkeit, diese technisch als solche zu erkennen, macht die redaktionelle Arbeit immer komplexer.
KI ist nicht mehr nur der «Angreifer» von aussen, der uns mit Fälschungen flutet. Sie ist darüber hinaus längst zum Komplizen im eigenen (Medien)haus geworden, und zwar im Guten (als Werkzeug) wie im Schlechten (als Desinformationsgenerator oder Faktenverdreher). Wir müssen deshalb die Debatte weiten: Weg von der reinen Abwehr von Fakes, hin zur Frage, wie wir den Einsatz von KI im Journalismus kennzeichnen. Und wie wir mit der Kontrolle von KI-Halluzinationen umgehen.
KI-Labels im Journalismus: Es ist kompliziert
Wird heute jeder KI-generierte Text kontrolliert, der in der Schweiz zwischen Genf und St. Margrethen in einer Zeitung publiziert wird? Ich behaupte: Nein. 18 Prozent der Journalist:innen geben laut einer aktuellen Studie sogar selbst zu, zu wenig Zeit für die Kontrolle generierter Inhalte zu haben. Und ist bei jedem Text ausgewiesen, dass dieser von einer KI verfasst worden ist? Ich bin sicher: Nein. Fehlende Kontrolle ist ein Problem, aber ist es Zweiteres auch?
Je ein (falsches) Argument für und gegen ein Label:
- Wenn als Journalist:in keine Zeit habe, Fakten zu prüfen, scheint ein KI-Label ein einfacher Ausweg, sich aus der Verantwortung zu ziehen. Aber das ist falsch. Verantwortung und Haftung lassen sich nicht delegieren.
- Wenn ich als Journalist:in ein KI-Label verwende, gestehe ich ein, KI-genutzt zu haben. Ich könnte redaktionsintern als faul und bequem wahrgenommen werden und stehe potenziell als nächstes auf der Abschussliste. Aber das ist falsch. KI ist (richtig genutzt) ein Werkzeug wie der Laptop mit installiertem Word.
Es gibt also Argumente für ein Label und gegen ein Label. Die entscheidende Frage ist: Welchen Mehrwert bringen Labels für die Leser:innen? Transparenz ist wichtig, aber der KI-Einsatz im journalistischen Kontext ist sehr nuanciert. Die Werkzeuge können unter anderem während der Recherche, fürs Vorbereiten oder Transkribieren von Interviews, für Rechtschreibprüfung, für Titel- und Leadvorschläge, für SEO-Optimierung und für Stilverbesserungen eingesetzt werden. Und natürlich können KI-Modelle auch ganze Texte verfassen.
Aber ab welchem Zeitpunkt oder ab wie viel Prozent «KI-Anteil» an einem Text setze ich als Journalist:in das Label ein? Die Handhabung des Themas ist enorm komplex und ein einheitliches Vorgehen schon nur innerhalb einer Redaktion – geschweige denn innerhalb einer ganzen Branche – praktisch unmöglich. Viel wichtiger als ein Label ist das Vertrauen von Leser:innen in Zeitungen oder einzelne Journalist:innen, dass diese wahrheits-, faktengetreu und in hoher Qualität berichten – egal welche Werkzeuge sie dabei benutzt haben.
Das Bio-Label ist nicht umsetzbar
Und dann gibt’s schliesslich noch die Idee eines «Bio-Labels», das Texte kennzeichnet, die ohne KI-Einsatz entstanden sind, sie also quasi mit der hausgemachten Pasta beim Italiener gleichsetzt. Ich halte das für Quatsch mit (Tomaten)sosse, weil das Bio-Label kaum mehr praktikabel ist. Aus zwei Gründen:
- Wie will man «hausgemacht» garantieren? Oder was ist «hausgemacht» überhaupt? Wenn während der Recherche für einen Text Perplexity genutzt wurde? Und wenn ein anderer (teilweise) KI-generierter Text dafür gelesen wurde: Ist es dann noch 100% «hausgemacht»? Oder nicht mehr?
- Angenommen ich labele etwas als «hausgemacht», und jemand behauptet das sei falsch – wie widerlege ich das? Es ist unmöglich. Medien machen sich mit bio-gelabelten Texten brutal angreifbar. Juristisch läge die Beweispflicht bei der anderen Seite. Praktisch ist das aber nicht (mehr) so.
Am Ende ist es im Journalismus wie in der Gastronomie: Es interessiert mich als Gast herzlich wenig, ob Köch:innen eine moderne Teigmaschine benutzen oder das Mehl von Hand sieben. Was zählt, ist das Resultat auf dem Teller und dass ich nach dem Essen keine Magenverstimmung kriege. Im Journalismus bedeutet das: Qualität ist die beste Kennzeichnung. Wer sauber recherchiert, Quellen prüft und für seine Sätze geradesteht, braucht weder Bio-Siegel noch KI-Siegel.
Vertrauen lässt sich nicht auf eine Packung kleben. Es muss bei jedem Text neu verdient werden.


5 Antworten
Das ZDF zeigt in seinen Ausstrahlungen von ausgezeichneten Wissenschaftssendungen schon seit Jahren KI-Videomaterial. Solange es sich um Dinosaurier handelt, merken das alle. Schon bei virtuellen Flügen durch Sternenwelten dürften Viele nicht realisieren, dass das nicht echt sein kann, besonders da auf reellen Aufnahmen basierend. Neuerdings werden auch historische Menschen animiert. Meistens sehen sie etwas gläsern aus, aber nicht immer, und es wäre nur ein kurzer Schritt zur visuellen Geschichtsklitterung. Ich wünschte mir deshalb schon jeweils dezente Hinweise, besonders bei Naturaufnahmen, wenn es tatsächlich Animationen sind.
Ja, bei Bildern gebe ich dir Recht. Meine Aussagen zu den KI-Labels beziehen sich ausschliesslich auf Text.
„Die Manipulatoren sind nicht die Journalist:innen, sondern erstens diejenigen, die die KI-Fälschungen erstellen und zweitens die Plattformen, die das zulassen.“
Journalisten, die sich auf den „Plattformen“ mit Material (KI generiert oder sonst wie erzeugt) versorgen und das ohne sorgfältigste Überprüfung weitergeben machen einen grossen Fehler. Diese Verantwortung kann nicht einfach an die „Plattformen“ delegiert werden. Was dort steht (oder was immer ein LLM ausspuckt) ist grundsätzlich nicht vertrauenswürdig und erfordert immer eine Überprüfung.
„Das soll keine Entschuldigung für die Fehler sein, die beim ZDF passiert sind.“
„Fehlende Kontrolle ist ein Problem.“
Ein Bio-Label wird zusätzlich schwierig wenn man bedenkt, dass KI ja auch bei Rechtschreibung und Grammatik Vorschläge macht (was meist unbedenklich ist), und bei Übersetzungen hilft. Oder dass es durchaus zu einem besseren Text führen kann, wenn man „KI“ für einen Review nutzt und allfällige Vorschläge dann in eigenen Worten einarbeitet.