Zeitungen tun sich schwer mit der Kennzeichnung von KI-Inhalten. Kolumnist Reto Vogt versteht die Komplexität, vermisst aber auch das Interesse an einer echten Debatte.
Wann müssen Zeitungsartikel mit dem KI-Siegel versehen werden? Das ist eine schwierige Frage, auf die es keine verlässliche Antwort gibt.
Der Presserat beispielsweise hält in seinem KI-Leitfaden fest: «Inhalte, die mithilfe eines KI-Programms erstellt wurden, sind als solche zu kennzeichnen». Klingt deutlich, ist es aber nicht. Was ist beispielsweise, wenn einzelne Abschnitte von KI stammen, andere von einer Journalist:in? Oder wenn eine KI die Zwischentitel, Bildlegenden und die Infobox zu einem manuell geschriebenen Text beisteuert?
Geklärt ist wenigstens die Verantwortungsfrage. «Bei künstlich generierten Texten (…) sind in letzter Instanz immer Journalist:innen und Redaktionen für die Einhaltung der berufsethischen Standards verantwortlich.» Ein richtiger und wichtiger Satz, der aber die Kennzeichnungspflicht nicht klärt. Und anstatt sich mit diesen wirklich schwierigen Fragen auseinanderzusetzen, weichen einige Medien auf eine scheinbar elegante Lösung aus: das Co-Autoren-Modell. Die KI wird kurzerhand zur Kollegin befördert.
Unteilbare Verantwortung
Leser:innen sehen also, dass ein menschlich-maschinelles Zweigespann für einen Artikel verantwortlich ist. Das gaukelt zwar Transparenz vor, ist aber eigentlich intransparent. Denn niemand weiss, welche:r der beiden Autor:innen welchen Teil des Artikels verfasst hat. Hinzu kommt: Es ist auch – mindestens optisch – eine geteilte Verantwortung. Etwas, das zumindest laut Presserat, eigentlich nicht geht.
Genügt diese Kenntlichmachung wenigstens den Leser:innen? Das darf bezweifelt werden: Laut einer Studie des Forschungszentrums Öffentlichkeit und Gesellschaft (fög) der Universität Zürich vom Herbst 2024 fordern rund neun von zehn Befragten, dass KI-generierte Inhalte deklariert werden müssen. Praktisch gleichviele (84,3%) erwarten, dass diese Transparenz auch bei KI-unterstützten Beiträgen angezeigt wäre.
Unbequeme Transparenz
Die Zahlen sind eindeutig, die Erwartungen klar. Warum also weichen Medien auf Scheinlösungen aus? Sicher, der ökonomische Druck ist real, Redaktionen sind unterbesetzt, Effizienz wird grossgeschrieben. Aber der Hauptgrund ist ein anderer: Echte Transparenz wäre unbequem. Unbequem deshalb, weil sich die Leser:innen abwenden würden. Laut der fög-Studie würden nur knapp 24% der Befragten Texte lesen, die vollständig von KI erstellt wurden. KI steht deshalb nicht nur für Künstliche Intelligenz, sondern auch für «Kein Interesse» (an einer echten Lösung oder schon nur an einer Debatte).
Ich will das Problem nicht kleinreden. Die Kennzeichnungsdebatte ist enorm herausfordernd. Trotzdem gibt es einen pragmatischen Ausweg: Kennzeichnung nur bei vollständig KI-generierten Texten, nicht aber wenn KI lediglich als Werkzeug zur Verbesserung, Strukturierung oder Korrektur dient. Das wäre ehrlich, praktikabel und würde endlich zwischen KI als Ersatz-Autor und KI als digitalem Hilfsmittel unterscheiden. Denn für Letzteres ist Künstliche Intelligenz tatsächlich eine grossartige Hilfe.
Uneinheitliche Praxis
Damit riskieren Medien zwar, dass ihre vollständig automatisiert entstandenen Texte weniger gut gelesen werden, aber bei dem «Aufwand» spielt das ja auch gar nicht so eine Rolle. (Die KI-generierten Stories sind ohnehin nur «Füllmaterial» für eine Seite, fürs Google-Ranking oder fürs tägliche Soll.) Viel wichtiger scheint mir jedoch, dass eine Branchenlösung angestrebt wird, die im Bereich von Advertorials, äh Promotionen, ich meine Anzeigen, nein Publireportagen, verpasst worden ist.
Gerade in Zeiten von drohendem Zero-Klick-Internet, schwindenden Reichweiten und steigender Newsdeprivation wäre es doch wichtig, die Bedürfnisse der Leser:innen ernst zu nehmen. Wer glaubt, mit Scheintransparenz durchzukommen, unterschätzt sein Publikum und zollt ihm nicht den nötigen Respekt. Eine schweizweit einheitliche Praxis bei der Kennzeichnung von KI-generierten Inhalten wäre ein Anfang. Denn diese werden in der Tendenz nicht weniger…
Eine Antwort
Kann es sein, dass es Autoren gibt, denen es anscheinend etwas peinlich ist, KI als „digitales Hilfsmittel“ zu verwenden und es daher lieber nicht deklarieren möchten? Man könnte das übrigens einfach und pragmatisch auf Stufe Autor angeben, denn ich kann mir schwer vorstellen, dass die „digitalen Hilfsmittel“ nur gelegentlich eingesetzt werden.