Der Schweizer Verlegerverband und Spotify lancieren gleichzeitig KI-Labels, die unterschiedlicher nicht sein könnten. Kolumnist Reto Vogt schlüsselt die Unterschiede auf.
Der Verlegerverband Schweizer Medien (VSM) lancierte diese Woche einen KI-Kodex (PDF). Dieser setzt auf Selbstregulierung, verbindliche Kennzeichnungspflichten und ein zweistufiges Meldesystem mit unabhängiger Ombudsstelle, nicht aber auf Sanktionen. Dahinter stehen nebst dem VSM unter anderem auch die SRG, Keystone-SDA und auch das MAZ, mein Arbeitgeber.
Im Zentrum dieses Kodex steht, dass Medienunternehmen transparent machen sollen, wie sie KI verwenden. Ebenfalls soll eine Kennzeichnung erfolgen, wenn KI‑Systeme Inhalte vollständig generieren und Medien diese ungeprüft veröffentlichen. Nicht geregelt ist, wie der KI-Einsatz bei einzelnen Artikeln ausgewiesen wird, wenn das Werkzeug zum Beispiel bei der Recherche, bei Textverbesserungen oder bei der Übernahme von ganzen Texten im Einsatz ist (sofern Journalist:innen diese inhaltlich prüfen). In diesen Fällen braucht es nur «gegebenenfalls» ein Label. Im Zentrum steht die «klare Regelung der Verantwortlichkeiten».
Praktisch gleichzeitig hat Spotify einen «Verified by Spotify»-Badge eingeführt. Ein Häkchen auf dem Künstlerprofil bestätigt: Hier steckt ein echter Mensch dahinter. Dazu zeigen «AI Credits» auf Song-Ebene, ob und wie KI beim Erstellen verwendet wurde. Wo der VSM auf Selbstdeklaration und Vertrauen setzt, geht Spotify den entgegengesetzten Weg: technische Verifikation statt Selbstregulierung.
Zwei Branchen, zwei komplett unterschiedliche Ansätze. Ich versuche, die Unterschiede aufzuschlüsseln:
Wenn ein Produkt dabei ist, an Vertrauen zu verlieren, klebt man ein Label drauf. Das ist der älteste Reflex in der Kommunikation. Herkunftsbezeichnungen bei Lebensmitteln, Gütesiegel bei Produkten, Qualitätslabels bei Dienstleistungen. Und jetzt: KI-Labels bei Musik und mindestens teilweise im Schweizer Journalismus.
Das Problem mit Labels ist nicht, dass sie falsch sind. Es ist, dass sie das Problem verwalten, statt es zu lösen. Das Spotify-Label sagt: Hier war keine KI beteiligt. Aber was ist mit einem Song, dessen Künstler von KI-Musik inspiriert wurde? Oder der mit Perplexity für den Text recherchierte? Ist das dann noch KI-freie Musik? Ich finde: nein. Während der KI-Kodex der Medien dieses Problem elegant löst, indem die Medienmarken oder die Namen der Journalist:innen als Qualitätssiegel stehen, ist es bei Spotify ein automatisiertes Häkchen. Die Streamingplattform macht sich so selbst zum Schiedsrichter darüber, was als authentisch gilt. Und das kaum glaubwürdig.
False-Positive-Falle
Spotifys Ansatz birgt deshalb auch ein strukturelles Problem. Wer verifiziert ist, gilt als echt. Wer nicht verifiziert ist, gilt implizit als verdächtig. Eine Künstler, die sich nicht verifiziert hat, wird misstrauisch beäugt. Ein Fake-Profil, das sich verifizieren konnte, gilt als echt. Zudem hält Spotify so den Schlüssel. Ein Unterhaltungskonzern entscheidet, wer in der Musikwelt als authentisch gilt. Das ist Marktmacht verkleidet als Transparenzinitiative.
Ausserdem besteht bei einer rein technischen Lösung die Gefahr, dass ein rein menschengemachter Song fälschlicherweise als KI-generiert eingestuft wird – und umgekehrt. Das nennt man «false positives» beziehungsweise «false negatives». Beide Fehler untergraben das Vertrauen, das solche Labels aufbauen sollen. Und je mehr Gewicht ein Label trägt, desto grösser der Anreiz, es zu manipulieren oder dessen Gültigkeit anzuzweifeln. Und plötzlich steht man mit einem Echtheitslabel in der Pflicht, etwas zu beweisen, was nicht bewiesen werden kann.
Vertrauen statt Kontrolle
Der VSM-Kodex birgt diese Gefahren nicht. Keine Plattform als Gatekeeper, kein automatisches Misstrauen gegenüber dem Nicht-Verifizierten. Das Papier setzt auf das, was Journalismus seit jeher trägt: Vertrauen. Sobald die Journalist:innen ihren Namen unter oder über einen Text setzen, gilt: Das, was in diesem Text steht, ist geprüft. Und KI wird zu dem degradiert, was es ist: ein Werkzeug. Spotify geht den genau umgekehrten Weg.
Denn auf die entscheidende Frage – welche Entscheidungen hat ein Mensch und welche hat eine Maschine getroffen – gibt kein Label eine befriedigende Antwort.
Was Labels nicht können
Labels behandeln das Symptom. Die Krankheit ist eine andere: Wir haben keine gemeinsame Vorstellung davon, was «menschlich gemachte» Inhalte in einer Welt bedeuten, in der KI in jeden Schritt des Produktionsprozesses eingebettet ist. Nicht am Anfang, nicht am Ende, sondern mittendrin.
Solange diese Frage ungeklärt ist, wird jedes Label entweder zu wenig oder zu viel sagen. Der VSM hat das akzeptiert und setzt auf Verantwortung statt Verifikation. Spotify hat sich für einen anderen Weg entschieden und wird damit (hoffentlich) in der Sackgasse enden.
