Was ist noch echt, was nicht und ist das überhaupt wichtig? Kolumnist Reto Vogt findet: unbedingt!
Verstrubbeltes Haar, freundlich-wacher Blick in die Kamera. Ein Mann, ungefähr Mitte Dreissig, eingepackt in eine warme, leicht verschneite Winterjacke, wirbt für das Winter-Schnupper-GA der SBB. Er steht in einer verschneite Landschaft, der Hintergrund ist leicht unscharf, das Foto professionell ausgeleuchtet. Ein perfektes, vielleicht zu perfektes, Werbebild, das unten rechts mit dem Hinweis «AI generated» gekennzeichnet ist. Den Mann gibt es also nicht.
Ist das neu? Bis zu einem gewissen Grad schon. Aber man könnte durchaus sagen: Werbung hat schon immer gelogen. Models wurden Falten wegretuschiert, das Licht geschönt, Emotionen inszeniert. Insbesondere die Werbefotografie hat nie die Wirklichkeit gezeigt, sondern war immer konstruiert und bis zu einem gewissen Grad auch manipulativ. Warum thematisiere ich jetzt also das KI-generierte SBB-Sujet in diesem Text und stelle es als problematisch dar?

Weil sich mit generativer KI etwas Grundsätzliches verändert hat. Nicht nur in der Werbung, sondern überall: in den Medien, in der Politik, in der Unternehmenskommunikation. Was KI verändert hat, ist die schiere Menge an generierten Fotos und Videos sowie die Leichtigkeit, mit der das geschieht. Und diese Leichtigkeit hat eines weggerissen wie ein Bagger ein abbruchreifes Haus: die Hemmschwelle, auf Testimonials zu setzen, die nicht existieren, Realitäten zu zeigen, die es nicht gibt, Situationen zu inszenieren, die nie stattgefunden haben, Orte zu zeigen, an denen niemand je stand.
Die Hemmschwelle war ein Schutz. Sie sorgte dafür, dass zwischen Realität und Fiktion eine Produktionshürde lag. Das Model musste gecastet, die Location gebucht, das Licht gerichtet und die beteiligten Menschen bezahlt werden. Mit dem Schutz verschwindet gleichzeitig etwas anderes: das Vertrauen.
Wenn Unternehmen, Organisationen, Behörden, Medien oder politische Akteur:innen immer mehr Bilder und Videos generieren (beziehungsweise fälschen), beginnen Menschen, jedem Bild zu misstrauen. Und damit bricht etwas Fundamentales: das gemeinsame Verständnis darüber, was tatsächlich passiert ist.
Man könnte nun sagen: Dann müssen wir halt lernen, anders mit Bildern umzugehen. Kritischer hinschauen. Quellen prüfen. Medienbildung stärken. Alles richtig, aber das ist nur die eine Seite der Medaille. Auf der Rückseite steht geschrieben: Die Verantwortung liegt nicht nur bei denen, die Bilder anschauen. Sondern auch bei jenen, die sie erschaffen und verbreiten. Im aktuellen Fall bei den SBB, aber auch bei den Medien, den Werber:innen. Schlussendlich: Bei uns allen.
Ich will KI nicht verteufeln. Sondern dafür plädieren, die Technologie mit Bedacht einzusetzen. Nicht für ein profanes Winterbild «Mann im Schnee», sondern dort, wo klassische Fotografie an ihre Grenzen stösst, wie es der Fotograf und Filmer Markus Mallaun treffend auf Linkedin formuliert hat. Denn wenn wir KI wahllos einsetzen – für jedes gewöhnliche Werbebild, für jede x-beliebige Illustration, für jeden noch so banalen Anwendungsfall –, dann gewöhnen wir uns daran, dass nichts mehr echt sein muss.
KI soll dort eingesetzt werden, wo sie Unmögliches möglich macht, nicht dort, wo sie einfaches noch einfacher macht. Meiner Meinung nach darf es nicht zur Glaubensfrage verkommen, ob etwas echt ist oder nicht. Es muss eine Frage der Verantwortung sein, wie wir mit dieser mächtigen Technologie umgehen.

2 Antworten
Es geht im gezeigten Bild um das Urheberrecht des Fotographen.
Entscheidend ist die Transparenz: Die mit KI generierten Dinge gehören als solche gekennzeichnet – idealerweise mit einem Hinweis auf die Art der Qualitätskontrolle. Wer das nicht tut und es kommt später heraus wird danach noch lange ein Vertrauens- und Glaubwürdigkeitsproblem haben.