OpenAI will sich auf dem Werbemarkt ausbreiten und seinen Nutzer:innen Anzeigen ausspielen. Kolumnist Reto Vogt prophezeit, dass das der Akzeptanz von KI mehr schadet als nützt.
Grosse Sprachmodelle waren nie neutral oder objektiv. Und schon gar nicht erzählen sie uns immer die Wahrheit, sondern präsentieren allerhöchstens Wahrscheinlichkeiten. Doch während wir bisher über technologische Gründe von Halluzinationen debattierten, folgen nun die kommerziellen Interessen hinter KI-generierten Antworten: OpenAI hat angekündigt, ab Februar Werbung in ChatGPT anzuzeigen.
Ja, zunächst nur testweise, nur in den USA und nur im kostenlosen sowie günstigsten ChatGPT-Abo «Go». Doch wer die Dynamik des Silicon Valley kennt, weiss: Das ist erst der Anfang einer globalen Monetarisierung von ChatGPT. Denn der Konzern braucht dringend flüssige Mittel: 200 Milliarden Dollar muss OpenAI in den nächsten fünf Jahren auftreiben und ist selbst dann noch nicht profitabel.
Das Märchen von der Unabhängigkeit
Bei Zahlen dieser Grössenordnung sind die Werberichtlinien des Konzerns das «Papier» nicht wert, auf das sie geschrieben sind. OpenAI kann noch lange behaupten, dass Anzeigen die Antworten der KI niemals beeinflussten oder dass Werbetreibende keinen Zugang zu den Unterhaltungen mit ChatGPT erhielten. Diese Sätze sind so glaubwürdig wie ein Bankberater, der behauptet, seine Fondsempfehlung hätte absolut nichts mit seiner Provision zu tun.
Hinzu kommt die Art der Werbung: Anders als bei Google soll bei der Werbung in ChatGPT nicht pro Klick, sondern Einblendung abgerechnet werden. Das ist aus Sicht von OpenAI betriebswirtschaftlich logisch, weil Nutzer:innen ohnehin kaum mehr klicken. Doch hier beginnt das eigentliche Problem. Als ehemaliger Verantwortlicher für ein Online-Medienhaus weiss ich: Werbung, die keine messbaren Klicks generiert, interessiert Werbekunden nullkommanull – es sei denn, sie bekommen dafür etwas anderes. Zum Beispiel Einfluss. Ich habe das immer abgelehnt, aber ich bin auch kein US-Konzern auf Milliardensuche.
Wer zahlt, befiehlt
Die Vergangenheit und das Verhalten der Entscheider im Silicon Valley hat gezeigt, dass Profitmaximierung über allem steht. Laut einer Recherche von «The Information» (Paywall) sollen sich die ersten Werbekunden dazu verpflichten, für eine mehrwöchige Testphase bis zu eine Million Dollar auszugeben. Jetzt dürfen Sie dreimal raten, wen OpenAI zuerst zufrieden stellen will: Werbekunden, die siebenstellig überweisen oder Nutzer:innen, die keinen müden Dollar für ChatGPT übrig haben? Voilà.
Es ist absehbar, dass Werbekunden in Antworten gut behandelt werden. Bei ChatGPT passiert das heute schon bei Quellen von Medienhäusern, mit denen der Konzern eine bezahlte Partnerschaft unterhält. Andere, die beispielsweise in einem Rechtsstreit mit dem KI-Konzern stehen, ignoriert ChatGPT geflissentlich. Ergebnisse beziehungsweise Antworten von KI werden so mehr und mehr zur Verhandlungssache. So wird die gesunde Skepsis, die Nutzer:innen gegenüber KI-Dialogen haben müssen zur Sepsis – zur Blutvergiftung solcher Systeme.
Werbung vergiftet KI
Ein fiktives Beispiel: Frage ich ChatGPT, welche Regionen für einen Familienurlaub in Frage kommen, empfiehlt mir die KI dann das Wallis oder Graubünden – wenn eine der beiden Tourismusorganisationen aktuell eine Kampagne gebucht hat? Aufgrund der Systematik grosser Sprachmodelle erfahren Nutzer:innen nie, warum welche Antwort wie zustande kommt.
An den meisten Schweizer Briefkästen klebt der «Stopp Werbung!»-Hinweis. Bei ChatGPT gibt es keine solche Option. Schlimmer: Während wir Briefkastenwerbung sofort als solche erkennen, tarnt sich KI-Werbung als vermeintlich neutrale Information. Solange Rechtsstaaten Anbieter wie OpenAI nicht per Regulierung zu mehr Transparenz bei Trainingsdaten und Algorithmen zwingen, gilt: Wer ChatGPT fragt, sollte wissen, dass er möglicherweise nicht die beste Antwort erhält.
Sondern die profitabelste.

