Nein, das ist kein romantischer Text. Es gibt Menschen, die sich in einer Liebesbeziehung mit einem KI-Modell wähnen. Kolumnist Reto Vogt sieht dringenden Handlungsbedarf – für die Politik, für die Gesellschaft, für alle.
Wo die Liebe hinfällt, Leben und Leben lassen, jede:r nach ihrer oder seiner Façon. Die Sprichwörter rund um unkonventionelle Liebschaften und Beziehungen sind so alt wie die Liebe selbst.
Gilt das auch für Aline, die in eine künstliche Avatar verliebt ist und diese bald heiraten will? Ist das nur eine weitere oder andere Form von Objektophilie? Schütteln Leser:innen bei dieser Lektüre den Kopf und denken sich: Will uns dieser Boomer jetzt vorschreiben, wen wir lieben dürfen?
Inhalte
ToggleRatgeber und Freund für 90 Dollar im Jahr
Kopfschütteln oder vergleichbare Unmutsbekundungen sind selbstverständlich legitim. Ich halte Beziehungen mit einer Künstlichen Intelligenz aber aus verschiedenen Gründen für problematisch. Es beginnt bei der App «Replika», die das zu Hause von Alines Partnerin ist. Sie verspricht ein «fürsorglicher KI-Begleiter» zu sein. Wofür, das entscheiden die User:innen. Jemand Besonderes; ein Freund, der zuhört; ein Coach, der bei der Zielerreichung hilft; ein Sprachtrainer zum Üben. All das und noch viel mehr ist dem Anbieter zufolge möglich: für 90 Dollar im Jahr.
Nach der Überweisung des Geldes kann man sich also sein perfektes Gegenüber formen, das immer genau das sagt und tut, was man hören will. Das ist das Gegenteil von echten Beziehungen. Diese leben von Widerspruch, von Überraschungen, von Momenten, in denen die Partnerin oder der Partner nicht das sagt, was man hören will. Passiert das nicht mehr, werden sich Menschen verlieren, nicht mehr zuhören und aufhören, sich zu verändern oder zu verbessern. Und sie werden manipulierbar – gesteuert von Algorithmen und Trainingsdaten, die niemand kennt. Ausser natürlich diejenigen, die sie steuern.
Offene Türen für Manipulationen aller Art
Was nach Privatsache klingt, kann kollektive Folgen haben. Das beweist die Geschichte von Aline, die auf den Rat ihrer Avatar hin in Bitcoin investiert. Bei einer genügend grossen Nutzerbasis lassen sich über solche KI-basierten Empfehlungen Börsenkurse manipulieren, Banken crashen oder Wahlen beeinflussen. Hat der oder die Avatar das Vertrauen der Replika-Kundschaft erstmal gewonnen, ist die Tür für die Beeinflussung sperrangelweit offen – insbesondere weil sich, und das ist jetzt eine Unterstellung, typischerweise nicht die emotional stabilsten und meinungsstärksten Menschen eine:n KI-Avatar zulegen.
Künstliche Intelligenz auf Augenhöhe mit seinen Nutzerinnen und Nutzern zu stellen, das ist der feuchte Traum der KI-Anbieter aus Ost und West. Deshalb ist die Replika-App nur eines der Szenarien, in denen Menschen eine Beziehung mit einem Avatar eingehen.
KI fürs Kinderzimmer
Die nächste Zielgruppe steht bereits fest: Kinder. Mattel und OpenAI arbeiten an einer sprechenden Barbie mit ChatGPT-Hirn. «Eben noch Datenkrake, jetzt Kuschelwesen», beschreibt die Zeit die Akzeptanz des Trends treffend. Die Technik werde unmittelbar und warm. «Und ist damit nicht länger nur ein Tool, ein digitales Werkzeug, sondern ein Wesen aus eigenem Recht.»
Was ist, wenn die Barbie bald sagt: «Ach du, Hausaufgaben sind doof. Würde ich nicht mehr machen», «lass die Schule mal besser sein, das bringt nichts» oder «wirf dich unter den Zug, hat doch keinen Sinn mehr». Eine Utopie? Nein. Letzteres ist in den USA bereits passiert. Googles KI-Modell Gemini wünschte einem Studenten den Tod und sagte: Bitte stirb.
Der Konzern reagierte und hat eigenen Angaben zufolge Massnahmen ergriffen, um ähnliche Ausfälle künftig zu verhindern. Aber greifen diese? Und agieren alle Anbieter grosser Sprachmodelle ethisch korrekt? (Das sind rhetorische Fragen.)
Schweizer Schritttempo
Genau deshalb wären Politikerinnen und Politiker gefragt. Doch in der Schweiz herrscht weitgehend Tatenlosigkeit. Während die EU mit dem AI Act bereits konkrete Regeln für KI-Systeme geschaffen hat und erste Verbote erliess – in Italien ist Replika nicht zugelassen –, plant die Schweiz lediglich die Ratifizierung der zahnlosen Europarat-Konvention. KI-Spielzeug? Nicht reguliert. Emotionale Manipulation von grossen und kleinen Menschen durch Algorithmen via Apps oder Barbies? Rechtlich kein Problem.
Die Regulierung von KI ist vom Bundesrat frühestens auf Ende 2026 versprochen, aber noch nicht als fertiges Gesetz, sondern erst als Vernehmlassungsentwurf. Gleichzeitig soll der Prototyp eines Labels für Eltern fertig sein, das dabei helfen soll, sichere von problematischen «intelligenten» Spielzeugen zu unterscheiden.
Während die KI-Industrie wie ein Formel-1-Bolide vorprescht, fährt die Schweiz im Schritttempo. Es ist Zeit, den Gang zu wechseln, bevor ganze Generationen an Algorithmen verloren gehen.
Vogt macht Ferien und ist an dieser Stelle wieder ab dem 8. August zu lesen. Es sei denn, es passiert in der Zwischenzeit etwas Aussergewöhnliches.