Vogt am Freitag: Unmensch

Wir müssen mit der Vermenschlichung von Künstlicher Intelligenz aufhören. Dazu gehört der Verzicht von «Danke» und «Bitte». Damit fordert Kolumnist Reto Vogt das Gegenteil einer Tages-Anzeiger-Autorin.

Künstliche Intelligenz sollte nur antworten, wenn jemand «Bitte» sagt. So lautet der Titel eines Meinungsbeitrags von Bettina Weber, die für das Gesellschaftsressort des Tages-Anzeigers schreibt. Obwohl der schon knapp zwei Wochen alt ist, begegnete er mir erst diese Woche. Aber das macht nichts – selbst wenn ich ihn schon beim Erscheinen gelesen hätte – ich wäre noch immer hässig.

Dabei ist gar nicht alles falsch, was Weber schreibt. «Die Welt braucht nicht weniger Höflichkeit, sondern mehr.» Zauberwörter wie Bitte, Danke, Entschuldigung seien das Schmiermittel des Zusammenlebens. All das unterschreibe ich vorbehaltlos. Aber die daraus folgende Konklusio, dass Künstliche Intelligenz den umgekehrten Weg gehen und auf Fragen ohne Bitte gar nicht erst antworten solle, ist nicht nur falsch, sondern ausgesprochen gefährlich.

Aufruf zum «Bitte» ist ein falsches Signal

Wer eine KI mit «Bitte» anspricht, behandelt sie wie ein menschliches Gegenüber, das sich angegriffen, beleidigt oder eben gebauchpinselt fühlen kann. Aber das stimmt nicht. Der KI ist es egal, ob wir Nutzerinnen und Nutzer nett zu ihr sind. KIs sind keine Subjekte, sondern Systeme oder simpel: Maschinen. Je mehr menschliche Eigenschaften wir ihr zugestehen, desto mehr geraten die tatsächlichen Machtverhältnisse aus dem Blick. In ihrem Text stilisiert Weber KI-Modelle zu «Erziehern» hoch, die uns Menschen Höflichkeit beibringen soll.

Falscher könnte ein Signal nicht sein: Ein simples «Bitte» vermenschlicht KI-Modelle. Das schafft irrationale emotionale Bindungen an ein System, was den KI-Anbietern entsprechend die Manipulation von Nutzerinnen und Nutzern erleichtert, weil sie den KI-Modellen mehr vertrauen als es gerechtfertigt wäre. Es nimmt uns die kritische Distanz und verleitet uns dazu, immer mehr Verantwortung an die Maschine zu delegieren sowie unser eigenes Denken an sie auszulagern. Und nicht zuletzt lässt uns die Vermenschlichung glauben, dass KI-Systeme ein Bewusstsein, Emotionen oder ein Wertesystem haben.

Vermenschlichung von Maschinen schadet

Auch mir rutscht manchmal ein «Bitte» oder ein «Danke» heraus. Ich finde auch nicht, dass man extra garstig sein soll zu KI-Systemen. Auch der mit reiner Höflichkeit verursachte Stromverbrauch ist kein Problem (in diesem Punkt hat Weber recht, allerdings ist ihr Vergleich mit dem Pornokonsum nicht aussagekräftig, weil sie Datenverkehr Rechenintensität gegenüberstellt). Tatsächlich verursacht jedes Danke und Bitte einen gewissen CO₂-Ausstoss, allerdings ist dieser verglichen mit komplexen Prompts und dem Training der KI-Modelle mehr als nur vernachlässigbar.

Wichtig ist nicht, wie höflich wir mit Maschinen sprechen, sondern wer die Kontrolle über diese Systeme hat, wer sie mit welchen Daten trainiert und ob wir ihre Antworten kritisch hinterfragen. Entsprechend braucht es keine gute Kinderstube für Chatbots. KIs sind nicht gefährlich, wenn wir sie unhöflich behandeln, sondern wenn wir ihr zu viel zutrauen, zu viel Verantwortung überlassen und sie (zu oft) für neutral halten. Maschinen sind keine Menschen. Sie brauchen kein «Danke», sie brauchen nur klare Ansagen.

dnip.ch mit Deiner Spende unterstützen

Wir wollen, dass unsere Inhalte frei verfügbar sind, weil wir es wichtig finden, dass möglichst viele Menschen in unserem Land die politischen Dimensionen der Digitalisierung erkennen und verstehen können.

Damit das möglich ist, sind wir auf deine Unterstützung angewiesen. Jeder Beitrag und sei er noch so klein, hilft uns, unsere Aufgabe wahrzunehmen.

2 Antworten

  1. Künstliche Intelligenz darf man schon vermenschlichen. LLMs sind aber keine künstliche Intelligenz. LLMs sind bestenfalls künstliche Schauspieler.

    Damit meine ich nicht nur, daß «LLMs» nicht «gut genug» wären. LLMs haben kategorisch nichts mit künstlicher Intelligenz zu tun. Das Wort KI/AI wurde von den LLM-Hochstaplern im Laiensprachgebrauch besetzt, ähnlich wie «Crypto» bei den Blockchain-Hochstaplern nur am Rande mit Kryptographie zu tun hat.

    1. Ob wir dann Künstliche Intelligenz, die diesen Namen verdient, vermenschlichen wollen: Darüber denke ich dann nach, wenn es relevant wird.

      (Und in der Zwischenzeit erlaube ich mir, LLM auch als KI zu bezeichnen. Immer noch weniger falsch, als das, was gewisse Hersteller machen, die inzwischen Basis-Statistik wie Regression als KI zu bezeichnen…

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge