Suche
Close this search box.

Marcel pendelt: «KI» und «Vertrauen»

Erzeugt von Generativer KI (Bing Chat+DALL•E): "Trust in Artificial Intelligence"

Vor einigen Wochen hat Bruce Schneier einen Vortrag gehalten, bei dem er vor der der Vermischung und Fehlinterpretation des Begriffs «Vertrauen» gewarnt hat, ganz besonders beim Umgang mit dem, was heute von Firmen als «Künstliche Intelligenz» verkauft wird. Ich glaube, seine Überlegungen sollten einem breiteren Publikum präsentiert werden, deshalb hier das Wichtigste in Kürze auf Deutsch. (Das Original ist noch lesenswerter!)

«Marcel pendelt» ist eine neue Kolumne mit Zusammenfassungen von Artikeln, die ich beim Pendeln lese. Meine Kolleginnen und Kollegen hoffen, dass ich dadurch den DNIP-Gruppenchat dadurch etwas weniger zumülle 😊 und hoffen, dass es auch für alle anderen Leserinnen und Leser zu eine wertvolle Kurzlektüre liefert.

Wir vertrauen auf Schritt und Tritt. Beim Pendeln, dass die Wartung der Züge korrekt abgelaufen ist, dass die Lokführerin einen funktionierenden Wecker hat und sie rechtzeitig aufgestanden ist. Auch, dass uns der Bäcker oder unsere Mitreisenden nicht umbringen.

So ähnlich hätte Bruce Schneiers Rede wohl begonnen, wenn er in der Schweiz zum Vortrag angereist wäre.

Er erläutert, dass Vertrauen die Grundlage für eine funktionierende menschliche Gesellschaft ist, dass wir implizit tausende Male am Tag vertrauen. Und dass es ein Zeichen dafür ist, wie gut dieses Vertrauen funktioniere, dass wir uns kaum je darüber Gedanken machen (müssen). In seinem Vortrag geht er auf folgende Punkte ein:

  1. Vertrauen teilt sich auf in zwischenmenschliches und gesellschaftliches Vertrauen, die wir strikte auseinanderhalten müssen. Obwohl wir sie dauernd vermischen.
  2. Mit Künstlicher Intelligenz wird diese Trennung noch schwieriger; auch, weil wir Chatbots durch ihr Verhalten zu sehr wie Freunde behandeln, statt als die Online-Dienste, die sie sind.
  3. Die Firmen, welche die KI-Systeme kontrollieren, werden unsere Konfusion ausnutzen, um uns alle auszunutzen.
  4. Es sei die Rolle von Regierungen, in unserer Gesellschaft für Vertrauen zu sorgen. Entsprechend müssten diese für vertrauenswürdige KI sorgen, durch Regulierung. Aber nicht durch Regulierung der KI, sondern durch Regulierung der Organisationen, welche diese KI-Systeme kontrollieren.

Arten von Vertrauen

  1. Zwischenmenschliches Vertrauen basiert darauf, dass wir Leute gut kennen und ihnen damit als Person vertrauen: Wir vertrauen den Absichten unserer Freunde und deshalb ihren Aktionen.
  2. Gesellschaftliches Vertrauen basiert nicht auf der intimen Kenntnis einer spezifischen Person, sondern darauf, dass mein Gegenüber mit guter Vorhersagbarkeit keine allzu schlimmen Dinge tun wird.

Zwischenmenschliches Vertrauen skaliert bis zu einer Gruppengrösse von ein paar Dutzend oder wenigen Hundert Personen. Darüber benötigen wir das gesellschaftliche Vertrauen. Es ist nicht perfekt, aber es reicht, wenn die meisten von uns die meiste Zeit vertrauenswürdig sind.

Für seine vertiefte Diskussion sowie die Erläuterung der Vertrauensgrundlagen (Moral, Ansehen, Gesetze und Technik) verweise ich auf seinem Vortrag. Wichtig ist aber, diese beide Formen von Vertrauen klar zu trennen, da wir nur Menschen gegenüber zwischenmenschliches Vertrauen aufbauen können, nicht gegenüber Organisationen.

Regierungen und Firmen sind nicht in der Lage, echte Freundschaften aufzubauen, auch wenn sie mittels Werbung und Social Media alles tun, um sich diesen Anstrich zu geben. Egal, wie freundlich sie daher kommen, sie sind nicht unsere Freunde; sie können nicht unsere Freunde sein. Sie sind unsere Dienstleister.

Erschwernis KI

KI wird gleichzeitig gehyped und kritisiert, wobei Letzteres oft nur zum weiteren Aufbauschen des Hypes. Auch wenn der Chatbot sehr menschlich reagiert: Er ist im besten Falle ein Dienstleister. Häufig aber gleichzeitig ein Manipulator oder Spion; denn Manipulation und Überwachung seien die Businessmodelle des Internets.

Knallharte Interessen

Nur weil KI-Systeme menschlich reagieren und als „digitale persönliche Assistenten“ viel persönlichere Aufgaben übernehmen als jegliche bisherige Technologie: Die meisten davon werden nicht in unserem Auftrag arbeiten, sondern im Auftrag der Firma oder Organisation dahinter. Und egal, wie freundlich diese Fassade entgegenkommt: Dahinter haben wir höchstwahrscheinlich handfeste Interessen: Kapitalismus, Macht, was auch immer. Aber ziemlich sicher nicht unsere und nicht die eines Freundes oder einer Freundin.

Regulierung

Wir brauchen Vertrauen. Das werde aber nicht von alleine kommen, da die Firmen hinter diesen sogenannten Künstlichen Intelligenzen den Versuchungen des Überwachungskapitalismus nur allzu selten wirklich langfristig widerstehen könnten, so Schneier.

Da bereits jetzt den Regierungen die Aufrechterhaltung des sozialen Vertrauens obliegt, sollen sie auch die natürliche Erweiterung auf KIs übernehmen, durch Gesetze für

  • Transparenz von KI: Verwendung, Training, Voreingenommenheit und Fehlermöglichkeiten;
  • Sicherheit von KI und Robotik: Wie sie in die Welt eingreifen dürfen; und
  • Durchsetzen des Vertrauens in KI: Mit Strafen, welche genügend Ansporn sind, sich auch wirklich an die Gesetze zu halten.

Es gehe aber nicht darum, die KI selbst zu regulieren, sondern die Menschen hinter ihnen. Nur diese können wir regulieren; ansonsten machen wir den gleichen Fehler und verwechseln die verschiedenen Formen von Vertrauen.

Um dies umzusetzen, schlägt Schneier folgende Massnahmen vor:

  1. Treuhänder, welche in unserem Interesse handeln und denen wir unsere Daten für den Umgang mit ihren KIs anvertrauen.
  2. Echte öffentliche KI-Modelle: Von der Öffentlichkeit für die Öffentlichkeit geschaffen; mit der Übernahme von politischer Verantwortung für diese Modelle.

Abschliessend meint Schneier, dass wir KI nie zu echten Freunden machen könnten. Aber wir könnten sie zu vertrauenswürdigen Dienstleistern machen. Aber dazu müssten die Regierungen gegen den Überwachungskapitalismus vorgehen. Nur so könnten wir das gesellschaftliche Vertrauen aufbauen, das unsere Gesellschaft zum Gedeihen brauche.

(Auch wenn ich nicht mit allen Details einig bin, halte ich es bisher für den bisher besten Ansatz zum Umgang mit KI.)

Diese Zusammenfassung kann nur einen kleinen Einblick in die vielen Beispiele und die brillant präsentierten Gedankengänge geben. Wer sich vertieft mit der Materie auseinandersetzen und sich eine fundierte eigene Meinung bilden will, dem sei der ganze englische Artikel von Bruce Schneier wärmstens ans Herz gelegt.

Literatur

dnip.ch mit Deiner Spende unterstützen

Wir wollen, dass unsere Inhalte frei verfügbar sind, weil wir es wichtig finden, dass möglichst viele Menschen in unserem Land die politischen Dimensionen der Digitalisierung erkennen und verstehen können.

Damit das möglich ist, sind wir auf deine Unterstützung angewiesen. Jeder Beitrag und sei er noch so klein, hilft uns, unsere Aufgabe wahrzunehmen.

4 Antworten

  1. Die Warnungen sind eher diffus. Wie : steig nicht zu fremden Leuten ins Auto. Zu einem spaeteren Zeitpunkt sollten Beispiele folgen.
    Es ist schwierig Desinformation so konzentriert und geschmeidig wie ein Politiker zu überbringen. Davon ist KI noch ein Stück weg. Allenfalls waere eine Verkaufs-KI, trainiert mit Reden von Politikern ein Ansatz.

  2. Aufpassen, jetzt werden wir mit Falschinformation ueberrollt, resp das Vertrauen ist eher nicht gerechtfertigt.
    Ein paar Anwaelte und Politiker wurden aufgeschreckt von etwas Software, welche Texte und Bilder generieren kann. Aufgrund von Vorlagen zwischen welchen inter- und extrapoliert werden kann. Jetzt musste hastig etwas in Richtung Gesetzen raus.
    Die ganze Thematik von KI laeuft schon seit ueber 30 Jahren. Damals nannten sie sich zB auch Expertensysteme, und haben Stuecklisten optimiert. Welche Bezeichnung halt eher zieht. Bildverarbeitung, Mustererkennung in der Kamera, gibt’s schon laenger. Die Systeme muessen in der Industrie halt erst mal die Performance bringen. zB pro Stunde 10’000 Flaschen auf den Verschluss zu pruefen. Oder die Qualitaetskontrolle von 5000 Grittibaenzen pro Stunde. Oder neuer, ein Auto durch den Verkehr lenken. Dabei tritt die Schadensvermeidung und Haftung in den Vordergrund.
    Wenn bisher das Stichwort KI etwas Gratiswerbung brachte, hat’s jetzt vielleicht den gegenteiligen Effekt. Aus Haftungsgruenden nennt man’s allenfalls nicht mehr so, auch wenn’s drin ist. Speziell wenn man 100 Millionen Trainingsdatensaetze auf den Tisch legen sollte, laesst man sich einen anderen Namen einfallen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge