Künstliche Intelligenz ist seit 1½ Jahren in aller Munde. Die Meinungen gehen von «KI wird uns in ein goldenes Zeitalter führen» über «KI ist vollkommen nutzlos» bis zu «KI wird unsere Welt zerstören». Das liege daran, dass wir alle Anwendungen und Entwicklungen in denselben Topf werfen würden, es uns viel zu einfach machten, meint Danilo Campos. In einem kürzlich erschienen Essay, hier als deutsche Übersetzung, versucht er deshalb, die Diskussion um KI zu strukturieren und beleuchtet dazu typische Kritikpunkte und ordnet sie ein. Das Resultat hilft bei der Versachlichung und Konkretisierung der Diskussion. Und zeigt auch auf, wieso die Probleme nicht in der Technik zu suchen sind, sondern wie sie angewendet wird. Denn damit bestimmen wir, wer in Zukunft Macht hat und wer diskriminiert wird.
Keine technische oder gesellschaftliche Diskussion sollte geführt — geschweige denn Entscheidung gefällt — werden, ohne diesen Text gelesen zu haben. Auch wenn ich ihm nicht überall zustimme. Aber seht selbst.
Dies ist eine deutsche Übersetzung des Beitrags «The average AI criticism has gotten lazy, and that’s dangerous» von Danilo Campos. Übersetzt mit freundlicher Genehmigung des Originalautors (und Unterstützung durch eine KI-Übersetzungssoftware).
Dieser Kommentar unterscheidet sich vom üblichen Stil und Wortwahl bei DNIP. Es war uns aber wichtig, den Text nahe am Original zu belassen.
Eines vorweg: Die KI-Ethiker, die alles tun, um die Gesetzgeber und die Öffentlichkeit aufzuklären, sind Helden. Auch wenn ich nicht alle ihre Aussagen unterschreiben würde, so unterstütze ich ihre Bemühungen die Mächtigen im Schach zu halten aufs Vollste.
Leider passiert auf dem Weg in den öffentlichen Diskurs etwas Seltsames: Die meiste KI-Kritik, die man an jeder beliebigen digitalen Strassenecke hört kann, macht es sich viel zu einfach. Wir müssen uns anstrengen, wenn wir eine lebenswerte Zukunft haben wollen.
Wer hier schläft, überlässt das Feld denjenigen, die unsere Interessen mit Füssen treten, für lausige 2 % Marktanteil mehr. Ich möchte, dass Menschen mit einem Gewissen diese Diskussion besser führen können.
Inhalte
ToggleDie Gefahr einer schlechten Kritik
Wir stehen an einem entscheidenden Punkt.
Nach fünfzig Jahren Entwicklung sind digitale Computer heute in der Lage, bestimmte Informationsmuster zuverlässig zu extrahieren und auf dieser Grundlage neue Muster zu erzeugen.
Anmerkung des Übersetzers: Der obige Satz beschreibt die Forschung und Entwicklung rund um Künstliche Intelligenz, die vor rund 50 Jahren begann und nun zu Generativer KI, also Chatbots wie ChatGPT oder den KI-Bild-, -Video- und -Musikgeneratoren etc. geführt hat. Sie alle basieren darauf, dass Muster aus grossen Datenmengen extrahiert wurden (beispielsweise einer Unzahl von Texten oder Bildern aus dem Internet) und nun auf Aufforderung neu arrangiert werden.
Einige dieser neuen Muster sind nicht ganz nach unserem Geschmack. Aber mehr Zeit und mehr Investitionen werden zu immer überzeugenderen Resultaten führen. Meiner Meinung nach ist es am sinnvollsten, diesen Prozess als Mustersynthese zu bezeichnen, auch wenn die Lieferanten dieser Technologie «Künstliche Intelligenz» vorziehen. Ich werde diese Begriffe austauschbar verwenden, aber ich denke, dass «KI» eher eine Marke denn eine genaue Beschreibung ist.
Wie auch immer wir es nennen wollen, die Katze ist aus dem Sack. Wir werden ihren Einsatz nicht verhindern können, denn sie ist letztlich nur eine von vielen möglichen Anwendungen von handelsüblicher Computerhardware. Sie ist umfassend dokumentiert und breit verfügbar. Ihre Nutzung zu beschneiden, würde eine gnadenlose Einschränkung der Art und Weise erfordern, wie wir alle unsere privaten Digitalgeräte nutzen.
Ich glaube nicht, dass es dazu kommen wird, und wenn man die Idee zu Ende denkt, sollten wir es aufgrund der Auswirkungen auf die Freiheitsrechte auch nicht wollen. Stellen Sie sich Fahrenheit 451 vor, aber die Schlägertrupps in Springerstiefeln zerstören den Raspberry Pi Ihres Kindes.
Allerdings sind nicht alle Anwendungen zur Mustersynthese gleich; ebenso nicht alle Computer. OpenAI geniesst einen erheblichen Vorsprung in diesem Bereich und verfügt über ausreichend fortschrittliche Computerhardware, um unvergleichlich mächtige Ergebnisse zu erzielen.
Selbstverständlich gibt es konkurrierende Initiativen. Andere Anbieter versuchen, mit ihren eigenen proprietären Produkten aufzuholen und im Open-Source-Bereich findet sich ein florierendes Ökosystem für Experimente und neue Entwicklungen.
Es besteht aber kaum Gefahr, dass OpenAI seinen Vorsprung verlieren wird. Die Qualität von ChatGPT verbessert sich ständig, ebenso wie seine Fähigkeiten. Der Unterschied zwischen dem Produkt heute und dem vor einem Jahr ist wirklich erstaunlich.
Inzwischen kann OpenAI mit der Nachfrage nicht mehr Schritt halten.
Mir wurde gesagt, das Zeug sei nutzlos
Es gab Zeiten, da war es kaum etwas wert. Ein reines Kuriosum. Aber die Entwicklung dieser Werkzeuge vollzieht sich in einem schwindelerregenden Tempo. Wenn Sie ein paar Quartale nicht aufpassen sind Ihre Vorstellung davon, wie das alles funktioniert, ist völlig veraltet.
Leider hält das faule Kritiker nicht davon ab, KI generell schlecht zu reden.
Wir können die «KI» abtun. Wir können sie als nutzlos bezeichnen, wir können ihren Output als Unsinn abtun, wir können weiterhin all die Katechismen der am wenigsten informierten Kritiker der Technologie vorbeten. Während wir das tun, riskieren wir aber, dass OpenAI andere Firmen wie Microsoft, AT&T und Standard Oil wie einen Tante-Emma-Laden aussehen lässt.
Anm. d. Übers: Auch andere grosse Firmen wie Google oder Meta (ehemals Facebook) könnten im KI-Bereich dominant werden. Der Satz bezieht sich aber darauf, dass OpenAI innert weniger Jahre quasi aus dem Nichts entstand und in vielen Bereichen weiterhin die Nase vorn hat. (Die zukünftige Entwicklung ist allerdings schwer vorherzusagen. «Prediction is hard, especially of the future.»)
Wir geben dann jede Möglichkeit auf, die Ergebnisse der Mustersynthese zu beeinflussen, ausser durch den groben und schwerfälligen Knüppel der Regulierung. Und ich weiss nicht, wie es Ihnen geht, aber die Gesetzgeber in meiner Gegend verfügen nicht über die notwendige technische Raffinesse, um etwas anderes zu tun, als blindlings den Launen des letzten Lobbyisten zu folgen, mit dem sie gesprochen haben.
Echte Aktivisten liefern («lifere statt lafere»)
Was auch immer Sie an KI auszusetzen haben: Der Geist geht nicht zurück in die Flasche, ausser wir verbieten Statistik und Silizium. Der lausigste Computer bei Ihnen zuhause kann Machine-Learning-Probleme lösen, wenn Sie die richtigen Dinge herunterladen.
Der wohl grösste Teil der menschlichen Arbeit beinhaltet irgendeine Form der (menschlichen) Musterverwaltung oder Mustersynthese. Die Rechenkapazität von OpenAI ist ausgebucht, weil das, was sie tun, die Produktivität von solchen Musteraktivitäten vervielfacht.
Mustersynthese verändert die Arbeitswelt, wie schon globale Vernetzung, universell einsetzbare persönliche Computer, Telephonie, Elektrifizierung, und der Verbrennungsmotor davor. Sie verändert die Grundlage dessen, was Einzelpersonen, Teams und die Gesellschaft erreichen können.
Die Frage ist also: Welche Art von Zukunft wünschen Sie sich? Wollen Sie eine Zukunft, in der effektive, zuverlässige Mustersynthesizer für jeden zu einem vernünftigen Preis verfügbar sind? Oder wollen Sie, dass ein einziges Unternehmen die Kosten festlegt und eine grosse Gewinnspanne erzielt, indem es nur die profitabelsten Kunden bedient?
Wollen Sie eine Zukunft, in der Mustersynthesizer kooperativ und auf der Grundlage einvernehmlich beigetragener Daten entwickelt werden? Oder wollen Sie einen Rechtsrahmen, der von den reichsten Leuten nach ihren eigenen Wünschen aufgebaut wird?
Wünschen Sie sich eine Zukunft, in der Mustersynthesizer energieeffizient sind und ein nachhaltiges Gleichgewicht zwischen Leistung und Externalitäten herstellen? Oder wollen Sie, dass deren Kosten und Externalitäten versteckt und weissgewaschen werden?
Wollen Sie, dass Mustersynthesizer ein Kastensystem schaffen, das technisch Versierte vom Rest trennt?
Das ist ziemlich übertrieben
Zweimal im Monat bin ich in meiner lokalen Bibliothek. Ich sitze dann einen Abend lang an einem Tisch und unterstütze Senior:innen bei ihren technischen Fragen. Sie bringen ihre Laptops, Telefone, Tablets und sogar Drucker mit; oft zusammen mit ganzen Listen mit Problemen, die sie damit hatten. Wir gehen ihre Liste durch, versuchen, die Probleme zu lösen. Und ich tue mein Bestes, ihnen zu versichern, dass ihre Schwierigkeiten nicht ihre Schuld sind.
Aber viel zu viele geben sich trotzdem die Schuld. Sie haben kein mentales Modell, das erklären würde, warum die Dinge tun, was sie tun.
- Warum diese Website sie auffordert, sich mit ihrem Google-Konto anzumelden, und zwar mit einem penetranten Popup-Fenster (Antwort: Jemand hat eine Zielvorgabe für Neuanmeldungen).
- Warum ihr Computer ohne Grund so langsam ist (Antwort: Der Hardwarehersteller hat Crapware installiert, die grosse Mengen an CPU verbraucht).
- Warum jemand in der Lage ist, sich aus der Ferne in ihren Computer einzuloggen und all ihre Daten zu zerstören (Antwort: Sie haben aus Angst ein Callcenter für Betrüger angerufen und Social Engineering hat den Rest erledigt).
- Warum sie mit den Gesten und Steuerelementen, die für die Bedienung eines modernen Smartphones erforderlich sind, nichts anfangen können (Antwort: Das UX-Design wurde nicht an Menschen wie Ihnen getestet).
Wenn alle staatsbürgerlichen Aktivitäten über Digitalkanäle ablaufen, wird das auch zu einer Frage der wirtschaftlichen Gerechtigkeit und der politischen Selbstbestimmung. Der Mangel an Technologiekompetenz und -zugang trifft viele Menschen aller Altersgruppen; vor allem aber einkommensschwache Familien und ältere Menschen. Wir haben es völlig versäumt, sie mitzunehmen.
Und wenn wir so weitermachen, wird sich das Ganze mit KI wiederholen.
Aber schlimmer.
Die dumme Kritik
Ich will auch über all‘ die essenziellen Kritikpunkte sprechen, die mehr Erklärung benötigen. Aber davor müssen wir zuerst den ganzen kontraproduktiven Mist wegräumen, der die Glaubwürdigkeit der KI-Kritik als Ganzes zu untergraben versucht.
Es ist «nutzlos» und produziert «Unsinn»
Die KI-Elite hat ein Narrativ verbreitet, mit dem sie ihren aktuellen Vorsprung durch einen regulatorischen Zaun aufrechterhalten wollen. Nämlich: dass die KI uns alle umbringen wird. Es ist wichtig, an dieser Stelle festzuhalten, dass sie in diesem Punkt völligen Unsinn erzählen: Wenn sie wirklich daran glauben würden, würden sie sicherlich ihren unglaublichen Einfluss auf ihre eigenen Unternehmen nutzen, um das Unvermeidliche zumindest hinauszuzögern.
Dazu ist es nicht gekommen. Stattdessen gehen Sie weiterhin jeden Tag zur Arbeit.
Forscher und Ethiker begründen dies damit, dass es sich bei diesen Werkzeugen nicht um „Intelligenzen“ handelt, sondern eher um „stochastische Papageien“, die bereits bekannte Muster wiederholen, ohne dass ein tieferes Verständnis dahinter liege.
Anm. d. Übers: «Stochastischer Papagei» (z.T. auch «statistischer Papagei») ist eine Bezeichnung für generative KI-Chatbots, da sie im Kern eigentlich nur statistische Muster neu kombinieren (oder eben nachplappern) und kein Verständnis im engeren Sinne für den Inhalt hätten. Der Ausdruck geht auf eine wissenschaftliche Abhandlung von 2021 zurück.
Dies hat leider eine Welle des stochastischen Nachplapperns ausgelöst — das Meme ist in seiner visuellen Ausschmückung unwiderstehlich —, mit der Folge, dass viele die Kritik jetzt so missverstehen, dass jeglicher Output dieser stochastischen Papageien inhärent wertlos sei.
Tatsächlich kostet ein Afrikanischer Graupapagei aber Tausende von Dollar im Einzelhandel. Papageienliebhaber sehen also (trotz „wertlosem Output“) einen enormen Wert in ihren Vögeln, die ihnen Gesellschaft leisten und sie unterhalten.
Ebenso ist der Output eines LLM nicht garantiert nutzlos, unsinnig oder anderweitig ohne Bedeutung.
Anm. d. Übers: «LLM» oder «Large Language Model» («grosses Sprachmodell») bezeichnet die allgemeine Technik hinter KI-Sprachmodellen wie Chatbots und auch einigen maschinellen Übersetzungssystemen. Der Name stammt daher, dass diese Systeme zum Training mit Unmengen von Text gefüttert wurden.
LLMs können zum Beispiel genutzt werden, um Übersichten über ein Themengebiet und sogar Buchempfehlungen zu erstellen, die auf die Bedürfnisse eines bestimmten Lernenden zugeschnitten sind. Sie neigen bekanntlich zum „Halluzinieren“, ein gepflegter Fachausdruck für „Schwachsinn fabrizieren“. Aber in nur wenigen Monaten wurde diese Neigung auf eine besondere Art eingedämmt: Das LLM kann das Internet durchsuchen und dabei Zitate und Links bereitstellen, die Sie selbst überprüfen können. Wo Sie früher vielleicht zu Veröffentlichungen geführt wurden, die nicht existierten, können Sie jetzt das LLM auffordern, Ihnen Beweise zu liefern.
Es ist also kein Unsinn. Und auch nicht nutzlos.
Ein Teil des Interesses an der Arbeit von LLMs ist, wie sie vorhandene Informationen interpretieren und für Sie klarstellen können. Ein LLM kann Texte aller Art sinnvoll zusammenfassen, von einem dichten Aufsatz bis zu einer Datei mit Programmcode.
Das Problem von Aussagen wie „KI ist nutzlos“, „KI produziert Unsinn“ oder ähnlich fauler Kritik ist, dass sie die Glaubwürdigkeit auch in all jene zerstören, deren Erfahrungen mit den Werkzeugen die Kritik widerlegen. Was wiederum der Glaubwürdigkeit der KI-Kritik an sich schadet.
Noch schlimmer ist, dass diejenigen, die das Potenzial dieser Werkzeuge noch nicht kennengelernt haben, solche Kritik für bare Münze nehmen und so die Gelegenheit verpassen, ihre eigenen Erfahrungen mit einer noch jungen, aber wirtschaftlich folgenreichen Technologie zu machen.
Derartige Kritik ist die schlechteste die es gibt und ich wünsche mir zutiefst, dass sie aufhört.
Energieverbrauch als Hauptargument
Kommen wir zu dem Teil, bei dem die Leute darauf bestehen, dass KI-Technologien zu viel Energie verbrauchen. Man hat das Gefühl, als ob einige Kreise einfach die berechtigten Kritikpunkte an Kryptowährungen aufwärmen, ohne sich die Mühe zu machen, sie zu verifizieren.
Und ich verstehe es: Nachdem ihre digitalen Tulpenzwiebeln nicht zum erhofften Paradigmenwechsel geführt haben, sind die schlimmsten Krypto-Bullshitter nahtlos weitergezogen, um jetzt KI zu hypen. Dennoch sind das zwei Paar Schuhe.
Der Energieverbrauch von Kryptowährungen war vor allem deshalb problematisch, weil Kryptowährungen immer höhere Energiekosten mit sich brachten. Im Wesentlichen wurde die Proof-of-Work-Kryptowährung so konzipiert, dass sie Energie verschwendet, indem sie kryptografische Operationen durchführt, die in der überwiegenden Mehrheit der Fälle keinen sinnvollen Zweck erfüllen.
Das ist ein äusserst dummer Umgang mit Energie, besonders in der Klimakrise, und jeder, der das unterstützt, verdient es, in der Hölle zu schmoren.
Aber ein Mustersynthesizer hat ein bestimmtes Ziel: Er soll etwas Nützliches leisten, bestimmt vom Benutzer. Nicht jedes Produkt oder Modell leistet dabei grossartige Arbeit, aber die allgemeine Entwicklung ihrer Nützlichkeit ist dramatisch.
Die verschiedenen Dinge, die wir als KI bezeichnen, können Code für Sie interpretieren, Krebszellen erkennen und Dokumente hilfreich Korrektur lesen. Ich habe 20’00 Zeilen C++ geschrieben, die IoT-Geräte steuern, die in meinem Haus verteilt sind. Mit Hilfe von ChatGPT. Und sie laufen sehr zuverlässig.
Während ich die letzten Zeilen schrieb, bat ich ChatGPT 4 zu bewerten, wie fair ich zu den oben genannten Kryptowährungen war, und es lieferte einige nuancierte Analysen, die mir halfen, zu etwas Konkreterem zu kommen (die Qualifizierung von Proof-of-Work als Hauptschuldiger für Energieverschwendung).
Zumindest in einigen Fällen und für einige Nutzer leistet KI also nützliche Arbeit, und zwar in einer Weise, die mit der zunehmenden Effizienz der Technologie wächst. Im Gegensatz zu Kryptowährungen besteht für KI-Anbieter zudem ein Anreiz, die Kosten für KI zu senken. Knappe Ressourcen wie Energie und fortschrittliche GPUs verringern ihre Fähigkeit, Kunden zu bedienen, und reduzieren ihre Gewinnspannen. Je effizienter die Mustersynthese gemacht werden kann, desto profitabler sind ihre Anbieter.
Die Entwicklung der Datenverarbeitung zeigt einen stetigen Trend: Der Energieaufwand für die Erledigung von Aufgaben nimmt ab, während die Menge der möglichen Aufgaben zunimmt. Dies gilt sogar für GPUs, für die inzwischen 25 Jahre an Daten vorliegen.
Anm. d. Übers: «GPU» oder «Graphics Processing Unit» («Grafikprozessor») sind die Prozessoren, die sich auf Grafikkarten um alle Grafikberechnungen kümmern, insbesondere auch 3D-Transformationen. Im Gegensatz zum Hauptprozessor in einem Computer, der CPU, sind GPUs darauf optimiert, sehr viele gleichartige Berechnungen gleichzeitig durchzuführen. Sie werden daher auch in Supercomputern z.B. für Simulationen (von Proteinen bis Wetterprognosen) eingesetzt. Aber sie eignen sich auch sehr gut für die Berechnungen, die für LLMs nötig sind, weshalb die Rechenzentren, die dafür bereitgestellt werden, von Grafikkarten nur so strotzen.
Auf Mastodon.social argumentiert @glyph, dass der Energieverbrauch von LLMs tatsächlich um Grössenordnungen geringer sei als der von Kryptowährungen, was einigermassen stichhaltig zu sein scheint. Vergleichen Sie die Gigawattstunden für Training und Betrieb eines LLM mit Hunderten von Terawattstunden für den Betrieb des Bitcoin-Netzwerks. Oder vergleichen Sie ihn mit dem Gesamtenergieverbrauch der Rechenzentren, der ebenfalls in Hunderten von Terawattstunden gemessen wird.
Jedes Argument, Mustersynthese aufgrund ihres Energieverbrauchs abzuschalten, kann als noch stichhaltigeres Argument genutzt werden, um dem Gesamtsystem an Soft- und Hardware den Stecker zu ziehen.
Die Sache ist die, dass wir vor langer Zeit beschlossen haben, unsere Gesellschaft auf der Prämisse aufzubauen, dass es sich lohnt, Energie für produktive Arbeit aufzuwenden. Heute verbringen wir Unmengen von Energie mit Dingen wie:
- Profane Cloud-Computing-Infrastruktur, wie erwähnt
- Globale Telekommunikation
- Pendeln in Büros, damit Leute an Zoom-Anrufen teilnehmen können
- Klimaanlagen und Heizungen für die gleichen Büros
- Industrielle Fertigung
- Flugreisen
- Seeschifffahrt
- Sport
- Bier herzustellen und kühl zu halten
Dies sind nur einige wenige Beispiele, die mir spontan einfallen. Wieso sollen bei angewandter Statistik jetzt plötzlich andere Regeln gelten?
Anm. d. Übers: Mit «angewandter Statistik» ist das gemeint, was im Alltag als «Künstliche Intelligenz» bezeichnet wird (weil es sich nämlich «nur» aus allerhand Statistiken über die Trainingsdaten zusammensetzt).
Ich hatte das beschissenste Jahr, was den Klimawandel angeht, und ich habe deshalb umfassend in erneuerbare und effizientere Energie investiert, von Solaranlagen über Batterien bis hin zu Wärmepumpen. Mir liegen die Themen erneuerbare Energien und Klima zutiefst am Herzen.
Von einer aufstrebenden Technologie zu verlangen, dass sie die gesamte Verantwortung für eine branchenübergreifende Klimakrise übernehmen soll, erscheint mir alles andere als schlüssig. Es sei denn, Sie fordern auch ein Ende aller alltäglichen Datenverarbeitung.
Wir müssen uns mit dem Klima in mehreren Dimensionen befassen:
- Regulatorische Konsequenzen für Umweltverschmutzer und Unternehmen, die fossile Brennstoffe herstellen
- Abschaffung der Subventionen für fossile Brennstoffe
- Mehr Forschung und Investitionen in die Energiespeicherung
- Ersetzen der bestehenden Energieinfrastruktur
- Senken der Kosten für den Aufbau alternativer Energieinfrastrukturen
- Verringerung des verschwenderischen und ineffizienten Energieeinsatzes in allen Sektoren und Tätigkeitsbereichen
KI einfach zum Buhmann für die Fehler von Shell, Exxon und BP zu machen, ist nicht zielführend. Als Haupteinwand gegen KI ist er grundsätzlich unseriös, auch wenn KI-Unternehmen wie alle anderen Energiebezüger ihren Ressourcenverbrauch überprüfen, regulieren und einschränken sollten.
Die Schüler werden sie zum Schummeln benutzen!
Scheiss auf das Auswendiglernen und den performativen Schwachsinn in der Schule. Ich werde dem nicht einmal mehr als einen Absatz widmen. Sollen die Schulen doch herausfinden, wie Schüler tatsächlich lernen und nicht nur Stoff wiederkäuen. Das ist kein Problem, das KI zu lösen hat. Es ist an der Zeit, im 21. Jahrhundert anzukommen, du verfaulender Mechanismus der unterdrückenden Konformität und Klassenschichtung.
Anm. d. Übers: Der letzte Satz gibt in keinster Weise die Meinung der DNIP-Redaktion wieder.
Beispiele für aktuelle, wichtige Themen, die wir angehen müssen
Die Mustersynthese wird den Status quo umkrempeln, so wie es das Internet vor 30 Jahren getan hat. Keine Industrie, keine menschliche Aktivität wird davon unberührt bleiben.
Manche Leute machen absolut dumme Sachen, um mit dieser mächtigen Technologie Geld zu sparen.
Das Schlimmste aber ist, dass Menschen diese Macht nutzen werden, um Schaden anzurichten. Und diese Technologie wird sich nicht dagegen wehren.
Die folgende Aufzählung ist in keiner Weise vollständig. Falls hier etwas fehlt, dann ist das nur meiner mangelnden Stringenz zuzuschreiben und soll keine Wertung darstellen. (Es sei denn, die Idee ist wahrhaft dumm, aber das müssen Sie selbst beurteilen.)
Stattdessen finden Sie hier eine Übersicht über Dinge, die wir immer im Hinterkopf behalten sollten, damit wir bessere Alternativen fordern—oder diese sogar bauen—können. Falls diese besseren Alternativen nicht kommen, gibt uns dieses Wissen zumindest ein Werkzeug in die Hand, damit wir Verantwortungsübernahme bei denen fordern können, welche diese fehlerhaften Anwendungen schlussendlich einsetzen.
Trainiert mit Material aus Kindsmissbrauch
Anm. d. Übers: Dieses Unterkapitel wurde vom Autor später eingefügt und besteht nur aus dem Zitat aus dem Artikel von 404 Media. Es bezieht sich darauf, dass Stanford-Forscher im Dezember 2023 publizierten, dass eine zum Training von KI-Modellen verwendete Bilddatenbank zwischen Milliarden anderen Bildern auch einige hundert Bilder von Kindsmissbrauch enthielt.
404 Media berichtete:
„Die Menge an Material aus Kindsmissbrauch (CSAM) bedeutet nicht automatisch, dass dieses Material die Ausgabe der KI-Modelle drastisch beeinflusst; nicht über die sonstige Fähigkeit der Modelle hinaus, Konzepte wie sexuelle Aktivität und Kinder zu kombinieren. Trotzdem wird es Einfluss haben. Die Präsenz von mehreren identischen Instanzen des Kindsmissbrauchsmaterials ist ebenfalls problematisch, da sie Bilder der darauf abgebildeten Opfer verstärkt.“
Das Modell ist ein massiger Teil des KI-Ökosystems und wird von Google und Stable Diffusion verwendet. Die Entfernung der Bilder erfolgte, nachdem Stanford-Forscher Tausende von mutmasslichen Bilder von Kindsmissbrauch im Datensatz entdeckten.
Übersetzung von 404 Media; inneres Zitat aus David Thiel, „Identifying and Eliminating CSAM in Generative ML Training Data and Models“, Stanford Internet Observatory, 2023-20-23, via 404 Media.
KI verewigt, verstärkt und normalisiert Vorurteile, mit unterschiedlichen Auswirkungen
Da die Mustersynthesizer durch das Füttern von, nun ja, Mustern aufgebaut werden, sind sie auf das trainiert, was Menschen geschrieben und gesagt haben. Diese Muster sind voll von Verzerrungen und Vorurteilen.
Sie werden zum Beispiel Schwierigkeiten haben, einem Bildgenerator einen schwarzen Arzt inmitten weisser Kinder zu entlocken, weil das Erbe des Kolonialismus bedeutet, dass die meisten Bilder, die wir von einer solchen Szene haben, das Gegenteil zeigen.
Das wirft ernste Probleme auf, wenn man sich mit diesen Instrumenten eine andere Zukunft vorstellen will. Je mehr sie von der heutigen Trägheit geprägt werden, desto mehr reproduzieren sie eine überwunden geglaubte Vergangenheit.
Vorurteile gibt es jedoch überall im menschlichen Denken. Vorurteile sind verbreitete Basis für Gewalt und Unterdrückung. Computersysteme, die solche Vorurteile munter verstärken, so oft es sich jemand leisten kann, sind grundsätzlich gefährlich. Noch schlimmer ist es, wenn sie völlig neue Muster schaffen können.
Wenn Sie schliesslich die KI für Ihre vorurteilsbehaftete Entscheidung verantwortlich machen können, wird es für die so Benachteiligten schwieriger, ungerechte Resultate zu korrigieren.
KI baut auf einem unfreiwilligen Fundament aus urheberrechtlich geschütztem Material
Dies ist einer der grössten Makel dieser Technologie. Punkt.
Die Arbeit der Menschen wurde ohne deren Zustimmung genommen und wird nun benutzt, um Profit für sichtbare und unsichtbare Dritte zu erzielen.
Schlussendlich ist dies für alle Beteiligten unhaltbar. Die Technologie erfordert ständig neues Material, um relevant zu bleiben. Jeder, der Teil ihrer Wertschöpfungskette ist, muss langfristig sowohl an ihren Profiten als auch der Regeln der Zusammenarbeit in dieser Kette beteiligt werden.
Dies ist übrigens eine der Stellen, an denen die Kritik am inkohärentesten wird: Wenn der Output dieser Systeme „Unsinn“ ist oder anderweitig keinen Wert hat, wo liegt dann die Bedrohung für die Urheber?
Gerade weil die Ergebnisse immer wertvoller und kohärenter werden, ist es wichtig, dass die Menschen, die diesen Wert ermöglichen, einen fairen Preis erhalten.
Die gängigen Schnittstellen zur KI sind trügerisch, denn KI ist eine Blackbox
Wenn die KI tatsächlich „halluziniert“, wie können Sie das erkennen? Sie hat ein sehr überzeugendes Auftreten, das keine Zweifel zulässt. Dadurch lässt sich die Technologie zwar wunderschön demonstrieren; sie führen aber auch zu Zeitverschwendung und Irreführung.
Auch mit absurden Folgen.
Lustig oder nicht, dieses Werkzeug bestimmt immer mehr echte Arbeit mit echten Auswirkungen auf echte Menschen. Täuschung ist ein unverantwortliches Produktmerkmal.
Je mehr wir uns darauf verlassen, desto unhaltbarer ist es, dass wir nicht in der Lage sind, die Ursachen dieses Fehlverhaltens zu lokalisieren.
KI kann für Fehlinformationen und zur Verschmutzung der Informationssphäre eingesetzt werden
Gefälschte Bilder, gefälschte Stimmen, gefälschte Videos, gefälschte Texte, gefälschte Poster.
Die Kosten für die Führung eines Informationskriegs sind um Grössenordnungen gesunken. Wir sind noch nicht vorbereitet, was dies für uns bedeutet, und die Qualität der Resultate verbessert sich kontinuierlich und dramatisch.
In der Zwischenzeit kann jeder mit alltäglichen Anwendungen im Handumdrehen minderwertige Inhalte erstellen.
Jegliche Beschwerden der Unterhaltungsindustrie
Nein, Sie sollten nicht gezwungen werden, Ihr Konterfei einem Studio für immer und ewig zur Verfügung zu stellen, nur weil Computer dieses jetzt nutzen können.
Weitere Verschlechterung der Arbeitsbedingungen im Grossen und Ganzen
Ich glaube nicht, dass diese Technologie, weder jetzt noch in Zukunft, die menschliche Einsicht oder den menschlichen Einfallsreichtum ersetzen kann.
Die kompliziertere Frage ist, wie sich die Mustersynthese in unsere bestehenden Erfahrungen mit der Arbeit einfügt und diese stört.
Das hatten wir schon einmal: Vor der Elektrifizierung und dem Fliessband war der Bau von Dingen eine Sache des Handwerks und der Fachkenntnisse. Im Zuge des technischen Fortschritts wurde diese Arbeit von Industriellen wie Henry Ford in immer kleinere Fragmente zerlegt („degradiert„), bis die Arbeiter nicht mehr ein ganzes Handwerk beherrschen mussten, sondern nur noch ihren winzigen Teil am Fliessband.
Tools zur Mustersynthese könnten eine ähnliche Verschlechterung der traditionellen Wissensarbeit bewirken oder die Autorität von Entscheidungsträgern untergraben, indem sie sie dazu bringen, in entscheidenden Momenten auf KI zurückzugreifen.
Schon jetzt stellen sie Transkriptionisten und Übersetzer vor Probleme, da ihre Arbeit weit weniger geschätzt wird als noch vor zehn Jahren. Das ist ein schwacher Trost für die unmittelbar Betroffenen, aber die Geschichte zeigt, dass eine umfassende Verdrängung einer Kategorie von Arbeitskräften nicht bedeutet, dass jede Kategorie verdrängt werden muss – Schmiede hatten eine schlechte Zeit, nachdem Autos die Pferde ersetzt hatten, aber meistens bringen uns diese Autos jetzt zu anderen Jobs.
Andererseits ist es wichtig zu erwähnen, dass die Transkription jetzt, da sie automatisiert ist, weitaus mehr Dinge ermöglicht. Vor drei Jahren war die Transkription ein mühsamer manueller Prozess für TikTok-Macher. Heute reicht ein Knopfdruck, um in 90 % der Fälle ausreichend gute Untertiteln zu erhalten, so dass diese Inhalte für jeden geniessbar sind, auch für diejenigen, die nicht hören können (das können Gehörlose sein, aber auch alle anderen, die sich in einer vorübergehenden Situation befinden, wie z. B. beim Warten in einer Schlange ohne Kopfhörer — der Bordsteinkanteneffekt ist real).
Ausbeutung von Arbeitskräften im globalen Süden zu enormen psychologischen Kosten
Um dem Endprodukt den letzten Schliff zu geben wandte sich OpenAI an die billigsten Arbeiter, die sie finden konnten.
Die von Sama im Auftrag von OpenAI beschäftigten Datenetikettierer erhielten je nach Dienstalter und Leistung einen Lohn zwischen 1,32 und 2 Dollar pro Stunde.
Ein Sama-Mitarbeiter, der mit dem Lesen und Beschriften von Texten für OpenAI beauftragt war, erzählte TIME, dass er unter wiederkehrenden Visionen litt, nachdem er eine detaillierte Beschreibung eines Mannes gelesen hatte, der in Gegenwart eines kleinen Kindes Sex mit einem Hund hatte. „Das war Folter“, sagte er.
Die westliche Technologieentwicklung hat eine jahrhundertelange Tradition der Ausbeutung von Fremden, die immer nur im Verborgenen stattfand, und es scheint, dass die Mustersynthesizer keine Ausnahme bilde. Während der typische Deal bei Technologie-Start-ups darin besteht, dass die Arbeitnehmer am Erfolg ihres Arbeitgebers beteiligt werden, erhielten diese Datenetikettierer nichts als einen einmaligen, mickrigen Lohn. Während OpenAI floriert, werden sie mit Narben zurückgelassen.
Beängstigendes Überwachungspotenzial
Wir haben jetzt die Technologie, um jedes Gespräch zu transkribieren, ohne dass ein Mensch dabei ist. Die Transkriptionen sind voller Fehler, aber im Zusammenhang mit der Überwachung ist das nicht so wichtig.
Noch nie war es so einfach, die Aktivitäten und die Kommunikation einer Person umfassend zu überwachen.
Schlimmer noch: Gesichter können gescannt und verfolgt werden, Nummernschilder gelesen, sogar Gangarten verfolgt werden.
Dies könnte das Ende der Privatsphäre sein.
Von da an wird es noch schlimmer, denn zu dieser Kritik gesellen sich noch andere. Die KI kann falsch liegen, sie kann voreingenommen sein und sie kann unterschiedliche Auswirkungen auf verschiedene Bevölkerungsgruppen und Identitäten haben.
Dies ist ein erschreckendes Ergebnis, das den Menschen aktiv ihre Freiheitsrechte vorenthält.
Man muss den Plattformanbietern zu sehr vertrauen
Woher wissen Sie, dass Ihre Daten sicher sind, wenn sie zur Erledigung von Aufgaben in einem zentralisierten System verwendet werden? Datenschutzrichtlinien sind bedeutungslos, wenn ein technisches Versagen sie verletzen kann. Das passiert in der alltäglichen Datenverarbeitung ständig. Warum sollte die Mustersynthese einzigartig sein?
«Mein Lieblingsprodukt hat auf dumme Art und Weise KI hinzugefügt und ich hasse es»
Ja, das ist scheisse, und es tut mir leid. Es gibt bei diesem Thema eine schier endlose Menge an Schlamperei und Hype.
Das Ziel im Auge behalten
Wir werden die Zeit nicht zurückdrehen können, es sei denn, Sie haben einen Plan, der das globale Wirtschaftssystem erfolgreich um Hunderte von Jahren zurückwerfen kann.
Der Mist ist geführt und wir bekommen den Geist nicht mehr zurück in die Flasche.
Ja, es gibt einen Hype. Ja, es gibt Drecksäcke. Aber für viele Menschen gibt auch Hoffnung. Damit wäre es schade, das Kind mit dem Bade auszuschütten.
Wir müssen mit dieser Realität leben.
Die Realität ist, dass es eine Menge zu tun gibt, um gerechte, anständige, skalierbare, persönliche und privacy-freundliche Implementierungen dieser Technologie zu schaffen. Ich glaube, das sollten wir tun.
Denn diese Instrumente können uns effektiver machen. Sie können unsere Reichweite und unseren Einblick verstärken, sie können uns helfen, Dinge zu erreichen, die wir allein nicht schaffen könnten.
Aber mit ihnen ist eine Menge nicht in Ordnung. Wenn wir uns die Ohren zuhalten und sagen, dass es diese Technologie nicht geben sollte, wird die wachsende Zahl der Menschen, die auf sie angewiesen sind, an uns vorbeigehen und nur die Argumente derjenigen hören, die am meisten davon profitieren.
Wenn wir diese Technologie einfach abtun, könnten die Menschen uns glauben und dann feststellen, dass ein ganze neue Technologie an ihnen vorüber gegangen ist. Und dadurch ihre Kräfte und Selbstbestimmung beschnitten wurde.
Wenn wir zulassen, dass diese Technologie ausschliesslich zum Spielball der Wohlhabenden wird, vertiefen wir die digitale Kluft in einer Weise, von der wir uns möglicherweise nicht mehr erholen können.
Wir kommen also nicht darum herum, in diesem Spiel mitzuspielen. Und gut darin zu werden. Ich hoffe, dieser Überblick hilft Ihnen dabei.
Damit endet die deutsche Übersetzung des Beitrags «The average AI criticism has gotten lazy, and that’s dangerous» von Danilo Campos. Übersetzt mit freundlicher Genehmigung des Originalautors (und Unterstützung durch eine KI-Übersetzungssoftware).
— — —
Weiterführende Texte
Mustersynthesizer/Künstliche Intelligenz
Wer sich hier erstmals vertieft mit Mustersynthesizern (auch bekannt als «KI») beschäftigt hat, dem sind natürlich auch die anderen DNIP-Artikel zum Thema «Künstliche Intelligenz» oder meine Übersichtsseite zu KI ans Herz gelegt.
»Thematisch passt am ehesten «Die KI ChatGPT und die Herausforderungen für die Gesellschaft» oder das Essay von Bruce Schneier zu «KI» und «Vertrauen». Etwas mehr Einblick in die Funktionsweise gibt «Wie funktioniert eigentlich ChatGPT?». Die Herkunft der Trainingsdaten wird in «Die dunklen Daten-Geheimnisse der KI» beleuchtet.
Hype-Tech
Ein paar der Gründe, wieso so viele Leute (inkl. erfahrene Entscheidungsträger) auf solche Hype-Themen anspringen, hat Felix „fefe“ von Leitner in seinem Foliensatz «Hype-Tech» dargelegt. Und ich eine Bedienungsanleitung und Zusammenfassung dafür geschrieben.
Energieverbrauch
Der Energieverbrauch von Kryptowährungen wird in «Per Anhalter durch die Blockchain» genauer erklärt.