Vogt am Freitag: Fake-pedia

Elon Musks Wikipedia-Kopie «Grokipedia» flutet das Internet mit KI-generierten Texten. Es geht um nichts weniger als die Deutungshoheit im Netz, schreibt Kolumnist Reto Vogt.

Quasi über Nacht hat Elon Musk eine knappe Million KI-generierter Artikel online gestellt. Das Gefäss heisst «Grokipedia» und ist nicht nur vom Namen und der Optik her eine eindeutig erkennbare Kopie von Wikipedia, sondern auch wegen seiner Inhalte.

Jahrzehntelang haben zigtausende ehrenamtliche Wikipedia-Autor:innen eine Wissensplattform aufgebaut, die auf Quellentransparenz, Diskussion und menschlicher Überprüfung basiert. Musk lässt seinen Chatbot Grok ein Wochenende lang rechnen und präsentiert das Ergebnis nicht nur als die bessere, sondern – natürlich! – auch objektivere Wissensquelle. Schliesslich ist Wikipedia Musk schon lange ein Dorn im Auge: zu neutral, zu schwer kontrollierbar, zu wenig empfänglich für seine Weltsicht. Mit Grokipedia versucht er nun, das zu korrigieren.

Wikipedia braun angemalt

Entsprechend heisst «objektiver» für Musk, dass seine politische Haltung besser abgebildet ist. Ein Beispiel von vielen möglichen:

Grokipedia beschreibt Charlie Kirk als «conservative political activist» und seine Organisation Turning Point als Non-Profit, die Studenten darin schult, «free markets, limited government, and individual liberty» zu fördern. Das ist PR-Sprech von der Organisation selbst. Die englische Wikipedia nennt Kirk einen «right-wing political activist» und beschreibt sachlicher, was die Organisation tut.

Musks Nachschlagewerk gibt seine Weltsicht wieder und verkauft sie als neutrale Wahrheit. «Grokipedia verbreitet rechtsextreme Narrative» lautet der sinngemäss übersetzte Titel eines Artikels von Wired zum Thema. Doch das ist nur die eine Seite der Medaille. Die andere: KI-generierte Inhalte ohne menschliche Prüfung sind keinen Pfifferling wert, weil Sprachmodelle nicht zwischen Fakt und Fiktion unterscheiden, können. Sie berechnen Wahrscheinlichkeiten für Wortfolgen, sie recherchieren nicht. Dementsprechend interpretieren ChatGPT, Claude oder eben auch Grok Nachrichteninhalte in 45% der Fälle fehlerhaft – unabhängig von Sprache oder Region.

Wissen entsteht nicht nur durch Prompts

Wikipedia mag Fehler enthalten, aber diese Fehler sind sichtbar, diskutierbar und korrigierbar. Anders bei Grok: Zwar lassen sich auch dort falsche Informationen melden, aber was danach passiert, ist intransparent. Hinzu kommt, dass Grokipedia die Vorstellung normalisiert, KI-generierte Behauptungen seien gleichwertig mit mühsam erarbeitetem, überprüfbarem Wissen. Dass Schnelligkeit wichtiger ist als Nachvollziehbarkeit. Dass eine glänzende Oberfläche Vertrauenswürdigkeit suggeriert, auch wenn dahinter nur ein Algorithmus steckt, der keine Ahnung hat, ob das, was er formuliert, stimmt oder nicht.

Wissen entsteht nicht im Wochenende durch einen Prompt. Es entsteht durch Recherche, durch Diskussion, durch das Abwägen von Quellen und Perspektiven. Es braucht Menschen, die Behauptungen hinterfragen, die auf Lücken hinweisen, die streiten, bis eine Formulierung korrekt ist. Dieser Prozess ist anstrengend, langsam, manchmal frustrierend. Aber er ist der einzige Weg zu verlässlichem Wissen.

Und insgeheim weiss das auch Musk. Nicht umsonst sind viele Inhalte von Wikipedia abgekupfert (und mit etwas brauner Farbe bepinselt), aber natürlich nicht offiziell zitiert. Und wenn doch, ist die Quelle nicht verlinkt. Das macht seine Strategie für Kollege Henning Steier und für mich offensichtlich: Elon Musk wartet darauf, dass Google Grokipedia indexiert, um Wikipedias organischen Traffic abzusaugen und auf die eigene Plattform umzuleiten.

Was macht Google?

Die grosse Frage ist, ob Google diese massenhaft KI-generierten Inhalte abstrafen wird. Bisher ist unklar, wie die Suchmaschine mit Grokipedia-Artikeln umgehen wird. Sollte sein Plan aufgehen, hätte Musk nicht nur eine ideologisch gefärbte Wikipedia-Kopie geschaffen, sondern auch einen Weg gefunden, das Original im Netz unsichtbar zu machen.

Ich hoffe, dass Musks Scam-Vesuch scheitert. Dass genug Menschen den Wert von Wikipedia erkennen. Mit all seinem Makel, den endlosen Diskussionen und den teils selbstherrlichen Administrator:innen. Denn genau das macht es vertrauenswürdig: dass Menschen darum streiten, was wahr ist.

Aber ehrlich gesagt habe ich Zweifel, ob meine Hoffnung realistisch ist. Spätestens wenn Donald Trump sein Grokipedia-Artikel besser gefällt als jener von Wikipedia wird er dafür sorgen, dass Google diesen besser rankt – obwohl Grokipedia nur die Illusion von Wahrheit bietet.

dnip.ch mit Deiner Spende unterstützen

Wir wollen, dass unsere Inhalte frei verfügbar sind, weil wir es wichtig finden, dass möglichst viele Menschen in unserem Land die politischen Dimensionen der Digitalisierung erkennen und verstehen können.

Damit das möglich ist, sind wir auf deine Unterstützung angewiesen. Jeder Beitrag und sei er noch so klein, hilft uns, unsere Aufgabe wahrzunehmen.

Eine Antwort

  1. Es gab da mal dieses Projekt, dass, wenn es erkennt, dass ein KI-Bot die Site zu crawlen versucht, diesen in endlos verlinkten und dynamisch generierten Seiten im Stil von „lorem ipsum“ einfängt und quasi beschäftigt, aber nicht an den realen Inhalt heranlässt.

    Wäre vielleicht etwas, das Wikipedia umsetzen sollte. Auch Google fängt ja Nutzeranfragen ab und generiert eine Zusammenfassung mit Inhalten aus Wikipedia für den Anfragenden. Immerhin wird am rechten Seitenrand der Original-Artikel verlinkt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge