Ex-Twitter ist voll mit Desinformation, Fakenews und manipulativen Inhalten. Und das hauseigene KI-Modell Grok macht alles noch schlimmer, schreibt Kolumnist Reto Vogt.
Die letzten Tage habe ich wieder öfter bei Ex-Twitter vorbeigeschaut. Ich wollte die Argumente der E-ID-Gegner:innen lesen, die sich dort vornehmlich tummeln und offenbar pudelwohl fühlen. Dort passen sie mit ihren Argumenten auch bestens hin, weil auf dem sozialen Netzwerk (dem Begriff gehört in diesem Fall eigentlich ein «a» vorangestellt) Verschwörungstheorien, Desinformation und Diffamierung dominieren.
Niemand vermisse Lockdown, Masken-, Zertifikats- und Impfzwang, heisst es in einem Tweet beispielsweise. «Mit der E-ID wird das aber beim nächsten Mal noch viel schlimmer», fantasiert Massvoll-Chef Nicolas Rimoldi einen Zusammenhang zwischen E-ID und Pandemie-Massnahmen herbei und erntet – Stand Donnerstagabend – null Widerspruch. Stattdessen gibt’s Zustimmung und Reichweite.
Digitale Parallelwelt
Tweets dieser Art gibt es auf X zuhauf. Typischerweise zu Themen wie Migrationspolitik, Steuern («Der Staat klaut unser Geld!»), Klimawandel, Impfungen, Sonnencrème («Ist schädlich!») oder ähnliches. Oft begleitet von KI-generierten Videos oder Bildern, die die These lautmalerisch stützen, Tatsachen verdrehen, Emotionen schüren oder schlicht und einfach Rassismus verbreiten.
Soweit, so erwartbar. Twitter ist zu einer digitalen Parallelwelt geworden, die man sich als Userin oder User natürlich «schönfärben» kann, indem man den paar wenigen vernüftigen Accounts folgt, die es dort noch gibt. Im von Algorithmen gesteuerten Feed «For you» eröffnet sich jedoch eine digitale Parallelwelt, die sich bisweilen weit ausserhalb des demokratischen Spektrums dreht.
Groks Scheinautorität
Und ausgerechnet in diesem Umfeld taucht immer öfter Ex-Twitters hauseigenes KI-Modell Grok auf. Nutzerinnen und Nutzer taggen Elon Musks KI und fragen beispielsweise «@grok is this real?» oder «@grok is this true?» und wollen sich von der Künstlichen Intelligenz über den Wahrheitsgehalt der absurden Behauptungen aufklären lassen.
Auf den ersten Blick mag das zwar nach einem vernünftigen Einsatz von Technologie aussehen. In Tat und Wahrheit ist es aber ein fundamentales Missverständnis dessen, was KI kann und was nicht. Grok (und jede andere generative KI) unterscheidet nicht zwischen Wahrheit und Lüge. Diese Modelle analysieren Textmuster und geben die statistisch wahrscheinlichste Antwort. Manchmal mag es stimmen, manchmal geht’s daneben. Wie beim Wetterbericht. Aber während Meteorolog:innen die Wahrscheinlichkeit von Regen oder Sonne benennen, verkauft Grok seine Antwort als absolute Wahrheit, auch wenn sie kompletter Nonsens ist.
Kriegspropaganda per KI
Exemplarisch lässt sich das durch ein besonders krasses Beispiel belegen: Im Zuge des Kriegs zwischen Israel und Iran vom Sommer 2025 wurde Ex-Twitter regelrecht mit Fakes und Desinformation geflutet. Ein User postete ein KI-Video eines angeblich zerstörten Flughafens von Tel Aviv. Er erzielte über 6,8 Millionen Views und Grok gab über 300 mal eine Einschätzung über die Echtheit des gefälschten Videos ab. Mal sagte die KI, sie könne nichts über die Herkunft des Videos sagen, in anderen Antworten hiess es: «Das sieht aus wie der Flughafen Ben Gurion in Tel Aviv» oder «Es sieht echt aus, aber handelt sich nicht um Ben Gurion» oder «Das Video zeigt die Zerstörung durch einen Raketenangriff der Houthi». Natürlich alles falsch, aber immer im Tonfall grösster Gewissheit.
Deshalb sind KI-Modelle sowohl für Fact-Checking wie auch für Wissensfragen komplett ungeeignet, da sie nicht der Wahrheit, sondern bestenfalls der Wahrscheinlichkeit verpflichtet sind. Und dem Datenmaterial, mit dem sie trainiert worden sind. Weil diesbezüglich bei den meisten Sprachmodellen grösstmögliche Intransparenz herrscht, können die Techgiganten hinter Grok, ChatGPT, Gemini, Claude & Co. den Duktus und das «Empfinden» der KI dafür, was wahr ist und was nicht, beeinflussen. Wer Grok und seine Kollegen nach der Wahrheit fragt, hat das Prinzip von KI nicht verstanden. Oder will es nicht verstehen.