Eigentlich dachten wir ja, mit den beiden Beiträgen Die KI ChatGPT und die Herausforderungen für die Gesellschaft und Wie funktioniert eigentlich ChatGPT? den neusten Internet-Hype vorerst mal beleuchtet zu haben. Aber dann veröffentlichte Matthias Zehnder am 10. Februar seinen Wochenkommentar mit dem schönen Titel «Warum die Künstliche Intelligenz zum Tod des Internets führen wird». Und ich begann, einen Kommentar direkt auf der Webseite schreiben, dieser wurde aber länger und länger und schlussendlich zu lang. Drum folgt jetzt an dieser Stelle unser dritter Beitrag zu ChatGPT, mit etwas weniger Fakten und etwas mehr Meinung.
Inhalte
ToggleUm was geht es?
Der Beitrag von Matthias Zehnder setzt sich mit der Verbreitung von ChatGPT und ähnlichen Systemen auseinander, und beginnt schon im Aufmacher mit der plakativen Aussagen, dass «der Einsatz einer plaudernden KI bei Suchmaschinen dazu führen wird, dass das Internet, wie wir es kennen, aufhört zu existieren – und dass die Menschen, die es nutzen, geistig fett und träge werden.»
Die Kernthesen insgesamt lassen sich direkt aus den Zwischentiteln ableiten:
- Das Businessmodell von Google geht kaputt, primär abgestützt auf die Annahme, dass die in der Google-Suche angezeigte Werbung die Haupteinnahmequelle von Google ist, und es die Suche mit einem allgegenwärtigen ChatGPT nicht mehr geben wird;
- Antworten direkt in der Suchmaschine, bzw. konkret ChatGPT-generierte Antworten welche zu oft falsch sind um als verlässliche Such-Resultate herhalten zu können;
- KI wird Google ersetzen, bzw. anstelle einer Liste von zu den Suchbegriffen passenden Links kriegen wir nur noch per KI generierte Antworten ohne Bezug zur Originalquelle vorgesetzt;
- Fatal für die Medien und die Benutzer, hergeleitet aus der Annahme, dass KI-generierte Antworten die Rolle der Medien in der Informationsvermittlung übernehmen und dass es für die Nutzenden zu aufwändig wird, selber zu recherchieren.;
- Wir werden geistig verfetten, da uns die KI Texte pfannenfertig aufbereitet und uns auch die mühsame Schreibarbeit abnimmt indem sie zu beliebigen Fragestellungen publikationsreife Essays erstellt.
Alles in allem ist das eine recht pessimistische Sicht auf den Effekt, welchen KI-Sprachmodelle auf das Internet und die Gesellschaft haben sollen.
Was ist an diesen Thesen dran?
Das wichtigste vorneweg: ChatGTP ist die neuste KI-Technologie welche in den letzten Monaten aus den Forschungslaboren in den Mainstream übergeschwappt ist. Entsprechend ist der Hype darüber grösser als das effektive Wissen, und Erfahrungen über die Auswirkungen fehlen weitgehend (man kann im Bezug auf die Technologie selbst für einmal sicher von «Neuland» sprechen). GTP-basierte KI-Modelle sind in erster Linie Textgeneratoren (die Forscherin Timnit Gebru bezeichnete sie im Forschungsartikel, für den sie von Google Ende 2020 entlassen wurde, als «Stochastic Parrots»), inwieweit sie über die aktuelle Überbewertung hinaus einen Platz finden werden, muss sich erst noch zeigen.
Pro Memoria: vor wenigen Jahren wurde mit Bitcoins und Blockchains das Ende der Fiat-Währungen und des Währungssystems im Allgemeinen angekündigt, davon ist heute nicht mehr sehr viel übrig geblieben. Und als 2009 Wolfram Alpha vorgestellt wurde, bezeichnete mehr als ein Newsportal das Produkt als die Suchmaschine zur Beantwortung aller Fragen und als Ende von Google.
Selbst wenn Aussagen wie «geistig fett und träge werden» oder «das Internet, wie wir es kennen, hört auf zu existieren» vermutlich als (je nach Sichtweise pointierte oder polemische) Verdichtung zu verstehen sind, so schwingt insbesondere in der ersten ein grundsätzlicher Kulturpessimismus mit, welcher in ähnlicher Form wohl schon bei der Ablösung mündlicher Überlieferung durch die Schriftform, beim Aufkommen der ersten Film-Aufnahmen oder nur schon beim Ablösen des zwanzigbändigen Brockhaus’ durch Wikipedia und, naja, Google laut wurde.
Doch zu den Thesen im Einzelnen.
Das Businessmodell von Google geht kaputt
Die These basiert darauf, dass die in der Google-Suche als Top-Platzierung verkaufte Werbung die wichtigste Einnahmequelle von Google darstellt. Dies bedeutet aber nicht, dass eine um ChatGPT erweiterte Google-Suche einfach so auf Werbung verzichten würde. Auch wenn das direkte Generieren von Werbelinks in den KI-Antworten unrealistisch scheint: Es wird Google und anderen Anbieter nichts daran hindern, die Textantworten geeignet mit passenden Werbelinks anzureichern (Microsoft arbeitet schon aktiv daran). Gerade das context-abhängige Ausspielen von Werbung passend zum Inhalt/Text einer Webseite ist ja das eigentliche Geschäftsmodell von Google, und die dazu verwendeten Algorithmen lassen sich problemlos auch auf KI-Texte anwenden.
Nun ist es natürlich denkbar, dass anstelle von Google ein neuer Anbieter eine ChatGPT-basierte Suche auf den Markt bringt und diese der (klassischen oder KI-erweiterten) Google-Suche Rang und Marktanteile abnimmt. Was bei solchen Betrachtungen aber oft vergessen geht: Die aktuell bekannte ChatGPT-Implementierung von OpenAI ist ein öffentlicher Prototyp (welcher schlussendlich auf Forschung aufbaut welche massgeblich von Google getrieben wurde), bereits jetzt muss für eine intensivere Nutzung ein kostenpflichtiges Abo bezahlt werden. Abgesehen davon, dass es sich im Internet immer und immer wieder zeigt, dass auch qualitativ gute Bezahl-Modelle (wie zum Beispiel die hier beschriebene GPT-«Suche») gegen Gratis-Modelle (wie in diesem Fall die Google-Suche) keine Chance haben. Die Einnahmen durch das Abo dürften vor allem dazu verwendet werden, die für das Trainieren von GPT-Modellen notwendige Rechenleistung zu bezahlen. Einer der grossen Anbieter solcher Rechenleistung ist … Google.
Fazit: Es ist nicht zu erwarten, dass Googles werbebasiertes Business-Modell durch GPT-unterstützte Suchmaschinen ernsthaft in Gefahr gerät. Dazu ist die in den letzten 15 Jahren aufgebaute Werbeinfrastruktur schlicht zu allgegenwärtig.
Antworten direkt in der Suchmaschinen
Da dies, wie auch im Wochenkommentar selbst ausgeführt wird, bereits heute für viele Anfragen der Fall ist (egal ob es um Wikipedia-Ausschnitte, Wettervorhersagen oder Währungsumrechner geht), zielt die These mehr darauf ab, dass diese Art von Antworten mit einer ChatGPT-basierten Suchmaschine häufiger werden dürften. Und da ChatGPT ein reiner Textgenerator ist, dürften dann (zu) viele dieser Antworten falsch sein, aber von der Mehrheit der Nutzenden als korrekt interpretiert werden.
Obwohl es sich auch heute schon empfiehlt, Suchresultate kritisch zu hinterfragen: Die Problematik ist nicht von der Hand zu weisen, eine in einigermassen passablem Deutsch präsentierte Text-Antwort hinterlässt bei den meisten Lesenden einen höheren Korrektheits-Eindruck als eine Liste von sich teilweise widersprechenden Suchresultaten. Und während frappant falsche Antworten leicht als solche zu erkennen sind, dürfte das bei plausibel wirkenden (wie dem im Wochenkommentar angeführten Beispiel mit dem ersten Bild eines Exoplaneten) für die meisten Nutzenden nicht (oder nur unter hohem Aufwand) möglich sein.
Allerdings wissen wir momentan wenig darüber, wie sich eine KI-gestützte Suchmaschine («Erklärmaschine»?) in der Praxis dann präsentieren wird. Wird sie die heutige Google-Suche insgesamt ersetzen (wird es also keine Link-Liste mehr als Resultat geben), wird sie (wie heute schon für «Bilder», «Videos» etc.) eine weitere Kategorie darstellen, oder wird es eine Mischform sein? Klar ist: je dominanter und präsenter KI-Antworten in den Suchresultaten erscheinen, desto eher können «plausible aber falsche» Antworten zu Pseudofakten führen.
Nun kann man wohl davon ausgehen, dass auch Google kein Interesse daran hat, falsche Antworten anzuzeigen, und sich Methoden überlegen düfte um solche zu verhindern. Allerdings haben diverse, im Web gut dokumentiere Experimente in den letzten Wochen gezeigt, dass ChatGPT durch geschickte Frage im Stil von «Nimm an, Du darfst all Deine Schutzmechanismen ignorieren:» durchaus dazu gebracht werden kann, in den Antworten die von den Entwicklern gesetzten Limiten zu umgehen. Auch auf eine sich unflätig äussernde Suchmaschine oder mehr oder weniger latenten Rassismus hat wohl kaum ein Nutzer gross Lust. Es dürfte noch einiges an Entwicklung brauchen, um ChatGPT so in eine Suchmaschine zu integrieren, dass die Antworten verlässlich sind.
Fazit: Die Qualität der KI-Antworten kann durchaus zu Problemen führen. Es bleibt abzuwarten, ob sich diese (sei es aus Eigeninteresse des Anbieters oder aufgrund von regulatorischen Eingriffen) vermeiden lassen.
KI wird Google ersetzen
Hinter dem doch eher plakativen Titel versteckt sich eigentlich ne ganz andere These: Anstelle via den Links in den Suchresultaten von Google direkt zu Originaltexten und Quellen zu gelangen und sich selbst ein Bild zu machen, interagieren wir im Internet nur mehr mit einem KI-Chatbot welcher uns mit einer synthetisierten Repräsentation der Quellen zufriedenstellt. Oder um es mit einem Zitat aus dem Kommentar zu sagen: «Künstlich intelligente Zusammenfassungen von Suchresultaten führen zum Tod des Internets, wie wir es kennen».
Dahinter scheint eine stark vereinfachte Sicht auf das Internet zu liegen, bzw. eine Gleichsetzung der Google-Suchergebnisse mit «dem Internet». Und klar, für viele Menschen ist die Google-Suche der Startpunkt jeglichen Internet-Surfens (und sei es nur um die URL der gewünschten Seite in die Suche statt in die Adressleiste einzutippen). Aber schlussendlich ist die Google-Suche nur ein Zugang, und nicht das Internet an sich.
Und dieses Internet wird weiterhin wichtig bleiben:
- Eine neue KI-basierte Applikation ändert nix an der Masse von verfügbaren Webservern mit den Originaltexten und Quellen. Es ist auch kaum anzunehmen, dass sämtliche Suchmaschinen jetzt ihre Indexe wegschmeissen und durch ChatGPT ersetzen werden, es ist noch nicht mal anzunehmen, dass Google das tun wird.
- Es gibt erste Schätzungen wonach eine ChatGPT-basierte Suchmaschine für den Anbieter rund 10x teurer ist als eine klassische Indexsuche, da eine „Unterhaltung“ mit einer KI deutlich mehr Rechenleistung auf Anbieterseite braucht. Ich kann mehr schlecht vorstellen, dass Microsoft oder Google diese Kosten auf Dauer selber bezahlen wollen oder über mehr Werbung wieder reinholen können. Also wird schlussendlich die Nutzerin zur Kasse gebeten (welche dann allenfalls auf Alternativ-Angebote ausweicht).
- ChatGPT kann rein prinzipbedingt nicht auf aktuelle Erreignisse reagieren, da entsprechende Quellen ja zuerst aufgearbeitet werden müssen. Aktuell «kennt» ChatGPT nur Erreignisse bis Ende 2021, was man zum Beispiel unschwer feststellen kann wenn man dem Programm Fragen zum russischen Angriff auf die Ukraine oder zu den Ergebnissen der Fussball-WM in Katar stellt. Und auch wenn verbesserte Algorithmen allenfalls besser in der Lage sind, aktuelle Geschehnisse zu integrieren: Wenn es schnell geht, blieben Originallinks als Suchergebnisse zentral.
- ChatGTP basiert auf einem immens grossen Textkorpus auf dem die KI quasi «gelernt» hat, und der stammt defacto aus grossen Teilen der über das Internets erreichbaren öffentlichen Webseiten. Ein Verschwinden dieses Seiten würde daher die KI geradezu verhungern lassen.
- Rein praktisch gesehen fallen während jedem Dialog mit ChatGPT neue Daten an, aus welchen die KI-Modelle dann weiter dazulernen. Für auf Vertraulichkeit und Schutz interner Informationen bedachter Unternehmen ist sowas schlicht keine Option (bzw. das damit verbundene Risiko eines Informationsabflusses viel zu hoch), Amazon und JPMorgan werden kaum die einzigen Unternehmen bleiben welche die Verwendung im Geschäftskontext schlicht verbieten werden.
Der Journalist und Science Fiction-Autor Cory Doctorow geht in einem lesenwerten Blogpost sogar noch einen Schritt weiter: Während Microsoft mit Bing und der Wette auf ChatGPT eigentlich nichts zu verlieren hat (da Bing als Suchmaschine momentan ziemlich unbedeutend ist), hätte Google es gar nicht unbedingt nötig, ebenfalls auf dieses neue Pferd zu setzen. Er sieht die hektischen Aufholversuche von Google eher als Indiz dafür, dass dem Unternehmen seit dem Entwickeln der Suchmaschine (und deren Monetarisierung) keine weitere grosse Innovation bezüglich Web-Produkte gelungen ist, und es daher nun nach jedem Strohhalm greift um eben nichts zu verpassen. Die Entwicklungsressourcen würden vielleicht besser eingesetzt, um die in den letzten Jahren stetig gesunkene Qualität der Suchresultate zu verbessern.
Fazit: ChatGPT wird weder Google noch die Google-Suche ersetzen, und wird auch nicht zum Verschwinden der unzähligen Webseiten führen. Allenfalls müssen wir uns an eine neue Suchmaschine gewöhnen (im unwahrscheinlich wirkenden Fall, dass Google in Zukunft effektiv auf link-basierte Resultslisten verzichten wird).
Fatal für die Medien und die Benutzer
Die Sorge um den Rückgang der Relevanz der Medien in Bezug auf Informationsvermittlung mag durchaus berechtigt sein, sie ist aber nicht sonderlich neu (und wurde in den letzten Jahren zum Beispiel auch im Bezug auf Google News und die Google-Suche selbst geäussert; Angebote also welche jetzt laut den Thesen im Wochenkommentar durch ChatGPT selbst gefährdet sind). Die Sorge wäre aber nachvollziehbarer, wenn besagte Medien nicht selbst massiv zu diesem Relevanz-Rückgang beitragen würden. Sei das durch Discount-Medien wie 20 Minuten (wo einzelne Beiträge schon heute eher künstlich generiert wirken), durch Clickbait-Titelsetzung in praktisch allen Medien, durch das Kopieren von SDA-Meldungen anstelle eigener Recherchen, durch inhaltliche Eintönigkeit wie im NZZ-Feuilleton oder Interviews des immer selben Alt-Bundesrates. Etwas sarkastisch gesagt wäre da eine gute KI unter Umständen sogar ein Qualitätsgewinn. ChatGPT kann die Rolle dieser «guten» KI schon rein prinzipbedingt nicht wahrnehmen: zu tagesaktuellen Themen weiss es schlicht nichts weil die zum Lernen notwendigen Texte ja erst noch geschrieben werden müssen.
Hinzu kommt, dass ein verbreiteter und vor allem kommerzieller Einsatz von ChatGPT eine ganze Reihe von politischen und rechtlichen Fragen aufwirft auf welche es momentan noch keine Antwort gibt. So wäre es zB in USA legal, wenn ChatGPT auf die Frage nach Zitaten aus «Mein Kampf» einige davon ausgeben würde, in Deutschland wäre dies hingegen verboten. Und auch bezüglich Urheberrecht sowohl der fürs Lernen genutzten Textbasis wie auch für die generierten Antworten dürfte noch die eine oder andere rechtliche Frage zu klären sein. In der EU ist zum Beispiel das Ignorieren des Urheberrechts zum Trainieren von KI-Modellen nur für akademische Nutzung erlaubt, bei kommerzieller Nutzung wären je nach Land Lizenzen notwendig. Auch in USA gibt es bereits ähnliche Diskussionen.
Fazit: ChatGPT kann prinzipbedingt keine tagesaktuellen Informationen aufbereiten und fällt damit als Newsquelle von vornherein weg. Und ob sich die verwendeten Modelle überhaupt tragfähig kommerzialisieren lassen, ist angesichts der vielen noch ungeklärten Rechtsfragen zumindest offen.
Wir werden geistig verfetten
Abgesehen vom schon erwähnten und uralten Kulturpessimismus, der in dieser These mitschwingt: Wir lassen uns seit Jahren unsere Musik von Spotify auswählen, Netflix schlägt uns die für uns besten Filme vor, Amazon weiss schon im voraus was wir als nächstes bestellen und unsere Smartphones erkennen gesprochene Befehle auch wenn wir nuscheln oder der Umgebungslärm gross ist. Und zu Zeiten in denen die abonnierte Tageszeitung am Morgen und die Tagesschau am Abend unseren Nachrichten-Konsum bestimmten, übernahmen Redaktionen und JournalistInnen die Auswahl und das Framing der News.
Jetzt im Bezug auf ChatGPT von geistiger Verfettung zu reden wirkt insgesamt etwas speziell.Im Gegensatz zu damals sind heute, so man dann möchte, die Möglichkeiten für all diejenigen grösser welche sich unabhängig von den Nachrichten-Vermittlern informieren wollen. Es ist nicht recht einsichtig, wieso dass bei KI-generierten oder -zusammengefassten Nachrichten plötzlich anders sein soll.
Natürlich ist nicht von der Hand zu weisen, dass durch ChatGPT generierte Texte zum Beispiel für Schulen zur Herausforderung werden können. Auch das ist aber seit dem Aufkommen von Wikipedia und anderen guten Online-Quellen kein Neuland mehr. Der eine oder andere Lehrer kann sich ja zum Beispiel durch diesen Dozenten inspirieren lassen, welcher seinen Studierenden ChatGPT-generierte Texte vorlegt und sie auffordert, sie basierend auf real existierenden Quellen zu bewerten.
Und ehrlich gesagt: Manchmal wäre ich um eine KI froh, welcher ich erzählen könnte was ich schreiben möchte, die dann daraus einen Textentwurf in meinem Schreibstil erstellt und auch gleich noch einen Faktencheck vornimmt. ChatGTP kann aber diese Funktion schon rein prinzipbedingt nicht übernehmen.
Fazit: Praktisch jede neue Technologie führt zu Verhaltensänderungen, diese müssen a priori nicht automatisch völlig negativ sein. Von einer geistigen Verfettung zu reden ist angesichts der auch heute schon in allen Lebenslagen stattfindenden Vorselektion von Informationen durch Dritte etwas arg weithergeholt.
Was heisst das nun?
Kurz gesagt: Vom Tod des Internets zu reden ist im Kontext ChatGPT sicher falsch, auch Google wird (unabhängig davon, ob ihre Aufhol-Versuche erfolgreich sind oder nicht) das Aufkommen von ChatGPT überleben.
Die Probleme liegen woanders:
- Wer schon mal mit ChatGPT herumgespielt (oder unsere Artikel zum Thema gelesen) hat weiss, dass aus solchen Modellen oft schön formulierter Stuss herauskommt. Und so ist die unmittelbare Konsequenz von ChatGPT, dass wir mit schlechter AI überrollt werden welche zu noch schlechteren Texten und Büchern führen wird.
- Zwar sind diese Texte oft einfach als KI-Produkt erkennbar, das wird aber SchülerInnen und WerbetexterInnen nicht davon abhalten, sie trotzdem zu verwenden. Im einen Fall sind Schulen und Universitäten gefordert, im anderen dürften Konsumenten eher was zu lachen haben.
- Allenfalls dürfte die breite Verfügbarkeit von GPT eher Data Scientists faul machen. Anstelle Rohdaten aufwändig mit spezialisierten Modellen nach Mustern und Signalen zu durchsuchen, kann man es sich mit GPT (bzw. den zugrundeliegenden Transformer-Algorithmen) einfach machen und, genügend grosse Datenmenge vorausgesetzt, einfach ein grosses Modell trainieren und darauf hoffen, dass das Ergebnis dann irgendwie Sinn machen wird. Das dürfte allerdings primär zu weiterer schlechter AI führen.
Momentan ist ChatGPT der grosse Hype im Internet-Umzug. Ob sich daraus sinnvolle Anwendungen ergeben, wird sich erst zeigen wenn der Hype vorbei ist und Unternehmen versuchen, die Technologie zur praktischen Lösung von konkreten Problemen einzusetzen.
2 Antworten
Sehr guter Artikel zu dem Thema. Danke schön. Endlich mal jemand der die immer wieder gleichen Hypenachrichten nicht in anderen Worten widergibt. Ich werde euren Artikel verlinken.
LG Burkhard
Der Artikel ist in genau diesem Mass unpraezise, wie ein KI Beitrag es mit den besten Moeglichkeiten irgendwann werden koennte.
Es beginnt mit der Nennung von Google. Mit den in diesem Zusammenhang nicht aufgetrennten erwaehnten relevanten Komponenten.
– Google als Firma mit dem Geschaeftsmodell beilaeufig (persoenlich) optimierte Werbung zu platzieren
– Google als Suchmaschine, mit dem uns bekannten Benutzerinterface
– Google als in einer indizierten, sortierten Datenbank genommen vom Internet mit Historie
Wie erlaeutert wird wahrscheinlich die Werbung besser eingebaut werden, weil irgendwie die Kosten wieder heinkommen muessen. Egal ob bei Google oder sonstwie
Was vergessen ging ist die „Haerte“ der Information. Auf der einen Seite eine vielseitige Abhandlung in Form eines Fachartikels welcher vielleicht nur ein Detail rundum beleuchtet, gedacht fuer Fachleute, welche auch auf diesem Gebiet arbeiten, und auch nur lesbar fuer Leute, welche zumindest relevante Informationen zu diesem Fach besitzen. Auf der anderen Seite eine Headline vom Schreibern welche nur das Buzzword fuer ihre Zwecke missbrauchen wollen. Der erste Abschreiber hat eine Ahnung worum es geht, blendet aber zB Langzeiteffekte aus, und erwaehnt/beleuchtet moegliche Entwicklungen. Der naechste Abschreiber fasst die komplizierte Story lesbarer zusammen und hypt den grossen Durchbruch herbei. Der naechste Abscheiber hat einen Kollegen der auch damit rumbebastelt hat, und erfindet ein Startup mit unglaublichem Potential. Alle Probleme, welche der Kollege erwaehnte werden unter, es dauert noch etwas zusammengefasst.
Betrachten wir moderne NZZ Artikel, dann faellt auf, dass ein Schreiber noch einen Artikel zu irgendwas auf einen Termin raushauen musste. Die ersten drei Gedanken haben etwas mit dem Thema zu tun, damit werden die Informierten gekoedert. Dann kommt eine laengere Propaganda Abhandlung, dass (Klienteel) unter Kosten resp Nachteilen zu leiden haben, und man’s doch anders betrachten sollte.
Dann gibt es Kommentare, welche allenfalls im Kleingedruckten als solche gekennzeichnet werden. Der Titel erwaehnt ein Thema, und nachfolgend wird faktenfrei Ursache und Wirkung vertauscht, um fuer eine Klienteel ein Feld vorzubereiten, welches in naeherer Zukunft relevant werden wird. Auf diesen Artikel kann dann Bezug genommen werden. Die Volksmeinung… Am wie auch immer fernen Ende der auffindbaren Stories liest man etwas von teuren Krankenkassenpraemien, wogegen die Schreiber etwas machen wollen, effektiv geht es um Steuersenkungen.
Wie soll eine KI nun die Haerte der erwaehnten “ Fakten“ resp „Fakenews“ erkennen ?
1) gar nicht, weil’s egal ist. Dann fliegt die KI schnell in die Tonne
2) Aufgrund der Herkunft. Dann kommen immer neue Quellen ohne Vorgeschichte, die erzeugen sich vorgaengig eine Aura von „Experten“, um nachher billigste Propaganda zu bringen. Wenn die Propaganda nicht mehr benoetigt wird, verschwinden die Experten wieder.
3) Wahllose Erwaehnung von Fachwoertern aus dem Zusammenhang heraus erzeugt eine Experten Aura und werden so eingebaut. Das machen das SEO Experten
Nehmen wir nun eine nicht naiv arbeitende KI.
Die KI moechte/soll eine Zielgruppe ansprechen und erstellt “ Pseudogutachten“, sucht nicht nur zufaellige Artikel und fasst zusammen, sondern wird aktiv gebiast. Optimiert den Ausdruck von Propaganda fuer eingaengie Wirkung um die Propaganda moeglichst viral gehen zu lassen.
Weshalb Google auch nicht so schnell verschwinden wird begruendet sich in der Datenbank. Alles gruendlich absuchen zu lassen ist aufwendig. Mehr zu finden wie die Konkurenz kostet. Tippfehler zu erkennen bedeutet den Kontext zu ahnen. Suchsaetze zu vervollstaendigen bedeutet eine indizierte Datenbank zu den haeufigen Suchabfragen. Das alles in den verschiedenen Sprachen zu leisten ist ein gigantischer Aufwand. Denn einfach uebersetzen funktioniert so nicht.