Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute mit Blasen, Bildung, Babys und Bots.
Inhalte
ToggleDie Blase
Gemeint ist natürlich die KI-Blase. Der kanadische IT-Experte Tim Bray trägt in einem Blogpost zusammen, wieso die Blase eher früher als später platzen wird und wieso das Resultat ein anderes sein wird als bei früheren Blasen. Das ist insbesondere für all diejenigen lesenswert, welche bei Ed Zitrons epischen Ausführungen nach 2-3 Seiten erschöpft aufgegeben haben.
Das «es ist anders als früher» begründet Bray folgendermassen (aufmerksame Briefing-LeserInnen haben das in der einen oder anderen Form schon gelesen):
- Technisch gesehen: Im Gegensatz zu «normalen» Cloud-Rechenzentren stehen die für KI eingesetzten GPUs praktisch unter Dauerlast, fallen entsprechend oft aus und brauchen enorme Mengen Strom. Skaleneffekte (d.h. sinkende Kosten pro Output) gibt es praktisch keine, die GPUs sind im Betrieb teuer und schnell veraltet. Nach einem Platzen der Blase bleibt daher ein Berg an GPUs zurück welche kaum Verwendung finden dürften.
- Finanziell gesehen: Investoren spekulieren weniger auf neue Umsätze als auf höhere Gewinne durch Automatisierung und Ersatz vieler Wissensarbeitsplätze durch KI. Bray bezweifelt jedoch, dass die Effekte gross genug sein werden um die jetzigen Investitionen in Milliardenhöhe zu rechtfertigen. Auch ist fraglich, wer dann noch als KonsumentIn übrigbleibt, falls Arbeitsplätze effektiv in diesem Umfang abgebaut werden.
Wer wissen will, mit welchen Finanztricks die KI-Firmen ihre Rechenzentren finanzieren, der findet hier und hier detaillierten Einblick in die Finanzkonstrukte. Vereinfacht gesagt funktioniert es wie folgt: Eine bekannte IT- oder KI-Firma gründet eine separate Joint-Venture-Firma, die die ganzen Kosten und Risiken der Hardware trägt. Die Softwarefirma verpflichtet sich jetzt dazu, gewisse Dienstleistungen von der Hardwarefirma zu beziehen. Diese Verpflichtung ist genügend stark, dass Investoren in die Hardware-Firma glauben, dass die Risiken dadurch abgedeckt seien; aber genügend schwach, dass die Investoren in die Software-Firma glauben, dass die Risiken die Software-Firma kaum etwas anhaben können. Trotz der immensen Kosten (und damit auch finanziellen Risiken) der Hardwarefirma.
Die Bildung
Erste Universitäten haben begonnen, die Studierenden mit Vorlesungen abzuspeisen, die zu grossen Teilen KI-generiert und -vorgetragen zu sein scheinen. Natürlich sind die Studierenden unzufrieden und kommentieren: «Klar gibt es nützliche Dinge in der Präsentation. Aber das sind vielleicht 5%, zwischen vielen Wiederholungen. Es hat ein paar Goldnuggets dabei. Aber die würden wir wohl auch mithilfe von ChatGPT selbst finden.»
In Current Affairs legt Ronald Purser die verzwickte Situation der Universitäten rund um KI dar: Im Extremfall werden die Studierenden von KI unterrichtet, schreiben ihre Arbeiten mit KI und werden wiederum von KI benotet. Dass das nicht gut gehen kann, sollte allen klar sein. Auch wenn dabei Informationen vermittelt werden (und hoffentlich irgendwann mehr als 5%), dieser Art der Bildung fehlt der kritische Umgang mit diesen Informationen. Und beinhaltet natürlich Vorurteile oder gar Manipulationen, die nur mit kritischem Denken und mehreren Blickwinkeln erkannt werden können. Denn KI-Firmen und ihre Modellen verdienen kein Vertrauen, zumindest nicht Vertrauen im zwischenmenschlichen Sinn.
Laut einer MIT-Studie führt die regelmässige Nutzung von KI-Diensten zu «kognitiven Schulden». Gleichzeitig leiden Universitäten unter Kostendruck und die Industrie unter Fachkräftemangel (oder will sich keine ausgebildeten Fachkräfte leisten). Der KI-Druck nimmt also zu. Es bleibt unklar, wie wir die «Seele der öffentlichen Bildung» in diesem Umfeld erhalten können.
Herausfordernde Jahre für die Bildung, aber auch für ein Land wie die Schweiz, das auf Bildung baut.
KI für die Kleinsten
Weihnachten steht vor der Tür. Was liegt da näher, als dem Kleinkind, das schon alles hat (ausser vielleicht präsente Eltern), einen KI-Freund unter den Weihnachtsbaum zu legen? Die Public Interest Research Group in den USA hat sich deshalb einige der flauschig verpackten Computer mit Internet-Zugang zu generativer KI unter die Lupe genommen, die als «AI toy» verkauft werden. NBC hat dazu noch seinen eigenen KI-Spielzeugtest gemacht.
Die kleinen Flausch-Computer haben den «Kindern ab 3» auch gefährliche Flausen in den Kopf gesetzt: Anleitungen zum Messer wetzen, Propaganda aus China und Sexpraktiken für Erwachsene waren da ebenso darunter wie Drogentipps, wie NBC berichtet.
Daneben gibt es natürlich noch Datenschutzbedenken, die gegen solche Geräte sprechen (in Deutschland beispielsweise sind Internet-verbundene Kinderspielzeuge mit Mikrofon als illegale Abhörgeräte taxiert).
Und wenn das nicht hilft, dann hier noch die pädagogischen Bedenken: Kinder mit zu viel Bildschirmzeit tendieren zu Entwicklungsstörungen. Und laut Pädagogikexpertin Munzer sollten Kinder «soziale Verbindungen mit der Familie, nicht mit parasozialen KI-Toys» entwickeln.
IT-Sicherheit beginnt bei den Kindern
Das deutsche Bundesamt für Sicherheit in der Informationstechnik (BSI) hat Lehrmaterialien zur «Cybersicherheit für 10- bis 14-Jährige» unter einer Creative-Commons-Lizenze herausgegeben. Wer mit solchen Kindern und Jugendlichen zu tun hat, soll sie sich doch anschauen, herunterladen, ausdrucken und mit den Heranwachsenden bearbeiten.
Ist auf alle Fälle besser, als sie vor einem KI-Spielzeug zu parken.
Handschrift entziffern leicht gemacht
Generative KI ist nicht nur schlecht. Ein gutes Beispiel dafür, dass es auch «gute» Anwendungen gibt, ist das Erkennen von Handschriften. Insbesondere in den Sprachwissenschaften und in Geschichte hat man es oft mit alten Handschrift-Dokumenten zu tun, welche nur schwer zu entziffern sind. So kann es für Forschende schnell mal Monate gehen, um 50 und 100 alte Handschriften zu lesen welche für die jeweilige Forschungsarbeit wichtig sind. Helfen können hierbei nun generative KI-Systeme, welche entsprechende Dokumente (nach einer Trainingsphase) hinreichend genau in auch im 21. Jahrhundert lesbaren Text übertragen können. Das kann unterdessen sogar so weit gehen, dass (siehe Beispiel im verlinkten Artikel) auch kreuzweise beschriebene Seiten zumindest im Grundsatz erkannt werden.
Metaverse, wer erinnert sich?
Erinnert ihr auch an die Zeit vor KI, als die Buzzwords Blockchain, Bitcoin und Metaverse waren? Und insbesondere das Metaverse so visionär wirkte, dass Mark Zuckerberg 2021 Facebook in Meta umbenannte, das «meta-first»-Zeitalter verkündete und ein paar eher schräg anmutende Auftritte als Video-Avatar hatte? Tempi passati. Vom Metaverse redet heute kaum noch jemand, die diversen Metaverse-Plattformen sind verwaist oder offline, und selbst die diversen 3D-Brillen namhafter Hersteller konnten sich bisher nur beschränkt durchsetzen. Da kommt es dann wohl auch kaum überraschend, dass nun selbst Meta darüber nachdenkt, sein «Reality Lab» (welches hauptsächlich an Metaverse-Themen arbeitet) zu verkleinern.
Auch wenn das noch kein vollständiger Ausstieg aus dem Thema bedeutet: Die Realität (d.h. die Irrelevanz des Metaverse) scheint das Reality Lab einzuholen.
Einige der Auswüchse des Metaverse-Booms hatten wir ja schon früher bei DNIP analysiert.
Bot-Armee im Sonderangebot
Die Cambridge University hat sich in ihrem Cambridge Online Trust and Safety Index (COTSI) den Preisen angenommen, mit denen man Fake-Konten bei verschiedenen Online-Diensten anlegen lassen kann. Beispielsweise, wenn man aus Ego-Gründen ein paar künstliche Follower oder «Freunde» braucht oder wenn man – DNIP berichtete – angeblich «einheimische» politische Kommentatoren oder sonstige Propaganda-Bots braucht.
Zum Teil bekommt man diese Konten dank globaler SIM-Farmen schon für wenige Rappen das Stück. Der Markt lohne sich, so die COTSI-Studie, weil Händler ihre SIM-Kosten dadurch wieder hereinholen, dass sie hochpreisige Zugänge für beliebte Applikationen wie Facebook und Telegram verkauften. Wenn diese Investitionen erst einmal eingespielt seien, würden es reichen, wenn sie an den unzähligen weiteren «unwichtigen» Diensten jeweils nur ein paar Rappen verdienen würden.
Also: Telefonnummern als Verifikation taugen wenig bis gar nichts als Schutzmechanismus.
Und schliesslich:
- Unsere Kollegin Adrienne Fichter hat mit Kolleg:innen in der Republik analysiert, wie hartnäckig Palantir die Schweiz umwarb und warum Palantir zum Risiko für die Schweiz wird. Lesenswert!
- «Kameras im Krankenzimmer Zürcher Unispital führt KI-Überwachung ein, die in Frankreich verboten ist» titelt der Tages-Anzeiger. Viel mehr gibt es dazu nicht zu sagen.
- Paul Krugman vergleicht die aktuelle Social-Media- und Plattform-Politik der USA mit einem Land von Drogendealern: Sie wissen, dass ihre Produkte die Konsumenten schädigen. Aber sie haben auch das Geld und die Macht um sicherzustellen, dass niemand eingreift. Er schliesst mit den Worten: «America has, in practice, become a digital narco-state.»
- Apple musste bekanntlich während den Anfängen des AI-Hypes eine Funktion deaktivieren, welche die Push Notification zu News und SMS-Inhalte mittels AI zusammenfasste: Die Zusammenfassungen waren schlicht unbrauchbar und sinnverzerrend falsch. Nun zeigt sich, dass Googles Versuche, Headlines via AI zu generieren, ähnlich fehlerhaft sind. Oder mit anderen Worten: Das Problem ist die Technologie, nicht der Hersteller.
- Einem Apple-Entwickler und -Buchautor wurde aus noch nicht genau geklärten Gründen der Zugang zu seinem Apple-Konto gesperrt. Jetzt irrt er kafkaesk durch die Instanzen, um wieder zu seinen in den letzten 20 Jahren gesammelten Terabytes an Daten zu kommen. Dass Accountsperren zum Verlust führen kann, ist nichts Neues. Doch dass es auch einem langjährigen Autor von Büchern für die Apple-Softwareentwicklung passiert, ist neu. Also: Cloud ist kein Backup (und auch kein Mail-Archiv)!
- Das Jahr 2038 und damit Abstürze oder Fehlfunktionen bei älteren 32-Bit-Computern und -Betriebssystemen rückt näher. Nun gibt es in Paris ein Gerichtsurteil dazu. Der Zugbauer Alstom wird verpflichtet, die nicht Jahr-2038-tauglichen Steuercomputer in Métro- und RER-Zügen auf eigene Kosten «y2k38»-Ready zu machen, da das Pariser Verwaltungsgericht das als versteckten Mangel einstuft. Alstom hat angekündigt, gegen das Urteil appellieren zu wollen.
- Heise Online – für viele immer noch die Quelle, wenn es um deutschsprachige IT-News geht – hängt für die Finanzierung auch am Tropf der Werbe– und Trackingbranche. Mit 205 sogenannten «Partnern» inzwischen schon fast am unteren Ende der Skala, die bis mindestens 949 geht. Damit fallen natürlich auch ganz viele Cookies an. Wie Heise in einem Erfahrungsbericht schreibt, hat dies nun in einer Kombination von Chrome und HTTP/2 zu einer Denial-of-Service-Situation geführt, weil der Load Balancer von Heise, der vor deren Webservern hängt, solche langen Cookielisten nicht akzeptieren wollte … Das Problem ist inzwischen behoben. Aber nicht durch weniger Cookies, sondern durch höhere Limiten bei den Load Balancern.
- Wie man Spam-Versender wenigstens ein kleines bisschen leichter enttarnt, hat Franz Wimmer in einem Blogpost aufgeschrieben. Cleverer Ansatz, funktioniert, bis zu viele Leute das nutzen. Und funktioniert nicht, falls eure Mailadresse bereits früher einmal gesammelt wurde. Aber immerhin!
Weihnachtspause
Unser Briefing pausiert bis zum 6. Januar.

