Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat.
Dass es bei der Trumpschen Zoll-Politik wie beim April-Wetter zu- und hergeht, dürfte unterdessen allen aufgefallen sein. Analysen und Diskussionen darüber, ob technische Geräte wie iPhones deswegen in CH teurer werden, sind daher wahrscheinlich jeweils schon überholt, bevor der entsprechende Journalist seinen Schlusssatz in einem entsprechenden Artikel setzt. Nach aktuellem Wissensstand sind die Zölle für iPhones ja bereits wieder ausgesetzt, und damit ist der in den Wochen zuvor geäusserte Grund für die Zölle (Fertigung in die USA zurückholen) ad absurdum geführt. Aber wer weiss, vermutlich ist in ein paar Tagen eh wieder alles ganz anders.
Dass eine solche Verschiebung der Fertigung in die USA reine Fantasie ist, hat 404Media letzte Woche in einem kurzen Artikel beschrieben. Apple versucht seit Jahren, die Fertigung von iPhones von China nach Indien und Vietnam zu verlagern, mit bisher sehr mässigem Erfolg. Ähnlich anspruchsvoll wäre eine Verlagerung in die USA. Hier käme dazu, dass die Endfertigung alleine (quasi das Zusammenbauen) hochautomatisiert erfolgt, kaum Arbeitsplätze schafft und auch das Zoll-Problem nicht löst (da Komponenten ja immer noch aus zum Beispiel China importiert werden müssen). Der Aufwand, um die ganze Fertigungskette in die USA zu verschieben, wäre dann nochmals um einiges höher. Und es wäre völlig unklar, ob US-Amerikaner (die für wenig Lohn arbeitenden Immigranten sind ja bis dann nicht mehr da) Interesse daran hätten, in Sweatshops zu arbeiten, um kleine Schrauben zu drehen («The army of millions and millions of people screwing in little, little screws to make iPhones, that kind of thing is going to come to America»). Der Preis eines solchen «Made in USA»-iPhones wäre dann trotzdem unangenehm hoch: das (technisch eher altbackene) Librem 5-Smartphone von Purism kostet in der China-Variante $800, in der US-gefertigten $2000.
Inhalte
ToggleThe AI Shrink will see you now
Psychotherapie besteht, von aussen betrachtet, aus vielen Gesprächen. Insofern ist es naheliegend, dass darüber nachgedacht wird, LLM-basierte Chatbots als Psychotherapeuten einzusetzen, um auf diese Weise mehr Menschen unkomplizierten Zugang zu psychiatrischer Beratung zu ermöglichen. Forschende am Dartmouth College haben nun einen AI-Bot vorgestellt, welcher in einer Studie bei den Probanden (im Vergleich zu einer unbehandelten Kontrollgruppe) zu einer signifikanten Verbesserung des Zustands geführt hat. Besonders ins Feld geführt wird auch die ständige Erreichbarkeit der AI-Bots: Patienten mit etwa Angstzuständen mitten in der Nacht finden sofort einen Ansprechpartner.
Auch wenn uns das medizinische Fachwissen fehlt, um den Nutzen beurteilen zu können:
- Wenn die Forschenden überrascht davon sind, dass Patienten eine starke Bindung an den AI-Bot entwickeln («One of the more surprising results, says Jacobson, was the quality of the bond people formed with their bots»), dann scheinen sie den bereits 1966 beschriebenen Eliza-Effekt nicht zu kennen. Über Eliza, die Urgrossmutter aller Chatbots, haben wir im vergangenen Sommer schon geschrieben.
- Was aus der Studie nicht hervorgeht ist, ob es sich bei der beobachteten Verbesserung um eine nachhaltige Veränderung handelt (d.h. die Intensität der psychiatrischen Betreuung mit der Zeit zurückgehen kann), oder ob es den Patienten schlicht deswegen besser geht, weil sie dank des AI-Bots jederzeit einen Ansprechpartner haben. Natürlich könnte, sofern es nachhaltig ist, auch letzteres schon ein Fortschritt sein, zumindest sofern man die dadurch entstehende Abhängigkeit von einem Bot und die Gefahr der Reduktion zwischenmenschlicher Kontakte («der Bot versteht mich besser») ausklammert.
- Und last but not least: Was passiert mit den bei diesen Gesprächen zwischen Patient und Bot anfallenden Daten? Wie gut sind sie generell geschützt, werden sie zur Verbesserung des Bots verwendet (verbunden mit all den Risiken, mit Prompt Engineering z.B. die Trainings-Daten offenzulegen), was passiert mit den Daten, wenn der Patient die Behandlung beendet oder der Anbieter Konkurs geht? (Das Problem, dass Vertrauen in KI-Chatbots und die Firmen dahinter oft nicht gerechtfertigt ist, hatten wir auch bereits thematisiert.)
Oder wie Cory Doctorow bereits vor zwei Wochen schrieb: «Anyone who trusts an AI therapist needs their head examined.»
Denial-of-Service gegen Menschen dank Datenbanken
«Irren ist menschlich. Aber um jemandem wirklich das Leben zu versauen braucht man einen Computer.»
Frei nach Dan Rather
So ähnlich scheinen gerade die aktuellen US-Herrscher zu agieren. Letzte Woche wurden nämlich tausende unliebsame Personen ins sogenannte «Death Master File» eingetragen. Diese Sterbedatenbank wird nicht nur von offiziellen Stellen benutzt, sondern auch von Banken und Vermietern. Da die allermeisten Personen, die jetzt in dieser Datenbank gelandet sind, noch leben, dürfte ihr Leben zur Hölle werden, weil sie bei vielen alltäglichen Aktionen nun gegen den angeblichen «Beweis» ihres Todes ankämpfen müssen.
Der Leiter der zuständigen IT-Abteilung wollte sich gegen diesen Missbrauch der Datenbank wehren und wurde daraufhin kurzerhand von seinem Posten entfernt.
Nicht nur durch Hinzufügen von Einträgen kann man eine Datenbank missbrauchen, auch durch ihre Löschung. So geschieht in US-amerikanischen Bibliotheken gerade die digitale Variante der Bücherverbrennung: So wurde die Löschung einer Datenbank mit Informationen zu Rassen- und Geschlechterforschung angeordnet.
Was lernen wir daraus?
- Traue keiner Datenbank, insbesondere nicht in autoritären Regimes oder wenn jemand ein Interesse an falschen Inhalten haben könnte
- Wichtige Datenbanken sollten immer dezentrale, unabhängige Backups haben
Und nein, Blockchain ist keine Lösung. Aber es braucht Transparenz. Und funktionierende demokratische und zivilgesellschaftliche Kontrolle.
Zum Missbrauchspotenzial von IT-Lösungen in autoritären Regimes hat übrigens Phil Zimmerman schon 1996 geschrieben. Und aktuell haben das Matthias Schulze und Manuel Atug bei Golem dokumentiert.
Der lange Weg aus der US-Cloud
Reto Vogt hat in seiner letzten Freitags-Kolumne von seinem persönlichen Weg aus der US-Cloud und der Abhängigkeit von Google, Microsoft und Co. geschrieben. Kathrin Passig zeigt im Techniktagebuch, dass dieser Weg für Non-Techies ziemlich anspruchsvoll ist, vor allem wenn die neue Lösung nicht nur das simple Schreiben von eigenen Texten unterstützen soll. Bei Themen wie «mehrere Autoren unkompliziert möglich» und «langfristig verlässliche Speicherung» trennt sich ziemlich schnell die Spreu vom Weizen, auch UX/UI sind je nach Lösung manchmal arg gewöhnungsbedürftig. Das soll jetzt kein Aufruf an Nerds sein, «yet another solution» auf den Markt zu werfen. Wenn jemand am Thema aktiv werden will, freuen sich alle bereits bestehenden Optionen über tatkräftige oder auch nur schon finanzielle Unterstützung.
Und schliesslich
- Meta (Facebook, WhatsApp, Instagram, Threads, …) will «KI noch härter für Europäer:innen arbeiten» lassen. Ohne Tech-Bro-Schwurbelei heisst das: Die öffentlichen Posts auf den Meta-Plattformen sowie die Chats mit der Meta-AI werden ab Ende Mai als Trainingsdaten für ebendieses KI-Sprachmodell genutzt werden. Wer das nicht möchte, sollte baldmöglichst widersprechen. Die Nutzung beginnt später als anderswo, weil die irische Datenschutzbehörde darum gebeten hatte.
- Protest lebt auch von Satire. So haben Unbekannte letzte Woche die Sprachansagen an einigen «Fussgänger-drücken»-Kästchen in Palo Alto durch angebliche Aussagen von Musk und Zuckerberg ersetzt. Die Stadt hat wenige Stunden später die Sprachausgabe an Ampeln dann ganz deaktiviert.
- Immer mehr Code wird mit KI-Hilfe erzeugt. Solcher Code enthält regelmässig Verweise auf Programm-Module, die es gar nicht gibt. Clevere Bösewichte haben nun begonnen, Module mit beliebten von LLMs herbeihalluzinierte Namen anzulegen und in öffentliche Modul-Repositorien zu legen. Mit dieser neuen Form einer Supply-Chain-Attacke ist es noch wichtiger geworden, solche externen Modulreferenzen zu prüfen.
Disclaimer: Um das transparent zu machen: DNIP entsteht in selbstgehosteten CryptPad- und Nextcloud-Instanzen und wird über ein (ebenfalls selbstgehostetes) WordPress publiziert; über die Besuche der Webseite führt ein – auch hier selbstgehostetes – Matomo Buch.