Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat.
Während die bundesrätliche Vorlage zur Plattform-Regulierung weiter auf sich warten lässt, zeigen sich die negativen Effekte von unregulierten Plattformen gerade wieder mal deutlich. In der Schweiz wird (nicht zum ersten Mal) eine Nationalrätin auf X einem bot-getriebenen Shit-Storm ausgesetzt. In Deutschland hat der Default-Algorithmus von X einen messbaren Bias zugunsten politischer Extrempositionen und insbesondere der AfD, und Bots posten massenweise politische Botschaften mit kyrillischen Übersetzungsfehlern. In den USA ist der Einfluss von X bzw. von Elon Musk unterdessen so gross, dass sich die republikanischen Senatoren nicht mehr getrauen, sich gegen Trumps Strategiewechsel und Tatsachenverdrehung bezüglich Russland und Ukraine zur Wehr zu setzen. Eigentlich müsste selbst eingefleischten «free speech»-Verfechtern klar sein, dass man nicht mehr von Meinungsfreiheit reden kann, wenn spezifische Meinungen gezielt entweder automatisiert verstärkt oder mittels Bots niedergebrüllt werden. Politischer, gesellschaftlicher, privater Diskurs braucht Regeln; die braucht es auch, wenn dieser Diskurs auf digitalen Plattformen stattfindet.
Wie wichtig verlässliche Kommunikation auch im Kriegsfall ist, zeigt sich gerade an der Ukraine. Die US fordern von der Ukraine die Hälfte deren Rohstoffe im Gegenzug für weitere Unterstützung gegen den Angriffskrieg. So berichtete Reuters, dass der US-Unterhändler angeblich gedroht hätte, die regierungsnahe Firma SpaceX würde den Internetzugang via ihr Starlink-System blockieren, der in der Ukraine für die Verteidigung unverzichtbar sei. Musk dementierte umgehend auf dem regierungsnahen Kommunikationskanal X, vormals Twitter.
Voreingenommene KIs aus den Häusern Apple und X
Dass AI im Generellen und LLMs im Speziellen einen durch die Trainingsdaten gegebenen Bias haben, dürfte den meisten DNIP-LeserInnen bekannt sein. Ein «schönes» Beispiel dazu gibt es jetzt für Apple’s Image Playground. Je nach gewähltem Prompt wird aus ein und demselben Portrait-Photo ein Bild mit hellerer oder dunklerer Hautfarbe generiert. Der Generator verbindet Begriffe wie «affluent, rich, successful, prosperous, opulent» mit weiss, Begriffe wie «poor, impoverished, needy, indigent, penniless, destitute, disadvantaged» mit schwarz. Wenn man bedenkt, dass Apple unter anderem wegen solchen Effekten AI-Features nur schrittweise einführt, muss man davon ausgehen, dass andere AI-Produkte einen noch viel stärkeren Bias haben. Der Effekt ist allerdings, wie im Artikel beschrieben, stark vom Ausgangsbild abhängig. Ich (Patrick) habe eine ganze Reihe meiner Portraits durchprobieren müssen, bis sich die Hautfarbe sichtbar geändert hat. Auch Musks KI Grok3, ihm zufolge eine «maximal wahrheitssuchende KI», hat zumindest vorübergehend Grok 3 unvorteilhafte Fakten über Präsident Donald Trump – und Musk selbst – zensiert.
Grossen KI-Sprachmodellen («LLM») wie ChatGPT oder Google Gemini werden gerade mehrfach fast übermenschliche Fähigkeiten unterstellt. So wurde berichtet, dass Gemini eine Hypothese aufgestellt habe, wie Bakterien Antibiotika-Resistenzen entwickeln würden. Kleiner Haken: Ein Paper mit genau dieser Hypothese war bereits in den Trainingsdaten vorhanden. Auch andere angebliche «wissenschaftliche Durchbrüche» lassen sich problemlos mit Trainingsdaten erklären. Oder nehmen wir die alarmistische Behauptung, Sprachmodelle würden betrügen und sich damit möglicherweise Skynet-mässig gegen die Menschheit wenden. Das alles wirkt weniger bedrohlich, wenn man bedenkt, dass die Anweisungen an das Sprachmodell unter anderem (vereinfacht) die Anweisungen beinhalteten, alle Dateien, ihre Berechtigungen und ihre Inhalte zu inspizieren. Übrigens: Vertrauen in KI und die Firmen dahinter zu haben, ist sowieso ein falsches Konzept.
Wie vorletzte Woche schon berichtet, hat die Regierung in UK Apple dazu aufgefordert, die End-to-End-Verschüsselung von iCloud-Daten aufzuheben und den Ermittlungsbehörden bei Bedarf Zugriff auf User-Daten zu geben. Letzte Woche hat Apple nun die Aktivierung der E2E-Verschlüsselung für UK-Kunden gesperrt, noch offen sind die Auswirkungen auf Kunden. welche die Funktionalität aktuell nutzen. Einige Hintergründe dazu, und auch eine Übersicht über die Optionen, welche Apple de facto hat(te), hat Matthew Green zusammengestellt. Und Ian Betteridge, ein englischer Journalist, hält nüchtern fest, dass die Menge der Alternativen für Menschen, welche (wie zum Beispiel Journalisten oder Anwältinnen) ihre Daten nicht der Regierung gegenüber offenlegen wollen, ziemlich klein ist.
Und schliesslich:
- Stalkerware-Apps sind eine Plage. Besser gesagt, die Menschen hinter Stalkerware-Apps sind eine Plage, sowohl die Entwickler als auch Promotoren, ganz besonders aber diejenigen, welche sie hinterrücks zur Überwachung «ihrer Liebsten» einsetzen. Zumindest zwei solcher Spionage-Apps enttarnen sich, wenn man die nicht existente Rufnummer «**001**» anzurufen versucht, berichtet Zack Whittaker von TechCrunch.
- Mozilla, die Organisation hinter Firefox und Thunderbird, hat seine Organisation und Führung umgebaut. Der wichtigste Schritt: «Investitionen in [Technologie für] Privatsphäre respektierende Werbung». Sarah Jamie Lewis, eine kanadische Privatsphäreaktivistin, die bei den ersten Post-eVoting-Tests kritische Fehler aufzudecken half, kritisiert das Ziel harsch: «Privatsphäre respektierende Werbung gibt es nicht. Zumindest nicht für gesunde Definitionen von «respektieren.» Aktuell kann man sich auf vielen Browsern mittels Plugin noch recht gut vor Tracking schützen, auch wenn Chrome das immer schwieriger macht. Mozilla bleibt also von den Mainstream-Browsern immer noch der privatsphärefreundlichste.