DNIP Briefing #63: Feldstecher und Angeln

Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute u.a. mit Überwachung, Überwachung, Überwachung, Manipulation, Souveränität und schwindender Anonymität.

Bei Smart Glasses gehört Überwachung zum Geschäftsmodell

Metas KI-Brillen haben sich, auch wenn der Metaverse-Trend vorbei ist, in 2025 gut verkauft, über 7 Millionen Stück fanden den Weg zu zahlungswilligen Kunden. Bedenken zum Datenschutz versuchte Meta mit klaren Aussagen auf der zugehörigen Datenschutz-Seite zu zerstreuen. Von „Designed for privacy, controlled by you“ („Für den Datenschutz entwickelt, von Dir kontrolliert“) ist da die Rede, und von „You’re in control of your data and content“ („Du hast die Kontrolle über deine Daten und Inhalte.“). Das ist allerdings nur die halbe Wahrheit.

Ende Februar veröffentlichte die schwedische Zeitung Svenska Dagbladet eine Untersuchung, laut der kenianische Subunternehmer zutiefst persönliche Aufnahmen von den Brillen zu sehen bekommen – darunter Bankkarten, sich umziehende Menschen und Menschen beim Sex. Unklar ist, inwieweit sich die Brillen-Tragenden dessen bewusst waren. Meta selbst führt auf der oben erwähnten Datenschutz-Seite aus, dass „Meta collects data needed to help ensure that your glasses and app are reliable, secure and operating normally. You can choose to share additional data to improve the experience“ („Meta sammelt Daten, die benötigt werden, um sicherzustellen, dass deine Brille und App zuverlässig, sicher und normal funktionieren. Du kannst wählen, zusätzliche Daten zu teilen, um das Erlebnis zu verbessern“). Das ist eine Funktion, welche man auch von anderen Anwendungen kennt, und es ist durchaus denkbar, dass die Brillen-Benutzer diese aktiviert hatten, ohne sich der Konsequenzen bewusst zu sein. Wenn man Metas bisheriges Verhalten zum Thema Datenschutz anschaut, kann es aber durchaus auch eine bewusst in Kauf genommener „Fehler“ in der Brillensoftware sein.

Grundsätzlich zeigt sich hiermit aber, dass KI-Brillen aus Datenschutz-Optik schlicht eine Katastrophe sind. Dazu braucht es noch nicht einmal Billigarbeitskräfte in Nairobi. Selbst wenn kein Teilen der Bilddaten mit Meta stattfindet, werden mit KI-Brillen Aufnahmen von Menschen gemacht welche in den meisten Fällen nicht in solche Aufnahmen eingewilligt haben.

Z.B. weil sie in den USA entgegen eindeutiger Anordnungen „privat“ bei Razzien benutzt werden. Inzwischen gibt es allerdings auch Apps, die solche Brillen anhand ihrer Bluetooth-Signatur aus der Ferne zu erkennen versuchen.

Please die in a fucking fire

AI-Slop (d.h. von KI generierter, meist sinnfreier oder zumindest sinnloser Content) füllt bereits ganze Webseiten füllt und macht Websuchen zunehmend sinnlos. Amazon und andere Online-Retailer kämpfen bereits seit längerem mit KI-generierten Produkte-Reviews, während andere genau damit Geld zu verdienen versuchen. Auch Spam- und Phishing-Mails wirken „dank“ KI deutlich überzeugender und sind für Spamfilter schwieriger zu erkennen (auch wenn in Schweizerdeutsch geschriebene Mails von „Microsoft“ nach wie vor eher amüsant wirken). Über die Problematik von KI-generierten CVs und Stellenbewerbungen haben wir bereits in einem früheren Briefing geschrieben.

Der Science Fiction-Autor John Scalzi weist in seinem Blog auf einen weiteren Problembereich hin: Die Menge an KI-generierten Anfragen zu Lesungen in Buchhandlungen und Bibliotheken hat so stark zugenommen, dass er mit sinnvollem Aufwand nicht mehr in der Lage ist, echte von falschen (KI-generierten) Anfragen zu trennen. Er hält daher fest, dass er bis auf Weiteres auf keine Einladung mehr eingehen wird, mag sie auch nur so echt wirken oder sogar sein.

Um es in seinen Worten zu sagen: „If you’re a scammer who uses “AI” to try to defraud actual humans, please die in a fucking fire, thanks.“

Medienkonzentration

In der Schweiz haben wir uns vergangenes Wochenende gegen mehr Medienkonzentration ausgesprochen, obwohl unser „Medienminister“ Rösti da schon kräftig daran gesägt hat. Wohin sich Medienkonzentration entwickeln kann, zeigen die USA: Die wichtigsten klassischen und modernen Medien sind in den Händen einiger weniger Milliardäre. Oder wie es Melanie D’Arrigo zusammenfasst:

Trump’s billionaire allies will now own CNN, Fox News, CBS, WaPo, WSJ and NY Post — plus 185+ local tv stations and news in 100 markets.

They also control X, Facebook, Instagram, Threads, WhatsApp, TikTok, Truth and Twitch.

This is all by design to manipulate and surveil us.

Pay attention.

In etwa: Trumps verbündete Milliardäre werden nun CNN, Fox News, CBS, die Washington Post, das Wall Street Journal und die New York Post besitzen. Plus über 185 lokale Fernsehstationen und News in 100 Märkten. Sie kontrollieren auch X (aka Twitter), Facebook, Instagram, Threads, WhatsApp, TikTok, Truth Social und Twitch. Das ist alles Absicht, um uns zu manipulieren und zu überwachen. Passt auf!

Melanie D’Arrigo auf Bluesky (2026-02-27)

Neben dieser Konzentration bei „klassischen“ Verlagen gibt es auch die Konzentration bei den Wissenschaftsverlagen, die sich inzwischen auch stark konzentriert und zu Datenimperien verwandelt haben.

Eine bedenkliche Entwicklung. Das alles im Namen einer freieren Presse.

Wie gut ist meine Souveränität?

Die Diskussionen um digitale Souveränität beschäftigen viele Leute in der Schweiz und im restlichen Europa. Inzwischen behaupten sowohl die US- als auch Nicht-US-Cloudanbieter, sie würden Souveränität liefern. In ihren eigenen Augen haben sie alle jeweils recht. Das Problem liegt unter anderem darin, dass jeder unter Souveränität etwas anderes definiert, nämlich dem, was ihm gerade in den Kram passt.

Als Ausweg hat Tobias Buchter versucht, zwölf möglichst objektive Kriterien der Souveränität aufzustellen, an denen man sowohl seinen Bedarf an Souveränität als auch sein aktuell erreichtes Level ablesen kann. Und sieht, wo allfälligerweise noch Handlungsbedarf besteht. Er überträgt dabei das aus der Softwareentwicklung bekannte Capability Maturity Model (Reifegradmodell) auf Souveränität.

Bewertet werden dabei ganz unterschiedliche Dimensionen, beispielsweise, wie stark man selbst die Identiäten kontrolliert, wie selbstbestimmt man seine kryptografischen Schlüssel verwaltet, wie man seine Daten speichert, verarbeitet oder transportiert, wie gut man vertraglich abgesichert ist, wie gut man auf Cyberbedrohungen reagieren kann oder ob man eine Exit-Strategie habe.

Das Modell ist noch in einem frühen Stadium. Tobias Buchter freut sich aber auf Feedback von Leuten, die (privatsphärefreundlich) reale Szenarien durchgespielt haben. Solche Modelle sind ein wichtiger Schritt, um die Souveränitätsdiskussion zu objektivieren.

Gespaltene Attestierung

Einige europäische Hersteller von Google-freien Android-Derivaten haben sich zusammengetan, um das sogenannte UnifiedAttestation-Konsortium zu bilden. Das Problem: Android-Derivate sind nicht das Google-Original-Betriebssystem; ihnen fehlt daher die Möglichkeit, sich kryptografisch als „unmodifiziertes Original-Android“ auszugeben. Allerdings beharren einige Banken-, Behörden- und Wallet-Apps darauf, eben genau diesen „Beweis“ zu sehen. Und sorgen damit dafür, dass Nutzer:innen, welche Souveränitätsbestrebungen umsetzen oder sich aus dem Griff von Google lösen wollen, genau daran gehindert werden.

Es fällt allerdings auf, dass GrapheneOS darauf fehlt, der Vorkämpfer für besonders sichere Android-Handys. So unterstützte GrapheneOS laut eigenen Angaben die ARM-Speicher-Sicherheitstechnologie „Memory Tagging“ als erste Plattform produktiv und schützte so ihre Nutzer:innen und Apps gegen Buffer Overflows und verwandten Sicherheitslücken. Es erstaunte daher, dass beim UnifiedAttestation-Konsortium GrapheneOS fehlte.

Darauf angesprochen antwortete der Betreuer des GrapheneOS-Fediverse-Kontos, dass diese Funktion bei GrapheneOS nicht nötig sei, da es bereits jetzt Funktionen habe, mit denen die Hardware bestätigen könne, dass keine fremde – und möglicherweise bösartige – Software das Betriebssystem manipuliert habe. Dazu sei es lediglich nötig, dass Apps diesem GrapheneOS-Zertifikat ebenfalls trauten, nicht nur dem von Google. Im Übrigen sei der Wunsch von Apps nach Hardware-Attestierung häufig unnötig, insbesondere, wenn die Serverseite korrekt geschützt sei, was sie ja ohnehin sollte.

Der Grund für das Konsortium sei, so GrapheneOS in einem hitzigen Thread, dass die anderen Hersteller von Android-Derivaten es bisher nicht geschafft hätten, die Hardware-Attestierung korrekt umzusetzen. Und dass der vorgeschlagene Weg des Konsortiums eben nicht die Sicherheit biete, die von den Applikationen eigentlich gewünscht sei.

Offene Attestierung ist eine Herausforderung. Es wird zu einem Problem, wenn Applikationsentwickler glauben, blind nach der Attestierung greifen zu müssen, ohne sich zu überlegen, ob die Nutzer:innen diese Funktion wirklich brauchen. Die bisherigen Lösungen, sowohl von GrapheneOS als auch vom Konsortium lassen aber noch zu wünschen übrig, zumindest in Akzeptanz, vielleicht auch in technischer Reife. Warten wir die Entwicklungen ab.

Und schliesslich:

  • Burger King bringt einen KI-Bot in die Headsets der Mitarbeitenden. Dieser soll ihnen nicht nur Handlungsanweisungen bei der Zubereitung der Bestellungen geben, sondern auch darauf achten, dass sie freundlich mit den Kunden umgehen und höflich „Danke“ und „Bitte“ sagen. Und nein, es ist noch nicht 1. April … Übrigens hat Burger King seine Drive-Thru-Mitarbeitenden schon früher automatisiert beurteilt (Nettigkeit, Häufigkeit von „Bitte“, „Danke“ und „You Rule“(!)); DNIP berichtete. Aber jetzt wird es interaktiv. Und damit noch einen Schritt dystopischer.
  • Twitter, von einigen Harcore-lern auch X genannt, hat sich bisher sehr zuverlässig gegen die meisten im Digital Services Act (DSA) vorgesehenen Forschungsanfragen gedrückt. Doch nun ist ein erster Erfolg zu verzeichnen: Forscher der deutschen GFF und DRI bekommen 6 Monate Forschungsdaten, mit denen sie die Online-Diskussion rund um die ungarischen Wahlen verfolgen können. Dies laut einem kürzlichen Gerichtsurteil, wie TechPolicy berichtet. Dabei werden auch die erstaunlichen Hürden erläutert, die es zu meistern galt. Und die für zukünftige Forscher jetzt nicht mehr so hoch sein sollten.
  • Wir müssten uns an ein dauernd änderndes Internet anpassen, schreibt Hilda Bastian. Nicht nur hätten wir uns gegen die Werbeflut wehren müssen (oder mit ihr leben lernen), auch gegen die ganzen Anti-KI-Massnahmen (Captchas und „Bitte warten“-Schirme). Neu sei aber auch, dass wir uns nicht mehr anonym im Internet bewegen könnten, seit grosse Sprachmodelle uns über Plattformen und Pseudonyme hinweg tracken könnten.
  • Wer glaubt, dass seine Top-Secret-Überwachungstools nur für „das Gute“ verwendet wird (in seinen Augen), irrt. So wurde scheinbar ein Toolkit zum Hacken von iPhones, welches von Russland und China genutzt wurde, ursprünglich im Auftrag der US-Regierung entwickelt, berichten Wired und TechCrunch.
  • Zu Spyware und wieso Hintertüren nicht nur für „die Guten“ funktionieren haben wir bei DNIP schon mehrfach berichtet. Und auch schon eine fiktionale Kurzgeschichte geschrieben.

dnip.ch mit Deiner Spende unterstützen

Wir wollen, dass unsere Inhalte frei verfügbar sind, weil wir es wichtig finden, dass möglichst viele Menschen in unserem Land die politischen Dimensionen der Digitalisierung erkennen und verstehen können.

Damit das möglich ist, sind wir auf deine Unterstützung angewiesen. Jeder Beitrag und sei er noch so klein, hilft uns, unsere Aufgabe wahrzunehmen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Weitere Beiträge