Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute u. a. mit vielen altersabhängigen Themen wie Abstimmungen, Altersverifikation und KI-Psychologie.
Inhalte
ToggleE-Voting, da war doch was (in Basel)
Im März kam es bekanntlich in Basel-Stadt zu Problemen mit dem E-Voting (bzw. konkret mit dem Zugriff auf bereits abgegebene Stimmen), was dazu führte, dass schlussendlich 2048 Stimmen nicht gezählt werden konnten. Die Ursachen wurden noch nicht öffentlich kommuniziert, die Untersuchungen dazu dauern noch an. Das hat die Bundeskanzlei nicht davon abgehalten, den Kantonen St. Gallen, Graubünden und Thurgau grünes Licht für den Einsatz von E-Voting am 14. Juni 2026 zu geben. Dies, nachdem die drei Kantone ihre Prozesse überprüft und zusätzliche Massnahmen ergriffen hatten.
Eine durchaus plausible These zum Vorfall in Basel hat der Sicherheits-Forscher Ruben Santamarta gestern auf LinkedIn publiziert. Er beschäftigt sich seit Jahren mit dem E-Voting-System der Post und nimmt regelmässig am Bug Bounty-Programm teil. Aufgefallen ist ihm insbesondere, dass alle drei USB-Sticks mit den zum Zählen der Stimmen notwendigen Schlüsseln gleichzeitig ausfielen. Auch wenn USB-Sticks altersbedingt defekt sein können, wäre der gleichzeitige Ausfall aller Schlüssel in der kurzen Zeitspanne zwischen dem Initialisieren der Abstimmung und dem Auszählen ein etwas arg grosser Zufall.
Die im E-Voting zum Einsatz kommenden USB-Sticks sind PIN-geschützt (was die Bundeskanzlei in der oben bereits verlinkten Medienmitteilung ebenfalls erwähnt). Typischerweise sperren solche USB-Sticks nach einer Reihe von Fehlversuchen den Zugriff auf die gespeicherten Daten vollständig. Ruben Santamarta sieht daher nur eine für ihn plausible Erklärung:
I’d say that someone with physical access to those USB keys triggered the common built-in self-destruction feature present in this kind of hardened keys, by entering a wrong PIN multiple times.
(Ich gehe davon aus, dass jemand mit direktem Zugriff auf die USB-Sticks die typische Selbstlöschfunktion dieser Sicherheits-Sticks aktiviert hat, indem er wiederholt eine falsche PIN eingegeben hat.)
Ob das aufgrund einer Fehlmanipulation erfolgte, oder ob schlussendlich Absicht dahintersteckte, muss allerdings weiterhin offenbleiben. Die Ermittlungen der Staatsanwaltschaft werden hierzu hoffentlich früher oder später Aufschluss geben.
Die EU kann Altersverifikation. Oder doch nicht?
EU Kommissions-Präsidentin Ursula von der Leyen hat letzte Woche eine App vorgestellt, mit welcher es in der EU möglich sein soll, sein Alter gegenüber Webseiten zu bestätigen ohne dabei weitere persönliche Informationen preiszugeben. Dazu muss man sich nach der Installation einmalig mit Pass/Ausweis gegenüber der App ausweisen. Begründet wird das Lancieren der Ap mit dem Schutz von Kindern vor für sie unangemessene Inhalte. So bekräftige von der Leyen in der Ankündigung, dass die EU «null Toleranz für Unternehmen habe[n], die die Rechte unserer Kinder nicht achten».
Ein Kommentar auf netzpolitik.org weist auf die Risiken hin, welche die EU bei ihrer Ankündigung ausgeblendet hat. Dazu gehören unter anderem folgende Punkte:
- die App ist momentan nur für iOS und (Standard-)Android verfügbar, Nutzende anderer Smartphones und Menschen ohne Smartphone bleiben aussen vor.
- viele Online-Gefahren (für Kinder wie für Erwachsene) wie Cybermobbing, suchtfördende Social Media-Designs und Grooming sind unabhängig vom Alter ein Problem, lassen sich also durch eine Verifikation nicht eindämmen.
- auch wenn Internet-Alterskontrollen momentan weltweit (auch in der Schweiz) als das Wundermittel zum Kinderschutz angesehen werden: Die Folgen des Einsatzes dieser Technologie sind noch zu wenig klar erkennbar als dass sich bereits ein breitflächiger Einsatz empfehlen würde.
Aber vielleicht dauert ja alles noch ein bisschen länger: Findige Hacker haben in der von Ursula von der Leyen als «technisch fertig» bezeichneten App jedenfalls innert Stunden diverse Lücken gefunden. Dazu gehören ungenügend gesicherte PIN-Codes und das Überspringen der Fingerabdruck-Authentisierung. Die EU hat in einer ersten Reaktion darauf hingewiesen, dass die online verfügbare «finale Version» nur eine Demo sei, und das Endprodukt für die Bürgerinnen erst später folgen wird.
Anonyme Altersverifikation aus Frankreich?
Das französische Startup Needemand präsentiert ein Alterserkennungssystem, welches angeblich anonym und zuverlässig sein soll. Das unter dem Namen Borderage angebotene System basiert darauf, dass sich die menschlichen Bewegungen im Laufe der Entwicklung verändern. Anhand von einigen Handgesten soll das Alter angeblich recht genau erkannt werden. Natürlich wird es immer Grenzfälle geben, denn weder ändert sich das Bewegungsmuster einer Person genau mit dem 18. Geburtstag noch werden die altersbedingten Bewegungsänderungen zweier Personen vollständig synchron sein. Und vielleicht müssen wir uns auch damit abfinden, dass jede exakte Grenze für mindestens einen Menschen irgendwie falsch ist.
Also tönt das grundsätzlich erstmal positiv. Doch uns hier auf der Redaktion sind auf die Schnelle ein paar Ideen eingefallen, mit denen wir glauben, dass wir das System austricksen können. Und wir sind überzeugt, dass einige dieser Ideen auch funktionieren würden, solange nicht doch die versprochene Anonymität angeknabbert wird.
Apropos Anonymität: Bereits 2014 wurde mit einer – aus heutiger Sicht urzeitlich anmutenden – Digitalkamera an einer Pressekonferenz ein Fingerabdruck von Ursula von der Leyen fotografiert, aus der eine funktionsfähige Fingerabdruckattrappe gebaut werden konnte. Jeder Finger, der einer Laptop- oder Handykamera gezeigt wird, ist damit nur einen Schritt von der Identifizierung seines Fingerabdrucks oder der Herstellung einer Attrappe entfernt. D.h. grundsätzlich könnte jede Gestenerkennungssoftware auch gleich ein biometrisches Datenleck sein.
Frankreich vs X/Grok
In Frankreich wird seit längerem gegen X/Grok ermittelt, unter anderem wegen der Verbreitung von CSAM (child sexual abuse material), Deepfake-Bildern und antisemitischen Inhalten. Im Rahmen der Ermittlungen wurden im Februar die Büros von X in Frankreich durchsucht, und mehrere Manager von X (inklusive Elon Musk) zu Gesprächen mit den Ermittlungsbehörden eingeladen. Ob diese der Einladung Folge leisten werden, darf bezweifelt werden.
Das US-amerikanische Justizministerium hat letzte Woche das französische Rechtshilfebegehren abgelehnt. Begründet wird dies damit, dass die französischen Ermittlungen im Widerspruch zum First Amendment der US-Verfassung stehe (dem Verfassungszusatz, welcher das Recht auf «Free Speech» festlegt). Der Entscheid hat zwar keine direkten Auswirkungen auf die Ermittlungen in Frankreich, verhindert aber das Vorladen von US-Bürgern oder das Einfordern von Geschäftsunterlagen.
Auch wenn die harsche Reaktion aus Washington von der Politik der derzeitigen US-Regierung geprägt sein dürfte (obwohl diese das First Amendment sehr selektiv hochhält): Ganz grundsätzlich zeigt der Fall, wie fundamental unterschiedlich Meinungsfreiheit dies- und jenseits des Atlantiks verstanden wird, und welche Auswirkungen das auf europäische Regulierungsversuche haben wird. Eine Lösung wird sich im Gerichtssaal (so es je zu einer Verhandlung kommen wird) kaum finden lassen, aber auch für Regulierungen wird es ein Minimum an gegenseitigen Verständnis und Kooperationswillen brauchen.
Psychologie für KI
Anthropic hat bei einer Untersuchung der eigenen Modelle herausgefunden, dass Chatbots bessere Ergebnisse liefern, wenn man nett mit ihnen ist. Sie konnten nachweisen, dass LLMs eine interne Repräsentation von Emotionen wie «glücklich» oder «besorgt» haben, und dies die Ergebnisse beeinflussen kann. So neigt eine LLM zum Beispiel eher zu Halluzinationen, wenn sie am Verzweifeln ist (Anmerkung der Redaktion: Man kann sich hier allerdings fragen, ob die Korrelation nicht genau umgekehrt verläuft).
Nicht ganz überrascht hat Anthropic ein Team welches sich mit «Modell-Psychiatrie» beschäftigt. Dessen Leiter hat bereits darauf hingewiesen, dass man aus den Resultaten nicht ableiten könne, dass Modelle ein Bewusstsein haben oder zu Emotionen fähig sind.
Übrigens: Verschiedene LLMs reagieren unterschiedlich auf die vom Team identifizierten Emotionsindikatoren. Man kann sich also nicht darauf verlassen, ob jetzt Glück oder Herausforderung zu korrekteren Resultaten führt. Trotzdem gibt es vom Leiter der Modell-Psychiatrie einen guten Tipp an uns Menschen: Wenn wir Menschen uns dem LLM gegenüber wie Soziopathen verhalten würden, wäre das für unsere eigene Gesundheit schlecht. Aber das hätten wir auch ohne LLM-Psychiater gewusst.
Der Wikipedia-Vandale
Das Harvard-Labor, das sich die «Verbesserung der journalistischen Standards» auf die Fahne geschrieben hat, publiziert ein Interview mit dem Autor eines Wikipedia-Edit-Bots. Eines Bots, der nicht die Bot-Anforderungen der Wikipedia erfüllt. Und findet nichts daran, wenn der Autor des Bots sagt:
And I also kind of had this thought that [if] Tom [=the bot] created something that was woefully inappropriate, that it would pretty quickly be flagged and either taken down or Tom would be banned or blocked.
(Und ich dachte mir auch, wenn Tom, der Bot, etwas erzeugte, was völlig unpassend wäre, dass er dann verwarnt, gebannt oder geblockt würde.)
Bryan Jacobs im Interview mit Bill Adair auf NiemanLab.org
Kurz zum Kontext: Die Wikipedia ist die beste und wichtigste Enzyklopädie der Menschheit; ihre Inhalte werden dankenswerterweise von unzähligen unbezahlten Freiwilligen gepflegt. Und nun soll einfach ein Bot irgendwelchen Müll dort eintragen können, ohne dass sein Erschaffer sich die Mühe nimmt, da auch nur ein bisschen Qualitätskontrolle vornehmen zu wollen? Und diese unbezahlten Freiwilligen sollen dann hinter dem Bot aufräumen? So nach dem Motto: „Der will ja nur spielen“? Wohin bewegt sich das Gewissen von Menschen?
Mehr KI-Code macht es nicht besser
Der Quellcode von Claude Code war kurze Zeit geleakt. Einige Leute haben sich die Zeit genommen, ihn genauer anzuschauen. Und herausgefunden, dass in der halben Million KI-generierten Codezeilen auch einige Seltsamkeiten vorhanden sind. Neben unnötiger Komplexität (wie z. B. dass eine Schleife zur Sicherstellung eines korrekten JSON-Outputs eines Funktionsaufrufs mittels Prompts umgesetzt wurde statt als einfache Schleife um den Funktionsaufruf selbst) auch eine Sicherheitslücke, zu der schon gefixter Code vorliegt, der aber nicht benutzt wurde; wohl, weil er in dieser Codeschwemme unterging.
Dass mehr oder schneller geschriebener Code nicht immer das Ziel sei, diskutiert Andrew Murphy in seinem Blog-Eintrag If you thought the speed of writing code was your problem – you have bigger problems (in etwa: «Wenn du glaubst, dass die Geschwindigkeit beim Schreiben von Code das Problem ist, dann hast du ein ganz anderes Problem»). Er zeigt auf, dass das Schreiben von Programmcode oft nicht der Flaschenhals sei, sondern ganz andere Bereiche: Das Ziel zu verstehen; das, was nach dem Schreiben des Codes kommt; die Qualitätskontrolle; und der Meetingkalender. Er schlägt fünf Punkte vor, auf die man bei IT-Entwicklungsprojekten achten müsse. Und dass die halt nicht sexy sind und schön auf Managementfolien passen. Aber um so wichtiger.
Und schliesslich:
- Im Rahmen der Bemühungen, die digitale Souveränität Europas zu stärken, unterstützt der Sovereign Tech Fund der deutschen Bundesregierung Mastodon mit €614k. Damit sollen mehrere konkrete Erweiterungen finanziert werden, darunter die instanzübergreifende Synchronisierung von Blocklisten, eine Reduktion des Speicherbedarfs von Medien und Arbeiten an der End-to-end-Verschlüsselung von privaten Nachrichten.
- Anfang April hat der Ringier-Chef in einen NZZ am Sonntag-Interview noch betont, dass die Medienindustrie transparent machen müssen, was von KI generiert sei und was nicht. Das scheint aber in konkretem Gegensatz zu den Richtlinien zu stehen, an welchen sich die Ringier-Titel orientieren. Wie Persönlich vor ein paar Tagen berichtete, muss «KI-generierter Text nur noch dann gekennzeichnet werden, wenn er nicht von einem Journalisten kritisch geprüft wurde. Im Umkehrschluss bedeutet das: Ein vollständig von KI verfasster Artikel, der anschliessend von einer Journalistin gegengelesen wird, muss gegenüber der Leserschaft nicht als KI-generiert deklariert werden».
- Die biometrische Massendatenerfassung von Sam Altmans Zweit- oder Drittfirma mit dem schönfärberischen Namen «Tools for Humanity» und dem angeblichen Ziel eines weltweiten bedingungslosen Grundeinkommens auf Kryptowährungsbasis ist auf der Suche nach weiteren Anwendungsgebieten, nachdem ihre Irisscans in vielen Ländern als Verstoss gegen die Datenschutzgesetze verboten wurden. Angeblich könnten seine Irisscans die Zwischenverkäufe von Konzerttickets verhindern; die Technologie soll bei einem Bruno-Mars-Konzert erstmalig zum Einsatz kommen. Doch eigentlich könnten die Ticketverkäufer die Wiederverkäufe mit hohen Aufschlägen einfach in den Griff bekommen, wenn sie nur wollten. Ohne übermässige Privatsphäreeingriffe. Aber das ist halt sexier. Oder zumindest VC-kompatibler.
- Wer kennt sie nicht, die Schlagzeilen, in denen steht, dass Elon Musk schon wieder etwas versprochen habe, Sam Altman uns alle glücklich mache oder Mark Zuckerberg den Heiligen Gral gefunden habe. Schnell geschriebene Artikel mit Clickbait-Potenzial. Ohne Kontext, Korrektur oder auch nur Ansätze von Hinterfragen der Aussage. Karl Bode analysiert und kritisiert diesen „CEO Said A Thing!“ Journalism gekonnt.
- Nein, das Geburtsdatum der Person, die ein verschlüsseltes medizinisches PDF bekommt, ist kein Ersatz für ein sicheres Passwort. Erst recht nicht, wenn man dazu den schwächsten möglichen PDF-Verschlüsselungsmodus nutzt. Aber eigentlich auch sonst nicht. Schlüssel zur Entschlüsselung gehören immer über einen zweiten, unabhängigen Kanal übermittelt, und sollten auch nicht auf quasi-öffentlichen Informationen wie einem Geburtsdatum basieren.

