Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute mit verspäteten Weihnachtsgeschenken voller schlechter Ideen.
Inhalte
ToggleWorst of CES
Anfang Januar fand in Las Vegas die jährliche CES (Consumer Electronics Show) statt, eine der weltweit grössten Fachmessen für (im weitesten Sinn) Unterhaltungselektronik. Über die Highlights im positiven Sinn berichtet die Fachpresse jeweils ausführlich, die von ifixit.com und anderen vergebenen «Worst of the Show»-Awards finden meistens weniger Aufmerksamkeit.
Zu den diesjährigen Gewinnern zählen: ein Kühlschrank, der Komplexität (und Werbung) zwischen Dich und Deine Lebensmittel stellt; ein Türklingel-Ökosystem, das die Überwachung in alle Richtungen ausweitet; ein intelligentes Laufband, das grundlegende Sicherheitsgarantien ignoriert; ein elektronischer Einweg-Lutscher und zwei Bosch-Produkte, die alltäglichen Komfort in Lock-in für Abonnements verwandeln.
Besonders angetan hat es uns insbesondere der Einweg-Lutscher. Dabei handelt es sich um einen Lollipop welcher im Kern aus einem Gadget besteht welches je nach Lutsch- und Bissintensität Musik abspielt und (offenbar über die Gebissknochen) überträgt. Nach dem Lutsch-Vergnügen bleibt in Plastik eingeschweisster Elektroschrott in Form eines kleinen Lautsprechers, zwei (!) Batterien und etwas Elektronik übrig. Viel Spass beim Entsorgen!
Doktor ChatGPT erwartet Sie in Zimmer 2
Sowohl OpenAI als auch Anthropic haben in den letzten Tagen einen «Health»-Chatbot lanciert. Dieser soll in einem abgeschotteten Bereich den Upload von Gesundheitsdaten wie Arztberichten, Laborberichten etc. erlauben, und basierend auf diesen dann Angaben zum Gesundheitszustand und zu Massnahmen machen. Beide Unternehmen betonen in ihren jeweiligen Pressemitteilungen, dass die Gesundheitsdaten abgeschottet und verschlüsselt gespeichert werden, und sie (wie auch die Chatverläufe) nicht zum Training weiterer KI-Modelle verwendet werden.
Etwas genauer hingeschaut hat der Autor dieses Blogposts. Ihm war aufgefallen, dass OpenAI den Health-Chatbot weltweit ausrollt, mit Ausnahme der UK, der EU und der Schweiz. Gerade diese drei haben allerdings (insbesondere im Vergleich zu den USA) starke Datenschutzbestimmungen, wieso sollte ein auf Datenschutz ausgelegtes Produkt nicht genau in diesen Regionen ausgerollt werden? Fündig wurde der Autor in der oben verlinkten Pressemitteilung von OpenAI: Das KI-Unternehmen will sich mit dem Angebot als Vermittler zwischen Patientinnen und der Gesundheitsindustrie positionieren, und zweiterer quasi einen Marktplatz anbieten, auf welchem sie chat-unterstützt ihre Produkte an Hilfesuchende anbieten können. Abgesehen davon, dass OpenAI wohl darauf setzt, bei jeder Transaktion mitverdienen zu können: Spätestens wenn ein Verkauf zustande kommt, ist es mit dem Datenschutz vorbei. Und wie «neutral» eine KI sein mag, welche ihre Antworten darauf auflegt, möglichst viel Umsatz zugunsten von OpenAI zu erzeugen, kann sich jede selber ausdenken.
Grok wird untragbar
Grok ist bekanntlich der KI-Chatbot von Elon Musk, der spezifisch mit dem Ziel entwickelt wurde, keinen Bias zu haben. In der Praxis bedeutet dies, dass der Bot seit Monaten mit rechtsextremen Statements, Hitler-Verehrung und Antisemitismus auffällt. Seit einigen Wochen zeigt sich der Bot auch sehr folgsam, wenn er von Benutzern aufgefordert wird, Frauen (theoretisch auch Männer, aber das scheint niemand zu wollen) auf Bildern auszuziehen oder in sexuell eindeutigen Posen darzustellen. Die Reaktion von Musk kann als eher verhalten bezeichnet werden. Nach einigem Hin und Her (inklusive dem obligaten Betonen von «Free Speech» und dem Umstand, dass die Schuld bei all den Benutzern zu suchen sei, welche von Grok entsprechende Bildmanipulationen verlangen) reduzierte X den Zugang zu den entsprechenden Funktionen auf Premium-Accounts. Abgesehen davon, dass das nach einer Monetarisierungsstrategie aussieht, lässt sich die Bezahlschranke einfach umgehen (wie The Verge herausgefunden hat).
App Store-Anbieter wie auch Regierungen tun sich mit Reaktionen schwer. Sowohl Apple als auch Google haben in der Vergangenheit Apps aus dem Store geworfen, welche entsprechende Funktionen angeboten haben. Apple hat vor ein paar Jahren selbst die Tumblr-App aus dem App Store verbannt, und dies nur, weil es auf dem Mikroblog-Dienst Tumblr neben unbedenklichen Inhalten auch eine aktive Erotik-Community gab. Gegenüber X und Grok zeigt man sich dagegen erstaunlich handzahm. Die Vermutung liegt nahe, dass man vermeiden möchte, via Musk ins Fadenkreuz von Trump zu geraten. Allerdings relativiert gerade Apple mit diesem Verhalten (erneut) die eigene Argumentation, wonach nur ein durch Apple kuratierter App Store für ein sicheres Smartphone-Erlebnis sorgen kann. Sogar einigen demokratischen US-Senatoren ist dieses Vorgehen zu lasch. Auch The Verge findet klare Worte.
Sowohl in der UK als auch in der EU hat das Verhalten von Grok zu ersten Fragen an X geführt. Erfahrungsgemäss dürften schon die entsprechenden Antworten lange auf sich warten, und der Prozess bis zu einer Busse oder härteren Massnahmen ist lange (sofern man solche, Trump lässt grüssen, überhaupt zu verhängen/ergreifen wagt). Indonesien hat deshalb Grok schon einmal prophylaktisch gesperrt.
Und in der Schweiz? Hier kann man mangels Plattformgesetz nur auf individueller Basis aktiv werden. Zumindest theoretisch, praktisch dürften entsprechende Klagen gegen X/Grok schlicht aussichtslos sein.
Die leeren Versprechungen der KI-Firmen
Bianca Kastl hat in ihrer Kolumne die Versprechungen der KI-Firmen (und ihrer Chefs) unter die Lupe genommen. So soll dank KI-Tools das Gesundheitswesen besser werden; es werden aber vor allem neue prekäre Arbeitsbedingungen geschaffen. Oder dass dank KI ein Bedingungsloses Grundeinkommen geschaffen werden könne, aber vor allem aktuell die Informations- und Kulturschaffenden um ihr Brot gebracht werden. Oder dass Sam Altman verspricht, die Echtheit von Menschen (und ihren Werken) beweisen zu können, während gleichzeitig seine (und andere) KI-Firmen im grossen Stil nachgeahmte Menschen und Werke schafft. Sie spricht auch den digitalen Kolonialismus an, der in unserem letzten Briefing auch Thema war.
Diese trügerischen Lösungen fasst Kastl in ihrem Artikel wie folgt zusammen:
All diese durch KI unterstützten Lösungsvorschläge sind oftmals nur elitäre Projektionen. Lösungen, die nur für einen Teil von Problemen eines Themenbereichs funktionieren und aus Sicht des Managements damit die Lösung für alle Probleme sein müssten, es aber nicht sind.
Bianca Kastl
Offenes API anstelle von Elektroschrott
Es gibt sie noch, die guten Nachrichten. Bose hatte vor einigen Monaten angekündigt, dass ihre SoundTouch-Lautsprecher in 2026 keinen Support mehr erhalten werden. Verbunden damit war auch die Ankündigung, dass ab diesem Zeitpunkt Fernsteuerung und Audio-Wiedergabe via WiFi nicht mehr möglich sein wird und – wenig überraschend – auch sämtliche Cloud-Funktionen abgeschaltet werden. Nicht ganz unerwartet führte dies zu frustrierten Reaktionen von Kunden, die verständlicherweise kein Interesse daran hatten, ihre technisch noch voll funktionsfähigen Lautsprecher durch neue Produkte zu ersetzen.
Offenbar waren die Reaktionen intensiv genug um Bose zu einem Umdenken zu bewegen. Letzte Woche hat das Unternehmen Kunden darüber informiert, dass nur noch die Cloud-Funktionen abgeschaltet werden, die Wiedergabe via WiFi wird im lokalen Netz weiterhin möglich sein. Zudem legt Bose das API der Lautsprecher offen, um Drittentwicklern die Möglichkeit zu geben, eigene Apps für die Steuerung von SoundTouch-Geräten zu entwickeln.
Und schliesslich:
- Eine weitere gute Nachricht: Wetterprognosen können jetzt bei open-meteo.com von allen über eine einheitliche API abgefragt werden, zumindest solange man die Daten nicht kommerziell nutzen will.
- Kurzfristig stellte Zühlke auf LinkedIn und in ihrem Blog den Umzug von Millionen Bluewin-Postfächern zu AWS als Schritt für die Datensouveränität dar: „Migrationg millions of email accounts to the cloud while ensuring data sovereignty and zero downtime is no small challenge,“ lautete die Einleitung des LinkedIn-Posts. Ein paar Stunden später wurde die Formulierung mit der Datensouveränität gestrichen, weil sie „Mehrdeutig“ sein könne.
- Elon Musk und Sam Altman werden sich wohl demnächst vor Gericht streiten, weil OpenAI von seiner ursprünglichen Non-Profit-Idee abgerückt sei, die Resultate ihrer KI-Forschung als Open Source zur Verfügung zu stellen. Ich hätte jetzt eher erwartet, dass die Steuerbehörden diese Veränderung mal unter die Lupe nehmen. Aber scheinbar wird das nur genauer angeschaut, wenn ein Milliardär dem anderen etwas Geld missgönnt.
Zitat der Woche
„Tech debt as a service“ is my new all-time favorite description of vibe coding.
(„Technische-Schulden-as-a-Service“ ist meine neue Lieblingsbeschreibung für Vibe Coding.)
Fediverse-User „Allpoints“
Zitat einer vergangenen Woche
To spell this out clearly, the reason RAM has quadrupled in price is that a huge quantity of RAM that hasn’t been produced yet has been bought with money that doesn’t exist to populate GPUs that also haven’t been produced to go in datacenters that haven’t been built powered by infrastructure that may never exist to meet a demand that doesn’t exist at all to make profit margins that mathematically can’t exist while economists talk about this thing they call the „rational markets hypothesis“.
(Um es klar zu sagen: Der Grund dass RAM-Preise sich vervierwacht haben ist, dass eine Riesenmenge an RAM, das noch nicht produziert worden ist, mit Geld, das nicht existiert, gekauft wurde, um GPUs, welche noch nicht produziert wurden, die in Rechenzentren kommen werden, welche noch nicht gebaut wurden, betrieben von Infrastruktur die möglicherweise nie existieren wird, mit dem Ziel, eine Nachfrage, die es so gar nicht gibt zu befriedigen mit Profitmargen, die mathematisch unmöglich sind – während gleichzeitig Wirtschaftswissenschaftler über dieses wundersame Ding namens „Marktrationalitätshypothese“ diskutieren.
Fediverse-User „mhoye“

