Anfang Jahr erschien in der schweizerischen Zeitschrift Annabelle ein Interview zum Thema Künstliche Intelligenz. Nun habe ich die Zeitschrift trotz ihrer bewegten Geschichte eher als Lifestyle-Magazin für gehobene Ansprüche in Erinnerung und weniger als Quelle für technik-nahe Themen, entsprechend hab ich das Interview mal „für später“ zur Seite gelegt. Nun, dieses „Später“ war am Wochenende und, was soll ich sagen, ich bin mittelprächtig schockiert: Eine derart unreflektierte Lobeshymne auf die Segnungen von moderner Technologie und Künstlicher Intelligenz hätte ich in 2022 echt nicht mehr für möglich gehalten.
Wer sich das ganze Interview zu Gemüte führen will, kann dem Link oben folgen. Für alle anderen hier ein paar kommentierte Ausschnitte.
Uhh, wenn mich etwas erfolgreich triggert, sind es, insbesondere absolut formulierte, Aussagen wie „Der Einsatz von Technologie ist in Staaten mit einer funktionierenden Gewaltentrennung und vernünftigen Regulierungen immer unbedenklich“. Ich weiss ja nicht, von welchen Staaten hier die Rede ist, aber in der Schweiz haben NDB und Ermittlungsbehörden mit dem Nachrichtendienst- und dem Antiterror-Gesetz problemlos die Mittel, um Technologie oder konkret Gesichtserkennung zum Nachteil unschuldiger Dritter zu verwenden. Da nützt dann auch sämtliche Gewaltentrennung und Regulierung nichts mehr, vor allem wenn die Regulierung diese Nutzung explizit erlaubt.
Kommt hinzu, dass hier zwei Themen vermischt werden bei welchen ich zumindest bei einem Experten mehr Differenzierungsvermögen erwarten würde:
- Die Frage bezog sich explizit auf Gesichtserkennung im Smartphone. Die ist technologisch so gestaltet, dass konzeptionell gesehen (vorbehaltlich Implementierungsfehlern) die gescannten Gesichtsdaten das Gerät nicht verlassen können. Da wäre, so man Apple oder dem Android-Handy seiner Wahl traut, die Verwendung auch in China ok (bzw sollte man, falls man das Vertrauen nicht hat, unabhängig vom Alter der Benutzerin auf Gesichtserkennung verzichten)
- Die Antwort bezieht sich dann breiter auf Technologie (im Kontext wohl immer noch Gesichtserkennung) und da sind Angriffsflächen und Risiken natürlich zigmal grösser als innerhalb eines verhältnismässig gut kontrollierbaren Smartphones. Diverse Anbieter von Gesichtserkennungslösungen drängen sich auf den Markt, es ist zumindest fraglich ob alle der Sicherheit so hohe Bedeutung zumessen dass die Verwendung unbedenklich ist. Vor allem wenn man als Anwender/Kunde/Nutzer im Einzelfall gar nicht erkennen kann, wer nun die Software hinter der Kameralinse entwickelt hat und welche bewusste oder unbewusste Zweitnutzung der Bilder noch erfolgt.
Selbstfahrende Autos sind in den letzten Jahren besser geworden, und Unfälle sind durchaus selten (auch wenn die welche passieren dann gerne in den Medien breitgetreten werden). Der Vergleich macht trotzdem wenig Sinn und vergleicht Äpfel mit Birnen: Während Autofahrer innerorts wie ausserorts unterwegs sind, auf Autobahnen genauso wie auf engen Bergstrassen fahren, kommen selbstfahrende Autos primär auf „einfachen“ Strecken („einfach“ im Sinne von „gut auf die Fähigkeiten des Automaten zugeschnitten“) zum Einsatz. Dort sind typischerweise auch Autofahrerinnen eher selten in Unfälle verwickelt, der Vergleich hinkt daher gewaltig.
Ob selbstfahrende Autos dereinst in der Lage sein werden, auch komplexe und unübersichtliche Fahrsituationen bei für die Elektronik anspruchsvollen Witterungs- und Sichtverhältnissen zu beherrschen, ist erst noch zu beweisen. Angesichts dieser Rahmenbedingung davon reden, dass Menschen bald nicht mehr ans Steuer sitzen dürfen, ist da dann doch eher grenzwertig.
Absolute Aussagen irritieren nachhaltig, vor allem wenn es um AI-Technologien geht. Im Kontext des Interviews geht es um Militärdrohnen, welche dank Gesichtserkennung automatisch ihr (menschliches) Ziel erfassen können. Mal abgesehen davon, dass dieses doch eher dystopische Szenario im Interview recht nonchalant abgehandelt wird: Wie genau ist automatische Gesichtserkennung wirklich?
Man kann Berichte wie diesen Wired-Artikel ja für übertrieben halten, aber selbst eine Studie des amerikanischen Center for Strategic and International Studies (CSIS) spricht nur von einer Genauigkeit von 99.97%. Tönt auf den ersten Blick zwar nicht schlecht, aber wie immer ist der Kontext entscheidend:
In ideal conditions, facial recognition systems can have near-perfect accuracy. Verification algorithms used to match subjects to clear reference images (like a passport photo or mugshot) can achieve accuracy scores as high as 99.97% on standard assessments like NIST’s Facial Recognition Vendor Test
Oder mit anderen Worten: Die 99.97% stellen den Maximalwert unter Idealbedingungen (gut ausgeleuchtetes, ruhendes Gesicht; qualitativ gutes Referenzbild) dar. Sobald diese Idealbedingungen nicht mehr gegeben sind, lässt die Genauigkeit schnell massiv nach:
For example, the FRVT found that the error rate for one leading algorithm climbed […] to 9.3% when matching instead to pictures of individuals captured “in the wild,” where the subject may not be looking directly at the camera or may be obscured by objects or shadows.
Und wenn es sich um Videoaufnahmen von sich bewegenden Personen handelt, dann sind selbst 90% Genauigkeit unrealistisch:
The test found that when using footage of passengers entering through boarding gates—a relatively controlled setting—the best algorithm had an accuracy rate of 94.4%.[6] In contrast, leading algorithms identifying individuals walking through a sporting venue—a much more challenging environment—had accuracies ranging between 36% and 87%, depending on camera placement.
Auch die Annahme, dass eine AI zum Beispiel Osama bin Laden nach Jahren noch erkennen würde, ist mit der heutigen Technik nicht wirklich korrekt.
Ageing is another factor that can severely impact error rates, as changes in subjects’ faces over time can make it difficult to match pictures taken many years apart. NIST’s FRVT found that many middle-tier algorithms showed error rates increasing by almost a factor of 10 when attempting to match to photos taken 18 years prior.
Im Kontext ging um um den Einsatz von Drohnen zum Aufspüren und Erschiessen von Terroristen, und damit um Situationen, wo zur Zielidentifikation das Gesicht eines Menschen unter schlechten Umgebungsbedingungen mit einem uU ebenfalls schlechten, mehrere Jahre alten Photo verglichen wird. Ich weiss ja nicht wie das andere sehen, aber für mich wäre das sogar bei einer Genauigkeit von 99.97% noch fragwürdig (auch wenn das der Interviewpartner als Anbieter eben solcher Gesichtserkennungslösungen anders sehen mag). Bei Werten von 40-90% sind solche Technologien definitiv keine sinnvolle Lösung.
Die Fähigkeit von Algorithmen im Erkennen von Datenmustern ist in der Tat beeindruckend, und ja, das gibt auch für die medizinische Diagnostik (und die Patienten) neue Chancen. Es sollte sich aber andererseits unterdessen herumgesprochen haben, dass die Aussagekraft von Algorithmen stark von der Qualität und Diversität der zum Trainieren verwendeten Daten abhängt, und dass ein allenfalls vorhandener Bias in den Daten oder bei den Entwicklern schnell dazu führt, dass die resultierende AI alles andere als intelligent und unparteiisch aggiert. Auch ist (nicht nur in der Medizin) fraglich, ob momentan effektiv alle relevanten Faktoren modellmässig erfasst werden können (Kritiker werden jetzt nicht ganz zu Unrecht anmerken, dass dies ein illusorischer Anspruch ist), und entsprechend die AI dort an Grenzen stossen muss wo es zB um soziologische Aspekte geht. In einem Interview über künstliche Intelligenz weckt man da schon ein etwas allzu optimistisches Bild, wenn man diese Aspekte einfach ausblendet.
Besagte Demo ist 4 Jahre alt und sah sich schon kurz nach der Publikation mit der Vermutung konfrontiert, dass dabei nicht alles so ganz vollautomatisch ablief wie Google das angekündigt hatte. Praktische und ethische Probleme dürfte es nicht nur während der Trainingsphase solcher Systeme geben (wer spielt schon gerne unwissentlich Trainings-Gesprächspartner einer AI), auch Haftungsfragen (falls die AI zum Beispiel das falsche bestellt) sind noch völlig ungeklärt. Und wer jetzt denkt: Ey, Pizza bestellen können Alexa oder Google Assistant doch heute schon: Ja, können sie. Mit einem autonomen Assistenten der selbständig beim Pizzalieferant meiner Wahl anruft und einen menschlichen Dialog führt hat das aber wenig zu tun. Dazu wird schlicht die passende Alexa- bzw. Google Assistant-Funktion eingebunden welche das Online-API des Pizzakuriers aufruft, der Sprachsteuerungsteil beschränkt sich auf Dialog des Bestellers mit Alexa.
Nun ist, wie eingangs erwähnt, die Annabelle eher ein Lifestyle-Magazin für gehobene Ansprüche als eine knallharte Technik-Zeitschrift, man darf daher wohl nicht jeden Beitrag auf die digitaltechnische Goldwaage legen. Andererseits erreicht die Zeitschrift doch rund 200’000 Leserinnen und trägt damit zur Meinungsbildung bei. Da würde ich dann doch die eine oder andere kritische Frage und den einen oder anderen Faktencheck erwarten…
3 Antworten
Danke Patrik Seemann für diesen Artikel. Dass Sie nur „mittelprächtig schockiert“ waren, interpretiere ich so, dass Ihre Erwartungen an den Annabelle Artikel schon vorab nicht sehr hoch waren. Als Lifestyle-Magazin scheint ein solcher Artikel ein Marketing-Produkt und „Gehirn-Weichspühler“ für Wohlfühl-Oasen. Leider finden solche Beiträge ihre Leser:innen. Diskussionen zu Themen wie „Digitale Abstimmungen“, „Mein Impfen .ch“, Swiss-ID und SwissPass“ scheinen auch oft unter Mangel an Durchblick zu leiden.
Dieser Einblick in eine schräge Welt, macht ihren Beitrag interessant.
Ich wollte mir „beim Lesen hat es mir völlig den Nuggi rausgehauen“ noch aufsparen, vielleicht findet sich ja mal ein Artikel welcher das Interview noch unterbietet 🙂
Es wäre zu wünschen, dass der Stellenwert von Tech-Journalismus in den CH-Medien zunimmt. Sonst haben wir am Schluss die schräge Situation, dass Bund/Kantone/Gemeinden wie auch die Wirtschaft mit der Digitalisierung vorwärtsmachen während die Medien die adäquate Begleitung verschlafen.
Jemand der sagt: „Es wird bald nicht mehr zu verantworten sein, Menschen ans Steuer zu setzen“, kann man als Experten für KI nicht wirklich erst nehmen. Patrik Seemann zeigt schon genügende Gründe gegen eine solche Aussage auf; es gäbe noch weitere Argumente. Und wenn das Ganze so problemlos wäre, würden Hersteller von entsprechenden Autos nicht wiederholt den Fahrassistenten deaktivieren.
Insgesamt kommt man nach dem Lesen des Interviews in der Annabelle zu folgendem Schluss: „Es ist nicht zu verantworten, Christian Fehrlin Interviews zu KI geben zu lassen.“