Die FDP fordert den Einsatz von KI im Asylwesen, um das System effizienter zu machen. Kolumnist Reto Vogt hält das für eine gefährliche Idee.
Eigentlich klingt es verlockend: Ein digitaler Helfer, der die Berge von Asylanträgen sortiert, Dokumentenfälschungen im Millisekundentakt erkennt und Dolmetscher:innen dort zuteilt, wo sie am dringendsten gebraucht werden. Im Dezember 2025 hat der Nationalrat eine entsprechende Motion der FDP angenommen. Das Staatssekretariat für Migration (SEM) soll innert 24 Monaten nach Annahme der Motion ein Pilotprogramm für solche KI-Assistenzsysteme starten.
Die Motivation der FDP ist klar. Effizienz und schneller bearbeitete Asylanträge. Die Partei verspricht dabei brav eine «strenge menschliche Kontrolle» und behauptet im Begründungstext der Motion, dass die rechtsstaatliche Prüfung nicht ersetzt werden soll.
Verfahren
Doch hier liegt der Denkfehler! Es gibt keine «rein technische» Unterstützung in einem Verfahren, das auf Glaubwürdigkeit und individueller Prüfung basiert. Wenn eine KI zur Fallselektion oder Triage eingesetzt wird, entscheidet ein Algorithmus darüber, welches Dossier oben auf dem Stapel landet und welches als «weniger aussichtsreich» markiert wird. Die erwähnte menschliche Kontrolle wird dabei zum oft zitierten «human in the loop», der KI-Vorschläge abnickt, ihnen aber in der Praxis kaum widerspricht.
Das grösste Risiko ist allerdings die «Blackbox». Die Kriterien, nach denen eine KI Widersprüche in Aussagen findet oder Dokumente als zweifelhaft einstuft, sind nicht transparent und entsprechend nicht nachvollziehbar. Wenn (amerikanische) Technologie das SEM auf Effizienz trimmen soll, dann wankt der Boden der Rechtsstaatlichkeit. Denn dann wird die Bürokratie ganz simpel und einfach durch Technokratie ersetzt. Und aus der Einzelfallprüfung wird eine Utopie.
Voreingenommenheit
Als nächstes beugt sich der Ständerat über die Motion. Er tut gut daran, das Ansinnen der FDP zu reflektieren und zu hinterfragen, ob Effizienzsteigerung unter Wahrung der Grundrechte von Menschen möglich ist. Spoiler: Nein.
Voreingenommenheit ist bei solchen Systemen nicht Ausnahme, sondern Design. Algorithmen «entscheiden» aufgrund statistischer Muster, die auf Daten der Vergangenheit basieren. Sind diese Systeme mit unausgewogenen Daten trainiert worden – was wir nicht wissen oder ausschliessen können – verfestigt die KI diese Vorurteile und benachteiligt ohnehin schon benachteiligte Menschen noch mehr.
Verantwortlichkeit
Das führt uns direkt zum Kern des staatspolitischen Übels: die Erosion der Verantwortlichkeit. In einem Rechtsstaat müssen Menschen für ihre Entscheide gerade stehen. Doch wenn die KI im Hintergrund die Weichen stellt, entsteht ein diffuser Blick auf die Verantwortlichkeiten. Mitarbeitende des SEM werden zu Ausführenden einer Logik, die sie nicht durchschauen können, während sich die Politik hinter der vermeintlichen Objektivität einer Maschine versteckt, die es nicht gibt und nie geben kann.
Ein Asylverfahren ist kein logistisches Optimierungsproblem und KI dementsprechend kein wirkungsvolles Werkzeug dafür. Menschliche Schicksale lassen sich nicht wie Pakete sortieren.

Eine Antwort
Vorerst, ich bin voll auf der KI Schiene.
Ich finde es eigenartig dass es nun zum guten Ton gehört KI einzusetzen obwohl gar nicht klar ist was denn damit erreicht werden soll und wie.
So bin ich überzeugt, dass hier vor allem die organisatorischen administrativen Abläufe optimiert werden müssen. Ansonsten ist das Risiko gross mit viel Geld (weil es ja mit KI zu tun hat) das Problem falsch anzupacken.