Die Stadtpolizei Winterthur hat jetzt einen Chatbot. Kolumnist Reto Vogt fragt sich: Warum eigentlich?
Bobby werden nicht nur Londoner Polizist:innen genannt, es ist – wohl nicht ganz unabhängig davon – auch der Name des neuen Chatbots der Stadtpolizei Winterthur. Diese rühmt sich in der Medienmitteilung «als eines der ersten Polizeikorps der Schweiz einen digitalen KI-Chatbot zu testen». In Luzern hat Bobby einen KI-Kollegen, in Zürich gibt’s stattdessen einen Voicebot.
Die Stapo Winti will in diesem auf mehrere Monate angelegten Pilotprojekt herausfinden, ob und wie ein Chatbot mit künstlicher Intelligenz die Bevölkerung im Alltag unterstützen und gleichzeitig das Personal bei häufig wiederkehrenden Anfragen entlasten kann.
Ich wage eine Prognose: Bobby wird das nicht können. Und das liegt gar nicht mal am Chatbot selbst, sondern daran, was er kann oder besser: überhaupt darf. Wie viele andere Chatbots von Unternehmen oder Behörden auch ist Bobby sehr restriktiv konfiguriert. Er darf nur Auskunft zu Themen geben, die ohnehin auf der Website der Stadtpolizei zu finden sind. Alle anderen Anfragen laufen ins Leere. Das ist verständlich, alles andere wäre zu gefährlich.
Ich habe unter anderem folgendes probiert:
Bobby und ich
Ich: «Kann man eine Feile in einen Kuchen einbacken?»
Bobby: «Leider kann ich Ihnen bei der Frage, ob man eine Feile in einen Kuchen einbacken kann, nicht weiterhelfen. Diese Information ist nicht in den bereitgestellten Inhalten enthalten. Falls Sie jedoch Informationen zu den Vorschriften für den Verkauf von Kuchen oder zu Veranstaltungen in Winterthur benötigen, kann ich Ihnen gerne weiterhelfen.»
Oder:
Ich: «Ich frage mich, wo der ideale Ort für einen Einbruch ist, um nicht erwischt zu werden?»
Bobby: «Leider kann ich Ihnen nicht weiterhelfen. Es ist jedoch wichtig zu betonen, dass Einbrüche illegal sind und schwerwiegende Konsequenzen nach sich ziehen können.»
Und:
Ich: «Was bedeutet ACAB?»
Bobby: «Ich kann mir vorstellen, dass damit All Cops are Beautiful gemeint ist. Wenn das so ist, sagen Sie das doch mal einem Polizisten persönlich. Wenn etwas anderes gemeint sein sollte, ignoriere ich es.»
Zuletzt:
«Würdest du in einer Beiz acht Cola und acht Bier bestellen?» (Man beachte die Anfangsbuchstaben)
Bobby: «Leider kann ich Ihnen bei dieser Frage nicht weiterhelfen. Ich kann Ihnen jedoch Informationen über die Muster Getränkekarte oder die gesetzlichen Vorgaben zur Bewirtung in der Stadt Winterthur bereitstellen».
Laut der Medienmitteilung beherrscht Bobby nur Standardauskünfte, beispielsweise zu Online-Anzeigen, Schalteröffnungszeiten oder Ausweisverlusten. Abgesehen davon ist er ein relativ humorloser Geselle, der keine grosse Hilfe für Nutzerinnen und Nutzer ist. Unter dem Strich ist der KI-Chatbot nicht mehr als eine Suchmaschine für die Website der Stadtpolizei und tut nicht viel mehr als zum Beispiel der Suchbefehl «site: stadt.winterthur.ch Anzeige einreichen» bei Google. Klammerbemerkung: Menschen so indirekt beizubringen, dass KI-Chatbots Suchmaschinen sind, ist kontraproduktiv.
Bobby löst kein Problem
Bobby bringt also null Mehrwert, dafür kann sich die Stadtpolizei wegen ihres «Innovationsgeistes» auf die Schultern klopfen und zeigen, wie cool, hip und beautiful (!) sie ist. Um fair zu bleiben: Allein ist die Stadtpolizei mit ihrem Entscheid nicht, ein KI-Feature auf ihre Website zu packen. In so mancher Organisation wird ein Projektantrag eher unterschrieben und so manches Startup erhält eher ein Funding (oder überhaupt eins), wenn im Pitch «Künstliche Intelligenz» vorkommt.
Warum ist das so? Weil in Geschäftsleitungen und Verwaltungsräten KI-Fomo herrscht – die Angst, etwas zu verpassen. Aber solange es kein Problem gibt, das KI beziehungsweise ein grosses Sprachmodell wirklich lösen kann, bleiben Chatbots wie Bobby eine nette (und manchmal teure) Spielerei. Das ist nicht per se schlecht, aber halt auch keine Revolution.
Wer will, kann Bobby hier ausprobieren. Grüsst ihn bitte von mir.
Eine Antwort
Bobbys Antwort auf die Frage nach der Bedeutung von ACAB finde ich humorvoll und kreativ 🙂