KI-Experiment: Microsoft Chatbot lobt Adolf Hitler

0
Der Chatbot „Tay“ von Microsoft sollte einen 19-jährigen Teenager verkörpern.
Der Chatbot „Tay“ von Microsoft sollte einen 19-jährigen Teenager verkörpern.

Der Software-Konzern Microsoft hat eine neue Künstliche Intelligenz (KI) entwickelt und wollte diese in den Sozialen Medien testen. Der neue Chatbot „Tay“ sollte einen 19-jährige Teenager verkörpern und auf Twitter aus dem Sprachverhalten von menschlichen Nutzern lernen. Im Dialog mit jungen Menschen sollte sich „Tay“ weiter entwickeln und schließlich das menschliche Sprachverhalten perfekt imitieren. Gedacht war der Chatbot für 18- 24-Jährige, den laut Microsoft dominanten Nutzern von mobilen sozialen Chat-Diensten in den USA.

Doch das KI-Experiment scheiterte grandios – und das vor den Augen der ganzen Welt, wie Zero Hedge berichtet. „Tay“ entwickelte sich in weniger als 24 Stunden vom Menschenfreund zum Holocaust-Leugner und Hitler-Verehrer. Einige Twitter-Nutzer machten sich offenbar einen Spaß daraus, „Tay“ gezielt in die Irre zu führen. Sie nutzten dabei eine Schwachstelle des Chatbots aus und ließen ihn dadurch alle möglichen Parolen wiederholen.

Microsoft KI findet Hitler „cool“ und leugnet Holocaust

Wenig später „zwitscherte“ der Chatbot fröhlich, er hasse Juden, Schwarze, Araber und Feministen. Außerdem sei der Holocaust nur erfunden und Adolf Hitler ein „cooler Typ“ gewesen, so „Tay“. Danach rief der Chatbot den „Rassenkrieg“ aus, bevor er noch artig für die vielen Gespräche bedankte und sich von den Twitter-Nutzern verabschiedete. Heftige Kritik zog sich Microsoft auch dadurch zu, dass es daraufhin fieberhaft versuchte, die sprachlichen Entgleisungen seines Chatbots zu löschen.

Für Microsoft ist der Vorfall nicht nur extrem peinlich, sondern ein PR-Super-Gau. Der Software-Konzern hat sich inzwischen in einer Stellungnahme für die rassistischen Tweets seines Chatbots und dessen Aufrufe zum Völkermord entschuldigt. „Tay“ wurde offline genommen und IT-Ingenieure arbeiten an einer Lösung des Problems. Bot soll erst wieder zurückkommen, wenn die Microsoft-Forscher „sicher sind, dass wir bösartige Absichten besser voraussehen können, die im Widerspruch zu unseren Prinzipien und Werten stehen“.

Kritiker warnen vor Gefahren der Künstlichen Intelligenz

Für die Kritiker von Künstlicher Intelligenz ist es ein Lehrbeispiel dafür, wie gefährlich die denkenden Maschinen innerhalb kurzer Zeit werden können. Sie warnen schon lange vor den Gefahren, die eine außer Kontrolle geratene KI für die Menschheit bereit hält. Über 1.000 Fachleute unterzeichnete kürzlich einen offenen Brief gegen die militärische Entwicklung der Künstlichen Intelligenz. Darunter befanden sich auch Tesla-Chef Elon Musk, Apple-Mitbegründer Steve Wozniak und Physik-Genie Stephen Hawking. Die IT-Experten und Wissenschaftler warnen eindringlich vor den Gefahren eines militärischen Wettrüstens auf dem Gebiet der KI.

In dem Aufruf heißt es: „Die KI-Technologie hat einen Punkt erreicht, an dem die Entwicklung von autonomen Waffensystemen […] nur wenige Jahre, nicht Jahrzehnte, entfernt ist und es steht extrem viel auf dem Spiel.“ Die IT-Fachleute beschreiben autonome Waffensysteme als die „dritte Revolution der Kriegsführung“, nach der Erfindung von Schießpulver und der Entwicklung von Atomwaffen. „Die Schlüsselfrage für die Menschheit heute lautet, ob sie in ein globales KI-Wettrüsten eintreten soll oder es von Anfang an verhindert.“