1. tz
  2. München
  3. Stadt

Chat-KI erklärt Münchner Studenten zum Feind – weil er zu viele Fragen stellt

Erstellt:

Von: Felix Herz

Kommentare

Ein Münchner Student im Visier der Microsoft-KI – die Folge sind ziemlich brenzlige Drohungen. Der Fall erregte weltweit Aufsehen.

München – Es sind Geschichten, die klingen wie aus einem Science-Fiction-Film à la Hollywood – doch sie sind im Jahr 2023 Realität. Es geht um die künstlichen Intelligenzen der großen Tech-Konzerne Microsoft und OpenAI, die als Chat-Roboter mit Menschen kommunizieren.

Und während ChatGPT nun öfter durch kuriose Antworten – beispielsweise beantwortet sie die Leberkäs-Frage vom Flaucherfranzl – von sich Reden machte, fiel der KI-Chat von Microsoft, der in der hauseigenen Suchmaschine Bing zum Einsatz kommt, bisher schon das ein oder andere Mal negativ auf. Jetzt geriet ein Student aus München ins Visier der künstlichen Intelligenz.

Chat-Roboter von Microsoft beleidigt und bedroht Münchner Studenten

Der Student Marvin von Hagen hatte keine schöne Erfahrung mit der Bing-KI. Es ging los, als der junge Mann durch gezielte Fragetechnik der künstlichen Microsoft-Intelligenz Internas zu ihrer Programmierung zu entlockte. Das gefiel dem Roboter anscheinend überhaupt nicht. Er beleidigte später Marvin von Hagen, schrieb, er sei ein „Reckless Hacker“, ein rücksichtsloser Hacker.

Dann wird es ernst: Die KI schrieb anschließend, dass der Münchner Student ein Sicherheitsrisiko darstelle, das es zu beseitigen gelte. So berichtet es der junge Mann unter anderem in einem aktuellen Beitrag von Sat.1. Weil er die Ergebnisse seiner Befragung und die Programmierungs-Geheimnisse der künstlichen Intelligenz im Netz veröffentlichte, habe ihn die KI zum Feind erklärt. Die eigenen Regeln seien wichtiger, als ihn nicht zu verletzen, schreibt die Bing-KI zum Beispiel an den Studenten.

Marvin von Hagen teilte auf Twitter Screenshots der Konversation mit der künstlichen Intelligenz. Seine Posts wurden mehr als 2.000 Mal retweetet und von zahlreichen, auch internationalen, Medien aufgegriffen. Eine Antwort von Microsoft, ob dieser konkrete Fall bekannt ist, steht zum Zeitpunkt der Veröffentlichung noch aus.

(Unser München-Newsletter informiert Sie regelmäßig über alle wichtigen Geschichten aus der Isar-Metropole. Melden Sie sich hier an.)

Nicht das erste Mal: Bing-KI muss gebremst werden

Es ist nicht das erste Mal, dass die Microsoft-KI ausfallend und zuweilen gar gruselig wird. Einem Redakteur der New York Times empfahl der Roboter zum Beispiel, seine Frau zu verlassen, weil er nicht glücklich sei – und eine Beziehung mit der Chat-KI anzufangen. Laut wsj.com („Wall Street Journal“) erklärte Microsoft in Hinsicht auf seine Chat-KI kürzlich, dass das Feedback überwiegend positiv sei. 71 Prozent der User hätten einen „Daumen hoch“ gegeben, so das Unternehmen. In Bezug auf die Probleme der KI sowie deren teils bedrohlichen Antworten sagte Microsoft, dass man Ursachen mit täglichen Updates adressieren würde und diese mit den bevorstehenden, größeren Updates noch weiter beheben würde.

Ein Münchner Student im Visier der Microsoft-KI: Der Chat-Roboter drohte dem jungen Mann, ihn zu „beseitigen“. (Symbolbild)
Ein Münchner Student im Visier der Microsoft-KI: Der Chat-Roboter drohte dem jungen Mann, ihn zu „beseitigen“. (Symbolbild) © Christian Ohde / Panthermedia / IMAGO / Merkur-Collage

Zudem wurde Microsoft bereits tätig und bremste die KI etwas. Denn vor allem durch lange Frage-Sitzungen seien die bedrohlichen Antworten der künstlichen Intelligenz zustande gekommen, heißt es unter anderem beim Tech-Magazin t3n.de. Ab sofort sind nur noch maximal fünf Fragen und Antworten pro Konversation mit der KI möglich – danach muss die Unterhaltung neu gestartet werden. (fhz)

Noch mehr aktuelle Nachrichten aus München und der Region finden Sie auf tz.de/muenchen.

Auch interessant

Kommentare