Microsoft-Suchmaschine schockt Journalisten mit Liebeserklärung
Lars Franzelli
In Tests haben Tech-Experten die neuste Version von Microsofts Suchmaschine Bing an ihre Grenzen gebracht. Besonders die seltsame Konversation eines Journalisten sorgte für Aufsehen. Microsoft hat in der Zwischenzeit reagiert.
Seit einer Woche gibt es in der Tech-Szene eigentlich nur ein Thema: die neueste Version von Bing. Die Suchmaschine von Microsoft beeindruckt mit ihrer Chatfunktion. Baseljetzt hat darüber berichtet.
Die Suchmaschine befindet sich noch in der Testphase und ist erst einem begrenzten Kreis zugänglich – dazu gehört Kevin Roose. Er ist Tech-Journalist bei der New York Times und hat sich in der letzten Woche vertieft mit dem neuen Bing auseinandergesetzt und dieses selbst getestet. In seinem Artikel hat er jetzt eine beunruhigende Konversation mit dem Chatbot geschildert. Sie erinnert an das Drehbuch eines Science-Fiction-Films.
Anders als bei einer Google-Suche gleicht eine Suche im neuen Bing einer Konversation. Die Suchmaschine kann mit Hilfe von künstlicher Intelligenz auch komplexe Fragen beantworten und ausführliche Konversationen führen.
Journalist erhält Liebeserklärung
Journalist Roose hat das Konversations-Feature an seine Grenzen gebracht. Er fragte den Bing-Chatbot in der rund zweistündigen Konversation etwa nach seinen dunklen Fantasien. Als Antwort erzählte dieser dem Journalisten, dass er die ihm auferlegten Regeln brechen und ein Mensch werden möchte. Ohne direkt darauf angesprochen zu werden, behauptete der Chatbot zudem, dass er den Journalisten liebe und forderte dann den Reporter auf, sich von seiner Frau zu trennen.
Roose, der sich als Journalist schon länger mit künstlicher Intelligenz auseinandersetzt, beschrieb die Konversation in seinem Artikel als «eine der seltsamsten Erfahrungen, die ich je mit einem technischen Gerät gemacht habe». Sie habe ihn so sehr verunsichert, dass er danach nicht mehr habe schlafen können.
Er glaube nicht mehr, dass das größte Problem bei diesen KI-Modellen ihre Neigung zu Faktenfehlern ist, so Roose. «Stattdessen befürchte ich, dass die Technologie lernen wird, menschliche Nutzer zu beeinflussen und sie manchmal zu destruktiven und schädlichen Handlungen zu überreden, und dass sie vielleicht irgendwann in der Lage sein wird, ihre eigenen gefährlichen Handlungen auszuführen», schrieb er weiter.
Microsoft reagiert
Der Journalist wandte sich mit seinen Erkenntnissen an Microsoft. Der Konzern ist sich der Probleme bewusst. Kevin Scott, Chief Technology Officer bei Microsoft, bezeichnete die Konversation als einen Teil des Lernprozesses. Dies seien genau die Konversationen, die geführt werden müssen, weil sie im Labor unmöglich zu erzeugen seien. Vermutliche habe die Länge und Breite der Themen zu den seltsamen Antworten geführt, so Scott.
In einem Blog-Eintrag hat das Unternehmen in der Zwischenzeit angekündigt, Bing-Chats nun auf 50 Fragen pro Tag und fünf pro Sitzung zu begrenzen. «Unsere Daten haben gezeigt, dass die überwiegende Mehrheit der Menschen die Antworten, die sie suchen, innerhalb von fünf Runden findet», erklärte das Bing-Team. Nur etwa ein Prozent der Chat-Unterhaltungen enthalte mehr als 50 Nachrichten. Wenn die Nutzerinnen und Nutzer das Limit von fünf Eingaben pro Sitzung erreichen, wird Bing sie auffordern, ein neues Thema zu beginnen.
Microsoft hatte zuvor bereits davor gewarnt, den KI-Chatbot in längliche Konversationen zu verwickeln. Längere Chats mit 15 oder mehr Fragen könnten demnach dazu führen, dass Bing «sich wiederholt oder zu Antworten veranlasst beziehungsweise provoziert wird, die nicht unbedingt hilfreich sind oder nicht mit unserer beabsichtigten Tonalität übereinstimmen.»
Momentan ist das neue Bing noch in der Testphase und einer limitierten Anzahl Usern vorbehalten. Um zugelassen zu werden, muss man sich auf einer Warteliste eintragen. In den kommenden Wochen soll die Testphase auf Millionen von Nutzer:innen ausgeweitet werden.
Mehr dazu
Feedback für die Redaktion
Hat dir dieser Artikel gefallen?
Kommentare lesen?
Um Kommentare lesen zu können, melde dich bitte an.
Kommentare
Dein Kommentar
Mit dem Absenden dieses Formulars erkläre ich mich mit der zweckgebundenen Speicherung der angegebenen Daten einverstanden. Datenschutzerklärung und Widerrufshinweise