Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Mike Müller und KIGoogles Chatbot erzählt noch immer «Chutzenmist»

Nach dem Kontakt mit Mike Müller hinterlässt Bard alias Gemini einen angeschlagenen Eindruck. Das Bild zeigt den Schauspieler (oben) mit Michael Neuenschwander beim Singspiel «Geri» 2009.

Bard sei ein «pathologischer Lügner»: So urteilten Google-Mitarbeiter über den Chatbot des Suchmaschinenkonzerns. Er ging im März 2023 online, und auch bei unserem Test zwei Monate später gab sich die künstliche Intelligenz (KI) des Suchmaschinenkonzerns peinliche Blössen: Sie lieferte deutlich mehr falsche und unplausible Antworten als der Hauptkonkurrent Chat-GPT.

Auch Microsoft hatte Anlaufschwierigkeiten: Copilot war beim Start nicht über alle Zweifel erhaben, die gröbsten Probleme konnten aber schnell eliminiert werden. Google hat nach Monaten neulich einen wichtigen Fortschritt vermeldet: Ein besseres Sprachmodell soll es erlauben, zu Chat-GPT aufzuschliessen. Der neue Softwarekern heisst Gemini, und er kommt seit letzter Woche flächendeckend zum Einsatz. Google verspricht sich so viel von ihm, dass der Konzern soeben entschieden hat, Bard in Gemini umzutaufen.

Auch die zweite Chance vertan

In der Reinkarnation als Gemini hat Bard eine zweite Chance verdient. Ist mit dem alten Namen auch der Hang zur Lüge verschwunden? Doch schon meine ersten Stichproben fallen verheerend aus. Auch Gemini halluziniert. Sprich: Der Bot erfindet Fakten und gibt Falschinformationen von sich.

Der Bot soll die Frage beantworten, wer Mike Müller ist. Die grundsätzlichen biografischen Daten stimmen: 1963 geboren in Grenchen, Schweizer Schauspieler und Kabarettist. Doch er dichtet Müller auch mehrere Bücher, Bühnenprogramme und eine Beteiligung als Synchronsprecher von Shrek in der deutschen Fassung des gleichnamigen Films an.

Shrek lass nach – die Auskunft von Google Gemini über Mike Müller.

Mit dieser Beschreibung konfrontiert, urteilt Mike Müller: «Die grünen Passagen stimmen, der Rest ist Chutzenmist.» Die farbliche Unterscheidung stammt von der «Antwort überprüfen»-Funktion. Sie markiert Passagen mit Grün oder Braun, je nachdem, ob sie via Google-Suche erhärtet werden konnten.

Rache für die ausgespannte Freundin

Mike Müller sieht sogar einen Vorsatz bei den falschen Antworten: «Es ist wie in der Mittelschule, wenn man einem faulen Kumpel für zwei Päckli Zigaretten einen Vortrag zusammenstiefelt, dieser Kumpel einem die Freundin ausspannt und man sich solcherlei rächt.» Abschliessend gibt es doch noch ein Lob: «Der letzte Satz allerdings ist nichts als die pure Wahrheit, Wahnsinn.» Dieser letzte Satz lautet: «Zusammenfassend lässt sich sagen, dass Mike Müller einer der vielseitigsten und erfolgreichsten Schweizer Künstler der Gegenwart ist.»

Chat-GPT antwortet im Vergleich zurückhaltend: Dieser Bot weist darauf hin, dass es mehrere bekannte Leute unter dem Namen Mike Müller gibt, nämlich auch einen Eishockeyspieler und einen Unternehmer. Seine Aussage zum Schauspieler ist gar vage, aber im Kern richtig: «Er könnte durch Rollen in Schweizer Filmen oder Fernsehshows bekannt sein.»

Nicht alle Fehler werden abgefangen

Immerhin: Mittels «Antwort überprüfen»-Funktion liessen sich die Falschinformationen identifizieren. In weiteren Tests zeigt sich allerdings, dass auch die nicht alle Fehler abfängt: Als ich den Bot zu mir und meinem privaten Blog befrage, erfindet er eine komplett falsche Rangliste der beliebtesten Blogposts. Sie enthält nicht nur mehrere fiktive Einträge, eine völlig falsche Gewichtung und eine unzutreffende Begründung, auf welchen Daten diese Rangliste basiere. Diese Fehler werden längst nicht durchgängig mit brauner Farbe markiert.

Was meint Google dazu? Die Funktion «Antwort überprüfen» sei kein Faktenchecker, teilt Mediensprecherin Pia De Carli auf Anfrage mit: Die Funktion beurteile eine Aussage danach, ob es im Internet stützende Inhalte gebe: «Wenn eine Aussage mit einer gewissen Wahrscheinlichkeit bewertet werden kann, zeigt die hervorgehobene Phrase an, wo Sie mehr über unterstützende oder möglicherweise widersprüchliche Informationen erfahren können, die über die Google-Suche gefunden wurden.» Klickt man auf die grünen Resultate, erscheinen Links zu Quellen im Netz, die zur Aussage passen.

Ob die Dialekt-Expertinnen und -Experten dieser Aussage zustimmen?

Bard alias Gemini sollte gestoppt werden

Das Experiment müsste gestoppt werden – sofort. Ich kann die Qualität der Antworten zwar nur durch Stichproben bestimmen. Es ist nicht ausgeschlossen, dass der Bot bei meinem Test einen schlechten Tag hatte. Trotzdem ist er zu weit weg von der Qualität, die Google anstreben muss – daran ändert auch der neue Namen nichts. Zur ungenügenden Qualität äussert sich Mediensprecherin Pia De Carli diplomatisch: «Alle grossen Sprachmodelle halluzinieren, auch unseres. Wir arbeiten weiter daran, die Antworten zu verbessern.»