Google pausiert Gemini-Bildgenerierung von Personen nach Ungenauigkeiten der KI

Auf Anfrage nach deutschen Soldaten 1943 erstellte Gemini KI-Bilder mit Menschen asiatischer und afrikanischer Herkunft, wohl eine Überreaktion der Diversität.

In Pocket speichern vorlesen Druckansicht 118 Kommentare lesen
Mann vor Laptop auf Tisch fasst sich ins Gesicht

(Bild: tsyhun/Shutterstock.com)

Lesezeit: 2 Min.
Von
  • Frank Schräer

Google hat die Fähigkeit seines KI-Chatbots Gemini zur Generierung von Bildern mit Menschen vorerst ausgesetzt. Zuvor hatte die Künstliche Intelligenz nach Nutzeranfragen Bilder mit eklatanten historischen Ungenauigkeiten produziert. Daraufhin hat Google zunächst Verbesserungen der Bildgenerierung versprochen und jetzt schließlich die Erstellung von KI-Bildern mit Personen bis auf Weiteres pausiert.

"Wir arbeiten bereits daran, aktuelle Probleme mit der Bildgenerierungsfunktion von Gemini zu beheben", erklärte Google auf X (vormals Twitter). "Während wir dies tun, werden wir die Bildgenerierung von Personen unterbrechen und bald eine verbesserte Version erneut veröffentlichen."

Zuvor hatte sich Google entschuldigt für Ungenauigkeiten bei der Generierung historischer Bilder seitens Gemini. Einige Nutzer hatten den Chatbot aufgefordert, historische Bilder zu erstellen, etwa mit den Gründungsvätern der USA oder von deutschen Soldaten des Zweiten Weltkriegs. Gemini produzierte daraufhin Bilder mit Gesichtern von Personen afroamerikanischer und asiatischer Abstammung. Das führte online zu Verschwörungstheorien, dass Google absichtlich weniger Menschen mit heller Hautfarbe darstellen wolle.

"Wir sind uns bewusst, dass Gemini in einigen Darstellungen der historischen Bilderzeugung Ungenauigkeiten aufweist", erklärte Google daraufhin – wiederum bei X. "Wir arbeiten daran, solche Darstellungen umgehend zu verbessern. Die KI-Bildgenerierung von Gemini generiert tatsächlich ein breites Spektrum an Menschen. Und das ist im Allgemeinen eine gute Sache, denn Menschen auf der ganzen Welt nutzen es. Aber hier verfehlt es das Ziel."

Zudem hatte Gemini auf Anfrage nach einer Darstellung verschiedener US-Senatoren des 19. Jahrhunderts Bilder einer Frau mit schwarzer Hautfarbe, eines asiatischen Mannes, einer Frau offenbar indischer Herkunft und einer Angehörigen indigener Völker Amerikas generiert. Das ist in gleich mehreren Punkten historisch nicht korrekt, nicht nur hinsichtlich der Herkunft der gezeigten Menschen, denn die erste US-Senatorin war 1922 eine weiße Frau, also erst im 20. Jahrhundert.

Erst vor rund zwei Wochen hat Google Gemini als Nachfolger von Bard eingeführt, der nun so heißt wie sein großes Sprachmodell gleichen Namens. Der Chatbot kann 40 Sprachen in der Webversion und ist auch in Deutschland verfügbar. Die Apps sind auf Englisch und zunächst auf die USA beschränkt. Letzte Woche hat Google dann mit Gemini 1.5 und 1.5 Pro KI-Modelle mit drastisch verbesserter Leistung gebracht. Diese sollen besonders langen und multimodalen Kontext verstehen können.

Update

In einem knappen Blogbeitrag hat Google die Fehler in Gemini eingeräumt und um Entschuldigung gebeten. Das, was die KI bisher ausgab, sei nicht so vorgesehen gewesen. So wollte Google laut seines Blogs immer einen "Bereich von Personen" anbieten, damit die Bilder auf der ganzen Welt funktionieren. Dabei sei es auch zu den historisch nicht korrekten Darstellungen gekommen. Das sollte so nicht sein, vielmehr sollte das Modell nur dann bestimmte Gruppen darstellen, wenn der Nutzer ausdrücklich danach fragt.

Entstanden seien die Bilder aus zwei Gründen: Zum Einen durch eine Wechselwirkung mit dem Schutz vor Missbrauch etwa für sexuelle Darstellungen oder die Generierung von Bildern von real existierenden Personen. Zum Anderen habe sich das Modell "über die Zeit", so Google, so entwickelt, dass es immer vorsichtiger geworden sei und manche Prompts gleich ganz ablehnt habe.

(fds)