Circle-to-Search und klar, mehr KI: Google bringt neue Suchfunktionen heraus

Google erkennt auf Wunsch, was in anderen Apps auf dem Smartphone zu sehen ist. Circle-to-Search heißt eine der neuen Suchfunktionen.

In Pocket speichern vorlesen Druckansicht 18 Kommentare lesen
Google-Logo an der Konzernzentrale in Mountain View

Mit einem solchen Kringel lässt sich nach Gegenständen, Gebäuden oder anderen Dingen suchen.

(Bild: Skorzewiak/Shutterstock.com)

Lesezeit: 3 Min.

Eine Geste und zack, bekommt man ein Suchergebnis angezeigt. So vermarktet Google eine neue Suchfunktion bei einem Roundtable mit der Presse. Circle-to-Search heißt die Funktion, bei der man mit dem Finger einen Bildausschnitt auf dem Smartphone-Display umkreist, der dann automatisch in die Google-Suche fließt. Das geschieht quasi über Google Lens, den Bilderkennungsdienst von Google. Außerdem ziehen mehr KI-generierte Antworten in die Suche ein.

(Bild: Google)

Circle-to-Search ist über die Google-App erreichbar. Die Anwendung kann sich über alle anderen Apps auf dem Smartphone drüberlegen. Das heißt, die neue Suchfunktion lässt sich auch für ein Tiktok-Video nutzen. Zeigt ein Content-Creator dort beispielsweise Urlaubsfotos, kann man mit der Fingergeste einen Kreis um ein markantes Gebäude im Hintergrund machen, Google findet, wo dieses steht. Eine Beispielanwendung von Google selbst: Ein Foto zeigt einen Hund mit einer Schwimmbrille. Eine Umkreisung mit dem Finger später zeigt Google Shopping-Ergebnisse für solche Brillen an.

(Bild: Google)

Die Bezeichnung der Funktion spielt nicht nur auf den Kreis an, mit dem ein Bildausschnitt umrandet wird, die Funktion soll auch ein immersives Erlebnis schaffen, ohne, dass man bei dem, was man gerade macht, unterbrochen wird. Gemeint ist, ohne dass man die App wechseln muss. Um Circle-to-Search zu aktivieren, muss man den Home-Button gedrückt halten, oder man geht über die Navigation. Mit einem Wisch kommt man zurück zu der Anwendung, die man zuvor geöffnet hatte.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externes Video (Kaltura Inc.) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Kaltura Inc.) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Zunächst ist die "Kreissuche" ab 31. Januar verfügbar, allerdings nur auf Pixel-8-Geräten und auf dem neuen Galaxy S24. Circle-to-Search funktioniert dann weltweit und in allen Sprachen.

Bei der Multisearch stellt man Fragen zu Bildausschnitten, das geht bereits als Teil von Google Lens. Beispielsweise lässt sich ein Foto von einem Joghurtbecher hochladen und dazu fragen, was hinter dem Trend steckt, dass jeder diesen Becher nutzt. Oder man fragt, wo man eine Waffel mit verschiedenen Toppings bekommt. Google antwortet in natürlicher Sprache oder per Linkliste, je nach Frage. Grundsätzlich sind die neuen Funktionen freilich KI-basiert, was die Antworten auch im Vergleich zu den vorherigen von Google Lens verbessert, schreibt Google im Blogbeitrag. Statt eines rein visuellen Abgleichs kann Lens nun den Kontext verstehen.

Die Erweiterung für Google Lens ist allerdings zunächst nur in den USA und auf Englisch verfügbar. Die Funktion ist laut Google eine direkte Ableitung aus den Erkenntnissen, die mit der Search Generative Experience (SGE) gemacht wurden. Das ist Googles Test-KI-Suche, die bisher nur in den USA und in einer Experimentierumgebung zu nutzen ist. Die SGE zeigt oberhalb der bekannten Suchergebnisse eine Antwort in natürlicher Sprache an. Zudem werden die Quellen verlinkt. Ein Button führt zu einem Chatbot, mit dem man dann tiefer in das Gespräch zur Suche einsteigen kann.

(emw)