Bilder bearbeiten mit OpenAIs Dall-E

Inpaintings mit Dall-E: OpenAIs Bildgenerator bekommt eine Funktion, mit der man generierte Bilder nachträglich bearbeiten kann.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen
Ein Hund mit Schleifen im Fell.

Ein Hund mit Schleifen im Fell. Generiert und bearbeitet mit Dall-E – laut eines X-Beitrags.

(Bild: Screenshot X)

Lesezeit: 3 Min.

Dall-E ist der Bildgenerator von OpenAI und damit auch in den Microsoft-Produkten. Mit ihm kann man künftig die von ihm generierten Bilder noch weiter bearbeiten. Bisher musste man ein Bild nehmen, wie es herauskam, ein neues generieren oder mit einem anderen Programm weiter daran arbeiten. Nun kann Dall-E zumindest im eingeschränkten Umfang ebenfalls Änderungen an den Bildern vornehmen.

Als Beispiel zeigt OpenAI in einem Beitrag bei X das generierte Bild von einem Hund. Um es zu bearbeiten, wählt man zunächst das Bild selbst aus, dann erscheint darüber das Bearbeitungs-Symbol in Form eines Stiftes. Klickt man diesen, kann man mit ihm Bereiche im Bild markieren. Für diese Bereiche kann man dann wiederum neue Inhalte per Prompt generieren. In dem Beispiel sind es Schleifen für die Ohren des Hundes. Diese passen ganz gut in das Bild, sehen aber doch auch wie nachträglich draufgesetzt aus – zumindest fehlt auf der einen Seite der Schatten und es wirkt etwas unnatürlich. Die erneute Bildbearbeitung dauert einige Sekunden, ähnlich lange, wie auch das Generieren eines komplett neuen Bildes.

Die KI-Bildbearbeitung funktioniert im Web und in den Apps. Zusätzlich gibt es neue Style-Vorlagen bei Dall-E, die helfen sollen, Bildern einen passenden Touch zu geben. Dall-E ist zudem über ChatGPT erreichbar.

Dass überhaupt eine Bearbeitung möglich ist, macht den Bildgenerator deutlich praktischer für verschiedene Einsatzzwecke. Auch andere Anbieter wie Midjourney haben derartige Funktionen in petto. Adobe ist bei den Funktionen für die Bildbearbeitung am weitesten. Auch mit Firefly kann man Bildelemente ersetzen, ergänzen oder ändern. [Link auf Beitrag 4558641]Mit der sogenannten Structure Reference soll das Werkzeug die Struktur eines bestehenden Bildes einfach auf neu generierte Bilder anwenden können. Indem sie ein vorhandenes Bild als Referenz angeben, können Anwender nun mehrere Bildvarianten mit demselben Layout generieren

Shutterstock, Adobe und Getty Images arbeiten zudem allesamt mit Nvidia zusammen, um auf dem KI-Modell Edify des Chipherstellers ihre angepassten Bild- und 3D-Generatoren anbieten. Nutzer können dann beispielsweise via API sogenannte In- und Outpaintings vornehmen, das sind Erweiterungen eines Bildes (out - außerhalb des ursprünglichen Bildes) und Bearbeitungen innerhalb des Bildes. Getty Images plant zudem eine Sketch-Funktion, mit der man die KI mittels einer Skizze anleiten kann, etwas zu generieren. Anders als Dall-E sagen Shutterstock, Adobe und Getty Images, dass ihre Bildgeneratoren ausschließlich mit lizenziertem Material trainiert wurden. Daher sind sie auch kommerziell sicher einsetzbar, heißt es. Wie es um das Urheberrecht steht, ist allerdings noch nicht ausverhandelt.

(emw)