KI-Update kompakt: Deepfakes, KI-Waffen, Googles KI-Pläne, Jugendschutz

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Die Verbreitung von Deepfake-Pornos mit Popstar Taylor Swift im Internet in der vergangenen Woche hat die Gefahren von KI-generierten Inhalten und die damit verbundene Verletzung von Persönlichkeitsrechten erneut in den Fokus gerückt. Doch was kann man dagegen tun?

Drei zentrale Ansätze zur Bekämpfung solcher Inhalte sind Watermarking, Schutzsoftware und neue Gesetze. Watermarking, das Hinzufügen von unsichtbaren digitalen Wasserzeichen, könnte Social-Media-Unternehmen helfen, ihre Moderation zu verbessern und gefälschte Inhalte schneller zu erkennen. Schutzsoftware wie PhotoGuard oder Nightshade ermöglicht es Nutzern, ihre Bilder vor digitaler Ausbeutung zu schützen. Allerdings funktionieren diese Tools nur bei der aktuellen Generation von KI-Modellen und sind bei Bildern von Prominenten schwieriger anzuwenden.

Neue Gesetze wie der britische Online Safety Act, der AI Act in der Europäischen Union oder das chinesische Deepfake-Gesetz zielen darauf ab, Urheber von Deepfake-Pornografie stärker zur Verantwortung zu ziehen und Opfern Rechtsmittel an die Hand zu geben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Künstliche Intelligenz beeinflusst zunehmend die Kriegsführung und wirft technische, taktische, strategische, politische und gesellschaftliche Fragen auf. Auf der Handelsblatt Konferenz Sicherheit und Verteidigung in Berlin diskutierten Experten über das Thema.

Heiko Borchert, Co-Direktor des Defense AI Observatory an der Helmut-Schmidt-Universität Hamburg, identifizierte drei Wellen der Entwicklung militärischer KI. In der dritten Welle könnten KI-Systeme die "Rules of Engagement" verstehen und Entscheidungen auf dem Gefechtsfeld treffen. Solche Systeme sind noch nicht im Einsatz, sondern in Simulationen - hier sieht er Deutschland als Vorreiter.

Offene Fragen seien noch die genauen Ziele, so Borchert. Nato-General Chris Badia betonte die Notwendigkeit autonomer Systeme aufgrund von Personalmangel - etwa bei der Überwachung kritischer Infrastruktur wie Unterseekabeln.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

OpenAI untersucht, inwieweit große Sprachmodelle wie GPT-4 die Entwicklung von Biowaffen beschleunigen oder mehr Menschen zugänglich machen könnten und arbeitet an einem Frühwarnsystem. Um dieses System zu entwickeln, hat OpenAI untersucht, ob ein solches Sprachmodell den Zugang zu Informationen über biologische Bedrohungen im Vergleich zur herkömmlichen Internetsuche verbessert.

In einer Studie mit 100 Teilnehmern, darunter 50 promovierte Biologen und 50 Studenten mit mindestens einem Biologiekurs, zeigte sich eine leichte Verbesserung der Genauigkeit und Vollständigkeit der Antworten bei denjenigen, die das Sprachmodell verwendeten. Dieser Unterschied war jedoch statistisch nicht signifikant.

Ziel des Frühwarnsystems ist es, als "Stolperdraht" zu fungieren, der auf ein erhöhtes Potenzial für die Entwicklung biologischer Waffen hinweist. Dies würde es OpenAI ermöglichen, Maßnahmen zu ergreifen, um Missbrauch in diesem Bereich zu verhindern. Das System ist Teil des OpenAI Preparedness Framework.

Bei der Präsentation der Quartalszahlen sprachen Microsoft-CEO Satya Nadella und Google-CEO Sundar Pichai über ihre KI-Produkte und -Pläne. Nadella betonte die Produktivitätssteigerungen durch generative KI-Anwendungen. Laut Studien von Microsoft steigern diese die Produktivität um bis zu 70 Prozent. CoPilot-Nutzer waren bei Aufgaben wie Recherche, Schreiben und Zusammenfassen um 29 Prozent schneller. Nadella hob Zusammenfassungen als wichtigste Anwendung hervor und erklärte, dass er diese bereits nutzt.

Eine weitere beliebte Funktion sei die Umwandlung von Word-Dokumenten in PowerPoint-Präsentationen. Die Art der Arbeit werde sich ändern, so dass "das leere Blatt verschwinden wird", sagte Nadella.

Google-CEO Pichai kündigte an, dass der GPT-4-Konkurrent Gemini Ultra "bald" verfügbar sein werde und das Team bereits an weiteren Versionen und Produktintegrationen arbeite. Zu Googles generativer KI-Suche SGE sagte Pichai, sie stecke „noch in den Kinderschuhen“ und sei eine weitere Möglichkeit im Sucharsenal. Bestimmte Fragen könnten bereits sehr gut von SGE beantwortet werden und Google arbeite daran, das Spektrum der Fragen zu erweitern.

Vor wenigen Tagen tauchte das KI-Modell "miqu-1-70b" auf HuggingFace und schließlich 4chan auf und zeigte in ersten Community-Tests beeindruckende Leistungen. So übertraft es in einigen Benchmarks das bisher stärkste Open-Source-Modell von Mistral, Mixtral, und in einigen wenigen sogar Mistrals aktuell stärkstes verfügbares Medium-Modell. In einem Benchmark schneidet es sogar besser ab als alle Sprachmodelle außer GPT-4. Mistral CEO Arthur Mensch bestätigte nun, dass es sich um ein geleaktes Modell handelt, das von einem "übereifrigen Mitarbeiter" eines frühen Kunden veröffentlicht wurde.

Laut Mensch basiert das Modell auf Metas Llama 2. Das Unternehmen hat seitdem große Fortschritte gemacht und plant, ein Modell auf oder über dem Niveau von GPT-4 mit Mistral-Large zu entwickeln. Mistral hat keine Pläne, das geleakte Modell von HuggingFace zu entfernen, und es ist unklar, ob ein offizieller Release mit Lizenzen geplant ist.

OpenAI und die Non-Profit-Organisation Common Sense Media (CSM) haben eine Zusammenarbeit angekündigt, um KI-Richtlinien für Jugendliche zu entwickeln und so den Jugendschutz im Umgang mit Künstlicher Intelligenz zu fördern. OpenAI-Chef Sam Altman und CSM-Chef James P. Steyer gaben die Kooperation bei einem Event der Organisation in dieser Woche bekannt. Common Sense Media stellt sich als die US-weit führende Interessenvertretung für Kinder und Familien dar. Zusammen mit OpenAI sollen Bildungsmaterialien für Eltern herausgegeben werden. Zudem wollen die Partner KI-Richtlinien für Jugendliche erarbeiten und auch familienfreundliche GPTs im kürzlich eröffneten GPT-Store kuratieren.

Einige Empfehlungen gibt es bereits aus anderer Richtung: Die Unesco fordert ein Mindestalter von 13 Jahren für den Einsatz von KI-Tools in Schulen und betont, dass der sichere Umgang mit KI-Werkzeugen durch zeitgemäße Bildungsangebote auch für jüngere Menschen gewährleistet werden sollte. Die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz hat kürzlich ein Impulspapier zum Einsatz von KI in Schulen veröffentlicht, in dem unter anderem gefordert wird, sichere Zugänge für Lehrkräfte und Lernende zu schaffen und rechtliche Grauzonen zu adressieren.

Laut einer Studie des Beratungshauses Goldmedia im Auftrag der Verwertungsgesellschaften Gema und Sacem wird generative KI den Musikmarkt massiv verändern. Der Gesamtmarkt für generative KI wird bereits 2023 auf 3,7 Milliarden US-Dollar geschätzt, wobei Musikanwendungen einen Anteil von 8 Prozent (300 Millionen US-Dollar) haben. Bis 2028 könnte dieser Anteil auf 28 Prozent des weltweiten Umsatzes mit urheberrechtlich geschützten Musikbibliotheken anwachsen.

Die Studie zeigt, dass gut ein Viertel der Einnahmen von Musikschaffenden durch KI gefährdet ist. Der Gesamtschaden in Deutschland und Frankreich könnte bis 2028 rund 2,7 Milliarden betragen. Die Autoren der Studie haben potenzielle Einnahmeverluste aus verschiedenen Musikurheberrechtsquellen wie Streaming, soziale Medien, Radio, Fernsehen, Live-Musik und Hintergrundmusik in kommerziellen Veranstaltungsorten bewertet.

(igr)