KI-Update kompakt: KI-Sicherheit, Musikindustrie, SAFE, KI in Unternehmen

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
  • Isabel Grünewald
Inhaltsverzeichnis

Die USA und Großbritannien beabsichtigen, mindestens einen gemeinsamen Test zur Überprüfung potenzieller Risiken von KI-Systemen zu entwickeln. Neben den geplanten kollaborativen Prüfungen soll ein intensiver Informationsaustausch stattfinden. Die Zusammenarbeit zielt darauf ab, mit den rasanten Fortschritten der KI-Technologie Schritt zu halten und eine einheitliche Herangehensweise an die KI-Sicherheit zu gewährleisten.

Das Vorhaben steht im Einklang mit den Zielen des AI Safety Summit im November 2023, bei dem Vertreter aus 28 Ländern die "Bletchley Declaration" unterzeichneten. Die Erklärung strebt die Identifikation von Sicherheitsrisiken mit gesellschaftlichen Auswirkungen an.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

In den USA, Großbritannien und der EU existieren bereits spezifische KI-Richtlinien. Während in den USA Bundesbehörden beauftragt sind, KI-Modelle zu prüfen und Standards zu definieren, sind in Großbritannien Regulierungsbehörden angehalten, Konzepte zum Umgang mit KI vorzulegen. Der europäische AI Act sieht je nach Risikostufe unterschiedliche Regulierungsmaßnahmen vor, wobei General Purpose AI bislang wenig reglementiert wird.

Über 200 bekannte Musiker und Künstlerinnen, darunter Billie Eilish, Jon Bon Jovi, Stevie Wonder und Katy Perry, erheben ihre Stimmen gegen den Einsatz generativer KI-Technologien in der Musikbranche. Dieser würde die Rechte und den Wert kreativer Arbeit untergraben. Die Künstlerrechtsorganisation Artist Rights Alliance (ARA) hat den offenen Brief initiiert, in dem die Musikschaffenden die KI-Unternehmen auffordern, auf Technologien zu verzichten, die menschliche Kreativität ersetzen könnten.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Die ARA-Direktorin Jen Jacobsen betont, dass es nicht um neue Gesetze geht, sondern um die Zusammenarbeit mit der Technologiebranche, um einen fairen Markt zu schaffen. Die Unterzeichnenden erkennen an, dass KI die menschliche Kreativität unterstützen kann, warnen aber vor einem unregulierten Einsatz, der Künstlerinnen und Künstler schädigt und das Musik-Ökosystem gefährdet. Sie sehen in der unkontrollierten Nutzung von KI eine direkte Bedrohung für die Existenz professioneller Musikerinnen und Musiker, da KI-generierte Werke die Tantiemen für Musikschaffende verwässern könnten. Generative KI-Systeme wie die von Suno sind mittlerweile in der Lage, Musikstücke von bis zu zwei Minuten Länge mit Text zu generieren.

Eine Umfrage des Magazins MIT Technology Review offenbart stark divergierende Ansichten darüber, woran man eine Künstliche Allgemeine Intelligenz (AGI) erkennen würde. Während einige Forscher die Übernahme typischer menschlicher Bürotätigkeiten ohne Auffälligkeiten als Kriterium nennen, sehen andere AGI zwingend an einen physischen Körper gekoppelt.

Kontrovers ist auch die Einschätzung, ob aktuelle KI-Systeme wie ChatGPT bereits begrenzt die Kriterien von Universalität, Leistungsfähigkeit und selbstständigem Lernen erfüllen. Manche Experten warnen davor, einer Maschine überhaupt einen ethischen Kompass zu implementieren, da schon der menschliche oftmals unzuverlässig sei.

Die Meinungen zur zeitlichen Perspektive einer echten AGI reichen von zwei bis drei Generationen bis hin zu einer Marktreife im Jahr 2026. Die Debatte verdeutlicht die Schwierigkeit, eine allgemeingültige Definition und zuverlässige Testverfahren für Künstliche Allgemeine Intelligenz zu finden.

Einen tiefen Einblick in das Thema liefert der Weekly Podcast des Magazins.

Die KI-Suchmaschine Perplexity beabsichtigt, in den kommenden Quartalen Anzeigen in ihre Ergebnisse einzubinden. Mit einer Investition von 74 Millionen US-Dollar durch Amazon-Gründer Jeff Bezos will das Unternehmen Google Konkurrenz machen.

Perplexitys Alleinstellungsmerkmal ist die Beantwortung von Suchanfragen in natürlicher Sprache unter Angabe der verwendeten Quellen. Die Plattform gibt zusätzlich Themenvorschläge und unterstützt verschiedene Medienformate.

Laut Chief Business Officer Dmitry Shevelenko war Werbung stets Teil der Unternehmensvision. Native Anzeigen sollen unterhalb der Suchergebnisse und weiterführenden Fragen platziert werden. Unklar bleibt die Handhabung bei kostenpflichtigen Accounts.

Der KI-Boom hat den Wettbewerb um die Zukunft der Suche neu entfacht. Perplexity konnte im Januar bereits 10 Millionen aktive Nutzer verzeichnen und ist als Standardsuchmaschine in den Browser Arc integriert.

Wissenschaftler der University of California, Berkeley und Google DeepMind haben das Tool SAFE zur Bewertung der Faktentreue von KI-generierten Antworten entwickelt. SAFE zerlegt Antworten in einzelne Aussagen, überprüft deren Relevanz und verifiziert sie mittels Google-Suchen.

In einem Vergleich stimmte SAFE bei 72 % der Fakten mit menschlichen Bewertungen überein. Bei Unstimmigkeiten lag SAFE viermal häufiger richtig als die menschlichen Prüfer (76 % vs. 19 %). Zudem war SAFE 20-mal günstiger.

KI profitiert von der Fähigkeit, systematisch große Datenmengen aus dem Internet abzufragen. Menschen verlassen sich oft auf das Gedächtnis und subjektive Einschätzungen, was zu mehr Fehlern führt.

Von 13 getesteten Sprachmodellen schnitten GPT-4-Turbo, Gemini-Ultra und PaLM-2-L-IT-RLHF am besten ab. Größere Modelle erzielten generell bessere Ergebnisse.

Die Studie zeigt, dass KI mit Internetzugriff ein effektives Werkzeug für die automatisierte Faktenprüfung sein kann – auch für reale Anwendungen. Die Ergebnisse könnten Hinweise geben, wie Google und OpenAI ihre Sprachmodelle mit Suchfunktionen verbessern wollen.

OpenAI startet einen neuen Inpainting-Editor für DALL-E 3. Er ermöglicht die direkte Bearbeitung generierter Bilder in ChatGPT. Der Editor ist in der Web- und Mobilversion von ChatGPT verfügbar und ermöglicht es, Teile eines Bildes zu markieren und dort Änderungen per Textbefehl vorzunehmen. Die Größe des Auswahlwerkzeugs ist anpassbar, um den zu bearbeitenden Bereich zu präzisieren. OpenAI rät allerdings, einen großen Bereich zu wählen, um optimale Ergebnisse zu erzielen.

Alternativ zur Auswahl können Änderungen auch durch direkte Textbefehle im Chatfenster vorgenommen werden, wobei spezifische Bildbereiche in der Anweisung genannt werden sollten. Mit dem Editor lassen sich Objekte hinzufügen, entfernen oder Eigenschaften wie Farbe und Gesichtsausdrücke ändern. Ähnliche Funktionen waren bereits für DALL-E 2 verfügbar und auch Konkurrenten wie Midjourney und Ideogram bieten diese schon länger an.

Eine von Salesforce durchgeführte Umfrage offenbart eine große Diskrepanz zwischen den Erwartungen des Top-Managements und der Einschätzung der IT-Experten hinsichtlich der Einführung von Künstlicher Intelligenz in Unternehmen. Während die Unternehmensführung auf eine schnelle und umfassende Integration der KI in alle technischen Bereiche drängt, sehen die IT-Mitarbeiter erhebliche Herausforderungen und Risiken.

Als Hauptprobleme identifizieren sie fehlendes KI-Know-how in der Belegschaft, Datensicherheit und -qualität, Implementierungsschwierigkeiten sowie hohe Kosten für Programmierung und Tools. Die IT-Experten kritisieren unrealistische Erwartungen seitens der Geschäftsführung bezüglich Geschwindigkeit und Agilität bei der KI-Einführung und bemängeln eine Priorisierung von Tempo vor Sicherheit und Datenqualität.

Auch der Einsatz Cloud-basierter KI-Dienste, die auf anonymisierten Daten aller Kunden aufsetzen, wird skeptisch gesehen. Trotz des Vorteils eines gemeinsamen Wissenspools befürchten Unternehmen den Verlust von Konkurrenzvorteilen, etwa im Bereich der IT-Sicherheit oder bei Geschäftsprozessen.

(igr)