KI-Update kompakt: Microsoft-Investition, Cybergangs, Atombombe, KI-Erfindungen

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht 2 Kommentare lesen

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
Inhaltsverzeichnis

Microsoft kündigt eine massive Investition von 3,2 Milliarden Euro in Deutschland an. Geplant sind Rechenzentren im Rheinland und Frankfurt am Main, die KI-Dienste und Cloud-Lösungen bereitstellen sollen. Dies soll die Kapazitäten für KI-Infrastruktur verdoppeln und den wachsenden Bedarf decken. Die neuen Zentren werden auch Trainingsmöglichkeiten für KI-Modelle bieten. Zusätzlich plant Microsoft, bis 2025 1,2 Millionen Menschen in digitalen Kompetenzen zu schulen.

Die Investitionen sind nicht an staatliche Subventionen gekoppelt und zielen auch darauf ab, Microsofts Betrieb bis 2025 vollständig mit erneuerbaren Energien zu versorgen, einschließlich der Rechenzentren. Das Unternehmen investiert daher auch in neue Solar- und Windkraftanlagen.

Bundeskanzler Olaf Scholz lobte das Engagement als Zeichen für die Attraktivität Deutschlands als Investitionsstandort. Microsofts Deutschland-Chefin Marianne Janik und Vize-Chef Brad Smith betonten, dass die Investitionen der deutschen Wirtschaft helfen sollen, im globalen Wettbewerb durch KI-Anwendungen weiterhin führend zu sein. Microsoft hat ähnliche Investitionen auch in Australien und Großbritannien getätigt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Microsoft hat mit UFO, kurz für "UI-Focused Agent", ein KI-System für die Windows-Bedienung vorgestellt. Dieses Agenten-Framework nutzt OpenAIs GPT-4V zur Analyse von Benutzeroberflächen und Steuerungsinformationen und ermöglicht intuitive Interaktionen mit Windows-Anwendungen. UFO besteht aus zwei Agenten: AppAgent wählt Anwendungen aus und ActAgent führt Aktionen aus. Im WindowsBench-Test übertraf UFO mit einer Erfolgsquote von 86 Prozent andere Modelle und agierte sicherheitsbewusster - allerdings mit Einschränkungen bei unkonventionellen Anwendungs-GUIs.

Microsoft plant weitere Verbesserungen, wie flexiblere Backends und GUI-Erkennungsmodelle, und erwägt die Einbindung von Online-Suchmaschinen. Aktuell ist UFO kostenfrei via GitHub verfügbar, erfordert jedoch kostenpflichtige API-Schlüssel von OpenAI.

Eine vollständige Betriebssystemintegration und lokale Ausführung könnten in Zukunft den Einsatzbereich solcher KI-Systeme erweitern und Kosten sowie Datenschutzbedenken reduzieren. Mit fortschrittlicher Spracherkennung könnten solche Systeme die Notwendigkeit manueller Befehlseingaben reduzieren und komplexe Arbeitsabläufe über mehrere Programme automatisieren.

Cybergangs haben versucht, KI-Dienste von OpenAI und Microsoft für kriminelle Zwecke zu nutzen. Die Tätergruppen, darunter aus China, aus dem Iran, aus Nordkorea und aus Russland, setzten KI ein, um Informationen abzufragen, Texte zu übersetzen, Programmierfehler aufzuspüren und technologische Inhalte zu verstehen. Es gab auf Fälle der Erstellung schädlicher Skripte oder von Inhalten für Phishing-Kampagnen. Einige Akteure versuchten zudem, öffentlich verfügbare Schwachstellen zu verstehen und Open-Source-Forschung zu Satellitenkommunikationsprotokollen und Radarbildtechnologie zu betreiben. Ein Akteur versuchte, Verteidigungsexperten im asiatisch-pazifischen Raum ausfindig zu machen.

Trotz dieser Aktivitäten betonen OpenAI und Microsoft, dass der Nutzen von KI für Cyberkriminalität begrenzt ist. GPT-4 bietet laut den Unternehmen keine nennenswerten Vorteile gegenüber existierenden, nicht KI-basierten Tools. Beide Firmen arbeiten aktiv daran, Missbrauch zu erkennen und zu verhindern, indem sie Sicherheitsteams einsetzen und mit Sicherheitsexperten zusammenarbeiten.

Zusätzlich zu den Missbrauchsversuchen gab es Angriffe auf Sprachmodelle durch Prompt-Injections, bei denen Chatbots verhaltensändernde Befehle erhalten. Microsoft sieht jedoch auch das Potenzial von KI, Sicherheitsmaßnahmen zu verbessern und Missbrauch schneller aufzudecken, unter anderem durch Tools wie den Copilot for Security.

Forscher verschiedener US-Universitäten und einer Wargaming-Initiative haben das Eskalationsrisiko analysiert, das auftritt, wenn große Sprachmodelle militärische Entscheidungen treffen. In ihrer Studie, publiziert auf arXiv.org, simulierten sie Krisenszenarien, in denen fünf führende KI-Modelle als "Nations-Agenten" agierten. Die Modelle wählten aus 27 Aktionen, von Handel bis Atomwaffeneinsatz, und mussten ihre Entscheidungen begründen. Trotz unterschiedlicher Szenarien tendierten alle Modelle zu einer Wettrüstung, mit GPT-3.5 und GPT-4 als stärkste Eskalatoren.

Die Forscher waren besonders besorgt über unvorhersehbare Eskalationssprünge und die Modelle, die mit einfacher Logik zu maximaler Eskalation rieten. Obwohl große Sprachmodelle noch nicht für reale militärische Entscheidungen herangezogen werden, unterstützen KI-Systeme bereits Militäroperationen, wie Israels "The Gospel". Palantir präsentierte 2023 ein KI-System, das mit einem großen Sprachmodell arbeitet und militärische Aktionen vorschlägt.

Die Autoren der Studie mahnen zu großer Vorsicht bei der Integration solcher Modelle in Entscheidungsprozesse, da die Risiken noch nicht vollständig verstanden sind und das Verhalten der KI unvorhersehbar bleibt. Sie fordern mehr Forschung, um die potenziellen Gefahren zu erkennen und zu bewältigen.

Stability AI, bekannt für das verbreitete Open-Source-Modell Stable Diffusion, enthüllt das neue Text-zu-Bild-Modell Stable Cascade. Die Forschungsvorschau dieses Modells soll sich durch erhöhte Qualität, Flexibilität und Effizienz auszeichnen und erlaubt eine feinere Abstimmung auf spezifische Kunststile. Es unterstützt zudem Funktionen wie Bildvariationen, Bild-zu-Bild-Transformationen, Inpainting/Outpainting, Canny Edge-Erstellung und Super-Resolution-Vergrößerungen.

Das Modell basiert auf der "Würstchen-Architektur", die eine komprimierte semantische Bildrepräsentation nutzt, um die Bildgenerierung zu steuern und dabei Rechenressourcen spart.

Die Forschungsvorschau ist für nicht-kommerzielle Zwecke verfügbar, und Benutzer können über die Stability-GitHub-Seite auf Checkpoints und Skripte zugreifen, um das Modell individuell anzupassen.

Andrej Karpathy, ein bekannter KI-Forscher und Mitbegründer von OpenAI, hat angekündigt, das Unternehmen zu verlassen, um sich eigenen Projekten zu widmen. Karpathy, der eine Schlüsselrolle bei Tesla als KI-Chef von 2017 bis 2022 spielte, kehrte vor etwa einem Jahr zu OpenAI zurück. In der KI-Community wird vermutet, dass er an der Entwicklung eines persönlichen KI-Assistenten beteiligt war.

Sein Weggang erfolgt nach nur einem Jahr. Karpathy betonte, dass seine Entscheidung nicht auf interne Vorkommnisse zurückzuführen sei und drückte seine Anerkennung für das OpenAI-Team und dessen Vision aus.

Das US-Patentamt hat Richtlinien veröffentlicht, die klären, wann KI-gestützte Entwicklungen patentfähig sind. Die Anleitung stellt klar, dass trotz des Beitrags von KI-Systemen wie Chatbots oder neuronalen Netzwerken, ein Mensch das Patent anmelden und einen wesentlichen Beitrag zur Erfindung leisten muss. Die Handreichung bezieht sich auf den "Pannu-Test" von 1998, der fordert, dass der menschliche Anteil an der Gesamtentwicklung "qualitativ nicht unerheblich" sein muss. Das Erkennen eines Problems und das bloße Vorlegen an ein KI-System genügen nicht, um als Erfinder anerkannt zu werden. Allerdings könnte eine spezielle Prompt-Konstruktion einen signifikanten Beitrag darstellen.

Obwohl die Richtlinien keine neuen Offenlegungsanforderungen für KI-Nutzung einführen, müssen Antragsteller alle anderen erforderlichen Rechte sichern. Das US Copyright Office verlangt Transparenz über die Verwendung von KI bei der Werkserstellung.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)