KI-Update kompakt: AI Act, GitHub-Copilot, Cybercrime mit KI, Code Llama 70B

Das "KI-Update" liefert werktäglich eine Zusammenfassung der wichtigsten KI-Entwicklungen.

In Pocket speichern vorlesen Druckansicht

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Lesezeit: 7 Min.
Von
  • The Decoder
Inhaltsverzeichnis

Die deutsche Bundesregierung hat beschlossen, dem AI Act der Europäischen Union zuzustimmen. Diese Entscheidung beendet die Unsicherheit um die deutsche Haltung zu dem im Dezember ausgehandelten Kompromiss, der von einigen politischen Parteien kritisiert wurde. Die Zustimmung Deutschlands wird die notwendige Mehrheit für den AI Act im Rat der Mitgliedstaaten wahrscheinlich machen.

Bundesdigitalminister Volker Wissing und Bundesjustizminister Marco Buschmann betonten, dass der AI Act ein Fundament für vertrauenswürdige KI legt und den Weg für einen sicheren Rechtsrahmen ebnet. Die Verordnung soll Innovationen fördern und gleichzeitig Risiken in der Anwendung angemessen adressieren. Zahlreiche Wirtschaftsverbände und das deutsche KI-Unternehmen Aleph Alpha hatten die Zustimmung Deutschlands gefordert, um Rechtssicherheit zu gewährleisten und die Entwicklung von KI in Europa zu fördern.

Laut einer Studie von GitClear, einem Hersteller von Git-Analyse-Tools, führt die Verwendung von KI-Assistenten wie GitHub Copilot und ChatGPT zu einer Abnahme der Code-Qualität. Die Studie analysierte 153 Millionen Codezeilen aus kommerziellen Repos und Open-Source-Projekten zwischen Januar 2020 und Dezember 2023. Die Ergebnisse zeigen, dass die Code-Qualität im Jahr 2023 mit zunehmendem Einsatz von KI-Coding-Assistenten abnahm, insbesondere in Bezug auf das DRY-Prinzip (Don't repeat yourself).

Die Autoren der Studie argumentieren, dass KI-Assistenten dazu verleiten, existierenden Code zu wiederholen, was zu unnötig aufgeblähtem Code und erhöhtem Pflegeaufwand führt. Die Studie konzentrierte sich auf den sogenannten Churned Code, also Code, der innerhalb von zwei Wochen korrigiert wurde. Der Anteil an Churned Code stieg von 3,3 Prozent im Jahr 2020 auf 5,5 Prozent im Jahr 2023 und wird für 2024 auf 7,1 Prozent prognostiziert.

GitClear empfiehlt die Entwicklung spezieller Reinigungstools, um technische Schulden zu minimieren. GitHub bestreitet in einer Stellungnahme einen Zusammenhang zwischen der Code-Analyse und der Nutzung von KI-Assistenten und kritisiert, dass keine anderen Faktoren berücksichtigt wurden, die die Code-Qualität beeinflussen können.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Podcast (Podigee GmbH) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (Podigee GmbH) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Cyberkriminelle nutzen KI-gestützte Textgeneratoren wie ChatGPT, warnt die Sicherheitsfirma Kaspersky. Im vergangenen Jahr wurden 249 bösartige KI-Eingabeaufforderungen online zum Verkauf angeboten. Kaspersky fand mehr als 3.000 Beiträge in Telegram-Kanälen und Dark-Web-Foren, in denen die Nutzung von ChatGPT und anderen generativen Sprachmodellen für illegale Aktivitäten diskutiert wird. Die Einstiegsschwelle in kriminelle Bereiche werde dadurch gesenkt. Es gibt auch einen wachsenden Markt für gestohlene ChatGPT-Anmeldedaten und gehackte Premium-Konten.

Zwar sind große Sprachmodelle wie ChatGPT derzeit noch nicht in der Lage, vollständige Angriffsketten oder polymorphe Malware für Cyberangriffe zu generieren, aber Kaspersky warnt, dass dies in Zukunft möglich sein könnte. Insgesamt ergeben sich durch große KI-Sprachmodelle eine "systemische Bedrohungsveränderung", heißt es im Bericht.

OpenAI-CEO Sam Altman besucht Südkorea, um mit Samsung Electronics und der SK Group über die Gründung einer KI-Halbleiter-Allianz und Investitionsmöglichkeiten zu sprechen. Altman soll daran interessiert sein, eigene KI-Chips zu produzieren und High Bandwidth Memory (HBM) von Samsung und SK zu beziehen. HBM-Technologie ist entscheidend für KI-Chips. Altman traf sich auch mit Führungskräften von KI-Start-ups, die mit Samsung und SK kooperieren oder Investitionen von ihnen erhalten haben.

Laut Berichten ist Altman in Gesprächen mit potenziellen Großinvestoren wie G42 und SoftBank Group Corp, um ein milliardenschweres globales Netzwerk von KI-Chipfabriken aufzubauen. Diese Chipfabrik könnte ein eigenständiges Unternehmen mit OpenAI als Hauptkunden oder eine Tochtergesellschaft von OpenAI werden.

Meta hat Code Llama 70B vorgestellt, eine verbesserte Version des Sprachmodells Llama 2, das in Benchmarks an die Leistung von GPT-4 heranreicht. Code Llama 70B wurde mit hunderten Milliarden Code-Token trainiert und bietet erweiterte Programmierfähigkeiten für gängige Programmiersprachen. Es gibt zwei weitere Varianten: CodeLlama-70B-Python und CodeLlama-70B-Instruct.

Die KI generiert Code aus natürlichsprachlichen Prompts und kann Code vervollständigen oder Fehler finden, ähnlich wie Github Copilot oder GPT-4. Die 70B-Instruct-Version übertrifft sogar GPT-4 in einem Benchmark. Der generierte Code kann für kommerzielle Projekte genutzt werden, unterliegt jedoch lizenzrechtlichen Einschränkungen.

Code Llama 70B soll laut Meta die ideale Basis für die Verfeinerung von Codegenerierungsmodellen bieten und die Open-Source-Community insgesamt fördern. Die erste Code-Llama-Version wurde bereits signifikant von der Community verbessert, sodass zukünftige Varianten in bestimmten Anwendungen das Niveau von GPT-4 deutlich übertreffen könnten.

Forscher der Wharton School haben gezeigt, dass GPT-4 bei Verwendung geeigneter Prompts eine Vielzahl von Ideen für neue Produkte entwickeln kann. Die Studie beauftragte GPT-4, neue Produkte für Studenten mit einem Preis von weniger als 50 US-Dollar zu erfinden. Dabei wurde untersucht, wie unterschiedliche Prompt-Methoden die Diversität der generierten Ideen beeinflussen. Die "Chain-of-Thought"-Methode führte zu den meisten einzigartigen Ideen und erreichte fast das Niveau einer Gruppe von Studenten.

Laut Forschungsteam zeigt die Studie, dass künstliche Intelligenz mit dem richtigen Prompt ein hilfreiches Werkzeug für die Ideenentwicklung sein kann. Ethan Mollick, einer der Autoren der Studie, veröffentlichte auch einen GPT namens "Innovator" im GPT-Store, der dem Schritt-für-Schritt-Prinzip folgt und für die Ideenfindung eingesetzt werden kann.

Christian Kühn, parlamentarischer Staatssekretär im Bundesministerium für Umwelt und Verbraucherschutz (BMUV), fordert eine verpflichtende Technikfolgenabschätzung für KI-Systeme und -modelle. Betreiber sollen Energiebilanzen für den gesamten Lebenszyklus liefern, um Verbrauchern die Möglichkeit zu geben, die Nachhaltigkeit von KI-Systemen zu beurteilen. Kühn sieht großes Potenzial für Künstliche Intelligenz im Kampf gegen den Klimawandel, etwa bei der Steuerung von Kläranlagen oder in der Landwirtschaft. Gleichzeitig warnt er vor hohem Ressourcenverbrauch und Rebound-Effekten.

Die EU-Verordnung zum AI Act fordert von einigen KI-Modellen Transparenz über urheberrechtlich geschützte Inhalte und Energieverbrauch, allerdings nur bei sehr großer Rechenleistung und Nutzerzahl. Experten wie Natali Helberger und Friederike Rohde betonen die Notwendigkeit, die gesamte Wertschöpfungskette von KI sowie die ökologischen Kosten und den CO₂-Ausstoß stärker zu beleuchten.

Podcast: KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im "KI-Update" von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

(igr)