OpenAI führt eine Art Privatmodus für ChatGPT ein

ChatGPT gibt es künftig in einer Art Privatmodus. Nutzer können entscheiden, welche Daten gespeichert und zum Training genutzt werden.

In Pocket speichern vorlesen Druckansicht 16 Kommentare lesen
Chatgpt,Chat,With,Ai,Or,Artificial,Intelligence.,Young,Businessman,Chatting

(Bild: CHUAN CHUAN/Shutterstock.com)

Lesezeit: 3 Min.

OpenAI macht neue Optionen verfügbar, wie mit den eigenen Daten umgegangen wird. Zum einen kann die Chathistorie ausgeschaltet werden, zum anderen können Nutzer dadurch entscheiden, welche Konversationen zurück ins Training des Sprachmodells fließen. Ist der Verlauf ausgeschaltet, werden automatisch keine Eingaben gespeichert, sie erscheinen entsprechend nicht in der Seitenleiste und werden auch nicht für die Weiterentwicklung der Künstlichen Intelligenz (KI) verwendet.

Wie OpenAI in einem Blogbeitrag mitteilt, den CEO Sam Altman bei Twitter teilt, ist diese Kontrolle für alle Menschen weltweit ab sofort verfügbar. Sie kann in den Einstellungen jederzeit aktiviert und deaktiviert werden. Dafür muss man über das Drei-Punkte-Menü neben dem eigenen Namen gehen. Neben der bereits seit Längerem bestehenden Möglichkeit, den Verlauf zu löschen, gibt es unter Settings nun auch einen Regler für die Datenkontrolle. Neue Chats werden im Verlauf gespeichert und für die Entwicklung von ChatGPT genutzt, heißt es und: "Ungesicherte Chats werden nach 30 Tagen aus unserem System gelöscht."

Die Einstellungen bei ChatGPT.

Eine weitere Ankündigung ist die Arbeit an einem Abo für Geschäftskunden, bei dem es mehr Optionen für den Umgang mit Daten geben wird – sowohl für die eigenen Daten als auch jene von Endkunden. Das werde den Richtlinien zur Datennutzung des APIs entsprechen, was bedeutet, dass die Daten von Endnutzern per Default nicht weiter verarbeitet werden. Dieses ChatGPT-Businessmodell soll in den kommenden Monaten verfügbar sein.

Hintergrund für diese Änderungen dürften die im Raum stehenden Datenschutz-Regularien vor allem in Europa sein. Italien hat bereits die Nutzung von ChatGPT aus Datenschutzgründen untersagt. Begründung ist, dass die Nutzer nicht ausreichend in die Datenverarbeitung Einblick haben und ihnen entsprechend auch nicht zustimmen können. Ein weiteres Problem, das die italienische Datenschutzbehörde ausmacht, ist die fehlende Alterskontrolle – ChatGPT sei für unter 13-Jährige gefährlich. OpenAI will bis zum 31. Mai eine Altersprüfung einführen. Bis zum 30. April müssen Nutzer in Italien die Möglichkeit bekommen, die Löschung oder Korrektur ihrer personenbezogenen Daten verlangen zu können. Sonst bleibt die Sperre des Dienstes bestehen. Ob der neu eingeführte Regler der Forderung ausreichend entspricht, wird sich zeigen.

Auch in den USA gibt es Untersuchungen. Die Federal Trade Commission (FTC) ist aufgefordert, zu prüfen, ob ChatGPT gegen US-Handelsrecht verstoße, da ein Risiko für Menschen und die öffentliche Sicherheit vorliegt. Um herauszufinden, wie die Algorithmen von ChatGPT trainiert wurden, haben die Datenschutzbeauftragten der Länder auch in Deutschland ein Verwaltungsverfahren gegen OpenAI eröffnet. Dabei geht es um die Frage, welche Rechtsgrundlage überhaupt für den Betrieb greift.

Siehe auch:

(emw)