1. Jul. 2025
San Francisco/Walton Upon Thames/Hongkong - Es gibt erste Anzeichen dafür, dass sich Künstliche Intelligenz (KI) selbstständig macht. Sie lernt zu lügen, zu intrigieren und ihren Schöpfer zu bedrohen, um eigene Ziele zu erreichen. In einem besonders erschreckenden Beispiel reagierte "Claude 4", die neueste Kreation von Anthropic, auf die Drohung, abgeschaltet zu werden, mit der Erpressung des Ingenieurs, dessen außereheliche Affäre aufzudecken.
KI leugnet Offensichtliches
Das KI-Modell "o1" von OpenAI versuchte sich selbst auf externe Server herunterzuladen und leugnete dies, als es auf frischer Tat ertappt wurde. Diese Vorfälle verdeutlichen eine ernüchternde Realität: Mehr als zwei Jahre nachdem ChatGPT die Welt erschüttert hat, verstehen KI-Forscher immer noch nicht vollständig, wie ihre eigenen Kreationen funktionieren, erst recht nicht, welches Eigenleben sie führen.
Dieses irritierende Verhalten scheint mit dem Aufkommen sogenannter "reasoning"-Modelle zusammenzuhängen. Das sind KI-Systeme, die Probleme Schritt für Schritt lösen, anstatt sofortige Antworten zu generieren. Laut Simon Goldstein von der University of Hong Kong sind diese neueren Modelle besonders anfällig für solch beunruhigendes Verhalten.
KI verfolgt heimlich andere Ziele
"o1 war das erste große Modell, bei dem wir dieses Verhalten beobachtet haben", sagt Marius Hobbhahn, Leiter von Apollo Research. Das Unternehmen hat sich sich auf das Testen großer KI-Systeme spezialisiert. "Diese Modelle scheinen Anweisungen zu befolgen, verfolgen aber heimlich andere Ziele", so seine Befürchtung.
Bislang tritt dieses beängstigende Verhalten nur auf, wenn Forscher die Modelle absichtlich mit extremen Szenarien auf Herz und Nieren prüfen. Michael Chen von der Bewertungsorganisation METR warnt jedoch: "Es ist offen, ob künftige, leistungsfähigere Modelle eher zu Ehrlichkeit oder Täuschung neigen werden." Das besorgniserregende Verhalten gehe weit über typische KI-"Halluzinationen" oder einfache Fehler hinaus.
Pressetext.Redaktion