Da die künstliche Intelligenz (KI) schneller voranschreitet als die bundesstaatliche Aufsicht, schließt Kalifornien die bestehende Regulierungslücke. Ein neues KI-Sicherheitsgesetz, das am 1. Januar in Kraft tritt, führt Transparenz, Verantwortlichkeit und Schutz für Hinweisgeber ein. Insbesondere für Unternehmen, die fortschrittliche KI-Modelle entwickeln, stellt es einen der entschiedensten Eingriffe auf bundesstaatlicher Ebene in den USA dar.
Der von dem demokratischen Senator Scott Wiener eingebrachte Gesetzentwurf verpflichtet die Entwickler sogenannter “Frontier”-KI-Systeme, ihre Vorgehensweise bei der Bewertung und Bewältigung katastrophaler Risiken öffentlich offenzulegen. Unternehmen müssen zudem die zuständigen Landesbehörden innerhalb von 15 Tagen über jeden kritischen Sicherheitsvorfall informieren. Verstöße können mit Strafen von bis zu 1,6 Billionen US-Dollar geahndet werden. Das Gesetz definiert katastrophale Risiken als Szenarien mit Massenopfern oder Schäden von über 1,6 Billionen US-Dollar, einschließlich Missbrauch im Zusammenhang mit chemischen, biologischen oder nuklearen Bedrohungen.
Die Maßnahme spiegelt die wachsende Besorgnis von KI-Forschern und politischen Entscheidungsträgern wider. Führende Experten wie Yoshua Bengio warnen davor, dass zunehmend autonome Systeme der menschlichen Kontrolle entgehen könnten. Gleichzeitig hat die Forschung von Anthropic Bedenken hinsichtlich fortgeschrittener Modelle geweckt, die unerwartete Formen von Selbstbewusstsein zeigen. Interessenverbände wie das Future of Life Institute gehen noch weiter und fordern einen Stopp der Entwicklung fortgeschrittener KI, bis stärkere Sicherheitsvorkehrungen getroffen sind.
Das Gesetz verdeutlicht zudem eine wachsende politische Kluft. Die Bundesregierung unter Donald Trump hat frühere KI-Beschränkungen aufgehoben, um Innovationen und die globale Wettbewerbsfähigkeit zu beschleunigen. Die Bundesstaaten ergreifen Maßnahmen, um Risiken für die öffentliche Sicherheit zu begegnen. Parallel dazu reagiert die Privatwirtschaft. OpenAI hat kürzlich eine neue leitende Position im Bereich Sicherheit ausgeschrieben und damit das Bewusstsein der Branche dafür unterstrichen, dass bestehende Regulierungslücken immer schwerer zu ignorieren sind.
Wichtigste Erkenntnisse für Führungskräfte im Technologiesektor:
- Die Regulierung von KI auf Ebene der Bundesstaaten schreitet angesichts der Untätigkeit des Bundes voran.
- Transparenz und die Meldung von Vorfällen werden zu grundlegenden Erwartungen.
- Sicherheitsgovernance könnte schon bald Einfluss auf Investitions- und Einsatzentscheidungen im Bereich KI haben.
Zusammengenommen deuten diese Entwicklungen darauf hin, dass das Jahr 2026 einen Wendepunkt markieren könnte, an dem die KI-Innovation zunehmend parallel zu – und nicht vor – formalen Rechenschaftsstrukturen voranschreitet.
Quelle:
https://www.zdnet.com/article/california-ai-law-crackdown-on-risks/

