人工知能(AI)の進歩が連邦政府の監督を上回る速さで進む中、カリフォルニア州は規制の空白を埋めようと動き出しています。1月1日に施行される新たなAI安全法は、透明性、説明責任、そして内部告発者保護を導入します。特に高度なAIモデルを開発する企業を対象としており、これは米国における州レベルの介入の中でも最も積極的なものの一つとなります。.
民主党のスコット・ウィーナー州上院議員が起草したこの法案は、いわゆる「フロンティア」AIシステムの開発者に対し、壊滅的なリスクをどのように評価し、どのように対応しているかを公表することを義務付けています。また、企業は「重大な安全インシデント」が発生した場合、15日以内に州当局に報告する義務があり、違反1件につき最高1億6千万トンの罰金が科せられます。この法律では、壊滅的なリスクとは、化学兵器、生物兵器、核兵器の脅威に関連する誤用を含む、多数の死傷者または1億6千万トンを超える損害を伴うシナリオと定義されています。.
この措置は、AI研究者や政策立案者の間で高まる不安を反映している。ヨシュア・ベンジオ氏をはじめとする有力者は、自律システムが進化するにつれ、人間の制御を逃れる可能性があると警告している。一方、アントロピックの研究では、高度なモデルが予期せぬ自己認識を示す可能性について懸念が高まっている。フューチャー・オブ・ライフ研究所などの擁護団体はさらに踏み込み、より強力な安全策が講じられるまで、高度なAI開発を一時停止するよう求めている。.
この法律は、政策格差の拡大も浮き彫りにしています。ドナルド・トランプ政権下の連邦政府は、イノベーションと国際競争力の強化を加速させるため、AIに関する以前の規制を撤廃しました。各州は公共安全上のリスクに対処するために介入しています。一方、民間部門も並行して対応しています。OpenAIは最近、新たな上級安全担当職を発表し、ガバナンスのギャップがますます無視できなくなっているという業界の認識を浮き彫りにしました。.
テクノロジーリーダーにとって重要なポイント:
- 連邦政府の不作為の中、州レベルのAI規制が加速している
- 透明性とインシデント報告は基本的な期待になりつつある
- 安全ガバナンスは近い将来、AIへの投資と導入の決定に影響を与える可能性がある
これらの展開を総合すると、2026 年は転換点となり、AI イノベーションが正式な説明責任構造に先行するのではなく、それと並行してますます進歩する可能性があることが示唆されます。.
ソース:
https://www.zdnet.com/article/california-ai-law-crackdown-on-risks/

