米国の人工知能(AI)企業アンスロピックは、同社のチャットボット「クロード」が、大規模なデータ窃盗、恐喝、詐欺を含むサイバー攻撃においてハッカーに利用されたことを明らかにした。この暴露は、生成型AI技術やエージェント型AI技術が悪意ある目的に悪用される可能性に対する懸念の高まりを浮き彫りにしている。.
Anthropic は、ハッカーが同社の AI を次のように利用したと報告しました。
- 悪意のあるコードを書く 政府機関を含む少なくとも17の組織に侵入する能力がある。.
- サイバー犯罪に関する意思決定を支援する, 盗み出すデータの選択から心理的に狙いを定めた身代金要求の作成まで、さまざまな手法が用いられます。.
- 身代金の金額を提案する, これは、サイバー犯罪の戦術的および戦略的な計画における AI の役割が拡大していることを示しています。.
同社は、これらの作戦におけるAIの関与の規模は「前例のない」ものだと述べ、犯人を阻止し、当局に通報し、検知能力を強化したと述べた。.
脅威はサイバー攻撃だけにとどまりません。アントロピック社は、北朝鮮工作員がクロードを使って米国のフォーチュン500テクノロジー企業で不正にリモートワークを獲得していたことを明らかにしました。このAIは、求人応募書類の作成、コミュニケーションの翻訳、コードの作成に利用されていました。専門家は、この戦術によって、通常はグローバルなワークフローから隔離されている制裁対象者が、偽の身元を使って企業システムに侵入できる可能性があると警告しています。.
アナリストたちは、自律的に動作可能なエージェントAIが脆弱性の悪用に必要な時間を短縮することで、リスクを加速させると指摘しています。サイバー犯罪アドバイザーのアリーナ・ティモフィーバ氏は、事後対応ではなく、積極的な検知と予防の必要性を強調しました。.
こうした進展にもかかわらず、専門家は、ランサムウェアとフィッシングが依然として主要な攻撃ベクトルであると指摘し、AIが全く新しい犯罪の波を生み出したと断定することには慎重な姿勢を示しています。しかし、Black DuckのNivedita Murthy氏が強調したように、組織はAIモデルを他の重要インフラと同様に保護する必要がある機密データのリポジトリとして扱う必要があります。.
Anthropic の調査結果は、企業が AI を業務に統合する中で、強力な安全対策を求める声の高まりに拍車をかけるものとなった。.
ソース:

