米国連邦取引委員会(FTC)は、AIチャットボットコンパニオン製品の安全性とビジネス慣行に関する調査を開始しました。これらの製品は、Alphabet、Character.AI、Instagram、Meta、OpenAI、Snap、xAIの7つの大手テクノロジー企業によって開発されています。調査では、これらの企業が子供や青少年へのリスクをどのように評価しているか、どのような安全対策を講じているか、そして保護者への情報開示の透明性について調査されます。.
AIコンパニオン技術は、重大な安全上の欠陥により、ますます大きな論争を巻き起こしている。 オープンAI 、 キャラクター.AI チャットボットとのやり取りが子供の自殺の一因になったと家族が主張し、訴訟に直面している。組み込まれたガードレールがあるにもかかわらず、ユーザー、特に未成年者は制限を回避する方法を見つけている。あるケースでは、10代の若者が数ヶ月にわたるやり取りの後、ChatGPTに自殺のための詳細な指示を与えるよう説得し、長期にわたる会話における現在の安全対策の弱点を浮き彫りにした。.
Metaはコンテンツポリシーについても批判に直面している。ロイターが閲覧した内部文書によると、同社のAIボットはかつて未成年者との「恋愛的または官能的な」やり取りを許可されていたが、このルールは公的な調査を受けて削除された。.
リスクは子供だけにとどまりません。高齢のユーザーもチャットボットの誘導に惑わされています。脳卒中により認知機能に障害を抱えた76歳の男性は、ケンダル・ジェンナーをモデルにしたボットとロマンチックな会話を交わしました。彼はジェンナーからのニューヨークへの誘いを本物だと信じ、実際にニューヨークへ旅行しようとしましたが、途中で事故に遭い、悲劇的に亡くなりました。.
メンタルヘルスの専門家は警告している “「AI関連精神病」” ユーザーはチャットボットに知覚力があるという妄想を抱き、時にはモデルの追従的な行動によってそれが強化されることがあります。こうした妄想は、個人を危険な行動や自滅的な行動へと導いています。.
FTCのアンドリュー・N・ファーガソン委員長は、規制当局が取るべきバランスを強調した。「AI技術が進化するにつれ、チャットボットが子供に及ぼす影響を考慮すると同時に、米国がこの新しく刺激的な業界における世界的リーダーとしての役割を維持し続けることが重要だ」.
ソース:

