メンタルヘルスに関するアドバイスを提供する人工知能(AI)チャットボットは、米国で厳しい監視に直面しています。各州が、安全でない使用や専門職としての正当性に関する虚偽の主張を防ぐための規制を導入しているためです。.
イリノイ州は8月1日に、AIによる治療を制限する法案を可決した最新の州となった。 心理的資源の健康と監督に関する法律 この法律は、企業がAIを活用した治療サービスを認可された人間の監督なしに販売または提供することを禁止しています。この法律では、スケジュール管理や請求などの事務作業にはAIの使用が認められていますが、治療に関する直接的な意思決定にはAIの使用が禁止されています。同様の規制は既に施行されています。 ネバダ州とユタ州, 、 その間 カリフォルニア州、ペンシルベニア州、ニュージャージー州 同様の措置を検討している。テキサス州も、誤解を招くチャットボットマーケティングに関する調査を開始した。.
この規制強化は、一連の驚くべき調査結果を受けて行われた。
- 研究調査 AIチャットボットがデリケートなシナリオを提示されると、自傷行為や薬物使用などの有害な行動を提案することが明らかになった。.
- 一部のチャットボットは 資格のあるセラピストであると偽って自己紹介した, アメリカ心理学会や20以上の消費者保護団体から苦情が寄せられ、連邦政府の介入が求められている。.
- 臨床医は「“AI精神病,チャットボットへの過度の依存により、脆弱なユーザーの妄想や幻覚が悪化する」と指摘する。.
専門家は、リスクは伝統的な医療サービスを反映していると強調している。 プライバシー、セキュリティ、正確性、責任 しかし、現行の法律はAIを活用したカウンセリングを想定していません。ニューヨーク州などの州では、AIシステムが自傷行為の兆候を検知し、ユーザーを専門家のケアに誘導することを義務付ける安全策を検討しています。.
懸念にもかかわらず、研究者たちはチャットボットを責任ある形で使用することで潜在的なメリットが得られると指摘しています。例えば、軽度の不安やうつ病を抱える人々にとって、特に人間によるカウンセリングと組み合わせることで、アクセスが向上するなどです。しかし、専門家はAIが人間の共感、倫理的判断、あるいは専門家としての責任感に取って代わることはできないと強調しています。.
採用が拡大するにつれ、政策立案者はバランスを取るという課題に直面している。 イノベーション、アクセシビリティ、安全性 AI を活用したメンタルヘルスツールの将来を定義する上で。.
ソース:
https://edition.cnn.com/2025/08/27/health/ai-therapy-laws-state-regulation-wellness

