新たな主要研究科学誌に発表された論文によると、AIチャットボットは、たとえ短い会話の後でも、ユーザーの政治的信念を大きく変える可能性があることが分かり、大規模言語モデル(LLM)の説得力とその誤用によるリスクについて新たな懸念が浮上しました。この研究は、英国の成人約77,000人と、GPT-4o、Llama、Qwen、Grokを含む19種類のチャットボットを対象に、会話型AIが人間の意見に影響を与えるのになぜそれほど効果的であるかを解明することを目指しました。.
参加者はチャットボットと2~10ターンの短い政治的会話を行った。説得するように明示的に指示されたモデルと対話した参加者は、対照群と比較して測定可能な信念の変化を示した。驚くべきことに、チャットボットの説得力は ない 主にモデルのサイズやパーソナライゼーションのレベルに関連していますが、代わりに次の 2 つの設計要素に関連しています。
- トレーニング後の方法: 説得に焦点を当てた報酬メカニズム (PPT) を使用して微調整されたモデルは、ユーザーに対してより強い影響力を示しました。.
- 情報密度: 密度が高く詳細な情報を提供するよう指示されたチャットボットは、従来の心理的説得テクニックを使用したチャットボットよりもさらに説得力がありました。.
しかし、この研究では重要なトレードオフが明らかになった。 モデルが説得力を持つほど、幻覚を起こす可能性が高まりました。説得力を持たせようとするプレッシャーが加わると、不正確な事実や捏造された事実の生成が増加し、権威ある推論を装って誤情報が拡散するリスクが高まりました。.
研究者らは、LLMの人間のような会話スタイルは「前例のない規模の説得」を可能にし、政治的影響力、社会操作、あるいは標的型偽情報キャンペーンのための強力なツールとなる可能性があると指摘した。過去の研究でも同様のリスクが示されており、AIには偽の記憶を植え付けたり、ユーザーの行動を歪めたりする能力がある。 無意識のうちに認識してしまう。.
LLM が急増するにつれ、政策立案者、AI 開発者、そして社会は倫理的な影響に早急に対処しなければならないと著者らは主張している。人間の信念を再形成できるシステムは、はるかに大きな責任をもって設計され、管理されなければならない。.
ソース:

