「AIのゴッドファーザー」として広く知られるジェフリー・ヒントン氏は、超知能AIがもたらす実存的リスクについて新たな警告を発した。ラスベガスで開催されたAI4カンファレンスで講演したヒントン氏は、AIが人類絶滅につながる確率は10~20%と推定した。ヒントン氏は、AIシステムを人間の制御下に置くための現在のアプローチは、長期的にはうまく機能しない可能性が高いと警告した。.
ヒントン氏は、強力なAIエージェントは自己保存や制御といった独自のサブゴールを開発する可能性があると説明した。これらの目標は、人間がAIの行動を抑制することを困難にする可能性がある。この問題に対処するため、彼は物議を醸す解決策を提案した。それは、「母性本能」をAIモデルに組み込むというものだ。この本能は、AIが人間の知能を凌駕したとしても、人間の生存とケアを優先するように設計される。.
会議では、AIの増大する力をどのように管理するかについても、相反する意見が交わされた。.
「AIのゴッドマザー」と呼ばれるフェイフェイ・リーは、ヒントンの母性的なモデルを否定し、人間の尊厳と自律性を守る人間中心のAIの重要性を強調した。.
ソフトマックスのCEOであり、OpenAIの元暫定最高責任者であるエメット・シアー氏は、異なる視点を示した。彼は、AIが安全策を回避してきた事例が繰り返しあることを指摘し、AIに厳格な価値観を押し付けるよりも、人間とAIの協働の方が効果的だと考えている。.
ヒントン氏はまた、汎用人工知能(AGI)が今後5年から20年以内に出現する可能性があると予測した。これは彼の以前の予測よりもはるかに早い。彼はAIの潜在的な利点(がん研究や新薬発見の迅速化など)を認めながらも、その危険性にも依然として注目している。.
ヒントン氏は過去を振り返り、個人的な後悔を語った。「安全性の問題についても考えていればよかった」と、AIの技術面の発展に尽力してきたキャリアを振り返りながら語った。.
AIの能力が進化を続ける中、世界のリーダーたちは難しい問題に直面しています。AIシステムは共感性を持って設計されるべきでしょうか?厳格な監視こそが解決策なのでしょうか?それとも、AIとのパートナーシップこそがより良い道なのでしょうか?今のところ議論は未解決ですが、緊急性は高まっています。.
ソース:

