[海外ニュース][画像] OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」

>ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、「OpenAIは人類全体に大きな責任を担っている」が、「安全性が輝かしい製品の開発より後回しになっている」と警鐘を鳴らす。
>OpenAIは昨年2月、AGI(Artificial General Intelligence;汎用人工知能)を「一般的に人間より賢いAIシステム」として、リスク軽減策について説明した。Superalignmentチーム結成はその一環だった。ライケ氏はOpenAIに対し、「AGIの重要さを実感してください。AGIに…