最近、OpenAI は、セキュリティ ポリシー コンサルタントであり、AGI 準備チームのリーダーである Miles Brundage 氏が退職することを発表し、彼が率いるチームも解散し、メンバーが他の部門に配置転換されることを明らかにしました。
ブランデージ氏はソーシャルメディアプラットフォームXへの投稿で自身の決断を詳しく説明した。同氏は、OpenAIを辞めた主な理由は、独立性を高め、研究を発表する自由を得るためだったと述べた。
注目に値するのは、会社を高レベルで退職したセキュリティ研究者はブランデージ氏だけではないということです。 OpenAIは今年5月の時点で、主に人工知能のリスク評価を担当していたスーパーアライメントチームを解散した。それ以来、チームの2人のリーダー、ヤン・ライケとイリヤ・サツバーもチームを去った。
さらに、同社の最高技術責任者のミラ・ムラティ氏、最高研究責任者のボブ・マクグルー氏、研究担当副社長のバレット・ゾフ氏、その他の上級幹部らも最近退職した。
ブランデージ氏は過去 6 年間、OpenAI で人工知能の急速な進歩に備えるために経営陣や取締役会にアドバイスを提供してきました。 OpenAI 製品の潜在的な問題の検出に外部専門家が参加できるようにする外部レッド チーム メカニズムの導入など、セキュリティ研究に対する彼の貢献を過小評価することはできません。
Brundage 氏は、研究リリースの制限について OpenAI と意見の相違があり、これらの制限を受け入れることがますます難しくなっていると感じたと述べました。彼は、OpenAI 内での自身の研究が研究の客観性に影響を与えており、AI 政策の将来について公平性を保つことが困難になっていると考えています。同氏はまた、ソーシャルメディア上で、「声を上げることは代償が高く、一部の人しかできない」という共通認識がOpenAI内にあることにも言及した。
この一連の幹部の退任は、OpenAIの今後の方向性への注目を集めただけでなく、その内部文化や意思決定メカニズムについてもさらなる疑問を引き起こした。
ハイライト:
ブランデージ氏はOpenAIからの離脱を発表し、AGI準備チームも解散することになる。
研究制限を巡る企業との意見の相違を反映して、同氏は研究発表の自由の拡大を望んでいる。
最近、多くの上級幹部が辞任し、OpenAIの今後の発展や社内文化に社外の注目が集まっている。