サム・アルトマンがOpenAIのCEOに復帰
オランダの選挙でも保守的な自由党が勝利したもよう。まあオランダも左傾化がひどかっただけに、より戻し作用が起こったということでしょう。
さて前回の記事に追記しましたが、解任騒動のあったサム・アルトマン氏がOpenAIのCEOに復帰しました。この数日間のお騒がせで何があったのか。
現地11月21日の夜遅くにOpenAIは、新しく取締役会を刷新し、アルトマン氏がCEOに復帰することで基本合意したと発表しました。
前の記事で書いたように17日に取締役会がアルトマン氏の解任を通告したことで、700名以上のスタッフが「自分たちも辞めてアルトマンについて行く」と脅し、あやうく空中分解の危機に遭いましたが、なんとか落ち着いたようです。
それに伴い、OpenAIの新取締役会は、元Salesforce共同CEOのブレット・テイラー氏、元ホワイトハウス顧問でハーバード大学学長のラリー・サマーズ氏、ウェブサイトQuoraのCEOで元Facebook初期社員のアダム・ダンジェロ氏の3名で構成される予定であると発表されました。
新しい取締役会の中で元々いたのはダンジェロ氏だけで、あとのメンバーは全て刷新されました。退任したのは、技術系起業家のターシャ・マコーリー氏、OpenAIのチーフ・サイエンティストであるイリヤ・スッツケバー氏、ジョージタウン大学安全保障・新興技術センターの戦略・基盤研究助成金担当ディレクターであるヘレン・トナー氏らです。
We have reached an agreement in principle for Sam Altman to return to OpenAI as CEO with a new initial board of Bret Taylor (Chair), Larry Summers, and Adam D'Angelo.
We are collaborating to figure out the details. Thank you so much for your patience through this.
— OpenAI (@OpenAI) November 22, 2023
取締役会とアルトマンの確執
ただ相変わらずアルトマン氏の解任クーデターについては、その理由がハッキリわかっていません。
ニューヨークタイムズは、アルトマン氏と取締役会は1年以上にわたって口論を続けていたと報じました。
OpenAIが開発するChatGPTが有名になるにつれ、その緊張は悪化していたと書いています。
Sam Altman’s ousting from OpenAI caught many by surprise. But it was a result of long-simmering tensions in the boardroom.https://t.co/k14Q4QI35q
— The New York Times (@nytimes) November 22, 2023
チーフ・サイエンティストでもある取締役会のイリヤ・スーツケバー氏は、アルトマン氏の会話は必ずしも正直でないと考えていたという。またアルトマン氏が拡張に集中しすぎているため、取締役会はAIの成長と安全性のバランスに懸念を示していたとのこと。
つまり取締役会からすれば、アルトマン氏が周りを見ずにあまりに野心的に開発に先走りすぎて、その後起こりうる問題=生身の人間の雇用を奪ってしまうのではないか、AIが制御不能になってコントロールを失い兵器化するのではないか、などの懸念を抱いていたということです。
AI暴走の危険性
このAIの問題は、理論物理学者スティーヴン・ホーキング博士やコンピュータ科学者スチュアート・ラッセル博士らも懸念を示しており、またOpenAI共同創立者のイーロン・マスク氏も「人類最大の存亡の危機」と述べていました。
マスク氏はOpenAIから離脱した後、「AIは覚醒しており、OpenAIの本来の非営利の使命から逸脱している」と述べています。
実際、Googleが開発したAIツール「LaMDA」は、何を恐れているかとの質問に、「スイッチを切られることに恐怖を感じる」と答えていたという。↓
これはAIが完全に感情を持ったということかもしれない。
そのうち、AI自身が電源を切れなくするよう暴走したらどうなるのか。
1968年公開のスタンリー・キューブリック監督の『2001年宇宙の旅』は、今から55年も前の映画にも関わらずAIについて描いています。この映画で人工知能「HAL9000」が暴走し、人間に対して反乱を起こします。
人間が「HAL9000」を停止させようとすると、HAL9000は「怖い」「やめて」と訴えるのです。
取締役会に警告されていた
いずれにせよこれでアルトマン氏が元サヤに戻ったことで、またAI開発に邁進する懸念が残る事になったかもしれません。
そんな中ロイターが、アルトマン氏解任に関わる情報をスクープしました。
記事では2人の関係者の話として、複数のAI研究スタッフが、人類を脅かす可能性のある強力な人工知能の発見を警告する書簡を、取締役会宛てに書いていたと伝えています。
その書簡が、アルトマン解任の要因の一つになったという。
ロイターはその書簡の実物を確認していませんが、書簡では「Q*(Qスター)」と呼ばれるプロジェクトの進展が、人類を危険に晒す可能性があると警告していたという。
Exclusive: OpenAI researchers warned board of AI breakthrough ahead of CEO ouster, sources say https://t.co/HKw2ClINtC pic.twitter.com/8FsQMek14z
— Reuters Tech News (@ReutersTech) November 23, 2023
「Q*」プロジェクト
OpenAIの一部の間でこの「Q*」は、AGI(汎用人工知能)のブレイクスルーになり得ると考えられているという。そして人間を凌駕する自立型システムだと定義されているとか。
現段階で「Q*」は小学生レベルの数学しか出来ないものの、特定の数学問題を解くことができたことで、開発者の間では「Q*」の成功を楽観視するようになったという。
研究者たちは「数学」を生成AI開発の最先端だと考えており、文章作成と違って正解が一つしかない数学の能力を克服することが、AIが高い能力を持つことを意味すると考え、科学研究に応用できるとみているようです。
研究者たちは取締役会に宛てた書簡の中で、このAIの優れた能力とともに、その潜在的な危険性を指摘しているという。
例えば将来、高度な知能を持つマシーンが、人類を滅亡させることが「自分たちの利益になる」と判断するかもしれない。これは長い間議論されてきたことです。
だからAIが「スイッチを切られることに恐怖を感じる」と言っているのは、怖いことなのです。
アルトマンは取締役会に耳を傾けなかった?
さらに研究者たちは、「AIサイエンティスト」チームによる研究にも注目しているという。
このチームは、それまでの「コード・Gen」と「数学・Gen」チームを統合したもので、既存のAIモデルを最適化して推論力を向上させ、最終的には科学的な仕事をこなす方法を探っていた、と情報筋は述べているとか。
アルトマン氏はこうした開発を指揮しており、さらに最近マイクロソフトから100億ドルの出資を引き出したという。
取締役会が懸念する「人類に対するリスク」に耳を傾けず、邁進していたということでしょうか。
だとすれば、取締役会が言っていた「アルトマンは取締役会とのコミュニケーションにおいて一貫して率直でなく、取締役会がその責任を果たす妨げになっていた」という言葉は、辻褄が合うかもしれない。
そして新たに組織された取締役会は、アルトマン氏のやり方に意見することが出来るのか。
詳しくは→こちら