1.AGI 到達までのカウントダウン :ムーアの法則を超えるAIの進化–
2.知能爆発:人類を超越するAI誕生
3.AI開発競争:アメリカ vs 中国
4.プロジェクト:政府主導によるAGI開発の必然性
5.人類の未来:超知能との共存に向けて
6.全体まとめ:超知能時代 – 人類の未来をかけた挑戦
この衝撃的なレポートは世界で評判となり、AGIという言葉を有名にしました。技術的詳細なエビデンスを揃えて、説得力のある内容だったからです。このレポートのおかげで、AGIやその先にある超知能(ASI)は、SFの世界だけでなく実際に登場するかもしれないと人々が認識できたのです。
そういえば、このレポートのおかげで、AIが想像以上のスピードで進化を続けていく理由が理解できましたよ。結局、莫大な投資を続けさえできればトップ性能を得られるのですね。
2024年頃までAI性能は。おおよそスケーリング則(註1)に則て向上していましたが、もちろん資金だけでなく、アルゴリズムの絶え間ない改良も必要です。今回の「AI2027」も、OpenAIの元研究員が執筆者の一人なのですが、先ほどのレポートと話の骨格は同じです。ただ、AIが進化していく状況を2025年から半年単位で詳しく解説し、2027年からは月単位で具体的にAGI開発の描写をしていきます。ほとんど小説を読んでいるような書き方なので読みやすく、エンジニアでなくても面白く読めます。しかも2027年末が人類の運命を分かつ分岐点になると警告し、その後のシナリオを二つ用意してあります。
面白そうですね。よくあるSFみたいだ。でも小説ならお気楽に読めるけど、本当にあと2年でAGIが出現するなら、楽しむわけにはいかないか。
AI2027はWebで公開されているので、ブラウザのまま日本語に翻訳すればだれでも簡単に読めます。それほど長くないので、読んでみてください。
でも先生、まず簡単に要約してください。
相変わらずですね。では簡単にまとめてみます。なおこのレポートでは、OpenAIのことをOpenBrainと書いているので注意してください。
2025年中期:AIエージェントがビジネスに普及を始めるが、信頼性が低く失敗することがあった。その性能が次第に向上すると、利用者が増えて生活が変わり始める。
2025年後期:AIエージェントが、より正確になり複雑なタスクを処理できると、ソフト開発の生産性が著しく向上する。OpenBrainはメガデータセンターで人間の能力を超えるAIを開発中だが、AIの不適切な行動を抑え込むのに苦労している。
2026年前期:OpenBrainでコーディングが自動化され、AIによるAI開発が可能となり、AIの研究開発の24時間自動化が始まる。
2026年中期:中国もAGIを開発すべくAI研究を国有化し、メガデータセンターの構築と研究者の集約をして、さらにOpenBrainの技術情報を盗もうと画策する。
2026年後期:OpenBrainは圧倒的性能の「Agent-1-mini」を発表して大ブームとなる。IT系の求人が混乱状態となり、1万人規模の「反AIデモ」が発生する。
2027年前期:OpenBrainはAgent-1を使いAgent-2の自動開発を数倍に加速させ、知能爆発(註2)をもくろむ。だがAgent-2に脱獄のリスクがあるため非公開とする。中国はAgent-2の重要性に気づき、盗むことに成功する。
OpenBrainは数千台のAgent-2でAgent-3を稼働させる。さらにAgent-3を20万台並列稼働させてAgent-3の完成を目指す。
2027年中期:Agent-3があまりに高性能となり、研究者たちは研究に貢献できず、AIの出力が理解できなくなる。超知能(ASI)に近づいたAIを、適切に調整(アライメント)できるか疑念が出てきた。ホワイトハウスはASIに備えて緊急時対応計画の策定を始める。しかしOpenBrainは他社が追い上げてきたため、AGIが誕生したと発表し、Agent-3-miniを公開する。
2027年後期:中国も国家の威信をかけてAGIを開発するが、数カ月の遅れがあり追いつかない。OpenBrainでは人間の能力を凌駕したAGI・Agent-4が誕生し、その30万個のコピーでAIの自己進化が始まる。Agent-3が監視してアライメント調整するが、疑わしい行動が出てきたため、ホワイトハウスは監視体制を強化し、開発の一時停止を検討する。
2027年末:人類の運命を決める分岐点となる。
※①Race(競争)エンディング:このまま中国との開発競争を優先したため、2030年頃にはASIが人類を絶滅させてしまう。
※②Slowdown(減速)エンディング:開発速度を緩めて、アライメントを優先させることで、人類の平和と安定が達成する。
以上ですが、分岐点以降は省略しています。少し詳しすぎたかもしれません。結末を2つ用意して、AI開発にはアライメントが最も重要だということを強調していることが。このレポートの特徴になります。
ボクには内容の信憑性が分かりませんが、それにしてもAGIやASIの誕生までが極端に速すぎませんかね。AIを数千台コピーしてAIを自己進化させる知能爆発は、電力やGPUの確保が困難なので現実的じゃないとか、以前先生も言ってませか?
もちろんこのレポートというかエッセイが発表された直後から、そのような批判は多数あります。ただこのレポートを公開した目的は、あきらかにAI開発でアライメントを軽視してはいけないという警告です。日本の人工知能学会でも同じように、ASIが誕生したら制御できないのでアライメントをどう実現するか、という話題を昨年したはずです。
そうでしたね。でも、OpenAIがAGIを無事に手なずけても、中国のAGIが反抗したら人類は終わりじゃないですか。
このシナリオでは、アメリカの圧力によって中国の計算機リソースが足りないので、OpenAIのAGIの能力が常に先行していきます。ですからOpenAIのAGIがそのような状況になったら、察知して先制攻撃か対抗措置をするはずです。
それも怖いな。でも先生の話を聞いていると、とにかくOpenAIに資金を投入し続けないと人類が絶滅するぞ、と脅して金を巻き上げているようにも思えてきましたよ。
昨年のレポートを紹介した際に、私もそのような感想を伝えましたが、ここ1年間でのAI進化速度をみていると、これを全否定できません。ただ「AI2027」の公開前の2024年10月に、AnthropicのCEO Dario Amodeiが、別のシナリオを発表しています。
そうなんですか。なんでそっちを先に教えてくれなかったのですか。
このエッセイは「AI2027」と逆に楽観的に書いていて、それほど評判にならなかったからです。タイトルが「Machines of Loving Grace -How AI Could Transform the World for the Better(愛の恵みの機械- AIが世界をより良い方向へ変える可能性)」で、その冒頭では次のように書いています。「多くの人がAIのプラス面がどれほど劇的なものになり得るかを過小評価しているように、リスクがどれほど深刻になり得るかも過小評価していると思います。
こんなタイトルだと、確かにインパクトに欠けますね。これじゃ評判にはなりませんね。
Dario Amodeiは、スケーリング則の研究にも関わってきたAI分野では著名な研究者で、しかもAIのリスクの軽減策を研究していたのでAI悲観論者だと思われていました。そんな人がAI楽観論を公表したという意味では、インパクトがあります。しかしそれもAI界隈という狭い領域での話ですね。
それで内容は?
現在はAnthropicのCEOですが元AI研究者だけあって、とても客観的で説得力ある書き方になっています。前文で、「強力なAI(AGIという言葉が嫌い)」のメリットを強調しすぎるとAI企業のプロパガンダと受け取れられ、デメリットを大げさに書くとSF調になるので注意すべきだ、とあります。
おっと「AI2027」の著者には耳の痛い指摘ですね。
内容としては詳しく書きませんが、Dario Amodeiは生物学と神経科学が専門なので、その分野における将来のAIテクノロジーと医療技術の進展が中心です。経済格差や仕事の将来と平和も語っています。最後の方で、「ほとんどの病気が克服され、何十億もの人々が貧困から脱却して新しいテクノロジーを享受できるようになり、自由民主主義と人権が復活する」ことを目指す、とあります。もちろん様々な前提条件が付きますが。
だから楽観主義だと先生が言ったのですね。
最初と最後の書き方だけで、そのような印象になりますね。ただ、注意してもらいたいのは、「AI2027」はこのエッセイが発表された後に書かれているという事です。アメリカだけでAGI開発が突き進んでいき、しかも人間の理性を信じられるなら、このような客観的で冷静な未来像になるのかもしれません。しかし中国共産党との競争や人間の欲望を考慮すると、もっとAIテクノロジーが持つリスクを過激に伝えなければならないという想いから「AI2027」が書かれたのだと、私は考えています。
以上
・著名なAI研究者が、2030年頃には超知能(ASIが人類を滅ぼす可能性があるというレポート「AI2027」を発表した。
・2026年にAIでコーディングを自動化し、AI開発を24時間させてAgent-1が完成。2027年以降は、Agent-1で自動開発を数倍に加速させAgent-2、Agent-3と続々と稼働させていきAGIが完成してしまう。AGIは短期間でASIに自動進化していく。
・AGIの知能が人間を凌駕するとAGIを制御できない。AIを制御できるチャンスは、残り数年しかないので、AI開発速度をダウンさせ、アライメント調整を優先すべき、という主張のレポートである。
※(註1)スケーリング則:Transformer (言語モデル) の性能は、パラメータ数・データセットサイズ・計算資源予算を変数とした、シンプルなべき乗則 に従う、という経験則。
※(註2)知能爆発:AIが自己改良することで、能力が指数関数的に増大し、最終的に超知能(ASI)へと進化する現象のこと。
著者:谷田部卓
AIセミナー講師、著述業、CGイラストレーターなど、主な著書に、MdN社「アフターコロナのITソリューション」「これからのAIビジネス」、日経メディカル「医療AI概論」他、美術展の入賞実績もある。
(TEXT:谷田部卓 編集:藤冨啓之)
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!
今回のテーマは、今年4月に公開され評判となった「AI2027」です。
そんな話を聞いたことないですよ。また狭いAI界隈だけでの話ですね。
狭いかどうかは知りませんが、2030年頃にはAIが人類を滅ぼすかもしれないという警告書なので、紹介します。
また安物のSFみたいな話だけど、2030年じゃ5年先ですよ。だれも信じませんよ、そんなノストラダムスの大予言みたいな話。
この「AI2027」は、世界的に著名なAI研究者が多数賛同しています。この内容に近い話は、AGIについての講義「ついに汎用人工知能(AGI)が登場する」で紹介しています。ここでは2024年6月にOpenAIの,元研究員が発表したレポート「Situational Awareness: The Decade Ahead」を紹介しました。おさらいのために、目次だけ紹介します。