カテゴリー
キーワード

階層化する知能 第4回【レザバーコンピューティングとは】

今までこのAI講座では、CatGPTなどのLLM(大規模言語モデル)の仕組み、このLLMが急激に大規模化する理由、SLM(小規模言語モデル)登場の意義、数年後にAGI(汎用人工知能)を完成させるというOpenAIの戦略、ASI(超知能)の創り方、を話してきた。ではAIは、今後どのような形態に進化し多様化していくのかを考察してみた。

日本が研究開発を主導する新型AIであり、エッジAIに最適な「レザバーコンピューティング」について、その特徴と原理を解説する。さらにOpenAIの画期的推論モデル「o1」を紹介し、様々な形態に進化し多様化が進むAIの状況を概観する。

【階層化する知能】第1回
【階層化する知能】第2回
【階層化する知能】第3回

         

登場人物

大学講師の知久卓泉(ちくたくみ)
眼鏡っ娘キャラでプライバシーは一切明かさない。

サルくん
軽薄で口が達者だが怜悧な頭脳を持つ大学院生。

 

 チクタク先生

前回の講座の最後の方で、多様化するSLMとしてエッジAIの話をしました。今回は11月に開催された幕張の展示会で、また新しいエッジAIを見つけてきたのでその話をしましょう。

 サルくん

OpenAIが12月になったら、クリスマスまで毎日1件新しいことを発表するなんて言ってますが、そっちはいいんですか?

 チクタク先生

今までも毎週のように新型AIが発表されていますが、毎日となるとさすがに追いきれませんね。それでも9月に公開されたOpenAIの”o1”は、無視できないレベルの革新的AIです。しかしこの説明をしだすと、かなり長くなるので、日本にとって画期的と言える新型AIが登場したので、そちらを先に説明します。

 サルくん

へ~、それはOpenAIのLLMより凄いAIなんですか?でも、そんな新型AIを日本がいつのまにか開発していたなんて聞いたこともないですよ

新型レザバーコンピューティングとは

 チクタク先生

私も最近までまったく知らなかったのですが、国の産総研やNEDOが積極的に研究支援しているようです。それでも、今までほとんど注目されていませんでしたね。とにかく、レザバーコンピューティング(Reservoir computing)、研究機関によってはリザバーコンピューティングと言っていますが、ユニークなAI技術であることは確かです。概念図を示します。

※図版:筆者作成「レザバーコンピューティングの原理」

 チクタク先生

レザバーとは貯水池とかため池の意味ですが、そこに石を投げ入れると波紋が生じますね。その水面に広がっていく波紋の形状や大きさは、投げた石の形や重さで変わります。続けて複数の石を水面に投げ入れると、複数の波紋が干渉して複雑な波紋となります。逆に、その波紋を観察すれば、どのような石が投げ込まれたかを推測することが可能です

 サルくん

まぁやってみなければわからないけど、実験を繰り返せば推測ができそうな気もします。

 チクタク先生

波紋は、石の特徴や時間経過を誇張して表現したものと考えられます。したがって、波紋の時系列データをニューラルネットワークに投入して学習し、判断させるのが、レザバーコンピュータなのです。

 サルくん

時系列データを処理するAI技術なら、以前説明があったRNNですよね。

 チクタク先生

その通りです。レザバーコンピューティングはRNNの一種です。ただRNNほど単純なネットワークではありません。

※図版:筆者作成「レザバーコンピュータによる音声認識の概念図」

 チクタク先生

これはレザバーコンピュータの概念図です。例として時系列データである音声データを入力して音声認識をする仕組みの図解です。RNNは中間層が1つしかありませんが、レザバー層はネットワークが若干複雑な程度です。しかしネットワークは固定で、学習は出力層になります。ディープラーニングのようにネットワークが数千層とか数百万層などありません。このレザバーコンピュータは、1990年頃から研究されていたのですが、ディープラーニングと比較して圧倒的に精度が低いということで見放されていたのです。

 サルくん

そんな単純なニューラルネットワークで、なにができるというのですか?

 チクタク先生

シンプルな構造がレザバーコンピュータの特徴なのですが、最近になって日本のQuantum Core社により、時系列データを高速・低消費電力・低コストで処理ができるようになったのです。少量データかつリアルタイム学習でも精度の高い判定ができる新しいRNN技術を発表し、一躍注目を浴びたのです。(註)Quantum Core社の発表によると、心電図での疾患判定が精度93%、音声での話者特定が精度99%、音での作業状態特定が精度94%などの事例が多数あるようです。

 サルくん

それは凄いな。やっぱり流行りのLLMは競争が激しいレッドオーシャンの世界だからダメで、他の研究者が眼を付けないブルーオーシャンの技術を深堀することで金脈が発見できるんだ。貧乏な日本には、やっぱり“安い・速い・上手い”の戦略だな。

 チクタク先生

ビッグテックは、とにかく金脈らしきものを見つけたら、一気呵成に莫大な資金と人材を投入することで、後続を振り切ってきました。日本で実用化が始まったレザバーコンピュータは、IPA(情報処理推進機構)の未踏ターゲット事業に選定差されていますが、多少の人材支援だけで資金援助はないようです。

 サルくん

まだ欧米では注目されていない技術ですよね。もし大きな成果が出たらビッグテックが狙ってくるかもしれませんよ。

 チクタク先生

それこそ世界制覇を狙えるAGIのような技術と違って、今のところレザバーコンピュータはニッチな市場向けだと思われています。しかしエッジAIには最適なので、SLMが想定している市場の多くを担えると私は考えています。というのも、あの程度のニューラルネットワークは、1チップコンピュータでも処理できます。つまりSLMを稼働させるためのコンピュータより、桁違いに省電力・低価格・コンパクトで実現できます。つまり、あらゆる産業機器や産業用ロボットに最適なのです。それこそ前回話したステルスAIそのものなので、いつのまにか使われていくはずです。

 サルくん

そうなんですか。もしかすると、安くても大量に出るので巨大マーケットになるかもしれないのか。

 チクタク先生

そこを日本政府も期待しているので、レザバーコンピュータに使えるエッジAIチップの研究に、かなりの資金を投入して支援しています。(註)

 サルくん

日本政府は、ハードウェアにしか資金援助しないようですね。

高度な推論ができるOpenAI「o1」

 チクタク先生

では冒頭で言及したOpenAIの革新的AI「o1」の説明に移ります。

 サルくん

いつも画期的なAIが発表されていますが、今度はどこが革新的なんですか?

 チクタク先生

今回OpenAIが9月に発表したAIの性能には、世界中のAI研究者が本当に驚いています。AIの名称が従来のGPTシリーズではなくOpenAI Model Number Oneの略称「o1」なのは、LLMをベースにスケーリング則に従って巨大化してきたGPTと、異なるアルゴリズムのAIだからです。

 サルくん

え!そうなんですか?OpenAIは莫大な資金調達をして、AI専用のデータセンターまで造って、ひたすら巨大なLLMでAGIまで突き進むと、先生は言ってましたよ。

 チクタク先生

確かに言いました。OpenAIが「Q*」とか「Strawberry」と呼ばれている新型AIを研究している、という噂が流れていましたが、GPT5のようなLLMの延長線上にあるとばかり思っていました。それが覆されたので驚いたのです。

 サルくん

それで、何がどう凄いAIなんですか?

 チクタク先生

9月の発表はPreview版でしたが、12月には正式なo1シリーズとして、o1 mini、o1、o1 pro modeというモデルを公開しました。(註)o1シリーズは、GPT-4oよりも複雑なタスクの推論ができ、科学や数学とプログラムのコーディング、計画能力で圧倒的な性能向上を達成しています。主要な性能は以下になります。

・物理学、化学、生物学において、博士が対象となるベンチマークタスク(GPQA Diamond)で正答率78.0%で、各々の分野での博士課程の学生正答率69.7%を超える成績を達成。
・国際数学オリンピック(IMO)の予選試験で、GPT-4oは正答率13%だったが、83.3%を記録。
・コーディング能力では、競技プロラミングCodeforcesスコア89パーセンタイルで、参加者の上位11%に入る水準だった。

 サルくん

確かに凄い性能ですね。じゃぁLLMの最新版GPT-4oの性能を凌駕したんですか?

 チクタク先生

そうでもありません。いわゆるSTEM分野、つまり数学や科学技術分野では圧倒していますが、言語処理の分野に関しては、まだGPT-4oの方が優れているという人間の評価があります。ただ、このようなAI性能に関しては日々バージョンアップされていくので、GPT-5やo3が登場するとどうなるかは分かりませんが。

 サルくん

では、OpenAIはGPTシリーズの開発を止めて、「o1」シリーズに全面移行するわけではないんですね?

 チクタク先生

そうだと思います。今までGPTに莫大な投資をしてきているので、投資回収していく必要もありますし。

 サルくん

それにしても、OpenAIは2つの異なるAIモデルの研究開発をする必要があるのに、たしか社員を大幅削減してましたね。

 チクタク先生

アメリカでの報道によると、主要な役員が辞任したり大規模な社員削減を進めているようです。本当ことは分かりませんが、その原因は2つ考えられます。一つは軍事産業に参入することが明確になったことです。以前の講義で指摘しましたが、AGIにまでなるとAIテクノロジーは世界のミリタリーバランスを揺るがすほどの軍事技術になるからです。AIテクノロジーは、中国とアメリカがほぼ同水準にあり、中国共産党は当然のようにAI機能を兵器に搭載しているので、対抗上アメリカもOpenAIを支援しています。このOpenAIの方針変更に役員やエンジニアが反発していることは容易に想像がつきます。

 サルくん

OpenAIは当初、軍事産業には加担しないと明記していましたからね。

 チクタク先生

もう一つは、自社が開発しているAIの能力が、社員の能力を次第に上回ってきたからだと思っています。先ほど示した「o1」の能力があれば、プログラマーレベルの業務なら代替可能なはずです。公開しているAIは、まず社内利用してデバックなどをした結果なので、ユーザー利用可能なレベルなら当然自社で利用しているはずです。プログラミングの生産性が非常に向上したはずなので、社員を削減しているのかもしれません。私の想像にすぎませんが。

 サルくん

まぁ、あり得ますね。ということは、OpenAIの研究者たちは自分の首を切るためのギロチンを作っていたようなものか。

 チクタク先生

実際に、「o1」シリーズを開発している研究者がインタビューで、多くの能力は私よりAIの方が上回ってしまったが、小説を書くなどの能力が低いので、私にはまだ仕事が残っている、と言っていました。長くなったので、この続きは次回にします。

この記事のポイント

・レザバーコンピュータはLLMとは原理が異なり、日本が開発を先導している超小型で低価格の時系列処理AIである。
・しかも少量データをリアルタイムで学習すれば利用できるため、エッジコンピュータに最適で、今から大きな市場が見込こめる可能性がある。
・OpenAIが公開した「o1モデル」は、LLMとは原理が異なる画期的な推論AIで、STEM分野で博士号クラスの成績とトップレベルのコーディング能力を備えている。

【第5回へ続く】

著者:谷田部卓
AIセミナー講師、著述業、CGイラストレーターなど、主な著書に、MdN社「アフターコロナのITソリューション」「これからのAIビジネス」、日経メディカル「医療AI概論」他、美術展の入賞実績もある。

(TEXT:谷田部卓 編集:藤冨啓之)

 

参照元

メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。


データ活用 Data utilization テクノロジー technology 社会 society ビジネス business ライフ life 特集 Special feature

関連記事Related article

書評記事Book-review

データのじかん公式InstagramInstagram

データのじかん公式Instagram

30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!

おすすめ記事Recommended articles

データのじかん会員なら、
全てのコンテンツが
見放題・ダウンロードし放題
 

メール会員でできること

  • 会員限定資料がすべてダウンロードできる
  • セミナー開催を優先告知
  • 厳選情報をメルマガで確認
 
データのじかん会員について詳しく知りたい方
モバイルバージョンを終了