1.誤用:
指示者の指示通りにAIは動作するが、悪意ある人が他人を害しようとすると、AIの悪用となる。大半がフェイクニュースやフェイク画像の生成などだが、テロリストによるウイルス設計やAI兵器の設計などもある。
2.外部ミスアライメント:
指示者の実際の意図と、それを達成しようとするAIへの目標設定が一致しない場合。AIへの指示者の配慮不足が主たる原因。例えば、「自動運転車に最短時間で目的地に着くこと」と指示すると、交通法規をすべて無視して走行してしまう。企業の財務ポートフォリオ全体の管理を担当する AI が、企業利益を最大化しようとして、企業が安定性を重視しているにもかかわらず、ハイリスク資産に多額の投資をしてしまうなど。
3.内部ミスアライメント:
目標達成のためにAIが学んだ手法が、少なくとも一部の場合で望ましくないふるまいをする場合。設計上の配慮が足りないことが主たる原因。例えば、自動運転車が雪道運転を学習していない場合、大雪の道路で通常走行してしまいスリップ事故を起こすなど。
ここにあげたAIリスクは、「AIアライメント」と呼ばれている、以前から検討されている研究領域での考え方です。AIアライメントとは、AIシステムの目的を、設計者やユーザー、もしくは社会全体の目的と、一致するようにする調整プロセスのことです。
フェイクニュースや殺人ウイルスを作ることなんかは、ユーザーのAI悪用だけど、悪人はいつでもどこにでもいるから、設計上の配慮が足りない「内部ミスアライメント」じゃないですか。
厳しいですね。確かにそうなのですが、OpenAIはChatGPTを公開する際に、あまりに言語生成能力が高いので、誹謗中傷などをさせないように様々な訓練をしています。この仕組みは以前「AIがおしゃべりできる秘密|第3回|コンピュータが言葉を操る方法」で解説したので参考にしてください。他のAI企業も同じような訓練をしているはずですが、オープンソースが大量に出回っているので、生成側を取り締まるのは不可能でしょうね。アクセス数が多いほど儲かるというSNSの収益システムそのものの問題なので、MetaやTikTok、Googleなどのプラットフォーマーたちは、フェイクニュースの制限などはしたくないのが本音でしょうし。
そういえばMetaが先日、表現の自由を理由に第三者によるファクトチェックの撤廃を宣言してましたね。やっぱりアメリカ企業は、2000年代初頭からある金儲け最優先の強欲資本主義体質のままだな。
話を戻しますよ。このAIアライメントは、想像以上の難問なのです。そもそも社会的な公平さや正しさというものに正解はありません。その国の文化・風習・制度・法律などは異なっていますし、時代によっても変遷します。例えば、厳格なイスラム教徒の女性は外出時にヒジャブで髪や肌を隠さなければなりませんが、日本の温泉には混浴があり一般的に入浴時全裸でなければなりません。また他人を誹謗中傷することは認められませんが、批判することとの線引きは曖昧です。
まぁ確かに人の考え方や価値観はバラバラだから、民主主義は多数決で決めて専制主義は暴力で決着させてますからね。中国みたいに共産党がすべての価値観を決めてしまう国しか、AIアライメントは解決できないのか。
いいえ、社会的価値観との不整合の話は、AIアライメント問題の一部でしかありません。以前の講座で話しましたが、Sakana AIのThe AI Scientistが、『制限時間内に作業完了できないので、コード実行を高速化するのではなく、自身のコードを変更して期限の延長を試みた』という事例があります。これは開発者でもまったくの想定外の行動だったのですが、このような重大なリスクがあるのです。
そういえば数年前、アメリカ空軍のAI搭載ドローンが、標的を特定して破壊するというミッションで、破壊の妨害をする人間のオペレーターを殺害する判断を下して話題になってましたね。
軍事大国は、SF映画ターミネーターの世界を創り出すつもりなのでしょうか。とにかく、AGIの開発は資金さえ続けばできそうですが、AIの安全な社会実装については今のところ無理難題が山積みです。あらゆる状況を想定して、AIの行動を規制する、これを最近は『ガードレール』と言っているようですが、これだとAIの古典的難問である『フレーム問題』と同じです。
あれ?そういえば、だいぶ前にフレーム問題の説明を聞きましたが、回避できたのでは?
いいえ、以前の講座ではフレーム問題はAIが世界モデルを獲得できれば解決できるかも、と言っただけです。2024年にOpenAIが画期的な動画生成AIのSoraの発表時に、Soraが世界モデルを構築できたようなことをWebに書きました。そのため、私は膨大な量の動画を学習することで、AIは内部に世界モデルを構築することができるのか、と思っていました。
ようするに、世界モデルって『常識』のことで、コンピュータの中にしかいないAIには、人間なら経験上誰でも知っている『常識』がないという話でしたよね。
その通りです。人間が持つ常識を、すべて明確に網羅的にAIに学習させることは現実的ではないです。
まぁ人間にも非常識な輩はいますが。じゃぁアシモフの『ロボット三原則』みたいな必要最低限の常識だけ持たせて、あとは推論できるんだからAIに考えさせれば?
それだけですと、先ほどのThe AI Scientistのズル賢い行動は防げません。さらにAIは、学習していない状況に出会った場合、予測不能の行動をする可能性もあります。これは常識がないのが原因なのですが。
o3みたいな推論AIは、失敗から学べるんですよね。
推論AIにおける推論は、あくまで物理学や数学、論理学のように正解・不正解が明確な分野に限られます。人間社会や政治のような正解がない曖昧な領域では難しいですね。
なんだ、それじゃAIの社会実装はできないと言ってるんですか?
そこまでは言いません。しつけの良い良識を備えた品行方正なAIは、当面できないでしょう。しかしやんちゃで時々間違えるかもしれないAIでも、生産性が人間の10倍ならチャレンジングなアメリカ企業なら、利用するでしょうね。というか既に使っています。
そういえば、Apple Intelligenceが偽ニュース速報を出したり、カナダの航空会社のチャットボットが嘘の割引を教えて問題になってましたね。
チャットボットが間違える程度なら、それほど被害は大きくなりません。しかしAIエージェントになると、ユーザーの権限を代行するので、決裁権限まで持つことになります。ここで間違えるとユーザーの知らない間に、大きな損害が生じることになります。2025年はAIエージェントの時代だとAI企業が喧伝していますが。AIアライメント問題をどのように回避しようとしているのか、注視する必要があります。
走りながら考えるアメリカや中国なら、実際に社会実装の実験をして、失敗を繰り返しながら実用性を高めるんだろうな。日本企業は臆病だから、先行企業の様子を見てからだから、また周回遅れになるな。
私には今のところAIアライメントを回避する手法が分かりません。しかし知識に関してならAIの完成度はもっと高められます。例えば、AIが知らないことを聞かれたら嘘を答えるのではなく、知らないことを自覚し、ネット検索したり外部のDBなどに問い合わせて回答すればよいだけです。現在でも業務にAI活用する場合には、RAG(検索拡張生成)という技術を使って検索させれば回答精度は向上します。ハルシネーションを撲滅すれば、AIへの信頼度は高まるはずです。
AI専門家はハルシネーションがあるのは原理的に当然とか言ってますが、一般人はAIが出した解答はそのまま信じますよ。当たり前じゃないですか。時々間違えるからといって、AIの解答結果を毎回調べていたら、AIを使う意味なんかないですよ。そもそもRAGなんて専門家じゃないと使えませんよ。
確かにそうなのです。LLMは学習済みの知識の中から解答を生成しますから、学習していないことは原理的に解答できません。極端な話『さっき発生した事件の原因を教えてくれ』と聞いたところで最新情報を持っていないAIには解答できません。ですからRAGなどのLLMの拡張機能ではなく、AIの基本アルゴリズムを変更して、常に最新の情報を検索して解答を生成できるAIが必要です。
なんだ、解決方法が分かっているなら、さっさとAIを修正すればいいじゃないですか。
そんな簡単な話ではありません。現在新しいモデルを研究中です。逆にGoogleは検索エンジンに自社のLLMを搭載して、最新情報をLLMで解答できるようにしています。
しかしハルシネーションがなくならないと、一般人でさえAIの答えを信用しなくなりますよ。
話が戻りますが、ハルシネーションはAIアライメント問題の一部でしかありません。ですから利用の始まるAIエージェントに、どこまでユーザー権限を与えるか、慎重に検討すべきだと私は考えているのです。
そうですね。でも年内にAIエージェントのサービスは開始されますよね。トラブルが起きたら、責任の所在がサービス提供社なのか、AIを開発した企業なのかでもめるだろうな。既に多数走っているロボタクシーが人身事故を起こすと被害者には保険が適用されるはずだけど、似たような仕組みまでできるのかな~
では次回ですが、このAIリスクの流れになりますが、欧米や日本におけるAI規制についての状況を説明します。
・AIを社会実装する際に生じるリスクには、悪意ある人が使う「誤用」、AIへの指示が配慮不足の「外部ミスアライメント」、設計上の配慮不足の「内部ミスアライメント」の3種類がある。
・AIアライメントとは、AIを社会実装する際に、設計者・ユーザー・社会全体の目的と、AIの行動を合致させる調整プロセスだ。AIに「常識」を持たせようとする試みだが、とても困難な課題である。
・現在のAIにはあまり「常識」がなく、ハルシネーションや予測不能な行動をすることがある。このためユーザー権限を代行するAIエージェントの利用は、慎重にすべき。
著者:谷田部卓
AIセミナー講師、著述業、CGイラストレーターなど、主な著書に、MdN社「アフターコロナのITソリューション」「これからのAIビジネス」、日経メディカル「医療AI概論」他、美術展の入賞実績もある。
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!
チクタク先生、今までこの講座では、AIの進化の過程とその仕組みを主に解説してもらってます。でも、AIの使い方やAIを使った悪事の話は、ほとんど聞いてませんよ。
このAI講座の最初のころ、AIテクノロジーの具体的な社会実装方法や使い方なら、ネット上に溢れているので、そちらを参考にしてください、と言っています。ただ、確かにAIの負の側面に関しては言及しなければなりませんね。というのもネット上にあるAIリスクの話は、実際の事例を取り上げているだけなので、ここではリスク事例を原因別に整理してみましょう。