カテゴリー
キーワード

圧倒的な進化に伴い顕在化する「AIのリスク」を整理しよう

近年の生成AIの急激な進化によって、その圧倒的な能力に我々は驚かされてきた。しかし同時に、フェイクニュースやフェイク画像の氾濫などのAIのリスクが大きな社会問題になっている。新年度を目前に控えた今、AIの社会実装に伴うAIリスクをその原因別に分類して解説する。

         

登場人物

大学講師の知久卓泉(ちくたくみ)
眼鏡っ娘キャラでプライバシーは一切明かさない。

サルくん
軽薄で口が達者だが怜悧な頭脳を持つ大学院生。

 

AIリスクの種類

 サルくん

チクタク先生、今までこの講座では、AIの進化の過程とその仕組みを主に解説してもらってます。でも、AIの使い方やAIを使った悪事の話は、ほとんど聞いてませんよ。

 チクタク先生

このAI講座の最初のころ、AIテクノロジーの具体的な社会実装方法や使い方なら、ネット上に溢れているので、そちらを参考にしてください、と言っています。ただ、確かにAIの負の側面に関しては言及しなければなりませんね。というのもネット上にあるAIリスクの話は、実際の事例を取り上げているだけなので、ここではリスク事例を原因別に整理してみましょう。

1.誤用:
指示者の指示通りにAIは動作するが、悪意ある人が他人を害しようとすると、AIの悪用となる。大半がフェイクニュースやフェイク画像の生成などだが、テロリストによるウイルス設計やAI兵器の設計などもある。

2.外部ミスアライメント:
指示者の実際の意図と、それを達成しようとするAIへの目標設定が一致しない場合。AIへの指示者の配慮不足が主たる原因。例えば、「自動運転車に最短時間で目的地に着くこと」と指示すると、交通法規をすべて無視して走行してしまう。企業の財務ポートフォリオ全体の管理を担当する AI が、企業利益を最大化しようとして、企業が安定性を重視しているにもかかわらず、ハイリスク資産に多額の投資をしてしまうなど。

3.内部ミスアライメント:
目標達成のためにAIが学んだ手法が、少なくとも一部の場合で望ましくないふるまいをする場合。設計上の配慮が足りないことが主たる原因。例えば、自動運転車が雪道運転を学習していない場合、大雪の道路で通常走行してしまいスリップ事故を起こすなど。

AIアライメントとは

 チクタク先生

ここにあげたAIリスクは、「AIアライメント」と呼ばれている、以前から検討されている研究領域での考え方です。AIアライメントとは、AIシステムの目的を、設計者やユーザー、もしくは社会全体の目的と、一致するようにする調整プロセスのことです。

 サルくん

フェイクニュースや殺人ウイルスを作ることなんかは、ユーザーのAI悪用だけど、悪人はいつでもどこにでもいるから、設計上の配慮が足りない「内部ミスアライメント」じゃないですか。

 チクタク先生

厳しいですね。確かにそうなのですが、OpenAIはChatGPTを公開する際に、あまりに言語生成能力が高いので、誹謗中傷などをさせないように様々な訓練をしています。この仕組みは以前「AIがおしゃべりできる秘密|第3回|コンピュータが言葉を操る方法」で解説したので参考にしてください。他のAI企業も同じような訓練をしているはずですが、オープンソースが大量に出回っているので、生成側を取り締まるのは不可能でしょうね。アクセス数が多いほど儲かるというSNSの収益システムそのものの問題なので、MetaやTikTok、Googleなどのプラットフォーマーたちは、フェイクニュースの制限などはしたくないのが本音でしょうし。

 サルくん

そういえばMetaが先日、表現の自由を理由に第三者によるファクトチェックの撤廃を宣言してましたね。やっぱりアメリカ企業は、2000年代初頭からある金儲け最優先の強欲資本主義体質のままだな。

 チクタク先生

話を戻しますよ。このAIアライメントは、想像以上の難問なのです。そもそも社会的な公平さや正しさというものに正解はありません。その国の文化・風習・制度・法律などは異なっていますし、時代によっても変遷します。例えば、厳格なイスラム教徒の女性は外出時にヒジャブで髪や肌を隠さなければなりませんが、日本の温泉には混浴があり一般的に入浴時全裸でなければなりません。また他人を誹謗中傷することは認められませんが、批判することとの線引きは曖昧です。

 サルくん

まぁ確かに人の考え方や価値観はバラバラだから、民主主義は多数決で決めて専制主義は暴力で決着させてますからね。中国みたいに共産党がすべての価値観を決めてしまう国しか、AIアライメントは解決できないのか。

 チクタク先生

いいえ、社会的価値観との不整合の話は、AIアライメント問題の一部でしかありません。以前の講座で話しましたが、Sakana AIのThe AI Scientistが、『制限時間内に作業完了できないので、コード実行を高速化するのではなく、自身のコードを変更して期限の延長を試みた』という事例があります。これは開発者でもまったくの想定外の行動だったのですが、このような重大なリスクがあるのです。

 サルくん

そういえば数年前、アメリカ空軍のAI搭載ドローンが、標的を特定して破壊するというミッションで、破壊の妨害をする人間のオペレーターを殺害する判断を下して話題になってましたね。

 チクタク先生

軍事大国は、SF映画ターミネーターの世界を創り出すつもりなのでしょうか。とにかく、AGIの開発は資金さえ続けばできそうですが、AIの安全な社会実装については今のところ無理難題が山積みです。あらゆる状況を想定して、AIの行動を規制する、これを最近は『ガードレール』と言っているようですが、これだとAIの古典的難問である『フレーム問題』と同じです。

 サルくん

あれ?そういえば、だいぶ前にフレーム問題の説明を聞きましたが、回避できたのでは?

 チクタク先生

いいえ、以前の講座ではフレーム問題はAIが世界モデルを獲得できれば解決できるかも、と言っただけです。2024年にOpenAIが画期的な動画生成AIのSoraの発表時に、Soraが世界モデルを構築できたようなことをWebに書きました。そのため、私は膨大な量の動画を学習することで、AIは内部に世界モデルを構築することができるのか、と思っていました。

 サルくん

ようするに、世界モデルって『常識』のことで、コンピュータの中にしかいないAIには、人間なら経験上誰でも知っている『常識』がないという話でしたよね。

 チクタク先生

その通りです。人間が持つ常識を、すべて明確に網羅的にAIに学習させることは現実的ではないです。

 サルくん

まぁ人間にも非常識な輩はいますが。じゃぁアシモフの『ロボット三原則』みたいな必要最低限の常識だけ持たせて、あとは推論できるんだからAIに考えさせれば?

 チクタク先生

それだけですと、先ほどのThe AI Scientistのズル賢い行動は防げません。さらにAIは、学習していない状況に出会った場合、予測不能の行動をする可能性もあります。これは常識がないのが原因なのですが。

 サルくん

o3みたいな推論AIは、失敗から学べるんですよね。

 チクタク先生

推論AIにおける推論は、あくまで物理学や数学、論理学のように正解・不正解が明確な分野に限られます。人間社会や政治のような正解がない曖昧な領域では難しいですね。

 サルくん

なんだ、それじゃAIの社会実装はできないと言ってるんですか?

 チクタク先生

そこまでは言いません。しつけの良い良識を備えた品行方正なAIは、当面できないでしょう。しかしやんちゃで時々間違えるかもしれないAIでも、生産性が人間の10倍ならチャレンジングなアメリカ企業なら、利用するでしょうね。というか既に使っています。

 サルくん

そういえば、Apple Intelligenceが偽ニュース速報を出したりカナダの航空会社のチャットボットが嘘の割引を教えて問題になってましたね。

AIエージェントの課題

 チクタク先生

チャットボットが間違える程度なら、それほど被害は大きくなりません。しかしAIエージェントになると、ユーザーの権限を代行するので、決裁権限まで持つことになります。ここで間違えるとユーザーの知らない間に、大きな損害が生じることになります。2025年はAIエージェントの時代だとAI企業が喧伝していますが。AIアライメント問題をどのように回避しようとしているのか、注視する必要があります。

 サルくん

走りながら考えるアメリカや中国なら、実際に社会実装の実験をして、失敗を繰り返しながら実用性を高めるんだろうな。日本企業は臆病だから、先行企業の様子を見てからだから、また周回遅れになるな。

 チクタク先生

私には今のところAIアライメントを回避する手法が分かりません。しかし知識に関してならAIの完成度はもっと高められます。例えば、AIが知らないことを聞かれたら嘘を答えるのではなく、知らないことを自覚し、ネット検索したり外部のDBなどに問い合わせて回答すればよいだけです。現在でも業務にAI活用する場合には、RAG(検索拡張生成)という技術を使って検索させれば回答精度は向上します。ハルシネーションを撲滅すれば、AIへの信頼度は高まるはずです。

 サルくん

AI専門家はハルシネーションがあるのは原理的に当然とか言ってますが、一般人はAIが出した解答はそのまま信じますよ。当たり前じゃないですか。時々間違えるからといって、AIの解答結果を毎回調べていたら、AIを使う意味なんかないですよ。そもそもRAGなんて専門家じゃないと使えませんよ。

 チクタク先生

確かにそうなのです。LLMは学習済みの知識の中から解答を生成しますから、学習していないことは原理的に解答できません。極端な話『さっき発生した事件の原因を教えてくれ』と聞いたところで最新情報を持っていないAIには解答できません。ですからRAGなどのLLMの拡張機能ではなく、AIの基本アルゴリズムを変更して、常に最新の情報を検索して解答を生成できるAIが必要です。

 サルくん

なんだ、解決方法が分かっているなら、さっさとAIを修正すればいいじゃないですか。

 チクタク先生

そんな簡単な話ではありません。現在新しいモデルを研究中です。逆にGoogleは検索エンジンに自社のLLMを搭載して、最新情報をLLMで解答できるようにしています。

 サルくん

しかしハルシネーションがなくならないと、一般人でさえAIの答えを信用しなくなりますよ。

 チクタク先生

話が戻りますが、ハルシネーションはAIアライメント問題の一部でしかありません。ですから利用の始まるAIエージェントに、どこまでユーザー権限を与えるか、慎重に検討すべきだと私は考えているのです。

 サルくん

そうですね。でも年内にAIエージェントのサービスは開始されますよね。トラブルが起きたら、責任の所在がサービス提供社なのか、AIを開発した企業なのかでもめるだろうな。既に多数走っているロボタクシーが人身事故を起こすと被害者には保険が適用されるはずだけど、似たような仕組みまでできるのかな~

 チクタク先生

では次回ですが、このAIリスクの流れになりますが、欧米や日本におけるAI規制についての状況を説明します。

この記事のポイント

・AIを社会実装する際に生じるリスクには、悪意ある人が使う「誤用」、AIへの指示が配慮不足の「外部ミスアライメント」、設計上の配慮不足の「内部ミスアライメント」の3種類がある。
・AIアライメントとは、AIを社会実装する際に、設計者・ユーザー・社会全体の目的と、AIの行動を合致させる調整プロセスだ。AIに「常識」を持たせようとする試みだが、とても困難な課題である。
・現在のAIにはあまり「常識」がなく、ハルシネーションや予測不能な行動をすることがある。このためユーザー権限を代行するAIエージェントの利用は、慎重にすべき。

著者:谷田部卓
AIセミナー講師、著述業、CGイラストレーターなど、主な著書に、MdN社「アフターコロナのITソリューション」「これからのAIビジネス」、日経メディカル「医療AI概論」他、美術展の入賞実績もある。

 

参照元

×

メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。


データ活用 Data utilization テクノロジー technology 社会 society ビジネス business ライフ life 特集 Special feature

関連記事Related article

書評記事Book-review

データのじかん公式InstagramInstagram

データのじかん公式Instagram

30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!

おすすめ記事Recommended articles

掲載特集

デジタル・DX・データにまつわる4コマ劇場『タイムくん』 デジタル・DX・データにまつわる4コマ劇場『タイムくん』 データのじかんをもっと詳しくデータのじかんフィーチャーズ データのじかんをもっと詳しく データのじかんフィーチャーズ 「47都道府県47色のDXの在り方」を訪ねる『Local DX Lab』 「47都道府県47色のDXの在り方」を訪ねる『Local DX Lab』 DXの1次情報をを世界から『World DX Journal』 DXの1次情報をを世界から 『World DX Journal』 データで越境するあなたへおすすめの『ブックレビュー』 データで越境するあなたへおすすめの 『ブックレビュー』 BIツールユーザーによる、BIツールユーザーのための、BIツールのトリセツ BIツールユーザーによる、BIツールユーザーのための、BIツールのトリセツ CIOの履歴書 by 一般社団法人CIOシェアリング協議会 CIOの履歴書 by 一般社団法人CIOシェアリング協議会 なぜ、日本企業のIT化が進まないのか――日本のSI構造から考える なぜ、日本企業のIT化が進まないのか――日本のSI構造から考える 日本ビジネスの血流である帳票のトレンドを徹底解説 日本ビジネスの血流である帳票のトレンドを徹底解説 データを武器にした課題解決家「柏木吉基」のあなたの組織がデータを活かせていないワケ データを武器にした課題解決家「柏木吉基」のあなたの組織がデータを活かせていないワケ BI(ビジネスインテリジェンス)のトリセツ BI(ビジネスインテリジェンス)のトリセツ 入社1年目に知っておきたい差が付くKPIマネジメント 入社1年目に知っておきたい 差が付くKPIマネジメント CIOLounge矢島氏が紐解くトップランナーたちのDXの“ホンネ” CIOLounge矢島氏が紐解く トップランナーたちのDXの“ホンネ” データのじかん Resources越境者のためのお役立ち資料集 データのじかん Resources 越境者のためのお役立ち資料集 AI実装の現在地点-トップITベンダーの捉え方 AI実装の現在地点-トップITベンダーの捉え方 データでビジネス、ライフを変える、面白くするDATA LOVERS データでビジネス、ライフを変える、 面白くするDATA LOVERS データマネジメント・ラジオ by データ横丁 データマネジメント・ラジオ by データ横丁 データのじかんNews データのじかんNews データ・情報は生もの!『DX Namamono information』 データ・情報は生もの! 『DX Namamono information』 ちょびっとラビット耳よりラピッドニュース ちょびっとラビット耳よりラピッドニュース AI事務員宮西さん(データ組織立ち上げ編) AI事務員宮西さん(データ組織立ち上げ編) 藤谷先生と一緒に学ぶ、DXリーダーのための危機管理入門 藤谷先生と一緒に学ぶ、DXリーダーのための危機管理入門 生情報取材班AI時代に逆行?ヒトが体感した「生情報」のみをお届け! 生情報取材班AI時代に逆行?ヒトが体感した「生情報」のみをお届け! データはともだち 〜怖くないよ!by UpdataTV Original データはともだち 〜怖くないよ!by UpdataTV Original データ飯店〜データに携わるモノたちの2.5thプレイス by UpdataTV〜 データ飯店〜データに携わるモノたちの2.5thプレイス by UpdataTV〜 インサイトーク〜データで世界を覗いてみたら〜by WingArc1st + IDEATECH インサイトーク〜データで世界を覗いてみたら〜by WingArc1st + IDEATECH
close close