
| 課題 | 内容 |
| 信頼性問題 | タスクを自動化するモデルの信頼性は、まだ高くはない。例えば、WebVoyager Benchmarkで測定すると、モデルにもよるが信頼性は57%~87%程度だ。ただし、AIモデルは日々進化しているので、性能の向上は続いている。 |
| セキュリティ | MCPのように新しい技術には隠れたリスクがある。特にMCPサーバーの脆弱性が最近特に問題となっている。自社のAIエージェントと、外部のMCPサーバーを接続する場合、悪意あるMCPサーバーだと、認証許可で社内の機微な情報が外部へ送信されてしまう。 |
| 特性上の問題 | AIエージェントが持つ特性によるリスクもある。自律性が高いため、最初の判断に間違えると、その後の一連の処理が瞬時に連鎖し、人間が介入する間もなく大きな損害となるリスクがある。マルチAIエージェントでは、複数のエージェントに1つでも誤動作や判断ミスがあると、ドミノ倒しのようにシステム全体に波及して、予期せぬ結果となる。 |
| 運用管理の複雑さ | エージェントの実行中に何が起こっているかを把握し、デバッグとパフォーマンスの最適化を行うため、処理の可視化が求められる。 |
| 課題 | 内容 |
| ワークフロー構築の労力 | LLMが複雑なタスクを解決するために用いるエージェント・ワークフローの構築には、多大な労力が必要で、スケーラビリティや汎用性が制限される。既存の手法は、初期の手動設定に依存しており、完全に自動化された効果的なワークフロー生成は、まだ達成できていない。 |
| 本番環境移行が困難 | 高度な推論や安全技術などのモデル機能があっても、これらを本番環境で使用可能なエージェントにすることは、かなり困難。十分な可視性やサポートがないことが多いため、大規模なプロンプトの反復やカスタムのオーケストレーションロジックが必要となる。 |
| 課題 | 内容 |
| 情報サイロ化とデータ隔離 | 最も洗練されたAIモデルでさえ、情報のサイロ化やレガシーシステムの背後にあるため、データから隔離されていることとなり、その能力が制約されることが多くなる。 |
| 断片化されたデータ群 | 新しいデータソースごとに独自のカスタム実装が必要なので、AIシステムをスケールさせることは困難。大企業では、APIの可用性や標準化されたデータを持たないレガシーシステムが多いので、一層困難となる。 |
| 課題 | 内容 |
| 開発環境の構築 | 開発者は、AI機能の迅速なプロトタイプ作成や、コーディングワークスペース、デプロイメントオプションを統合した環境が必要となる。 |
| 社会実装へのスピード | エージェント型AIを、企業全体で迅速に本番環境に導入することが、強く求められている。 |
なんだか社会実装をするには、かなりの課題があるな。
前例がない、まったく新しい技術を使うのですから、ある程度のリスクを覚悟して手探りで開発するしかありません。加速度的に変化していく時代での生き残り策は、常に先行し続けることなのですから。それに、AI開発企業はユーザーの利用環境を整備しないことには自社のAIエージェントを利用してくれないので、どんどん環境整備もしていくはずです。
まぁそうですよね。じゃあ、そのリスク対策は?
先ほどあげたリスクに対する対策を、分かる範囲になりますが、以下に示しましょう。
| 課題 | 内容 |
| 信頼性、特性上の問題 | AIモデル本体の信頼性向上は、AI開発企業に任せるしかない。ユーザーはAIエージェントが致命的なミスを犯さないように、入出力検証のための「ガードレール」を組み込んでおく必要がある。ガードレール設定・安全性チェック・データ漏洩対策などのツールが用意されている、エージェント開発ツールを利用すべきである。 |
| セキュリティ | MCPの脆弱性対策の基本は、第三者作成のMCPサーバーにはリスクがあるため、公式のMCPサーバーを利用することである。またMCPサーバー脆弱性診断サービスもある。 |
| 運用管理の複雑さ | 信頼性がまだ高くないワークフローでは、完全自動運転ではなく、人間による監視が必要である。 |
| 課題 | 内容 |
| ワークフロー構築の労力 | AFlowのような自動化フレームワークは、モンテカルロツリー探索を使用して探索空間を効率的に探索、コード修正や実行フィードバックを通じてワークフローを反復的に改善することができる。手動で構築したワークフローを上回る結果を出しているので、このようなツールを利用することにより開発効率は高められる。 |
| 本番環境移行が困難 | オープンソースのAgents SDKは、マルチエージェントワークフローのオーケストレーションを簡素化することができる。またOpenAIでも同様なツールを公開している。 |
| 課題 | 内容 |
| 情報サイロ化とデータ隔離、断片化されたデータ群 | MCPを利用することにより、断片化されたデータ群を標準プロトコルで構築ができ、AIシステムが必要なデータにアクセスするための、シンプルで信頼性の高い方法でアクセスができる。OpenAIのツールは、CUAモデルを使用し、レガシーシステム間でのデータ入力タスクの実行など、ブラウザーベースのワークフローの自動化が可能となる。ただ今後のAI活用を見据えれば、企業のデータ基盤は構造化データや半構造化データ、ベクトルデータへ変換して、AIがアクセスしやすくスケール可能な「AI-Ready」にすべきである。 |
| 課題 | 内容 |
| 開発環境の構築、社会実装へのスピード | NVIDIAは、作業を自動化するための統合開発環境Agentic AI Blueprintsを発表している。また、Firebase Studioのようなクラウドベースのエージェント型開発環境や、業界特化型のソリューションも発表されている。 |
なんだか、予想以上に開発ツールがありますね。
開発環境が整備されていないと、ユーザーが使ってくれないので、各社とも競って環境整備をしています。それに、AI企業のプログラムコードの大半はAIが出力しているので、プログラミングの生産性が以前より数倍になっていますからね。
そうか、開発したツール類は、まず自社で使えるので生産性が加速度的に上がっていくのか。
実は10月7日に「OpenAI DevDay 2025」が開催されて、また多くの画期的サービスや開発ツールが発表されています。あまりに情報量が多いので、全部はまだ把握できていないのですが、その中に「Agent Builder」というAIエージェント用の開発ツールがあります。このツールは、AIエージェント開発を、誰でも簡単にできるノーコードツールなのです。この革新的なツールさえあれば、プログラミング経験のない商品企画担当でも、ドラッグ&ドロップで本格的な業務自動化を実現できるようになります。
え~!じゃあ、先ほどの課題の「開発プロセスと展開の効率化の課題」は解決するじゃないですか。
まだ発表だけなので、その実力は不明なのですが、サム・アルトマンは発表会の中で、明日から試せます、と言っていたので、自信はあるようです。それより、このAgent Builderの登場によって、多くのスタートアップが生存の危機に立たされるでしょうね。
そりゃドラッグ&ドロップでAIエージェントができるなら、他の開発ツールはいらないし、それどころかプログラマーも本格的にリストラされますね。
影響があるかもしれませんが、デバッグやトラブル対応などもあるので、いきなりエンジニアの大量解雇はないと思います。
そういえば、画像生成AIのNano Bananaで世界を驚かせたGoogleは、どうしているんですか?
もちろんGoogleにも、AIエージェントに関する画期的ニュースがあります。ただ、ここに関しても情報量が多すぎるので、次回にしましょう。
【第4回に続く】
・新しいテクノロジーであるAIエージェントを利用する際には、セキュリティや信頼性の問題、開発ツールの問題、AI性能を大きく左右するデータ整備の問題などがある。
・AIエージェント開発ツールは、ガードレール設定等の安全対策、ワークフロー自動作成等の作業の効率化対策が可能な高機能なものを選定すべきだが、開発ツールも進化が著しいので注意が必要である。
・AI性能はデータの品質と量で決まるので、時間がかかっても企業のデータ基盤は構造化データや半構造化データ、ベクトルデータへ変換しておくべきである。
図版・書き手:谷田部卓
AI講師、サイエンスライター、CGアーティスト、主な著書に、MdN社「アフターコロナのITソリューション」「これからのAIビジネス」、日経メディカル「医療AI概論」他、複数の美術展での入賞実績がある。
(図版・TEXT:谷田部卓 編集:藤冨啓之)
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!
AIエージェントのメリットばかり話してきましたが、そのリスクや課題についても言及しましょう。
そうですよね。性能競争ばかりでビジネス応用の実体のないAIフィーバーが続いてきたけど、いざ社会実装をする場合には、そのリスクを把握していないと失敗しますからね。
その通りです。それでは、AIエージェントの開発および社会実装を行う際に、現時点における課題や問題点を示します。