ビジネスにおける生成AIの活用で問題となるのが、「機密情報の取り扱い」です。ユーザーが生成AIを利用する際に、機密情報や顧客データなどを入力してしまい、生成AIの学習データとして活用されてしまうリスクで、社員が業務コードや会議録などをChatGPTに入力し、機密情報が外部のサーバーに保存された事例も報じられました。
これを防ぐためには、まずは利用ガイドラインや社内ポリシーとして「機密データをAIに入力しない」というルールを明確化し、徹底する必要があります。その上で、アクセス制御やログ管理、AI利用のモニタリングなどで意図しない機密情報の入力を抑止する仕組みづくりが有効です。たとえば、クラウドサービスへのアクセスを制御するCASB(Cloud Access Security Broker)やDLP(Data Loss Prevention)などのソリューションを用い、生成AI利用時の通信を可視化し、特定の機密情報を含む入力をブロックするといった仕組みを構築するなどの対策が考えられます。
生成AIの事業者側でも様々なセキュリティ対策を講じており、たとえば、ChatGPTの開発元であるOpenAIでは、ユーザーの入力に対するフィルタリングと検証を強化し、明らかに悪意のある入力や、システムの誤動作を引き起こしかねない入力を事前にブロックするような技術的対策を講じています。
生成AIは、入力された指示(プロンプト)に対して柔軟に応答する能力を備えます。こうした特性を悪用し、悪意あるユーザーの入力によって想定外の応答を導き出そうとするのが「プロンプトインジェクション」と呼ばれる攻撃手法です。これにより、機密情報の漏えい、不正アクセス、誤った情報の拡散など、深刻なセキュリティ上の問題が引き起こされるおそれがあります。
プロンプトインジェクションの対策としては、入力内容をあらかじめ検証・制限するバリデーションの仕組みや、AIの振る舞いをモニタリングする仕組みが考えられます。ユーザーの入力に、危険な要素や不正な形式がないかチェックし、フィルタリングすることや、AIの振る舞いに異常な動作や不審なアクセスを検知したら、速やかに調査・対応することです。
また、AIモデルが遵守すべきルールを定義し、逸脱を防ぐ「ガードレール」(AIの利用において想定外の動作やリスクを防ぐ安全対策)としては、たとえば、安全性強化のための初期プロンプトや制約付きプロンプトが組み込まれ、大規模言語モデル(LLM)の出力に際しユーザーからの過剰な命令変更を防ぐ対策を行うOpenAIやAnthropicなどの取り組みがあります。
生成AIは、実際には存在しない情報や事実に基づかない内容を、あたかも真実であるかのように出力してしまうことがあります。こうした“もっともらしい誤情報”は「ハルシネーション」と呼ばれ、誤った意思決定や顧客対応ミスにつながるおそれがあります。
ハルシネーションの対策としては、LLMのパフォーマンスを向上させるプロンプトを構築する「プロンプトエンジニアリング」による対策や、検索システムや社内ナレッジベースと連携させるRAG(Retrieval-Augmented Generation:検索拡張生成)の活用により、AIの回答根拠を明示することでLLMが生成する回答の精度、正確性を向上させる取り組みが考えられます。
また、重要なアウトプットについては人間によるレビューを加える「ヒューマン・イン・ザ・ループ(HITL)」の体制を取り入れることも有効です。これにより、異常な動作や誤判断を迅速に修正でき、AIシステムの信頼性を確保することが可能です
画像・音声・映像を偽造するディープフェイク技術は、虚偽の情報を信じさせる手段として政治的扇動や株価操作、風評被害に悪用されるリスクがあります。
これに対し、AI技術によって偽造を検出・可視化する試みが進んでいます。たとえば、Adobeなどが推進する業界団体であるC2PA(Content Authenticity Initiative)では、コンテンツの生成元と改変履歴を証明するメタデータを埋め込む仕組みで、信頼できるコンテンツの可視化に取り組んでいます。
また、政府主導でのディープフェイク対策法制化も進められています。衆院内閣委員会は2025年5月、AIの利活用推進などに関する新たな法案(AI法案)を賛成多数で可決。併せて、AIを悪用した性的画像・動画「ディープフェイクポルノ」に対する対策強化を政府に求める付帯決議も採択しました。
生成AIの悪用は攻撃側だけの話ではありません。防御側でも、AIを使ったセキュリティ対策を強化するアプローチが進んでいます。
たとえば、未知の脅威を検知する異常検知AIや、リアルタイムに脅威に対応するセキュリティオーケストレーションなどは、AIが自律的にセキュリティを維持する仕組みとして期待されています。特に、異常検知モデル、振る舞い分析、予測的防御などの領域でAI技術の活用が期待されており、高性能AIモデルにより、フィッシングメールの検出率を大幅に高めることができた研究結果も報告されています。
今回は、生成AIの活用で考えられるリスクに対する対策について紹介しました。次回は、生成AIを安心して活用するために、生成AIを取り巻く法規制の現状や、企業が対応すべき国内外のガイドライン、今後予想される規制強化の動きなどについて紹介していきます。
書き手:阿部 欽一氏
「キットフック」の屋号で活動するフリーランスのライター/ディレクター。社内報編集、編集プロダクション等を経て2008年より現職。「難しいことをカンタンに」伝えることを信条に、「ITソリューション」「セキュリティ」「マーケティング」などをテーマにした解説記事やインタビュー記事等の執筆のほか、動画やクイズ形式の学習コンテンツ、マンガやアニメーションを使ったプロモーションコンテンツなどを企画から制作までワンストップで多数プロデュースしている。
(TEXT:阿部欽一 編集:藤冨啓之)
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!