米国OpenAI社が2022年11月30日に公開した生成型AI「ChatGPT」を契機に、生成AIは急速に進化し、個人利用だけでなく企業の業務に活用する動きが広がっています。特に、デジタルテクノロジーとデータを駆使し、新たなビジネスモデルを創出するDX(デジタルトランスフォーメーション)推進も相まって、様々な企業でビジネスプロセスに生成AIを活用する動きが広がっています。
たとえば、社内業務への活用としては、文書作成や翻訳、マーケティングにおける広告コピーやSNS投稿の自動生成、開発現場ではコードの自動生成・補完などへ生成AIを活用することが進んでいます。また、顧客向けの活用事例には、カスタマーサポートに生成AIを活用し、AIチャットボットによる顧客対応の自動化を進める事例などがあります。たとえば、楽天モバイルでは、生成AIを活用したチャット形式のサポートサービス「楽天モバイルAIアシスタント2.0」を提供しています。このサービスでは、ユーザーからの質問への回答だけでなく、ショップの来店予約や新規契約手続きも24時間365日対応可能となっています。
このように、業務効率化や新たな価値創出が期待される一方で、企業の中には、セキュリティや情報漏えいリスクへの懸念などから、生成AIの導入に慎重な姿勢を示すところがあります。
日本国内における生成AIの利用状況に関して、MM総研の調査(2024年8月)によれば、生成AIの個人利用率は12.5%、認知率は75.4%でした。
一方、企業の利用率については、帝国データバンクが2024年8月に公開した「生成AIの活用状況調査」レポートで、生成AIを活用する企業は17.3%、このうち「活用している」割合を従業員数別にみると、1000人以上の企業(36.9%)で3割を超えた一方、100人以上1000人未満(18.2%)、50人以上100人未満(13.9%)10人以上50人未満(14.3%)、10人未満(17.8%)と、それぞれ1割台でした。
また、独立行政法人 情報処理推進機構(IPA)が2024年7月に公開した「AI利用時のセキュリティ脅威・リスク調査 調査報告書」によれば、回答者の約6割(60.4%)は、AIのセキュリティに関して脅威を感じていることが分かりました。生成AIの導入・利用にセキュリティ対策は重要であるという回答者75.0%にのぼり、セキュリティ上の懸念が企業の生成AI活用の課題になっていることがうかがえます。
では、実際に企業が生成AIを活用する上で直面するセキュリティリスクにはどのようなものがあるでしょうか。大きく「機密情報の流出や攻撃リスク」「コンプライアンスと法規制対応」の2つが挙げられます。
生成AIは、膨大なデータを学習し、予測やコンテンツ生成を行うため、企業が利用する際に機密情報や顧客データを入力してしまう可能性があり、これがセキュリティリスクを高める要因となります。たとえば「データ漏えいのリスク」としては、AIモデルが生成した内容に、学習データに含まれた個人情報や機密データが意図せず含まれ、外部に流出する可能性があります。
また、「攻撃リスク」には、「プロンプトインジェクション攻撃」が挙げられます。これは、悪意のあるユーザーが、生成AIに不正な指示を与え、AIの出力内容を操作したり、企業のシステムに対して攻撃を仕掛けたりするものです。これにより、情報漏えいや不正アクセスが引き起こされる可能性があります。そして、取引先などの関係先がサイバー攻撃を受けることで、自社のセキュリティが侵害される「サプライチェーン攻撃」についても、生成AIを活用している他の企業からの攻撃を通じて、自社が影響を受けるリスクが考えられます。
生成AIの導入におけるリスクには、「コンプライアンスと法規制対応」も挙げられます。たとえば、生成AIが生成するデータやコンテンツが第三者のプライバシーに抵触する可能性があります。また、生成AIが個人情報を不正に学習するリスクも指摘されており、企業は自社のビジネスに応じてEUのGDPR(一般データ保護規則)や日本の個人情報保護法などに基づき、ユーザーのデータをどのように取り扱うべきか、ガイドラインで定義する必要があります。
また、AIが生成するコンテンツが第三者の権利を侵害する可能性については、「AIが生成したコンテンツに著作権はあるのか」「AIの学習に既存の著作物を使用することは許されるか」などについて、現行の法制度の枠組みでは明確に規定されていない部分があります。そのため、企業は、生成AIの出力をそのまま使用せず、一定の人間の編集を加えることで権利を確保するなど、法的な権利関係を適切に管理する必要があります。
企業が生成AIを活用する際には、セキュリティとコンプライアンスの課題だけでなく、運用コストにも目を向ける必要があります。
生成AIを安全かつ効果的に運用するためには、継続的なモニタリング、AIの学習結果のチェック、セキュリティの維持管理が重要です。AIの出力を監視するための体制整備については、専門スタッフを配置し、運用する必要から作業負荷やコスト増加が考えられます。特に、リソースが不足している中小企業にとっては大きな負担となります。
また、生成AIが誤った出力を生成したり、不正アクセスのターゲットになる場合に備え、監視体制やトラブル対応のための準備も必要です。企業はトラブルが発生した場合の対応策を事前に整備する必要があります。
生成AIの活用は、業務の効率化や新たな価値創出につながる一方で、企業にとってはセキュリティリスクが大きな課題となっています。情報漏えいや攻撃リスクへの対応、コンプライアンスの遵守、運用負担の増大など、企業は、多面的なリスクを適切に管理することが求められます。次回は、具体的なセキュリティリスクの実例について紹介していきます。
書き手:阿部 欽一氏
「キットフック」の屋号で活動するフリーランスのライター/ディレクター。社内報編集、編集プロダクション等を経て2008年より現職。「難しいことをカンタンに」伝えることを信条に、「ITソリューション」「セキュリティ」「マーケティング」などをテーマにした解説記事やインタビュー記事等の執筆のほか、動画やクイズ形式の学習コンテンツ、マンガやアニメーションを使ったプロモーションコンテンツなどを企画から制作までワンストップで多数プロデュースしている。
メルマガ登録をしていただくと、記事やイベントなどの最新情報をお届けいたします。
30秒で理解!インフォグラフィックや動画で解説!フォローして『1日1記事』インプットしよう!