生成AIによって生じるセキュリティリスクとは? 対策も解説
生成AIは、データから学習し、まるで人が作るようなコンテンツを新たに生み出すことができます。個人だけでなくビジネスでの使用も増加し、大手企業も生成AIを活用するようになりました。
このように利用が広まる一方、懸念されているのが生成AIによって生じるセキュリティリスクの問題です。生成AIをうまく使えば、業務の効率化やクリエイティブ業務のサポートなどが期待できますが、リスクに備えずに利用すると経営を脅かすようなダメージを負いかねません。では、企業が生成AIを利用する際にはどのようなセキュリティリスクがあり、どのように対応すればいいのでしょうか。
本記事では、生成AIによって生じるおそれがあるセキュリティリスクと、その対策について解説します。
生成AIによって生じるセキュリティリスク
生成AIは、入出力するデータによってテキスト生成AI、画像生成AI、音声生成AI、動画生成AIに大別されます。下記では、どのタイプの生成AIにも共通して起こりうる8つのセキュリティリスクについて解説します。生成AIを利用する場合、生成AIによるサービスを提供する場合だけでなく、生成AIによって生じる犯罪などの社会的なリスクについても解説しているため、参考にしてください。
情報漏洩
生成AIを利用する場合、ユーザーが生成AIの性質を十分に理解していなかったり、入力する情報の管理が甘かったりすると、ミスや不注意をきっかけとした情報漏洩が起こりかねません。生成AIは、ユーザーが入力した情報を取り込み、クラウドに保存して学習データとして活用します。つまり、一度入力したデータは生成AIの学習のベースとなり、他のユーザーからの質問に対する回答データとしても使われる可能性があるのです。
そのため、安易に機密情報や個人情報を入力すると、第三者に流出するリスクがあります。例えば、生成AIに入力した取引先の新製品情報が別のユーザーへの回答に利用されて機密情報が漏洩したり、誤って入力した自身の画像データが広告に使われたりすることが考えられます。生成AIがどのようなロジックでデータのアウトプットをしているのかを理解し、入力しても問題ない情報と入力してはいけない情報を選別することが重要です。
誤情報(ハルシネーション)の生成
生成AIを利用していると、事実に基づかない情報を生成AIがアウトプットするハルシネーションも起こり得ます。
生成AIがアウトプットする情報は、必ずしも正解とは限りません。しかし、誤った情報でも生成AIは非常にもっともらしい回答を出力するため、信じ込んでしまうケースもあります。ハルシネーションにだまされたユーザーが、連鎖的に誤った情報に基づくアウトプットを行ってしまうと、意図しない誤情報の拡散につながります。
ハルシネーションを完璧に防ぐことはできませんが、曖昧な質問を避けて具体的な表現で聞くようにすると、ハルシネーションが発生する可能性を抑えることは可能です。また、質問の前提となる事実について存在や正誤が不明な場合は「存在するか」「◯◯という理解で正しいか」のように前提から質問することも有効な対策となります。
さらに、生成AIの回答を信じ込まずに、正しいかどうかを自身で調べてダブルチェックすることも重要です。
規約違反による訴訟リスク
生成AIを利用する場合、学習させるデータの取り扱いにも注意を払わなければ、データの提供元から規約違反として訴訟を提起される可能性もあります。
ビジネスにおいてやりとりされるデータや、インターネット上に公開されているデータの中には、利用や転用に制限を設けているものがあります。契約時に取り交わした書面や利用規約などに「当社に無断でデータを転用することを禁じます」「生成AIへの利用はできません」といった文言が明記されているにもかかわらず生成AIにデータを入力し、生成されたコンテンツを公開した場合、損害賠償などを請求されることにもなりかねません。
例えば、ニューヨーク・タイムズなどは、自社のニュース記事を学習データに利用することを禁止しています。契約や規約の内容確認をおざなりにせず、許諾がない場合は利用しないようにすることが重要です。
著作権・商標権などの権利侵害
生成AIを利用する場合、出力されたコンテンツが著作権や商標権などの権利を侵害しているケースがあることにも注意しなければなりません。
生成AIに既存のデータを学習させる場合、基本的には著作権や商標権への考慮は不要です。しかし、生成AIが出力したコンテンツに関しては、既存コンテンツに酷似していて著作権や商標権の侵害が認められるケースも考えられます。その場合、データ作成者の権利を侵害したものとして、損害賠償を請求される可能性があります。著作権や商標権の侵害に当たることを知っていてコンテンツを利用した場合はもちろん、自覚なく利用した場合も同様です。
自社が他者の権利を侵害するコンテンツを利用していた場合、後にそれが発覚したら、企業イメージやユーザーからの信頼が低下する原因にもなります。生成AIで作ったコンテンツは必ず内容を確認してから利用し、そのまま流用するのは避けましょう。
法令違反
生成AIの利用の仕方によっては、生成AIを規制する法律に違反する可能性もあります。
2023年のG7広島サミットでは、生成AIに対する国際的なルールの検討が行われ、リスクマネジメントの機運が高まりました。その筆頭として、2024年5月にEUでは、生成AIを含めたAIを包括的に規制する「EU AI規則」が成立しています。この法律では、AIをリスクのレベルで分類し、レベルに応じた規制が行われます。
例えば、コンテンツ生成AIについては、サービス提供者と利用者双方に「AIによって生成されたコンテンツは機械でも読める形式で、人工的に生成、操作されたコンテンツとして検出できるようにすること」といった義務を課しています。
この規制は、AIのリスクに備えつつ自国のAIによるイノベーションを促進することが目的で、EU加盟国全体で統一的なルールが適用されます。EU所在の人を対象として生成AIによるシステムやサービスを行う事業者、および利用者にも適用されるため、日本にいる事業者も適用対象となり得ることに注意が必要です。
なお、EUに続き、アメリカをはじめとした各国でも独自の法整備が進んでいます。知らずに法を犯すことがないよう、最新の情報の収集に努めなければなりません。
プロンプトインジェクション
生成AIを利用したサービスを提供する場合は、AIに与える指令によって意図的に誤作動を起こすプロンプトインジェクションのリスクにも注意が必要です。
プロンプトインジェクションは、テキスト生成に特化した生成AIであるLLM(Large Language Models:大規模言語モデル)の脆弱性です。悪意を持ったユーザーが特殊なプロンプト(不正な入力)をすることで、開発者の意図していない誤作動が生成AIに起き、本来なら回答するはずがない機密情報や個人情報を提供したり、誤った情報を回答したりします。特に、生成AIを利用したチャットサービスなどを事業化している企業では、情報漏洩の発生によってブランドイメージが大きく損なわれる可能性もあります。
ディープフェイク
生成AIには、ディープフェイクによる詐欺のリスクもあります。
ディープフェイクは、ディープラーニング(深層学習)とフェイク(偽物)から成る造語です。元々は、画像や音声を合成する最新のAI技術を指す言葉でしたが、ディープフェイクを悪用した犯罪が増加していることから、あたかも本物のように合成した偽の画像や動画を指して使われることが多くなりました。アメリカの大統領選挙において、悪意をもって偽の情報を組み込んだ政治家の画像や動画が拡散されたことを覚えている方も少なくないかもしれません。
ディープフェイクを使って偽のキャンペーンなどを本物と信じ込ませることで、金銭や機密情報を搾取する犯罪行為も可能です。ディープフェイクは、人間の油断や隙を突いて攻撃するソーシャルエンジニアリングの手段として活用でき、巧妙に本物の情報のように生成されたコンテンツを偽物と判断するのは困難な場合もあります。知らず知らずのうちに偽情報の拡散に加担したり、詐欺に遭ったりする可能性もあるため、警戒が必要です。
- 併せて読みたい
マルウェアのコードや詐欺メールの文面の作成
生成AIでは、与えた指示に基づいてプログラミングコードを作成することが可能なため、プログラミングやサイバー攻撃の知識がない人でもマルウェアやランサムウェアのコードを生成できるといったリスクもあります。実際に、国内でも、対話型生成AIを使用してマルウェアを作成した人物が不正指令電磁的記録作成の容疑で逮捕されています。また、巧妙な詐欺メールの作成に生成AIを悪用することも可能です。
OpenAI社のChatGPTをはじめとした一般的な生成AIサービスは、犯罪が疑われる質問には回答しないよう設計されています。しかし、サイバー攻撃を目的として開発された生成AIツールも存在しているため、生成AIがサイバー攻撃などの犯罪行為を増加させている可能性もあります。
生成AIを業務で利用する際のセキュリティリスクへの対策
業務効率を向上させたいときや、新しいビジネスアイディアの発見を目指しているとき、生成AIは有用です。しかし、セキュリティリスクへの対処をおろそかにすると、たちまち企業の社会的な信頼やブランドイメージを毀損するトラブルに巻き込まれることになりかねません。
生成AIを業務で利用する場合、下記のような対策を講じることをお勧めします。
適切な生成AIツールを選ぶ
適切な生成AIツールを選ぶことは、AIによるセキュリティリスクへの対策としても重要です。生成AIを使いたい場面にふさわしい機能があること、セキュリティの仕様が自社の求める基準を満たしていることを前提として、複数のサービスを比較検討しましょう。
特に、セキュリティ面における選定基準として、オプトアウトが設定できるサービスを選ぶと安心です。生成AIのオプトアウトとは、入力したデータを学習データとして使わせない設定のことです。オプトアウトを設定することで、個人情報や機密情報などの漏洩リスクを低減することができます。
学習結果から学んで回答をよりパーソナライズさせていく処理が行われないため、回答の精度を低下させる可能性がある点には注意しなければなりませんが、社内業務などの限定的な場面で使用する限りでは、不要な学習をさせないほうがメリットは大きいかもしれません。ChatGPTでは、設定画面からオプトアウトを設定できます。
- 併せて読みたい
生成AIの利用ルールを設定する
生成AIを使用する前に、入力して良い内容や成果物の利用方法に関するルールを明確に定めておくことも、セキュリティリスク対策として重要です。これにより、不適切なコンテンツの生成や、他者の権利を侵害するような生成コンテンツの使用を未然に防ぐことができます。
併せて、生成AIを導入する業務範囲を決めておくのもお勧めです。例えば、個人情報や機密情報を扱わない作業に使用場面を限定するなどのルールを設定すれば、想定外の情報漏洩リスクも減らせます。
従業員への研修を行う
生成AIを業務利用する際のリスク管理では、従業員への研修も重要です。形式的なルールを策定しても、生成AIに対する従業員自身のリテラシーが低いままでは、情報漏洩や権利侵害などの危険を排除できません。
生成AIを利用する従業員には、不適切な利用によって生じるリスクや、AIの使用目的、使用できる範囲を研修で理解してもらいましょう。具体的な使用方法をわかりやすくまとめたマニュアルや、データの取り扱いに関する倫理ガイドラインを配布するのも有効です。
最新法令の確認とルールの改定を継続する
生成AIを利用する場合、知らずに法令に違反することがないよう、最新法令の確認とルールの改定を継続する必要もあります。生成AIを取り巻く法律やルールについては、すでに法律が施行されたEUを筆頭に、各国で規制強化に向けた検討が進んでいます。
2024年11月時点では、国内においてAIを包括的かつ直接的に規制する法律は施行されていませんが、2024年から法整備に向けた作業が本格化し始め、2025年の通常国会で法案が提出される見込みです。著作権法、不正競争防止法、個人情報保護法といった、生成AIの利用に関連する法律について把握すると共に、新たに創設、改正される法規制を見逃さないよう、国内外の最新情報にも注目するようにしましょう。
また、今後AI規制の議論が進むと、社内の既存ルールを頻繁に改定しなければならなくなる可能性もあります。面倒でも、都度最新の規定を反映した内容になるよう努めてください。
生成AIを活用したサービスを提供する際のセキュリティリスクへの対策
生成AIを利用したサービスを提供する側の企業は、現行の各種法規制、および関連する法律の内容を踏まえ、安全対策を講じた上でサービスを世の中に出すことが重要です。法規制の動向に気を配ることはもちろん、攻撃者が開発する新しい攻撃手法についても最新の情報の収集に努め、起こり得るリスクへの対処を怠らないようにしましょう。
また、学習させるデータについては、十分に精査しなければなりません。ユーザーが誤って機密情報や個人情報を入力してしまった際に考えられるリスクを提示することと併せて、そもそもそうした情報を学習させないようにすることで、プロンプトインジェクションを未然に防ぐことができます。
誤情報の拡散につながる可能性があるデータや、権利侵害の基となるデータについても、学習させないようにチェックできる体制を整えておくのがお勧めです。
セキュリティリスクを把握して、生成AIの適切な利用方法を検討しよう
ビジネスにおけるAIの活用は進んでいます。業務の効率化と品質向上の両立、ユーザーの興味を基にパーソナライズされたクリエイティブの作成、新規事業アイディアの創出など、大手企業からスタートアップまで様々な企業が生成AIを活用して成果を上げられるようになりました。
一方で、生成AIにはセキュリティリスクも存在しています。「みんな使っているから、乗り遅れないように」「何か革新的なことができそうだから」と安易に導入すると、重要な機密情報や個人情報の漏洩などによって企業の存続に関わるダメージを負いかねません。生成AIは、メリットだけでなくリスクにもしっかり目を向け、適切な活用方法を検討した上で導入することが重要です。
生成AIのセキュリティ対策を充実させたいなら、元々生成AIサービスに備わっているオプトアウトなどの機能に加え、別途ツールを導入して対策するのがお勧めです。
インターコムが提供する情報漏洩対策ツール「MaLion」シリーズにはWebアップロード監視機能があり、生成AIの1つであるChatGPTの利用に際して「ユーザーは誰か」「いつからいつまで利用していたか」「どの端末を使っていたか」「何を入力したか」といった情報を確認できます。ChatGPTが回答した内容をチェックすることはできませんが、ユーザーが不用意な入力をすることによるセキュリティリスクの低減が可能です。
「MaLion」には、SNSやチャットサービスなどの特定のWebサイト・アプリケーションへのアクセス制限や送受信メールの監視といった機能も備わっています。網羅的な情報漏洩対策をお考えの場合は、ぜひ導入をご検討ください。