専門家に聞く生成AI利用の心得:法的リスクを回避するツールの選び方

生成AIの利用に伴う法的リスクのイメージ

生成AIの業務利用が急速に広がるなか、その利便性を日々実感しているビジネスパーソンは多いと思います。一方で「入力した情報が外部に流出しないだろうか」「出力された内容をそのまま使って問題ないのか」といった不安を抱えながら利用している方も少なくないはずです。

本記事では、生成AIの業務利用で起こりうるリスクの具体例から、業務向け生成AIツールの選び方、業務で安全に活用するためのポイントまで、AIガバナンスの専門家である弁護士の関原 秀行氏にお話を伺いました。

#eee

関原 秀行氏プロフィール

関原法律事務所 代表弁護士。総務省において個人情報保護法や電気通信事業法(通信の秘密)といったデータプライバシー領域に関する法制度の解釈・執行を務めた後、大手IT企業においてインハウスローヤーとして多岐にわたるサービス・機能・システムのレビュー、インシデント対応やプライバシーガバナンスの構築に携わり、プライバシーやAI領域に関する法制度、企業における運用実務やテクノロジーに関して豊富な経験・知見を有する。

関原 秀行弁護士プロフィール

悪意なきタブーの温床「シャドーAI」と生成AIに潜む4つのリスク

インタビュアー(以下、周藤):生成AIを業務で使う個人事業主や会社員が悪意なく冒しやすいAI利用時のリスクには、どのようなものがあるのでしょうか?

関原 秀行弁護士(以下、関原): 最も典型的なものは、会社で許可されていない無料のAIツールを使ってしまう「シャドーAI」です。

いくら社内ルールで無料AIツールの利用を禁止しても、個人のPCから業務に関する情報を入力されてしまうと、会社側でモニタリングしてリスクを防ぐことは非常に困難です。

こうしたシャドーAIの問題に加え、たとえ会社が正式に導入したツールであっても、生成AIの業務利用には大きく4つのリスクが伴います。

生成AIの業務利用で生じる4つの法的リスク

【リスク1】著作権侵害

関原:生成AIが出力したものが、著作権法に抵触してしまうリスクです。

インターネット上のイラストや漫画、写真などは著作権法上の「著作物」に該当する可能性があります。著作権法では、著作物に該当するものは権利者の許諾なくコピーしたりインターネット上で公開したりすることが原則できません。

例えば、画像生成AIに既存の著作物をアップロードして「これと同じものを作って」と指示してしまうと、生成物自体が許可なき「複製」とみなされ違法となる可能性があります。さらに、まったく同じでなくとも、類似性が高い場合は著作権侵害が認められる可能性があるので注意が必要です。

【リスク2】個人情報の流出

関原: プロンプトやAIに読み込ませるファイルに、顧客の氏名などの個人情報が含まれていることによるリスクです。利用した生成AIツールが入力データやログを学習に利用する設定になっていた場合、まったく無関係の他ユーザーへの回答として個人情報が出力されてしまうおそれがあり、個人情報保護法上の問題が生じます。

また、AIサービスの基盤モデルを提供するのはグローバルのベンダーであることが多く、海外事業者に本人の同意なく個人データを渡す場合は法律上の「基準適合体制(※)」という要件を満たす必要があります。無料版のツールによっては、この要件を満たすのが難しいケースも存在します。

#eee
(※注)基準適合体制とは、個人データを外国にある第三者へ提供する際に、その第三者が日本の個人情報保護法と同等水準の保護措置を講じている状態を指す考え方です。具体的には、利用目的の特定や目的外利用の禁止、適切な安全管理措置、第三者提供や再委託の管理、漏えい時の報告、対応など、日本法で事業者に求められているルールと同等レベルの運用が継続的に担保されていることが求められます。

【リスク3】契約、機密情報の漏えい

関原: 会議の音声データを無料の文字起こしツールにアップロードしたり、社外秘のプロジェクト情報やプログラムのソースコードをプロンプトに入力したりすることで、機密情報が外部に流出してしまうケースです。

テキストをプロンプトに貼り付けて要約させるといった使い方でも同じリスクがあり、学習データとして取り込まれると重大な情報漏えいやNDA(秘密保持契約)違反の原因になります。

読み込ませるファイルだけでなく、プロンプト側にも気を配る必要がある点は、意外と見落とされがちです。

【リスク4】ハルシネーション

関原: AIがもっともらしい偽の情報を出力する現象で、実際に生じやすいリスクです。私自身も生成AIを使うことがありますが、実在しない法律の条文や裁判例を出力してくることがあります。

米国では、弁護士がAIを利用して作成した書面を裁判所に提出し、存在しない架空の裁判例が引用されていたという事例が複数報告されています。日本ではまだ目立った事例は少ないですが、ユーザー数が増えるほど、こうしたトラブルが起きる可能性は高まるでしょう。

価格だけでツールを選んでいない? リスクを防ぐ設定と補償とは

周藤:生成AIの成果物によって損害が発生した場合、法的には誰の責任になるのですか?

関原: 原則として、使った側の責任になります。会社員であれば所属する法人、個人事業主であれば本人です。

AIはあくまで道具であり、使うかどうかはユーザー自身が選べるわけですから、「偽の情報を出力したのはAIだから自分は悪くない」という言い訳は基本的に通用しません。

周藤:そうしたリスクを防ぐためにも、生成AIツールの選び方は重要ですね。業務向けに適したツールの見極め方を教えていただけますか。

関原: 事業で使うのであれば、確認したいポイントは3つです。

1つ目は、入力データが学習に利用されるかどうか。無料のツールだと学習に使われるケースがありますが、有料版では学習されないことが多いです。ただし、サービスによって異なるので規約の確認が必要です。

2つ目は、DPA(Data Processing Addendum)の有無です。これは個人情報をきちんと守るための契約で、法人向けプランでは適用されることが多く、個人情報保護法上の要件を満たす形に整理しやすいです。無料ツールだとDPAが存在しないケースがあり、ビジネス用としては適切に利用するのが難しい場合があります。

「学習しない設定にしておけば無料でも大丈夫」と考える方もいるかもしれませんが、DPAの問題は別途残るので、学習の設定だけでは不十分といえます。

3つ目が、法的な補償の有無です。法人向けのツールでは、著作権侵害が疑われた場合の補償制度や監査用のログ取得機能など、法的リスクを軽減する仕組みが備わっていることがあります。

周藤:ベンダー側が補償してくれるなら、ユーザーはAIにすべて任せてよいのでしょうか?

関原: いいえ。補償はあくまで保険のようなものです。既存の著作物を不正に複製するような、悪意ある使い方をした場合は当然ながら補償の対象外となる可能性があります。

「補償がついているから何でもしてよい」わけではなく、悪意を持って他者の権利を侵害するような使い方はしない。これが最低限のマナーです。

「セキュリティ・バイ・デザイン」時代におけるツール選びの勘所

周藤:ツール側の設計で安全性を担保する、いわゆる「セキュリティ・バイ・デザイン」のアプローチは、今後さらに広がっていくのでしょうか?

関原: 最後は人間が判断しなければならない場面もありますが、間違いなくそうなっていくと思います。

中小企業や個人事業主は、大企業のように自社で強固なセキュリティ体制を構築するのが現実的に困難です。法務の専門人材がいない組織や個人では、個人情報保護法や著作権法、NDAなどの規約を一つひとつ確認すること自体が難しいでしょう。

だからこそ、ツール側で安全性を担保し、補償を提供してくれるサービスを選ぶことが重要になってきます。予算との兼ね合いもありますが、法務リソースが少ない会社ほど、こうした安全機能が備わったツールを選ぶ意義は大きいのではないでしょうか。

業務向けの生成AIツールを選ぶ3つのポイント

周藤:Adobe Acrobat AI アシスタント(以下、AI アシスタント)のように、AIの情報源を指定したファイルに限定することには、ガバナンスの観点からどのようなメリットがありますか?

関原: 大きく3つのメリットがあると思います。

まず、ハルシネーションが起こりにくいこと。インターネット上のあらゆる情報を参照するAIと比較して、ソースが限定されている分、精度の高い回答が得られやすくなります。社内の文書をもとに回答を生成させれば、自社が求める情報に沿った回答が出てきやすいというメリットもあります。

次に、想定外の著作権侵害が起こりにくいこと。悪意がなくても、ソースが限定されていない環境では意図しないデータが混入して思わぬ侵害が発生するリスクがありますが、限定されたデータからの回答であれば、そうしたリスクは低くなります。

最後に、出典の確認が容易であること。文書のどの箇所を元に回答しているのかがわかるため、「判断の補助線」としての出典機能がより効果的に働きます。

AcrobatのAI アシスタントにおける出典確認イメージ

▲AcrobatのAI アシスタントにおける出典確認イメージ

ソースを限定しても、AIの要約によっては出力と事実が異なってしまうケースもありますが、出典があれば情報元をすぐに確認して、正しいかどうかを瞬時に判断できます。

周藤:想定外のリスクは回避しやすくなるものの、安心しきってはいけない点もありそうですね。

関原: もちろんです。元のファイルに個人情報や機密情報が含まれていれば、それをAIに読み込ませること自体がリスクになります。

例えば社内向けのシステムでも、従業員の人事評価情報などを含むファイルを読み込ませてしまうと、他の従業員にその内容が見えてしまう可能性があります。AIに読み込ませるデータの内容を事前に確認することが大切です。

周藤:機密情報を非可逆的に削除できる、Acrobatの「PDFを墨消し」機能ならこうしたリスクにも対処できますか?

Acrobatの「PDFを墨消し」機能を使い、PDFから一部情報を削除

▲Acrobatの「PDFを墨消し」から「テキストと画像を墨消し」を選択し、墨消しの箇所を選び(画像左)「適用」すると、選択箇所の墨消しが可能(画像右)

関原: 人力で確認すると、思いがけず情報を消し忘れることは十分にありえます。しかし機械的に墨消し処理をするのであれば、よりリスクの低いデータにしてからAIに渡すことができます。ヒューマンエラーが起きにくい仕組みとして重要な機能だと思います。

周藤:最後に、読者の皆さんに対して「明日からこれだけは意識してほしい」というポイントがあれば教えてください。

関原: まずは、自分が使っているAIツールが入力データを学習に利用しているかどうかを確認することです。学習される設定になっている場合は、誰かに見られても問題のない情報かどうかを意識したうえで入力してください。

すべてを一度に完璧にするのは難しいですが、この一点を意識するだけで、リスクは大きく減らせると思います。

Acrobat AI アシスタントで安心、安全なAI活用を

Acrobat AI アシスタントのイメージ画像

関原弁護士のお話からもわかるように、生成AIの業務利用においては、情報漏えいやハルシネーションといったリスクを理解し、リスクを低減できるツールを選択することが不可欠です。

セキュリティ対策が難しい個人や小規模事業者にとっては、情報流出を防ぐ安全性の高い仕組みや法的補償があるような生成AIツールを使うのも有力な選択肢の一つでしょう。

法的なリスクの対策という観点から、Acrobat AI アシスタントの特長を紹介します。

1. データの非学習
AI アシスタントでは、ユーザーのコンテンツが生成AIモデルのトレーニングに使用されることはありません。業務上の機密文書や個人情報を含む文書を扱う際にも、データが外部に流出するリスクを最小限に抑えることができます。

2. 情報源の限定
AI アシスタントの情報ソースは、ユーザーが指定したファイルのみ。不確かな外部情報や憶測を排除できるため、ハルシネーションや意図しない著作権侵害のリスクを大幅に抑えることができます。

3. 出典表示によるハルシネーション対策
AI アシスタントの回答の元となった文書内の箇所が引用として表示されます。出典を確認することで回答の正確性を素早く検証でき、ハルシネーションのリスクを低減できます。

4. ISMAPクラウドサービスリスト登録
AI アシスタントは、政府情報システムのためのセキュリティ評価制度(ISMAP)のクラウドサービスリストに登録(※)されています。アドビのAI機能としては初の登録であり、政府機関が求める水準のセキュリティ基準をクリアしていることの証となっています。

※一部の製品に組み込まれたAI アシスタントについては2026年4月現在、登録審査中


生成AIを業務で安全に活用するために、まずは「どのツールに、何を読み込ませるか」から見直してみてはいかがでしょうか?


取材、執筆:周藤瞳美

記事内資料:主要様式ダウンロードコーナー(労働基準法等関係主要様式)「労働条件通知書」(厚生労働省)、通商白書 2025年版(経済産業省)