生成AI(大規模言語モデル)の活用が急速に広まる一方で、誤情報の生成や著作権・個人情報保護など、多岐にわたる法的リスクが顕在化しています。本コラムでは、デジタル庁が公表した「生成AI活用におけるガイドブック」の内容を踏まえ、契約書専門の視点から検討すべきポイントを整理しました。利用範囲や著作権の帰属、機密保持条項など、企業やサービス提供者が必ず押さえたい重要事項を具体的に解説しています。生成AI導入の際に、適切な契約体制を整備するためのヒントとしてご活用ください。

1. ガイドブック作成の背景

昨今、ChatGPTをはじめとする大規模言語モデル(LLM)型AIが急速に普及し、文章や画像、プログラムコードの自動生成が多方面で利用されはじめました。一方で、こうした生成AIは誤情報を作り出しやすかったり、著作権や個人情報の取り扱いが不透明になりがちな側面も抱えています。

そこで、行政機関としてのデジタル庁は、生成AIを安心・安全に活用するための基本指針をまとめたガイドブックを発表しました。この資料では、生成AIが抱える法的リスクと、それを回避するための契約上・運用上の留意点が整理されています。契約書専門の立場からは、特に利用目的の明確化権利帰属の設定責任制限などの規定がポイントとなります。


2. 生成AIの利用契約における主な留意事項

本ガイドブックでは、生成AIの提供者(サービス事業者)と利用者(企業や個人)との契約を結ぶ際に、以下の観点を検討する必要があるとされています。

(1) 利用範囲と使用目的

生成AIによるアウトプットをどのような業務に使用できるか、または何が禁止されているかを契約で決めておくことが重要です。企業が独自のデータを入力し、それがAIの学習に再度使われる可能性がある場合には、データの取扱いを明文化しておかないと、機密漏えいやプライバシー違反を招きかねません。

実務例
  • 自社の顧客情報を入力する際に、その情報がサービス提供側の学習素材として二次利用されないよう、契約条項で明示的に制限する。

(2) 知的財産権・著作権に関する取り決め

自動生成されたテキストや画像が、第三者の著作物の一部を含む可能性がある点が議論となっています。ガイドブックもこうした問題を指摘しており、生成結果の著作権の所在と、ライセンス条件を満たす義務などについて、契約内で明確にルール化する必要があるとしています。

実務例
  • コード生成サービスを導入する際、オープンソースライセンスに関する条項を契約書に組み込み、権利侵害が疑われるケースではサービス提供事業者に報告を義務付ける。

(3) 出力内容の正確性と保証範囲

生成AIは、あたかも正しそうに見える誤情報を返してくる場合があるため、成果物の正確性をどこまで保証するかが大きな論点となります。ガイドブックでも、提供事業者がどこまで責任を負うか、あるいは利用者の側が最終的な内容を確認する義務があるかを明記することが重要だとされています。

実務例
  • 「本サービスが生成する情報の正確性は不問とし、最終的な検証責任は利用者側が負う」という免責条項を契約に入れておく。

(4) 機密保持・個人情報保護

業務で生成AIを使う場合、社内や取引先のセンシティブなデータを入力してしまうケースが想定されます。万が一、サービス提供事業者や第三者がそのデータを不正利用するリスクがあるため、契約における機密保持義務再委託先の管理責任を厳格に定めることが大切です。

実務例
  • NDA(秘密保持契約)において「AIへの入力データは学習目的で再利用不可」「下請先への再提供には事前許可が必須」等の条文を追加する。

(5) コンテンツの違法・不適切利用防止

生成AIを用いて誹謗中傷や差別的表現を出力したり、不正行為を助長するような使い方がなされる可能性があります。ガイドブックでは、サービス利用規約や企業内ポリシーで禁止事項を具体的に設定し、逸脱行為があった場合のペナルティを定める方法が推奨されています。

実務例
  • 不正目的での利用や反社会的表現の生成を行った場合には、事業者がサービス契約を打ち切る権限を持つことを契約書に明示しておく。

(6) 損害賠償・責任制限の取り決め

生成AIの出力が原因で損害が生じた場合、どの範囲までサービス提供者が賠償責任を負うかは重要な検討事項です。ガイドブックは、責任制限条項の導入や過失・故意の判断基準の明示を推奨しています。契約書では、たとえば「賠償額の上限を利用料の総額に制限する」といった形でリスクをコントロールするケースが多く見受けられます。

実務例
  • 「提供者は通常損害のみ補償し、特別損害や間接損害は負わない」などの文言を明記し、紛争リスクを軽減する。

3. ガイドブックで示される導入手順と契約策定のポイント

ガイドブックでは、生成AIを組織に導入する際に「企画~導入設計~運用」の各フェーズでチェックすべき事項を整理しています。契約に関する観点からは、主に以下の点が注目されます。

  1. 企画段階
    • どのようなデータをAIに読み込ませ、どのような成果を得たいのかを明確化する。
    • センシティブな情報を取り扱う場合は、契約書で保護措置を詳細に規定する方針を検討する。
  2. 導入設計段階
    • AIベンダーとの利用契約を結ぶ際に、生成された成果物に関する知的財産の処理や、アップデート時の利用条件変更などを具体的に取り決めておく。
    • 保守・サポート体制についても契約条項に加え、障害時の対応範囲を明示する。
  3. 運用段階
    • 社内の利用者がガイドラインに沿ってAIを使うよう、教育・マニュアル整備を徹底する。
    • トラブル発生時の責任分担や再発防止策を、契約書および関連する内部規程で整合性をもたせる。

4. 契約書面整備で行政書士が果たす役割

生成AI導入に伴う契約は、さまざまな法分野にまたがります。行政書士は契約書面の作成・チェックに精通しており、以下のようなサービスが提供できます。

  1. 契約書・規約類のドラフト作成や見直し
    • SaaS利用契約や秘密保持契約、社内ポリシーなど、複数の文書を整合的に改訂する。
  2. 条項の設計とリスクアセスメント
    • 著作権や個人情報保護、責任制限などの条項を盛り込み、実際の運用上どんなリスクがあるかを評価する。
  3. 他士業との連携支援
    • 知財法務や個人情報保護法関連で深い専門性が必要な場合、弁護士や弁理士とも協力して最適な条文を策定する。

5. おわりに:今こそ契約内容の再点検を

デジタル庁のガイドブックは、生成AIの持つ利便性と危うさをまとめ、より安全な導入方法を提示しています。特に企業間契約やサービス利用規約では、AI固有のリスクを踏まえた条件設定が不可欠です。具体的には:

  1. 利用範囲とデータ取り扱いの明確化
  2. 生成物の権利帰属や第三者侵害リスク対応
  3. 責任分担・免責範囲の明示
  4. 機密情報・個人情報の漏えい防止策
  5. 不適切利用を抑制する利用規約・ポリシー

これらを十分に詰めた契約書を用意しないまま実務を進めると、万一のトラブル時に大きな負担や訴訟リスクを背負う可能性があります。したがって、自社の運用体制に合った契約条項を設計することが極めて重要です。行政書士事務所では、生成AIにまつわる契約文書のレビューや新規作成のサポートを行っておりますので、導入前後の法務体制整備にお役立てください。

※ 出典:デジタル庁「生成AI活用におけるガイドブック(仮称)」(2024年6月10日公表)
https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/c1959599-efad-472e-a640-97ae67617219/fe843dc6/20240610_resources_generalitve-ai-guidebook_01.pdf