最近、画像生成AIや対話型AIが身近になり、誰でも簡単にクオリティの高い作品を作れるようになりました。その一方で、クリエイターや利用者の皆さんが一番不安に感じているのが、「知らないうちに他人の著作権を侵害してしまわないか?」という点ではないでしょうか。今回は、文化審議会のまとめた「考え方」に基づき、AI生成物が著作権侵害になるかどうかの重要なカギを握る「アクセス可能性」と「依拠性(いきょせい)」について、わかりやすく解説します。 -------------------------------------------------------------------------------- 1. 著作権侵害を決める「2つのモノサシ」AIを使って作ったものが著作権侵害になるかどうかは、実は「人間が手描きなどで作った場合」と同じ基準で判断されます。その基準は次の2つです。1. 類似性:既存の作品と表現が似ていること。2. 依拠性:既存の作品を「元にして」作ったこと。たとえ結果的に似てしまったとしても、相手の作品を全く知らず、偶然似てしまっただけであれば「依拠性」がないため、著作権侵害にはなりません。2. 「アクセス可能性」が「依拠性」を証明する「元にした(依拠した)」かどうかを証明するのは非常に難しい問題です。そこで裁判などの実務では、「その作品に接する機会(アクセス可能性)」があったかどうかが、依拠性を推測するための大きな材料になります。生成AIの場合、この「アクセス」の考え方が少し特殊です。ケース①:利用者が作品を直接入力した場合「Image to Image(画像をもとに画像を生成する)」のように、特定の画像を入力したり、具体的な作品名を指示(プロンプト)に入力したりした場合は、明らかにアクセスがあったといえるため、依拠性が認められます。ケース②:利用者は知らないが、AIが学習していた場合ここが最も注意すべきポイントです。利用者がその作品を知らなくても、AIの開発・学習段階でその作品が学習データに含まれていた場合、客観的に「アクセスがあった」とみなされます。 この場合、出力されたものが似ていれば、通常は依拠性があったと推認され、著作権侵害になる可能性が出てきます。ケース③:AIも利用者もアクセスしていない場合AIの学習データにも入っておらず、利用者も知らなかった場合は、たとえ似ていても「偶然の一致」であり、著作権侵害は成立しません。3. 「アクセス」があっても侵害にならないケースAIが学習していた(アクセスがあった)としても、技術的なブロックがかかっていれば依拠性が否定される場合があります。 たとえば、特定の作品に似た表現が出力されないよう、サービス側でフィルタリングなどの措置がしっかり講じられている場合です。このような仕組みが適切に機能していることを説明できれば、依拠性がないと判断される可能性があります。4. 誰が責任を負うのか?もし著作権侵害が認められた場合、原則として責任を負うのはAIの利用者です。 ただし、そのAIを使うと侵害品が頻繁に生成されることを知りながら開発者が放置していたような特別な場合には、AI開発者やサービス提供者も責任を問われる可能性があります。 -------------------------------------------------------------------------------- まとめ:たとえるなら生成AIにおけるアクセス可能性と著作権の関係は、「AIの中に巨大な記憶図書館がある」ようなものです。あなたがその図書館の本を一度も読んだことがなくても、AIという「執筆代行スタッフ」がその本を隅々まで読み込んで学習していれば(アクセス)、AIが書いた原稿にその本の内容が紛れ込むことがあります。その場合、法的には「その本を参考にして(依拠して)書いた」とみなされてしまう、というルールになっているのです。安全にAIを活用するためには、学習データがクリーンなものや、権利侵害を防ぐ技術的な対策がしっかりしている信頼できるサービスを選ぶことが、トラブル回避の第一歩です。