Adobe Firefly を適切に活用するための著作権との付き合い方 第4回 Firefly の生成物は著作権を侵害するか

前回は、著作権により保護されるものと保護されないものを確認しました。今回は、第 1 回で整理した懸念点の中から Adobe Firefly 利用者が、「生成物により、意図せず著作権を侵害してしまう」という心配をする必要があるかどうかを掘り下げます。より詳しくこのトピックの法的な側面について学びたい方は、文化庁が公開している動画「AI と著作権」の視聴をお勧めします。

(今回は、プロンプトで画像全体、または画像の主要な部分を生成する場合を想定しています。画像の背景の一部に生成塗りつぶしを適用するようなケースが著作権侵害の対象になるとは考えにくいためです。)

さて、多くの方が既にご存知のように、著作権侵害が成立するには、以下の 2 つの条件が満たされる必要があるとされています。

著作権侵害を判断する基準は、AI を利用してもしなくても「類似性 + 依拠性 」

そして、著作権侵害となるか否かを判断する基準は、AI を利用した場合でも、人手だけで制作した通常の場合と同様です。すなわち、「著作者の許諾を得ずに、意図的に他人の著作物を真似た」のであれば、制作過程で AI(含む Firefly)を使用しようがしまいが、利用行為次第で著作権侵害になり得ます。

例えば、以下のような行為をすれば、著作権侵害で訴えられることになるかもしれません。

AI は勝手に著作権を侵害するか(できるか)

もっとも、殆どのクリエイターが心配なのは、自分は他のクリエイターを尊重したいと考えているにも関わらず、AI が勝手に著作権を侵害してしまうことではないでしょうか。これまでの常識では、自分が知っている作品に似ていないことさえ注意していれば、誰かの著作権を侵害することは、基本的には無いはずでした。条件の一つである「依拠」が成立しないからです。

ところが、手軽に利用できるからと、生成 AI を手にした途端に、話は少し面倒になります。とある著作物に類似した生成物が出力されたとして、AI がその著作物を事前に学習していた場合、AI による依拠の有無を議論する余地が生まれるためです。AI の依拠性が認められれば、AI 利用者のあずかり知らないところで、著作権侵害のリスクが生じることになります。こうした心配から、生成 AI の業務利用を躊躇している現場も多いことと思います。

AI が学習した著作物に類似した画像を生成した場合は著作権侵害にあたるか?

今のところ、日本では、AI 生成物の依拠性に関する司法判断はありません。ただ、その結論がどうであれ、著作権侵害は通常、裁判が行なわれる国の法律に基づいて判断されるとのことなので、AI 利用者は、AI の依拠による著作権侵害のリスクを完全には避けることができないと思っておいたほうがよさそうです。

意図せぬ著作権侵害から身を守る

では、意図せぬ著作権侵害から、AI 利用者が身を守るにはどうしたらよいのでしょうか。

少なくとも現時点において完璧な手段は存在しません。ここでは、リスクを下げるために実用的であると考えられる 2 つの手段を紹介します。

  1. 著作権をクリアしたデータのみを学習した AI を選ぶ

一つ目の手段は、リスクの少ない AI の選定です。ここでのリスクは、現在利用可能なほとんどの基盤モデルが、無断で著作物を学習していること、そして、すべての学習データを公開していないことです。それに対し、現時点で Firefly が学習に使用しているデータは、著作権の有効期限が切れたコンテンツ、ライセンスがオープンにされている作品、使用許諾を受けた Adobe Stockのアセットであることが明らかにされています。また、Firefly の学習に使用されたアセットの提供者である Adobe Stock コントリビューターには、ボーナス支払いプランが用意されています。このように、透明性やクリエイターの利益に配慮したアプローチを採用している AI を選択すれば、AI 利用者が、学習に作品を勝手に利用されたとして予期せぬ訴訟に巻き込まれることはまずないでしょう。

Firefly は著作権に配慮したデータセットを使ってトレーニングされている Adobe Firefly で生成

なお、現状の契約では、コントリビューターが Firefly の学習からオプトアウトすることはできません(アドビの任意で、例えば「エディトリアル専用カテゴリーのものは、元来報道目的用のため学習させない」のように決定されているものはあるようです)。コントリビューターの権利の観点からは気になる点ですが、こちらの記事によると、アドビはコンテンツを AI による学習の対象外にする「Do Not Train タグ」をコンテンツに添付できるようにしようとしているようです。業界標準としての採用を目指しているとの話ですので、今後の進展が期待されます。

  1. AI 生成物を公開する前の段階で、既存の類似作品が存在するかどうかをチェックする

二つ目の手段は、類似性の無い生成物を公開前に選別することです。そもそも類似していなければ、依拠性の有無に関わらず、訴えられる心配は無くなります。もしも Firefly の生成物が心配になったのなら、Adobe Stock には、類似画像を Adobe Sensei が調べてくれる機能がありますし、インターネットに公開されている類似画像の確認には、画像検索サービスを利用できます。既存の判例を参考にしつつ、どの程度似ているかをチェックして、類似作品は公開されていないと判断されたものだけを公開するのは有効なアプローチだと考えられます。

類似性が疑われる画像を使用しないことで、著作権侵害のリスクを下げることができる

類似性を丁寧にチェックするほど著作権侵害のリスクを下げられる一方、丁寧にチェックするほど時間も手間もかかります。そのため、大量のバナーを生成するなど、手軽に画像を生成できる機能として AI を使いたい場面では、この手段は少し使いづらいかもしれません。

AI は著作権侵害の責任を負えるか

少し話題を戻します。前述のとおり、AI 利用者の「意図せぬ著作権侵害」が起きるとしたら、それは AI の依拠が認められた場合です。AI が著作物を学習していて、それゆえに著作権侵害が成立するのであれば、AI の側が責任を取るべきだろうと思った方はいないでしょうか?著作物を無断で AI に学習させることが合法だとしても、悪意を持たない利用者が、当人の依拠性は無くても著作権侵害を問われるのは、なんだか割に合わない気がしなくもありません。

実際には、Winny 開発者の無罪が認められたように、著作権侵害を助長する類の行為が無い限り、サービス提供者が責任を負うことになる可能性は低そうです。とはいえ、「利用者による侵害を回避する措置をとる」や、「学習データに類似している可能性のある生成物を利用者に送信しない」等のセーフガードの実装は、サービス提供側に求められるべき機能として議論されているようです。

また、責任と権利は裏返しです。「生成物の権利は欲しいが、著作権侵害のリスクは AI に負わせたい」という考えは、もしかすると少し都合が良すぎるのかもしれません。ちなみに、現在の Firefly の規約では、生成物のオーナーシップは利用者に帰属します。ただし、無料ユーザーの生成物は、アドビが自由に使用する権利を持ちます。

次回は、安心して生成 AI を使うために求められる透明性とは?をお送りします!