ジェネレーティブAI時代に求められる「責任あるイノベーション」とは


画像:Adobe Fireflyで制作

ここ最近、ジェネレーティブAIに関する記事を読んだり話題を聞いたりしない日はありません。この新しいテクノロジーが世の中に浸透する驚異的なスピードを考えれば当然でしょう。「紙のドラゴンの3Dレンダリング、スタジオ撮影」と入力すれば、折り紙でできた獰猛な生き物のポートレートが瞬時に、複数のバリエーションで表示されます。いくつかのデータと簡単な指示を組み合わせてチャットボットに入力すれば、説得力のあるマーケティングメールを送信してくれます。個人のクリエイターにとっても企業にとっても、このテクノロジーがどのような力を発揮するかは一目瞭然でしょう。ジェネレーティブAIは、何もない白紙の状態からイメージの表現に至るまでの障壁を取り除き、既存のワークフローに精度、パワー、スピード、容易さをもたらす、クリエイターにとって理想の制作環境を実現します。さらに、ほんの数秒でマーケティングコピーを希望するトーンに沿うように書き換えたり、メッセージから複数のバリエーションを作成したり、テキストの要約を作成したりできるため、より戦略的でよりクリエイティブな作業に集中できるようなります。

ジェネレーティブAIは、私たちの仕事、遊び、創造、コミュニケーションに無数の新しい可能性をもたらしますが、同時に、デジタル時代における倫理と責任に関する新しい疑問への扉を開くものでもあります。アドビや他の企業がこの最先端技術の力を利用するとき、私たちは業界を超えて、その責任ある開発と使用を導く一連のガードレールを開発、実装、尊重するために協力する必要があります。

倫理と責任を基礎に置く

ジェネレーティブAIツールを開発するどんな企業も、まずAI倫理のフレームワーク(英語)の構築から始める必要があります。簡潔で実行可能な一連のAI倫理原則と、企業のエンジニアリング構造に組み込まれた正式なレビュープロセスを持つことで、顧客を尊重し、企業の価値観に沿った方法でジェネレーティブAIを含むAI技術を開発することができます。このプロセスの中核となるのは、トレーニング、テスト、そして必要な場合は人間による監視です。

ジェネレーティブAIも他のAIと同様に、トレーニングデータの良し悪しでその性能が決まりますが、たとえ良いデータが揃っていても、意図せず差別や蔑視をおこない、人々の尊厳を傷つける偏ったAIになってしまう可能性があります。そのような有害なアウトプットを軽減するにはまず、安全で包括的なデータセットを構築してトレーニングに使う必要があります。例えば、アドビのジェネレーティブAIモデル「AdobeFirefly」は、Adobe Stockの画像、オープンライセンスコンテンツ、著作権が切れたパブリックドメインコンテンツでトレーニングされています。このようなキュレーションとフィルタリングによって、暴力的、軽蔑的、その他の不適切なコンテンツを除去した多様なデータセットを使えば、モデルはそうしたタイプのコンテンツから学習することがなくなります。しかし、モデルに関してはインプットだけでなくアウトプットも重要です。私たちはモデルの安全性とバイアスを常にテストし、さらに、ユーザーから懸念事項の報告を受けて改善措置を講じることができるフィードバック機構を提供しています。トレーニングやテストに加えて、プロンプトで特定の言葉の使用を制限するためにブロックリストや拒否リストを使うなど、モデルが有害なステレオタイプを維持したり、既存のバイアスを強化したりしないようにするために企業が検討できるアクションはいくつか存在します。

他社とのパートナーシップや統合を通じてジェネレーティブAIを構築している企業でも、モデルのアウトプットに自社の価値観を適用することは可能です。また、モデルのアウトプットが一般に公開される場合は、公開までのプロセスに人間を介在させることで、それが期待に沿うものであることが保証されます。

このような倫理的な問題のほかに、企業によっては使用しているAIモデルの法的リスクを最小限に抑えたいという場合があります。こうした企業にとって重要なのは、モデルがアウトプットするコンテンツを適切にモデレートするための保護措置を、AIパートナーが講じていることであり、さらに言えば、そのモデルが最初から安全な方法でトレーニングされているかを確認することです。これにより、著作権やブランドに関する懸念から、不適切な画像やテキストに至るまで、さまざまな問題を回避することができます。

透明性が信頼を生む

ジェネレーティブAIモデルが生成するコンテンツについては、透明性も必要です。冒頭にドラゴンの例を挙げましたが、世界的なリーダーのスピーチも同じように手軽に生成できてしまうことを考えてみてください。ジェネレーティブAIは、すでに誤った情報が氾濫しているデジタル社会の中で、容易に説得力のある合成コンテンツを作り出せるという懸念を引き起こしています。そして、AIが生成したコンテンツが増えるにつれ、人間が発したメッセージを、その真正性を証明できる手段とともに人々に提供することがますます重要になります。

アドビでは、製品にコンテンツクレデンシャル機能を実装することでそのような透明性を実現しています。コンテンツクレデンシャル機能を使えば、クリエイターの名前、作成日、使用したツールなどの情報をコンテンツに添付することができます。これらの来歴情報はコンテンツに紐付けられて流通するため、ほかの誰かがそれを閲覧した時点で、そのコンテンツがどこから来て、どのような経緯で作られたのかを正確に知ることができます。この取り組みはアドビだけで行っているものではありません。4年前、私たちはコンテンツ認証イニシアチブ(CAI)(英語)を設立し、このソリューションをオープンな形で構築したことで、各製品やプラットフォームに誰もがこの仕組みを取り込むことができるようにしました。テクノロジー企業、デバイスメーカー、メディア、NPO、学術機関などあらゆる分野から900以上の企業・団体が参加し、このソリューションを世に送り出すために力を合わせています。

この機能はジェネレーティブAIにも対応しており、AIを使って生成したり修正したりしたコンテンツには、そのことを示すコンテンツ認証情報が自動的に添付されます。これにより、人々はコンテンツがどのように作られたかを確認でき、その信頼性に関してより多くの情報に基づいた判断をおこなうことができます。

Adobe Fireflyで制作

クリエイターの選択とコントロールを尊重する

クリエイターは、自身の作品がジェネレーティブAIのトレーニングに使われるかどうかをコントロールしたいと考えています。自分のコンテンツをAIに使われたくないと考えるクリエイターがいる一方で、自分が作者だと明記されるのであれば、新しい技術の発展のためにトレーニングデータとして使ってほしいと思うクリエイターもいます。来歴記録機能を使用することで、クリエイターは自分の作品に、「Do Not Train」タグを付けることができます。Do Not Trainタグは来歴記録を利用しているので、コンテンツが流通しても付随し続けます。この仕組みが業界内で普及すれば、webクローラーが 「Do Not Train」タグが付いた作品をトレーニングデータセットの一部として使用することを防ぐことができます。私たちは他にも、クリエイターが自分のスタイルやその他の貢献から収益化できるような方法を検討中です。クリエイターの貢献を補償するための探索的な取り組みを通し、クリエイターに力を与え、彼らの経験をより向上させるようなジェネレーティブAIを構築したいと考えています。

継続的な旅路

ジェネレーティブAIは、まだその可能性の一端を示したにすぎず、技術は日々向上しています。進化を続けるジェネレーティブAIは、その過程で次々に新たな課題をもたらすでしょう。そこで大切なのは、産業界、政府、コミュニティーが協力して解決に取り組むことです。ジェネレーティブAIの責任ある開発における基準を高く維持しながらベストプラクティスを共有することで、この技術が持つ無限の可能性を引き出し、より信頼できるデジタル空間を構築することができるのです。

Adobe Summitについての最新情報はこちら(英語)

Adobe Summit担当者、パートナー、スポンサーからの最新情報をお届けします。

この記事は2023年3月21日(米国時間)に公開されたResponsible Innovation in the Age of Generative AIの抄訳です。