アドビ、責任あるデジタル・シチズンシップに則し、新しいAI倫理原則を発表

ここ2年間にわたり、「責任」、「説明責任(アカウンタビリティ)」、「透明性」からなるAI倫理原則を慎重に構築してきました。この3つの原則は、アドビの企業としてのあり方を反映したものであり、AI倫理審査委員会を設置し、製品に導入するAI機能についてイノベーションを推し進めるのと同時に、AIへのトレーニングに使うデータの偏りから生じる弊害に対処していきます。

人工知能(AI)の可能性は無限です。AIが提供する、より深いインサイトやタスクの高速化、意思決定能力の向上は、人間のクリエイティビティと知性をさらに高め、私たちの生活やビジネスを大きく変革するでしょう。

しかし、他の新たなテクノロジーと同様、AIにも独自の課題がつきまといます。AIの場合は、テクノロジーの性能が学習するデータに左右されるという事実です。人間の脳が経験から学習するように、AIも経験から学習しますが、AIでは訓練するデータセットに含まれるデータがその経験に相当します。育成過程が性質に影響するのも人間と同じで、適切なデータを与えれば、AIはそれに従って能力を発揮しますが、データが偏っていればその偏りを反映します。そしてデータの偏りに不公平で差別的なパターンが含まれている場合、AIは有益なものから有害なものに姿を変えてしまいます。

アドビは、AIを活用したツールでイノベーションを推し進めるのと同時に、AIトレーニングに使うデータの偏りから生じる弊害に対処していきます。AI倫理(英語)の推進は、アドビの責任あるデジタル・シチズンシップに則したコミットメントの柱の1つです。アドビは、デジタル社会の一翼を担う企業として、テクノロジーの革新がもたらす影響に対処していくことを決意しています。

その一環として、私たちはここ2年間にわたり、「責任」、「説明責任(アカウンタビリティ)」、「透明性」、というアドビのAI倫理原則を慎重に構築してきました。この3つの原則は、アドビの企業としてのあり方を反映したものであり、製品にAIを導入するための指針となるものです。

責任:アドビは、AIテクノロジーの設計と運用を精査し、その導入による影響と結果に対し慎重に対応します。設計に際し「包括性」を考慮し、有害な偏見やステレオタイプにつながる不公平、差別的、不正確な出力結果の影響を調査します。私たちは、製品やサービスが雇用、住宅、信用情報、健康など個人の生活に大きな影響を与える場合、偏見に対し特別な注意を払わなければならないと考えています。

説明責任(アカウンタビリティ):アドビは、AIを搭載したツールがもたらす結果に責任を持って対応します。AIに対する懸念については、必要に応じて是正措置を取るためのプロセスの確立、そのためのリソースの確保を行います。説明責任には、テストによる潜在的な有害性の予測、そのような有害性を軽減するための事前対策、予期しない有害な結果に対応するシステムの運用も含まれます。

透明性:アドビのAIシステムとその応用についてお客様に明確にご理解いただけるよう、AIの利用方法について透明性ある説明を行います。アドビのAIの利用方法、AI搭載ツールがお客様にもたらす価値、そしてアドビのAIで強化されたツールやサービスを使用する際にどのようなコントロールや設定が可能かという点についてご理解いただきたいと考えています。

AIというものが、テクノロジーと人間の洞察力に関わることから、この原則の策定とアプローチの決定には、さまざまな視点を取り入れました。AI倫理への取り組みの一環として、私たちはAI倫理審査委員会を設置し、多様な経歴や人生経験を持つ世界中の専門家の参加のもと、私たちの取り組みが正しく導かれるよう進めています。これらの委員会は、開発チームの指導に役立つ提言を行い、新しいAI機能や製品をレビューして、アドビの上記3つの指針を確実に満たしていることを確認することを任務としています。

AI倫理審査委員会は、昨年秋、アドビの開発チームと協力してAdobe Photoshopニューラルフィルターの開発に取り組みました。ユーザーがこのフィルターを適用するだけで、あっという間に人物の年齢や表情を変えたり、白黒の写真をカラー化してくれる、AI搭載フィルターです。ニューラルフィルターのような新しい技術については、どのように利用されたのか、またもたらされる影響について、利用データを慎重に調査しています。人間はバイアスをもっている生きものであり、人間が生み出したデータを使う限り、完璧なるAIというものは実現不可能ですが、より良くしていくことが可能であり、かつ重要です。そしてそれは、何百万人ものユーザーのサポートによって実現可能です。だからこそ、ニューラルフィルター機能では、ユーザーが自分の価値を損なわれたように感じるコンテンツが生成された場合、それを報告できるインターフェイスをフィルター適用のたびに表示しています。ユーザーは、適用前と適用後の画像をアドビのエンジニアに送り、詳細調査を受けることもできます。このようなユーザーコミュニティからの絶え間ないフィードバックを受け続けていくことは、ツールの偏りを最小限に抑え、アドビの価値観を維持するための最良の方法だと考えています。

ニューラルフィルターは、アドビのAI倫理原則に照らし合わせて委員会がレビューした最初のAI機能で、今後、毎年リリースする何百ものAI搭載機能を対象にレビューを拡大する準備が整いました。私たちは、この2年間の成果に非常に満足しており、今後の方向性に自信を持っています。

責任、説明責任、透明性にコミットしたアドビのAIへの取り組みをご理解いただき、AIの未来をすべての人にとって良いものにするため、ぜひ皆様のお力添えをお願いしたいと思います。

この記事は2021年2月17日(米国時間)に公開されたAdobe unveils new AI ethics principles as part of commitment to responsible digital citizenshipの抄訳です。