Sommet pour l’action sur l’Intelligence Artificielle : saisir l'opportunité de l’IA

Le Sommet pour l’action sur l’Intelligence Artificielle (IA), qui se tient à Paris les 10 et 11 février, marque une étape déterminante dans la mobilisation des secteurs public et privé en faveur d’une approche commune pour une IA éthique, responsable et bénéfique pour tous. Dans la lignée des précédents sommets de Bletchley Park et de Séoul, cette édition mettra l'accent sur la nécessité de saisir les opportunités offertes par l'IA tout en développant et en déployant les technologies de manière responsable.

Aider les créateurs à protéger leur style et leurs sources de revenus

Chez Adobe, nous avons la conviction que l’IA doit être un levier et non une menace pour les carrières créatives. L'une des principales préoccupations des créateurs concerne le style, en particulier lorsque quelqu'un utilise l'IA pour imiter le style d'un artiste et fait ensuite passer l'œuvre générée pour celle de l'artiste original. À l'ère de l'IA, quelques clics suffisent pour que quelqu'un de mal intentionné reproduise des œuvres d'art. Les artistes se retrouvent ainsi contraints de rivaliser avec leurs propres créations, reproduites sans leur consentement.

Adobe a plaidé en faveur d'un droit fédéral contre l'usurpation pour protéger les créateurs contre les acteurs malveillants qui utilisent un modèle d'IA explicitement pour usurper leur style à des fins commerciales. À cet égard, le Preventing Abuse of Digital Replicas Act (PADRA) récemment introduit aux États-Unis est une avancée majeure vers une utilisation responsable du contenu généré par l’IA.

Les créateurs qui utilisent des outils d'IA veulent également s'assurer qu'ils peuvent obtenir une protection des droits d'auteur sur leur travail dans cette nouvelle ère. La loi sur le droit d'auteur est conçue pour protéger la créativité humaine. Par conséquent, une production d'IA seule peut ne pas être protégée par le droit d'auteur. Toutefois, nous pensons que la combinaison de la créativité humaine et de l'IA le sera et devrait l'être. Le U.S. Copyright Office a récemment publié des recommandations à ce sujet, concluant que les œuvres créées ou modifiées par des personnes avec l'aide de l'IA peuvent être protégées par le droit d'auteur, mais que les œuvres générées entièrement par un système d'IA ou basées uniquement sur des prompts ne sont pas éligibles. Nous encourageons les gouvernements du monde entier à établir des directives claires sur la manière dont les créateurs peuvent obtenir un droit d'auteur pour leurs œuvres qui intègrent l'IA dans le processus de création.

“Nous partageons tous la responsabilité de veiller à ce que l'innovation en matière d'IA se développe d'une manière qui profite à chacun. Protéger les artistes de l'exploitation commerciale basée sur l'IA est dans notre intérêt à tous. Nous nous engageons à défendre des politiques qui soutiennent les artistes et leur donnent les moyens de se développer à l'ère de l'IA.”

- Karen Robinson, Senior Vice President et Deputy General Counsel, Adobe

La législation peut être un moyen de dissuasion essentiel pour les personnes mal intentionnées et les solutions technologiques peuvent également renforcer les options dont disposent les créateurs. Pour permettre aux créateurs de mieux contrôler l'utilisation de leur contenu, la nouvelle application web Adobe Content Authenticity leur donne la possibilité d'activer des « Content Credentials » afin d'obtenir une attribution pour leur travail et de signaler à d'autres modèles d'IA générative s'ils ne souhaitent pas que leur contenu soit utilisé pour l'entraînement de l'IA.

Lutter contre les dangers des « deepfakes »

Avec les avancées de l'IA, la création et l'édition de contenu sont devenues plus puissantes pour les créateurs et plus accessibles que jamais pour les consommateurs. Malheureusement, le potentiel d’une bonne technologie peut toujours être détourné à des fins mauvaises. Par exemple, la création de deepfakes peut représenter une menace pour la sécurité nationale, semer la confusion, voire influencer le résultat d’élections.

L'un des garde-fous les plus importants à l'ère de l'IA est de s'assurer que nous disposons des bons outils et des bonnes politiques pour lutter contre les deepfakes malintentionnés et les contenus numériques trompeurs. En l'absence d'outils et de normes permettant de se prémunir contre ces menaces, nous risquons de ne plus pouvoir faire la différence entre la réalité et la fiction.

Pour lutter contre les deepfakes et instaurer un climat de confiance et de transparence en matière de contenus en ligne, les gouvernements peuvent s’appuyer sur des standards du marché, comme les Content Credentials, qui font office de « label de provenance » digital. Développés par la Coalition for Content Provenance and Authenticity (C2PA), les Content Credentials sont une norme open source gratuite permettant de fournir des informations de traçabilité du contenu et de préciser si l’IA a été utilisée et, le cas échéant, de quelle manière. In fine, ce label donne toutes les clés aux consommateurs pour accorder ou non leur confiance aux contenus consommés.

La Content Authenticity Initiative (CAI), une initiative intersectorielle lancée par Adobe, compte plus de 4 000 membres dans le monde entier qui s’efforcent de promouvoir le déploiement des Content Credentials. Déjà intégrée aux applications phares d’Adobe (Photoshop, Lightroom, Premiere Pro et Adobe Express), cette technologie est largement adoptée par les membres de la CAI et de la C2PA : Leica, la BBC, l’Agence France Presse (AFP), Google, Microsoft, LinkedIn et, dernièrement, Samsung pour le nouveau smartphone Galaxy S25. Enfin, son adoption à travers tout le cycle de vie d’un contenu contribuera à instaurer un écosystème digital transparent et fiable.

Le rôle des gouvernements est essentiel dans cette démarche pour encadrer l’utilisation de l’IA et exiger des données de provenance pour celles et ceux qui créent, utilisent et distribuent du contenu (fabricants d’appareils photo et de smartphones, réseaux sociaux, sites web d'information et d’actualités, etc.). Ils doivent s’efforcer de mettre cette technologie à la disposition du grand public et s’assurer que les plateformes en ligne et les réseaux sociaux appliquent les Content Credentials sans supprimer les métadonnées associées aux contenus diffusés.

Les gouvernements peuvent également instaurer un climat de confiance avec leurs citoyens en intégrant la technologie de provenance du contenu dans le contenu qu'ils publient. En utilisant les « Content Credentials », ils offrent aux citoyens un moyen de vérifier l'authenticité du contenu qu'ils consultent. Il peut s'agir d'un outil essentiel à actionner lorsque les décideurs politiques ont besoin d'un moyen fiable de communiquer avec le public. Enfin, entreprises, universités et gouvernements doivent absolument travailler ensemble pour sensibiliser le public aux risques des deepfakes et apprendre à utiliser des outils tels que les “Content Credentials”.

Un engagement en faveur d’une innovation responsable

Notre engagement en faveur d’une innovation responsable n’est pas nouveau. Notre approche du développement de l’IA générative repose sur les principes de traçabilité, de responsabilité et de transparence qui régissent notre éthique de l’IA, toujours dans le but de soutenir la communauté créative. Ainsi, lorsque nous avons commencé à développer Adobe Firefly, notre famille de modèles d’IA générative, nous avons décidé de l’entraîner exclusivement sur du contenu pour lequel Adobe dispose d’une autorisation d’utilisation, notamment celui tombé dans le domaine public et les ressources Adobe Stock sous licence.

L’objectif était que Firefly soit utilisable à des fins commerciales sans aucun risque par la communauté créative et les entreprises clientes. À ce jour, Firefly a permis de produire plus de 16 milliards d’images, ce qui prouve qu’il est possible de développer des modèles d’IA générative de pointe sans porter atteinte aux droits des créateurs.

Il convient aussi de préciser que la qualité de l’IA dépend de celle des données exploitées pour l’entraîner et que plus elles sont nombreuses, plus cette technologie gagne en précision et moins elle est biaisée. Alors que les gouvernements du monde entier élaborent leurs stratégies en matière d’IA, il est certain que l’accès à des données de qualité ouvre la voie à une innovation fiable et responsable.

Collaborer pour un avenir responsable de l'IA

Nous sommes à un tournant : la collaboration entre les décideurs politiques, les créateurs, l'industrie et le public sera essentielle pour s'assurer que l'IA accélère la créativité et les opportunités tout en garantissant la mise en place de garde-fous adéquats.

Ainsi, le 11 février, dans le cadre du Business Day du Sommet pour l'action sur l'IA, nous participerons à un échange sur l'adoption des « Content Credentials » pour restaurer la confiance et la transparence à l'ère des médias synthétiques, aux côtés de Microsoft, Google, Imatag, l'AFP et de la députée française Violette Spillebout.

Nous nous réjouissons de poursuivre notre travail avec les gouvernements du monde entier afin que l’IA soit développée et déployée de la bonne manière pour tout le monde.