Le rôle d’Adobe dans l’intégrité électorale

La puissance et les promesses de l’intelligence artificielle sont chaque jour plus prégnantes. Chez Adobe, nous avons la conviction que l’IA a le pouvoir de stimuler et de démocratiser la créativité afin de transformer la façon dont nous nous divertissons, travaillons et apprenons. Grâce à des modèles d’IA générative fondateurs tels que notre propre Adobe Firefly, nos rêves peuvent devenir réalité.

Le potentiel d’une bonne technologie peut hélas être détourné à de mauvaises fins. Nous avons tous et toutes été victimes d’images, de pistes audio et de vidéos truquées au moyen de l’IA, insidieusement glissées dans notre quotidien. Qu’il s’agisse de nuire à la réputation d’un candidat ou d’une candidate à une élection, de commettre une fraude financière sophistiquée ou d’infliger délibérément une souffrance morale, nous ne sommes pas à l’abri de douter de ce que nous voyons et entendons en ligne.

Ce phénomène est lourd de conséquences pour la démocratie. Comme nous l’avons vu récemment avec l’intervention générée par l’IA du président Biden, utilisée pour détourner les électeurs et les électrices des urnes dans l’État du New Hampshire, même le plus mauvais trucage numérique peut semer la confusion. Le danger des deepfakes n’est pas tant la déception qu’ils provoquent que le doute qu’ils instillent une fois la déception passée. Dès lors que nous savons que ce que nous voyons et entendons en ligne n’est pas forcément fiable, notre confiance globale baisse. L’enjeu n’a jamais été aussi important qu’en 2024, avec plus de quatre milliards d’électeurs et d’électrices amenées à participer à plus de 40 élections à travers le monde. Les faits sont plus déterminants que jamais, et par conséquent, il est crucial de rétablir la confiance à l’égard du contenu en ligne.

Je suis donc ravi qu’Adobe participe, aux côtés d’entreprises partageant la même vision, à l’Accord pour lutter contre l'utilisation trompeuse de l'IA lors des élections de 2024 (Tech Accord to Combat Deceptive Use of AI in 2024 Elections). Nous rejoignons des signataires comme Google, Microsoft, Meta, TikTok, OpenAI, IBM, Amazon et Anthropic, entre autres, à Munich afin de sceller cet engagement à prendre des mesures concrètes et immédiates pour renforcer l’intégrité électorale. Avec ce groupe d’entreprises, sans oublier les nombreuses parties prenantes de la société civile et des gouvernements participants, nous espérons pouvoir donner aux gens un contexte critique sur les choses qu’ils voient et entendent en ligne pour ainsi, restaurer la confiance vis-à-vis du contenu numérique.

Les mesures exposées dans cet accord sont importantes et exhaustives. Chez Adobe, nous nous réjouissons de cette volonté collective de développer et de mettre en œuvre des solutions technologiques telles que la provenance, l’ajout de filigranes et des outils de classification pour authentifier et fournir des métadonnées sur le contenu généré par l’IA. La transparence est un gage de confiance, et la création d’une chaîne d’authenticité du contenu de bout en bout contribuera à limiter les possibilités de manipulation pernicieuse du contenu en donnant de la crédibilité aux intentions honnêtes. Face aux deepfakes et aux fausses informations susceptibles d’inonder le web, si nous donnons aux bonnes personnes les outils nécessaires pour prouver ce qui est vrai, le public aura un moyen vérifiable de distinguer la réalité de la fiction.

Par ailleurs, nous soutenons résolument les engagements de l’Accord visant à sensibiliser le public au travers de campagnes d’information sur les risques des hypertrucages et la manière de s’en protéger, une mesure importante à prendre collectivement. Nous pensons que la principale disposition pouvant être mise en place immédiatement pour prévenir le risque de deepfakes relève des médias. Le public doit savoir que nous ne pouvons pas croire tout ce que nous voyons et entendons en ligne, et disposer d’outils pour démêler le vrai du faux.

Cet accord est le fruit de plusieurs années de travail témoignant de l’implication d’Adobe en matière d’innovation responsable. Adobe, qui compte parmi les leaders mondiaux des outils de création de contenus numériques, s’est inquiété des dangers causés par la manipulation les médias, et ce bien avant l'apparition des premiers deepfakes sur Internet. En 2019, nous avons fondé la Content Authenticity Initiative (CAI) qui réunit des entreprises technologiques, des médias, des ONG, des universitaires et autres acteurs pour développer conjointement une solution basée sur la transparence et la provenance. Ensuite, avec un groupe d’entreprises partageant nos valeurs, nous avons cofondé la Coalition for Content Provenance and Authenticity (C2PA), l’organe de normalisation à l’origine de la spécification technique ouverte relative à la provenance du contenu, baptisée Content Credentials. Cette dernière est rapidement devenue la norme en matière d’implémentation de la provenance comme label d’origine du contenu numérique. Rien que ce mois-ci, nous avons eu le plaisir de découvrir les annonces d’OpenAI, de Meta et de Google, qui se sont engagés à adopter la norme C2PA pour accompagner le contenu généré par l’IA d’informations de traçabilité, entre autres efforts d’indication de la provenance.

L’Accord donne une priorité sans précédent à l’effort global et mondial de lutte contre la désinformation. Veiller à ce que l’IA tienne ses promesses et démontre tout son intérêt doit être un effort collectif.