L’innovation responsable à l’ère de l’IA générative
Image générée avec Adobe Firefly
L’IA générative bouscule notre conception de la créativité. Saisissez “Rendu 3D d’un dragon en papier, dans un style photo réalisée en studio” et vous voilà avec différentes variations créatives d’un dragon en origami ! Vous pouvez également rédiger un simple prompt au cours d’une discussion avec un chatbot pour avoir un email marketing prêt à l’emploi. La réalité est ici ; il est simple de percevoir toute la puissance que peut apporter cette technologie aux créateurs et aux marques.
Ainsi l'IA générative permet aux créateurs de peindre avec du texte plutôt qu'avec des pixels (ou de la peinture). Pour les entreprises, cette dernière permet de communiquer facilement avec ses clients grâce à des textes, des e-mails et des contenus générés automatiquement. Si l’IA générative se développe et s’intègre de la meilleure manière qu’il soit, elle apporte plus de précision, de rapidité et de facilité aux workflows existants. Ainsi, l’IA générative permet aux individus de se concentrer sur des aspects plus stratégiques ou créatifs de leur travail.
Dans cet article :
- L’éthique et la responsabilité : un socle robuste
- La transparence : un facteur de confiance
- Les créateurs : un choix à respecter
- Une nouvelle aventure à construire ensemble
L’IA générative pose de nouvelles questions d’éthique et de responsabilité dans une ère marquée par le développement constant du digital. Si Adobe joint d’autres acteurs sur l’utilisation et le développement du potentiel de cette nouvelle technologie, il est essentiel de construire et d’élaborer un cadre commun pour garantir une utilisation responsable.
L’éthique et la responsabilité : un socle robuste
Toute entreprise qui crée des outils d’IA générative doit commencer par mettre en place un cadre éthique en matière d’IA. Le développement de principes éthiques clairs et concis, et l’adoption d’un processus d’évaluation sont essentiels pour le bon développement de technologies d’IA - notamment générative - ainsi que l’emploi de méthodes respectueuses des utilisateurs et des valeurs d'entreprise. Même si nous parlons aujourd’hui d’automatisation et d’intelligence artificielle, lorsqu’il s’agit de formation et de test – il est nécessaire d’impliquer l’humain pour superviser.
L’IA générative, comme les autres formes d’IA, tirent leur qualité et leur pertinence des données sur lesquelles elles sont entrainées. Pour éviter des résultats indésirables, il est nécessaire de construire et d’entrainer l’IA sur des ensembles de données inclusifs. À titre d’exemple, le premier modèle Adobe Firefly est entrainé sur les contenus Adobe Stock, les contenus sous licence libre et contenus du domaine public dont les droits d’auteur ont expiré. Entrainer son modèle d’IA générative sur des ensembles de données sélectionnés et diversifiés confère à votre modèle un avantage concurrentiel lorsqu'il s'agit de générer des contenus à usage commercial.
Toutefois, la question ne se limite pas aux données entrantes d’un modèle, mais se réfère également aux résultats. Même si des données sont considérées comme recevables, il est toujours possible de se retrouver avec une IA biaisée, qui, involontairement, discriminera, dénigrera ou dévalorisera des individus. Il est alors essentiel de mettre en place des phases de tests continues. Chez Adobe, et sous la direction de notre équipe dédiée aux questions d’éthique en IA, nous testons continuellement nos modèles afin de vérifier leur sécurité et leur partialité. Des résultats qui sont transmis aux équipes d’ingénieurs afin de résoudre les éventuels conflits. En outre, nos fonctionnalités d’IA sont dotées de mécanismes automatiques pour récupérer et partager les feedbacks, les utilisateurs peuvent signaler les problèmes afin que nous puissions prendre les mesures nécessaires. Un dialogue utilisateur-outil qui doit être favorisé par les entreprises pour créer une IA générative représentative.
Au-delà de la formation, les entreprises peuvent intégrer diverses mesures techniques pour améliorer l'éthique de leurs solutions. Des listes de blocage et de refus, des classificateurs NSFW peuvent être mis en œuvre pour atténuer les résultats indésirables d'un modèle d'IA. Si une entreprise n'est toujours pas satisfaite du résultat, elle peut toujours exiger la présence d'un humain dans la boucle pour s'assurer que le résultat répond à ses attentes.
Dans le cadre où l’entreprise intègre au sein de ses workflows une IA générative basée sur un modèle d’une tierce partie, il est essentiel de s’assurer que le cadre éthique de l’IA répond aux normes appliquées par l’entreprise et doit intégrer le processus de gestion des risques lié à la sélection des fournisseurs.
La transparence : un facteur de confiance
Il faut également faire preuve de transparence concernant le contenu généré par les modèles d’IA générative. Reprenons l’exemple précédent en remplaçant le dragon par le discours d’une personne influente sur la scène mondiale. L’IA générative suscite des inquiétudes quant à sa capacité à générer un contenu convaincant dans un univers digital où la désinformation est monnaie courante. Avec la multiplication du contenu généré par l’IA, apporter une preuve de la véracité et de l’authenticité de ce dernier devient un enjeu stratégique.
La traçabilité, la transparence et l’authenticité des contenus chez Adobe sont des sujets prioritaires. Les créateurs ont la possibilité d’associer facilement à leurs contenus des informations clés sur le contenu : nom, date de création, applications utilisées, etc. Qu’importe la destination et l’utilisation du contenu, ces informations sont toujours disponibles.
Étant à l’initiative de la Content Authenticity Initiative (CAI), Adobe s’engage à créer une norme commune mondiale pour l'authenticité des contenus numériques. Avec plus de 900 membres dans le monde, la CAI est une initiative de poids.
Plus important encore, il est essentiel d’indiquer lorsqu’un contenu a été généré ou modifié par une IA générative. Ainsi les utilisateurs et le grand public connaissent précisément les détails de création du contenu qu’ils regardent.
Image générée avec Adobe Firefly
Les créateurs : un choix à respecter
Les créateurs à travers le monde sont partagés : certains acceptent de voir leurs contenus intégrer des modèles d’entrainement d’IA génératives, et d’autres ne veulent pas en entendre parler. Un choix à respecter, et sur lequel nous nous engageons par la création d’une mention “Ne pas entrainer” pour les créateurs qui ne souhaitent pas voir leurs contenus entrainer l’IA générative. Cette option est associée de façon permanente aux contenus, quelle que soit la plateforme sur laquelle il est publié, utilisé ou enregistré. Une mention que nous souhaitons universelle afin de préserver le choix des créateurs face à toutes les IA génératives. Une approche qui s’inscrit également dans notre réflexion quant à la rémunération des créateurs, construire ensemble une IA générative qui respecte et permet aux créateurs de faire valoir leurs compétences est essentiel pour nous.
Une nouvelle aventure à construire ensemble
Nous nous trouvons aux balbutiements de l’IA générative, et si la technologie progresse chaque jour il est certain que nous rencontrerons de nouveaux défis. Les communautés de créateurs, les gouvernements et les entreprises du secteur privé doivent travailler ensemble afin de construire un cadre commun dans lequel évoluer. En partageant de bonnes pratiques et en adhérant à des standards communs en matière de développement responsable, nous avons le pouvoir d’exploiter tout le potentiel de l’IA générative et, ensemble, créer un univers digital plus sûr.