Évolution de l’animation : du support papier à la diffusion en direct en passant par la 3D

L’animation a énormément évolué ces quarante dernières années. Au départ, les animateurs dessinaient tout sur papier — un processus onéreux et fastidieux.

« Il va sans dire que la quantité de travail requise est impressionnante, en particulier s’il faut produire 24 dessins par seconde », indique David Simons, Senior Principal Scientist, Adobe. « Il faut être très compétent pour parvenir à restituer le mouvement et donner vie à un personnage. »

La première révolution dans le domaine de l’animation s’est accomplie avec les images de synthèse et les techniques numériques afférentes. Pour autant, ces nouveaux outils d’animation n’étaient pas exempts de difficultés : complexes à utiliser, rendu et lecture affectés par une mémoire informatique insuffisante… Aujourd’hui, les choses sont différentes. Avec l’essor de l’animation digitale et les progrès réalisés dans ce domaine, les artistes créent des travaux tout aussi authentiques, mais nettement plus vite.

La technologie, conjuguée à la créativité de l’être humain, a contribué à faire évoluer la technique encore davantage.

Des outils comme Character Animator, sorti en 2015 avec Adobe After Effects, ont accentué la créativité des animateurs et marqué un tournant décisif sur le marché. Avec cette solution, les designers peuvent créer un personnage à partir d’un document multicalque dans Adobe Photoshop ou Adobe Illustrator, l’importer dans une scène Character Animator, réaliser les mouvements du personnage devant une webcam, et créer une scène animée en temps réel.

Le tout permet de créer des personnages attrayants, grâce à l’animation en temps réel de personnes ou d’objets concrets.

Animation en direct à la télévision

Un nouveau chamboulement en matière d’animation est en train de se produire. La diffusion en direct est une nouveauté révolutionnaire de Character Animator. Elle a été testée à une heure de grande écoute en mai 2016 après qu’une équipe des Simpsons ait approché Adobe pour intégrer une séquence en direct à sa célèbre série d’animation.

« Apparemment, ils ont cherché “animation de personnages en direct” sur Internet et sont tombés sur nous », précise David.

L’équipe d’animation des Simpsons voulait créer un épisode en direct mettant en scène Homer Simpson en train de prendre des appels et d’y répondre en direct. Pour cette séquence, Dan Castellaneta, acteur qui prête sa voix au personnage d’Homer, est intervenu en direct tandis que Character Animator opérait la synchronisation labiale et les animations.

« C’était très facile de travailler avec Character Animator. J’ai trouvé cet outil souple et très rapide », indique David Silverman, Consulting Producer des Simpsons. « Tout s’est déroulé sans accroc. »

Character Animator a « joué les vedettes » dans d’autres émissions télévisées également, notamment Chelsea et The Late Show with Stephen Colbert, dans lequel des personnages de dessin animé parodiant Donald Trump et Hillary Clinton se sont invités lors de la campagne présidentielle américaine en 2016.

Katherine Isabelle Weber, Lead Animator pour Chelsea, s’enthousiasme des possibilités offertes par l’utilisation de cet outil sur les réseaux sociaux : « Nous créons énormément de contenu numérique qui ne passe même jamais dans l’émission », explique-t-elle. « Disposer d’un outil comme Character Animator nous permet de multiplier les animations dans l’émission, en créant une identité animée distincte des séquences filmées en direct. »

Character Animator est constamment optimisé. Sa version d’avril 2017, par exemple, simplifie les workflows, affinant encore la précision de la synchronisation labiale, et tirant parti d’une interface optimisée pour les espaces de travail, entre autres.

Cet outil ouvre de nouveaux horizons aux animateurs comme à tous les créatifs. « L’animation est rarement associée à la vitesse et à la simplicité mais Character Animator change véritablement la donne », admet Bill Roberts, Senior Director of Product Management, Adobe. « La réalisation d’une animation traditionnelle de qualité prend énormément de temps. Véhiculer une émotion est aussi complexe que restituer une action ; il ne faut brûler aucune étape dans votre projet de création. »

Le machine learning pour repousser les limites

Le machine learning, concept phare de la sphère marketing, joue également un rôle dans l’animation. Cette forme d’intelligence artificielle permet aux ordinateurs de reproduire l’intelligence humaine et de créer des modèles prédictifs. À mesure que les ordinateurs traitent davantage de données, cette technologie rend l’animation plus intelligente, plus intuitive et plus efficace.

Adobe Sensei, dont les fonctions de machine learning et d’intelligence artificielle sont intégrées à de nombreux produits Adobe, optimise Character Animator de diverses manières. Avec la technologie de synchronisation labiale automatique, par exemple, il écoute une voix et sélectionne automatiquement en temps réel les formes de la bouche adaptées pour animer la marionnette. « Le produit écoute et analyse 66 phonèmes différents — les différents sons dont les propriétés distinctives permettent de distinguer un mot d’un autre —identifie la forme de bouche à répliquer », explique David Simons.

Les possibilités pourraient même évoluer encore davantage sous peu. Project Puppetron, une technologie dévoilée en avant-première à Adobe MAX cette année et basée sur Adobe Sensei, pourrait permettre aux animateurs d’intégrer des styles artistiques à partir de photos de visages. « Grâce à cette fonction d’animation de marionnette optimisée, vous pouvez utiliser une image — ou même une photo de vous — et Puppetron l’adaptera au style graphique de votre choix et l’animera en temps réel, en fonction des expressions de votre visage », précise David.

L’animation faciale stylisée est une autre évolution intéressante de l’animation digitale.

S’appuyant sur une technologie identique à Project Puppetron, ce projet Adobe Research permet d’appliquer des styles (de portraits, en l’occurrence) à des visages filmés en vidéo et d’obtenir des résultats très naturels.

Ces exemples le prouvent, le machine learning permet de conférer davantage de réalisme aux animations, en donnant aux créatifs les moyens de refléter plus facilement le monde réel dans leurs œuvres.

Une approche collégiale de l’innovation

Toutes ces avancées découlent de l’approche collégiale de l’innovation mise en œuvre chez Adobe, d’après David Simons. « Le groupe de développement produits que nous formons est très petit, mais nous travaillons en étroite collaboration avec les spécialistes d’Adobe Research », précise-t-il. « L’effort d’animation portant sur les personnages est né d’une collaboration entre les pôles Research et Advanced Product Development. Ce mode d’innovation porte véritablement ses fruits. »

Nous avons aussi demandé à David Simons quelles avancées pourraient être mises en avant aux « Sneaks » Adobe MAX l’an prochain. « À l’évidence, le full-body tracking », reconnaît David. « Les algorithmes se perfectionnent à un point tel que le tracking du corps tout entier avec une caméra classique devient suffisamment précis pour être utile. »

« À l’avenir, je ne pense pas que l’animation elle-même soit très différente », conclut David. « Il me semble que les véritables changements interviendront au niveau du processus de création, en le rendant plus aisé et plus accessible au plus grand nombre. Ce qui m’intéresse surtout, c’est de donner à tous les moyens de créer des animations qui ont tout des plus traditionnelles, mais qui sont réalisées de manière totalement nouvelle et moderne. »