アニメーションの進化: 紙、デジタル、3D、ライブストリーミングへ #CreativeCloud


https://blogs.adobe.com/japan-conversations/animation-evolution-paper-digital-3d-live-stream/1800x0-c-default-6/

アニメーションはこの40年で大きく変わりました。もともとアニメーターは紙に描いていましたが、これは時間もコストもかかるプロセスです。

アドビのシニアプリンシパルサイエンティストであるデイヴィッド シモンズ(David Simons)は次のように述べています。「1秒間に24枚もの絵が必要となるアニメーション制作に必要な作業量は、途方もない量であることは明らかです。また、動きを巧みに描き、キャラクターに命を吹き込むためには熟練のスキルが必要です。」

アニメーションにおける最初の革命は、コンピュータ生成画像(CGI)によるデジタルの到来でした。これらの新しいアニメーションツールにも課題はありました。使い方が複雑で、コンピュータのメモリ不足によりレンダリングや再生時間が制限されていました。しかし、状況は一変しました。デジタルアニメーションは急速に進歩しています。現代のアーティストは、デジタル上で、これまで紙に描かれていたものと同じくらい美しい作品をはるかに短時間で制作することができます。

テクノロジーと人間の創造性との融合は、メディアのさらなる進化に貢献しました。

Adobe After Effectsの一部として2015年にリリースされたCharacter Animatorは、アニメーターの創造性を高めただけでなく、重要な業界マイルストーンを築きました。Character Animatorによりデザイナーは2Dキャラクターに命を吹き込むことができます。プロのアニメーターやデザイナーは、Adobe PhotoshopAdobe Illustratorでレイヤー分けしたキャラクターを作り、これをCharacter Animatorのシーンに取り込み、キャラクターの動きをWebカメラの前で演じて、リアルタイムでアニメーション化することができます。

アニメーターは、自分の表情をキャラクターに反映させ、現実の世界により近いアニメーションを作ることができます。

Character Animatorは、Webカメラを使って、つり上げた眉毛や唇の動きなどの顔の表情だけでなく、頭の動きを追跡します。また、PCのマイク機能を使って声を録音します。アニメーター、俳優など、Webカメラの前にいる人が驚いたり、楽しんだり、怒ったりすると、キャラクターも同じように動きます。繊細な表情もすぐに反映され、簡単なキーボード操作で録音した会話や他のアクションと組み合わせることができます。

現実とリアルタイムの要素をアニメーションに取り入れることで、より魅力的なキャラクターを作成できます。

TVでのライブアニメーション

アニメーションの次の波はすぐそこまで来ています。ライブストリーミングは、Character Animatorの革新的な新機能です。アドビは『ザ シンプソンズ』制作チームからその人気番組の生放送制作を提案され、Character Animatorが2016年5月の放送で注目を集めました。

『ザ シンプソンズ』制作チームはAdobe Character Animatorを使って、3分間の生放送を実施しました。

デイヴィッドは次のように述べています。「制作チームは『ライブキャラクターアニメーション』というキーワードをオンラインで検索してアドビを見つけたようです。」

『ザ シンプソンズ』のアニメーションチームは、リアルタイムで電話に答えるホーマー シンプソンを主役とした生放送の回を作成したいと考えていました。

番組初となる生放送で、ホーマーはその日の出来事について語り、ファンから寄せられた質問に直接答えました。ホーマーの声を担当するダン カステラネタ(Dan Castellaneta)がライブでパフォーマンスを披露し、Character Animatorがリアルタイムのリップシンクとキーボード操作によるアニメーション制作の実現を支援しました。

『ザ シンプソンズ』のコンサルティングプロデューサーであるデイヴィッド シルヴァーマン(David Silverman)氏は次のように述べています。「Character Animatorは非常に扱いやすいツールでした。柔軟性があり、処理も速かったです。すべてが完璧に進みました。」

Character Animatorは、Netflixのオリジナルトーク番組「Chelsea」や人気トーク番組「The Late Show with Stephen Colbert」などの他のTV番組でも主役になりました。アニメ化されたドナルド トランプやヒラリー クリントンが、2016年米国大統領選挙期間中の「The Late Show with Stephen Colbert」に出演しました。

「Chelsea」のリードアニメーターを務めるキャサリン イザベル ウェーバー(Katherine Isabelle Weber)氏は、このツールをソーシャルメディアで使用する可能性について高い関心を示しています。

キャサリンは次のように述べています。「私たちは放送されることのないデジタルコンテンツを大量に作っています。Character Animatorのようなツールは、楽しいキャラクターを使って直接視聴者に語りかけることができる点が素晴らしいと感じています。また、番組により多くのアニメーションを取り入れることができ、実写コンテンツとは別のデジタルアニメーションアイデンティティを提供します。」

Character Animatorは絶えず進化しています。一例を挙げると、2017年4月版リリースでは、ワークフローが簡素化され、ユーザーは動的な全身歩行アニメーションの作成、リップシンクの精密な調整、および改善されたワークスペースインターフェイスの利用が可能になります。

アニメーターとすべてのクリエイターに影響を与える変化です。

アドビの製品管理担当シニアディレクターであるビル ロバーツ(Bill Roberts)は次のように述べています。「アニメーションは、時間と手間がかかるものだと考えられてきました。従来のアニメーション制作手法では、納得のいく仕上がりを得るまでに多くの時間を要します。感情の表現や動きを伝えることは難しく、急いでデザインをすると大事な『間』が台無しになるリスクもあります。Character Animatorはアニメ制作の現場において革新的なツールです。」

機械学習が不可能を可能に

2017年のマーケティングバズワード「機械学習」は、アニメーションの分野でも重要な役割を担っています。機械学習は、コンピュータに人間の知能を真似させ、予測モデルを作る人工知能(AI)のひとつの形態です。このテクノロジーでは、コンピュータがデータをより多く取り込むほど、アニメーションはよりインテリジェントに、直感的に、効率的になります。

Adobe Senseiは、多くのアドビ製品に統合された機械学習とAIの機能であり、Character Animatorにも組み込まれています。たとえば、自動リップシンク技術では、音声を聞き、正しい口の形をリアルタイムで自動的に選択して、キャラクターのアニメーションを作成します。

デイヴィッドは次のように述べています。「このプロセスには機械学習が使われています。この製品は、66種類の音素(単語を区別するさまざまな音)を聞き分け分析し、再現する口の形を割り出します。」

アドビの継続的なイノベーションにより、アニメーションは見る人を楽しませ、引き付けます。

これらの機能はすぐにさらなる進化を遂げます。今年のAdobe MAXのSneaksで紹介された、Adobe Senseiのインテリジェントサービスを活用しているProject Puppetronでは、アニメーターはアートスタイルと顔の写真を統合できます。これにより、アニメーターは、Character Animatorですぐに使用できるパペットを作成することができます。

デイヴィッドは次のように述べています。「Project Puppetronは、Adobe Senseiテクノロジーを使用して、アートスタイルを自動的に選択し、他の顔に適用します。Project Puppetronにより改善されるパペットアニメーションでは、自分の顔写真などのサンプル画像も使用可能です。画像や写真は、好みのグラフィックスタイルに合わせて調整され、表情に合わせてアニメーションがリアルタイムで作成されます。」

Stylized Facial Animationは、デジタルアニメーションにおけるもう1つの素晴らしい進歩です。Project Puppetronと同じテクノロジーを使用して、入力スタイル(現在は顔)を自然な見た目でビデオに適用できます。

これらの例が示すように、機械学習はアニメーションの見た目や雰囲気をより現実に近づけることができるので、クリエイターはこれまでよりも簡単に現実の世界をアートに反映させることができます。

イノベーションに対するチームでのアプローチ

これらのすべての進歩はアドビにおけるイノベーションへのチームでの取り組みの結果、実現しました。

デイヴィッドは次のように述べています。「私の所属する製品開発グループは非常に小規模ですが、Adobe Researchのスタッフと密接に協業しています。すべてのキャラクターアニメーションの作業は、Adobe Researchと最新プロダクト開発チームとのコラボレーションがきっかけで生まれました。チームとの協業はイノベーションのための有意義な手段です。」

こうしたコラボレーションの結果、2018年のAdobe MAXのSneaksではどのような新技術が発表されるのでしょうか。

デイヴィッドは「フルボディトラッキングの研究が進んでいます。これらのアルゴリズムは、一般的なカメラでもフルボディトラッキングができるほど、精度が向上しています。今後、アニメーションそのものの見た目が大きく変わるかはわかりません。しかし、クリエイティブのプロセスは、より多くの人がより簡単に利用できるように変化していくと思います。私は、より多くの人が新しく現代的な方法で従来のアニメーションを制作できるようにすることに高い関心を寄せています。」と述べています。

アドビ35周年を記念したイノベーションに関するブログ連載はこちらからご覧いただけます。

この記事は、2017/12/11にポストされた_Animation Evolution: From Paper to Digital to 3D to Live Stream_を翻訳したものです。