“感情に届ける”生成AIのつかい方 | Adobe Firefly Meetup 2025 #1
2025年5月27日、アドビ東京オフィスにてAdobe Firefly Meetup 2025 #1が開催されました。企業内のユーザーが抱える生成AIに関する問題や悩みなどをカジュアルに意見交換できるエンタープライズ向けのイベントです。
ミートアップのテーマは「 “感情に届ける”生成AIのつかい方」。生成AIの活用は「何が作れるか」から「どう心を動かすか」へと主戦場が移りつつあります。技術導入のフェーズを超え、AIをいかに活用して人間の感情に訴えかけ、より深く、より魅力的なコミュニケーションを実現するかを問うことが重要になります。
今回のミートアップは、企業における生成AI活用において、新たな地平を指し示す象徴的なイベントとなりました。
イベント後半には、株式会社テレビ朝日 コーポレートデザインセンター Executive Creative Director / XR Directorの横井勝 氏が登壇し、企業がユーザーの心をつかむための実践的アプローチを披露していただきました。
もくじ
- Adobe Firefly 最新アップデート
- 生成AI最新動向とAdobe Fireflyのベストプラクティス
- エンタメ領域における先端の⽣成AI活⽤と未来
- まとめ
Adobe Firefly 最新アップデート
最初のセッションは、アドビの藤本真弘 氏(カスタマーストラテジー&サクセス統括本部 ストラテジックデベロップメントマネージャー)、熊田正道 氏(エンタープライズ製品戦略部 シニアソリューションコンサルタント)、市毛利幸 氏(カスタマーストラテジー&サクセス統括本部 ストラテジックデベロップメントマネージャー)による「Adobe Firefly 最新アップデート情報」です。4月24日にロンドンで開催された「Adobe MAX London 2025」の製品アップデートからFirefly関連の情報をピックアップして解説。ここではプレゼンテーションの一部をまとめたいと思います。
Adobe MAX London 2025の製品アップデートからFirefly関連の情報をピックアップ
Firefly Image Model 4/Image Model 4 Ultra 登場、Video Modelが正式リリース
Firefly Image Modelがバージョン4および4 Ultraへと進化し、画像生成の品質がさらにプロフェッショナルなレベルに引き上げられました。このアップデートにより、人物、動物、建築といった被写体の描写がより精細になり、「日本人」の表現も向上しています。
また、すでに利用可能になっていた「Firefly Video Model 」が正式にリリースされました。 テキストプロンプトからクリエイティブなイメージ映像を生成したり、指定した写真画像から実写のようなシーンを生成することが可能です。パブリックベータ版から品質も向上しており 、企画段階のプロトタイプだけではなく、最終成果物のBロール素材としても十分利用できるようになりました。
興味深いのは、アドビ以外の生成AIモデルが利用可能になった点です。これは、AIモデルの多様性を前提としたクリエイティブ環境への移行を示唆しています。ユーザーは案件や求めるスタイルに応じてFireflyモデルと外部モデルを切り替え、比較検討することができるようになりました。
大幅に品質が向上した2Kネイティブの画像が生成できるFirefly Image Model 4
Fireflyボード (Beta)
アイデアを迅速に視覚化するための新しいツール「Fireflyボード」がパブリックベータ版として登場しました。 Fireflyボードは、ムードボードやストーリーボード、ブレインストーミングなどの上位工程のクリエイティブ作業を支援するマルチプレイヤー対応のツールです。ムードボードとは、デザインのイメージやコンセプトとなる画像、イラスト、テクスチャなどを1箇所に集め、コラージュして視覚的に表現したもので、プロジェクトの共有にも使われます。
Fireflyボードは、従来の生成AI機能も利用可能。画像生成はもちろん、生成塗りつぶし、生成拡張、背景の削除などを手早く行うことができます。これらの機能により、ユーザーは、Fireflyボードから離れることなく包括的な画像編集作業を完結させることができます。
今後の機能拡張とユーザーフィードバックの反映により、さらなる進化が期待されます。
このセッションは、Fireflyの進化の方向性と企業導入における具体的な活用法を示すものであり、参加者にとって直接的な価値を得られる良い機会となったでしょう。
プランニングワークに最適化された Fireflyボード (Beta)
生成AI最新動向とAdobe Fireflyのベストプラクティス
2つ目のセッションは私(境)が Adobe Community Evangelistという立場で「生成AI最新動向とAdobe Fireflyのベストプラクティス」と題して、 Fireflyを核とした複数の画像生成AIモデルの使い分け、「AIによるプロンプト生成」の最先端事例を解説しました。
複数の画像生成AIモデルの使い分けと「AIによるプロンプト生成」の最先端事例
AIモデルの得意不得意を理解する
現代のクリエイティブ制作において、単一のAIモデルに依存するのではなく、複数のAIモデルを戦略的に使い分ける手法が定着してきました。AIモデルには、学習データやアルゴリズムの違いにより、それぞれ得意とする領域と不得意な領域が存在します。
例えば、「ネクタイを着用していない(もしくはノーネクタイの)男性会社員」という否定プロンプトを入力した場合、大半の画像生成AIモデルでは否定表現を正確に理解できず、ネクタイを着用した人物を生成します。一方、KLING KOLORSやRunway Framesなどの画像生成モデルは、否定プロンプトが効果的に機能し、期待した結果を得ることができます。
つまり、いくら具体的かつ明解なプロンプトを書いても、否定プロンプトが効かないAIモデルでは「無意味」だということが理解できると思います。
複数のモデルを併用することで、それぞれの長所を組み合わせ、単一モデルでは到達困難な、より意図に沿った高品質なクリエイティブを実現できます。同じプロンプトを入力して、Firefly Image Model 4、Flux 1.1 Pro、OpenAI ImageGenといった複数のモデルで比較すると、全く異なるスタイルのイメージが生成されますが、このバリエーションから意図したイメージに最も近いモデルを選択すればより良い結果を迅速に得られます。こちらが望むビジュアルを表現できないモデルで試行錯誤しても、時間や生成クレジットを失うだけではなく、最終アウトプットの品質も低下させることになります。
単一のモデルでは到達できない「意図に沿ったクリエイティブ」を実現するためには、各モデルの特性を熟知し、適材適所で使い分けることが不可欠と言ってよいでしょう。さらに、複数モデルの併用は、制作者自身が思いつかなかった新しいアイデアや表現に触れる機会が増え、創造性の幅が大きく広がるメリットもあります。
複数のモデルを併用すると月々のコストは増加しますが、長期的には「一つのモデルを何度もリトライして品質を担保する手間や時間」を削減できるため、総合的な生産効率はむしろ高まると考えられます。
複数のAIモデルの併用によって創造性の幅が大きく広がる
AIによるプロンプト生成の新たなアプローチ
効果的なプロンプト作成は、その人の知識や語彙力に大きく依存します。被写体や構図、画風、描写スタイルなど多岐にわたる要素を考慮する必要があり、全ての要素を適切に組み合わせることは極めて困難です。 この課題に対する解決策として、AIにプロンプトを生成させるという新しいアプローチが注目されています。
AIは私たちが思いつきにくい無数の専門用語を知識として持っており、被写体や構図、色調、質感、背景構成、全体的な雰囲気など、あらゆる要素を網羅的に言語化することができます。 人間の語彙力より、AIが分析・最適化した方が、より精度の高いプロンプトを生成することができると考えられます。
AIによるプロンプト生成の利点は「圧倒的な語彙力と表現の網羅性」
テキストプロンプト入力からマルチモーダル入力へ
プロンプト入力の根本的な限界については2年ほど前から議論されてきました。プロンプト入力の技術的限界は多岐にわたります。特定の構図やキャラクターのポーズ、オブジェクトの正確な位置関係を「言葉だけ」で厳密に指定することは極めて困難です。
微妙な質感の違いや特定の光の当たり方なども、言葉で正確に伝えるには限界があります。さらに、日本語のプロンプトで指示を出す場合、翻訳の過程でニュアンスが失われる問題も指摘されてきました。結果として大量のプロンプト試行と「ガチャを回す」ような偶然頼みの作業が発生します。テキスト中心の指示には表現の限界と不確実性がつきまとい、クリエイターにとって大きなジレンマとなっていたのです。
これらの課題に対する解決策として注目されているのが、マルチモーダル入力です。テキストによる指示を最小限に抑え、代わりにスケッチ、写真などの視覚的な情報(リファレンス)を主要な指示手段にするアプローチです。 テキストプロンプトへの依存を減らせば、「一か八か」の偶然性に振り回されることが減り、クリエイターが結果を能動的にコントロールできる余地が大きく広がることになります。
Adobe Fireflyは、プロンプトに依存しないユーザーフレンドリーなUIの先駆者として「スタイル参照」や「構成参照」を早期から実装しています。プロンプトの構成要素である「Subject + Scene + Style」のうち、Scene(場所のイメージや構図、被写体のポーズ等)とStyle(画風や色調、全体の雰囲気)はリファレンス画像で指示することができますので、Subject(被写体)についてのみテキストで記述すればよいのです。
例えば、複雑なアクションポーズの人物像も、3DCGツールでポーズを作ってそのスクリーンショットを構成参照にインプットすれば、一発でそのポーズを持った人物画を生成できます。テキストプロンプトで「腕をこう曲げて指はこんな形で…」と言葉で説明するより、ポーズそのものの画像を渡す方が確実です。同様に、スタイル参照に自分好みの画風イメージを与えれば、そのテイストをアウトプットに反映してくれます。
ただ、マルチモーダル入力はプロ仕様のアプローチであり、一般ユーザー向けサービスではここまで手の込んだ操作は敬遠されるでしょう。コンシューマー向けの画像生成は、誰でも簡単に「それっぽい」イメージが生成できる「手軽さ」が重要であり、マルチモーダルよりテキストプロンプトが適しています。作品の完成度や再現性が求められるプロフェッショナルの制作現場とは大きく異なることを理解しておく必要があります。
プロンプトは最小限、画像などの視覚的な情報を主要な指示手段にする
Fireflyは、プロンプトに依存しない「スタイル参照」や「構成参照」を早期から実装
マルチモデルAIプラットフォーム
今後の動向としては、OSやアプリの標準機能としてのAI統合、ビッグテックへの機能収斂、エンタープライズ製品の普及が進むと予測されています。 具体的には、一つのプラットフォームで複数のAIモデルを併用できる「マルチモデルAIプラットフォーム(AIアグリゲータープラットフォーム)」や、タスクに応じて最適なAIモデルを自動的に割り当てたり、複数のAIを連携させて複雑な処理を実行する「AIオーケストレーションプラットフォーム」の登場が期待されています。 Adobe Fireflyも、クリエーター向けAIファーストの統合プラットフォームの役割を担っていくと考えられます。
生成AI技術の進化は止まりません。ただ、その本質は「人間の創造性を拡張するツール」であることに変わりはないでしょう。複数のAIモデルを効果的に活用し、それぞれの特性を理解した上で使い分けることで、これまでにない創造的な表現が可能になるはずです。 Adobe Fireflyが示すマルチモデルアプローチは、その可能性を具現化する第一歩といえます。
1つのプラットフォームで複数のAIモデルを併用して作業を効率化する
エンタメ領域における先端の⽣成AI活⽤と未来
最後のセッションは、テレビ朝日 コーポレートデザインセンター Executive Creative Director / XR Directorの横井勝 氏による「エンタメ領域における先端の⽣成AI活⽤と未来」です。
テレビ朝日 Executive Creative Director / XR Director 横井勝 氏
急速な進化を遂げる生成AIは、エンターテインメントの領域においても新たな可能性を切り拓いています。テレビ朝日の看板番組である「ミュージックステーション」では、生成AIとXR技術を組み合わせた革新的な演出が行われています。 XR効果をリアルタイム処理し、出演アーティストのパフォーマンスと同期させる。視聴者の没入感を飛躍的に高めており、このダイナミズムこそ“ライブ感”の真骨頂です。
制作には PhotoshopやIllustratorなどのデザインツール、Blender、3ds Max、Unreal Engineなどの3DCGツールが使用されていますが、ビジュアルイメージの制作では FireflyやMidjourney、 Kreaなどの画像生成AI、映像化の作業には Runway、 Kling AIなどの動画生成AIが使われています。
私のセッションでも「単一モデルの限界を補完する複数AIの併用」について解説しましたが、まさに複数のAIを連携させた適材適所の実践例ではないでしょうか。
また、生成AIを活用する映像クリエーターにとって、3DCGツールのスキルは、表現の幅を広げる上で重要だということも明らかです。
ドラマのキービジュアル制作においてFireflyが活用された事例は、生成AIを使っているデザイナーの皆さんにとって有益な情報だったと思います。山田太一原作の「終りに見た街」は約20年ぶり、3度目のドラマ化となる作品。そのキービジュアル制作にFireflyが活用されました。興味深いのは、20年前に横井氏がご自身で描いた絵をFireflyのリファレンスとして使用し、新たなキービジュアルを生成したという点です。ノスタルジーと現代性を同居させる魅力的なイメージに昇華されており、表現追求の新たな可能性が見えてきました。
20年前の手描きのイラストをFireflyの参照画像に使用
横井氏が提示した「感情に届ける生成AI活用」には、以下の5つのポイントがあります。
- WHO、WHAT、HOW を明確に、コミュニケーションの設計
- コンテクスト(アート)、ストーリーで見せる
- ライブ感
- 五感MIX - 付加価値
- リアルとXRの融合 →感覚・共感の拡張
これらは単なる技術論ではなく、人の心を動かすコミュニケーション設計の本質を突いていると言えるでしょう。
生成AIによって誰もがアイデアを具現化できるようになった今、求められるクリエイティビティの意味が変わってきました。横井氏は「単に作るだけなら差別化できない。独自の視点が重要」と強調します。その核心にあるのが「WHO、WHAT、HOW」の明確化。「誰に何をどのような方法で伝えるのか」をしっかりと設計しなければ、どんなに技術的に優れた作品を作っても、本来の目的を見失ってしまうのです。
森美術館で開催された「マシン・ラブ」展のワークショップの事例はとても興味深い内容でした。「自分の境界はどこにある」「AIで創造したものは誰のものか」というテーマが設定され、13歳から大人までの多様な参加者が集い、4つのグループに分かれて、自身のアバターを作成したり、Claude(LLM:大規模言語モデル)による物語生成、FireflyとKreaによるビジュアル生成を通じて、1つの物語を共創する体験(全2日のワークショップ)が行われました。
ワークショップで創造された4つの物語は、公式サイトで公開されていますのでぜひご覧になってください。
森美術館「マシン・ラブ:ビデオゲーム、AIと現代アート」展 https://www.mori.art.museum/jp/exhibitions/machine_love/
2025年2月13日から6月8日まで開催されており、現代のテクノロジーとアートの融合を探求する重要な企画展として注目を集めています。
AIと共に想像と創造の境界をめぐるワークショップ(全2日) https://www.mori.art.museum/jp/learning/7813/
求められるクリエイティビティの意味が変わる
まとめ
生成AIは、私たちの創造性を拡張する強力なパートナーであると同時に、「創造とは何か、その価値はどこにあるのか」という根源的な問いを突きつける鏡でもあります。技術の進化の先に見据えるべきは、人の心を動かし、共感を呼ぶ体験の創出であり、その探求こそが、これからのクリエイティブの最前線となるでしょう。
生成AIは人間の創造性を代替するのではなく、拡張するパートナーとしての位置づけが明確になりました。今回のミートアップで示された事例と知見は、この新しいクリエイティブ環境を牽引する指針となるはずです。