Seedance 2.0、お預けの後日談
以前の記事で書いた、ByteDance社(TikTok親会社)のAI動画生成モデル「Seedance 2.0」の「お預け」状態が、わずか1カ月で解けていました。先にこの続報を短く置いてから、本論のAdobeに移ります。
「Seedance 2.0」を搭載した、ByteDanceの動画編集アプリ「CapCut」が日本でも使えるように。
以前の記事では、Sora終了とSeedance 2.0海外展開凍結の対比を取り上げ、Seedance 2.0について「日本から真っ当な手段ではアクセスできない、お預けを食らったまま」と書きました。ところが4月末時点では、この前提がほぼひっくり返っています。
3月15日に発表されたのは、初期版Seedance 2.0の海外展開を一時停止するアナウンスでした。これが前回書いた「凍結」の中身です。それから約10日後の3月26日、ByteDanceは実在人物の顔ブロック、C2PA準拠の不可視ウォーターマーク、IPフィルター、サードパーティ・レッドチーミングといった安全機能を装備した「Dreamina Seedance 2.0」を、ByteDanceの動画編集アプリ「CapCut」に統合するという形で再ローンチしました。
3月31日にはCapCutが日本にも展開、4月に入るとByteDance自身の海外向けエンタープライズAPI(BytePlus ModelArk)、Higgsfield AI、fal.ai、Replicate、Freepik、Runwayといった統合プラットフォームが立て続けに動き出し、日本のユーザーからも触れる状態になっています。
3月の「凍結」は撤退ではなく、安全機能装備までの約10日間の中断と、その後の経路分散を組み合わせた配布アーキテクチャの再設計だった、というのが現時点で見える構図です。お預けは、ほぼ解けていたわけです。
著作権・地政学リスクの議論は別途生きていますが、本稿の主題ではありません。ここでは「3月時点で書いた『お預け』前提が、4月末には逆転している」事実だけを、続報として置いておきます。
ここから本論、Adobeの4月発表ラッシュに入ります。
4月、Adobeから矢継ぎ早に届いたもの
4月15日に公開されたブログ「Introducing Firefly AI Assistant」。
2026年4月のAdobeは、発表ラッシュでした。
4月15日にAdobe blogが「Introducing Firefly AI Assistant」と「Adobe extends leadership in video」の2本を同時公開し、Premiere Pro 26.2は翌16日にリリース。27日にはFirefly AI Assistantのpublic betaが開放されました。
/
🆕Adobe Firefly AIアシスタントの
パブリックベータ版をリリース✨
\Adobe Firefly AIアシスタントを使えば、
自分の言葉で説明するだけで
企画書からムードボードを作成したり
プロフィール写真を一括で
洗練させることが可能に!画像をタップしてチェック👇https://t.co/1uSoAymE7R
— アドビ クリエイティブ クラウド (@creativecloudjp) 2026年4月30日
とどめが28日、AnthropicがClaude向けの「Adobe for creativity」connectorを発表しています。これに、4月18日から22日にLas Vegasで開催されたNAB 2026での会場デモも重なります(※1)。半月足らずで、4つの大きな打ち手です。
メディアの見出しには「クリエイティブ・エージェント時代の到来」「30+モデル統合」「クロスアプリ・オーケストレーション」が並びました。NVIDIAのGTC 2026(3月16日)でのAdobe Firefly Foundry発表(※2)、さらにそれに先立つ2025年11月の Project Graph 発表(※3)とも繋がる、Adobeのここ半年のAI攻勢の流れに位置づけられます。業界の温度は、かなり上がっています。
ただ、4月15日のAdobe blogと同日のプレスリリースを丁寧に読むと、戦略の方向を示す言葉が目に留まります。
“orchestrates and executes complex, multi-step workflows across Adobe’s Creative Cloud apps, including Firefly, Photoshop, Premiere, Lightroom, Express, Illustrator and more”
“Adobe will also bring this new way of creating with Adobe apps to leading third-party AI models including Anthropic’s Claude, enabling creators to access the best of Adobe directly”
前者を訳すと「Firefly、Photoshop、Premiere、Lightroom、Express、Illustrator などAdobe の Creative Cloud アプリ群を横断する、複雑な複数ステップのワークフローをオーケストレーション・実行する」、後者は「Adobeアプリで作るこの新しい方法を、AnthropicのClaudeをはじめとする主要サードパーティAIモデル群にも届け、クリエイターがAdobeのベストに直接アクセスできるようにする」となります。
前者は機能の説明ですが、後者には立ち位置の宣言が入っています。Adobeのベストを、自社のUIではなくClaudeなど他社のAIから直接使える形で開放する、ということです。
Photoshop や Premiere といった個別アプリ単位で稼ぐ古典的なモデルから、複数アプリと他社AIを束ねる連結層、つまり「バックエンド」として稼ぐモデルへの構造転換、と読めます。
自社のUIで顧客を抱え込む経済モデルから、他社のUIからも呼ばれる側へ回る経済モデルへの組み替え、と言い換えてもいいと思います。これがどれだけ腹を括った選択かは、本稿でのちほど見ていく決算説明会での発言と並べて初めて見えてくるところです。
広告制作の現場から見ても、これは画期的な発表ではあるのですが、それ以上に覚悟が滲む表明として響くものでした。
本稿では、この一連の発表が何を意味し、なぜそうしたのか、現場にとって何を示すのかを、4月29日時点で公式に確認できる範囲の事実から、丁寧に分解してみたいと思います。
※1: NAB 2026(National Association of Broadcasters Show、放送機器・映像制作業界の大型展示会)では、Anton Knoblach氏らによるFirefly AI Assistantの実機デモが披露され、現地レポートとしてはCineDの記事が比較的詳しく追っています。本稿では4月15日のAdobe blog 2本の戦略宣言を主軸に置くため、NAB 2026の個別デモには深入りしません。
※2: NVIDIA GTC 2026での発表は、Adobe Firefly Foundry(enterprise向けカスタムAI)、Agent ToolkitやNemotronによるAgentic Workflows、Omniverseを使った3D Digital Twinなど、エンタープライズ向けの足場固めが主軸でした。本稿の主題からは少し外れるため脚注に逃がしますが、4月の発表ラッシュの直前に「外部資本・技術との同盟」という戦略動作があった点は押さえておきたいところです。
※3: Project Graphは2025年11月25日にAdobeが発表したノードベースのビジュアル・ワークフロー編集環境で、複数のAIモデルとAdobeツールを視覚的に接続して独自の制作ワークフローを設計・パッケージ化できる構想です。本稿執筆時点では「coming soon」段階で事前登録受付中。Firefly AI Assistantの自然言語オーケストレーションと、Project Graphの視覚的オーケストレーションが両建てで進んでいる、という大きな絵を押さえておきたい場合の補助線です。

