前回はOpenAIの「Sora2」発表の以前に起きていたAdobeやMicrosoftの動きを追いながら、AI開発の「自前主義」から「外部モデル統合・活用」へと戦略的にシフトしている動きを考察しました。
今回はMetaのAIショート動画生成の新機能発表などにも触れながら、AIモデル開発の「チキンレース」が新しい局面を迎えている状況を捉えていきます。
クリエイティブワークフローの効率化にも直結
📢 Photoshop Beta expands Generative Fill — more AI models, more possibilities! 💫
Try Google’s Gemini 2.5 Flash Image (Nano Banana) + Black Forest Labs’ FLUX.1 Kontext [pro] alongside Firefly, available now in the beta app.Show us your image creation in the comments!
Update… pic.twitter.com/eK1qq16t6D— Adobe Care (@AdobeCare) 2025年10月2日
AdobeはPhotoshopにGoogleの画像生成AI「Nano Banana」、Black Forest Labsの「FLUX.1 Kontext [pro]」を搭載した。
各社の「外部モデル統合・活用」への転換の背景には、いくつかの複合的な要因が考えられます。まず、AIモデル開発のコストとスピードの問題が挙げられます。
最先端の基盤モデルをゼロから開発し、維持するには莫大な計算資源と優秀な研究開発人材が必要です。すべての領域で自社がトップランナーであり続けることは、たとえテックジャイアントであっても極めて困難です。
次に、専門性の問題があります。画像生成、テキスト生成、データ分析など、AIモデルが得意とする分野は多様であり、それぞれの領域で日々新しい技術が生まれています。
ひとつの企業が全ての分野で最高の専門性を持つことは非現実的です。外部の専門性の高いモデルを統合することで、プラットフォーム企業は自社のコア機能に集中しつつ、ユーザーには多様な選択肢と高品質な体験を提供できます。
GoogleのNano BananaやBFLのFLUX.1 Kontext [pro]のような特化した強みを持つモデルを外部から取り込むことで、Adobeは自社リソースを最適化しつつ、迅速に最先端の機能提供を可能にしています。
同様にMicrosoftも、AnthropicのClaudeモデルをCopilotに統合することで、OpenAIへの過度な依存を避け、リスク分散と機能強化を同時に図っています。
自社プラットフォームに外部AIモデルを統合するメリットは、機能拡張や開発リソースの最適化に加えて、ユーザーにとっての利便性向上も大きいと言えます。
ひとつのアプリケーション内で複数の高性能AIモデルをシームレスに切り替えられることは、クリエイティブワークフローの効率化に直結します。
AI開発競争から「価値創造」の競争へ
Today we’re expanding Microsoft 365 Copilot with the addition of Anthropic’s Claude models. Customers can now use both OpenAI and Claude — starting in Researcher and Copilot Studio, and coming to more experiences soon.
Our multi-model approach goes beyond choice. It's all about… pic.twitter.com/IwHQfczs86
— Satya Nadella (@satyanadella) 2025年9月24日
Microsoft 365 CopilotはAnthropicのClaudeモデルを利用している。
しかし、そうした戦略を取ることにはデメリットもあります。自社で開発していないということは、モデルのアップデートや変更に対する自由度を失うことを意味します。
外部モデルの性能や機能が変わるたびに、プラットフォーム側もそれに対応する必要があり、場合によってはユーザー体験に影響を与える可能性もあります。
また、外部モデルは独占できるものではないため、競合他社も同じモデルを利用できる可能性があり、差別化が難しくなるリスクもあります。
外部モデルの採用は自社がサードパーティーになることを受け入れる、という意味でもあります。これはファーストパーティーであるモデルを持つ企業に対して、常に二番手、三番手の立場になることを意味し、価格に対する影響力の低下をも意味します。
Adobe Fireflyにおいてはクレジット制を採用することで実際のコストがユーザーから見えないよう工夫されていますが、ファーストパーティーの企業のモデル提供価格に対して、そこまで高いプレミアを乗せることは難しいであろうことが想像されます。
おそらくAIサービス部分ではほとんど利益を出せない価格設定ではないでしょうか。Photoshop自体のサブスクリプション価格に対して、AIモデル利用料がどの程度影響するのかは不明ですが、AdobeとしてはPhotoshopの価値を高めるための投資と割り切っているのかもしれません。
同じくMicrosoft 365 Copilotも、AnthropicのClaudeモデルを利用することで、OpenAIに対する依存度を下げることができる一方で、Anthropicのモデルが将来的にどのように進化し、価格がどう変動するかについては、Microsoft側でコントロールできない部分があります。これは、長期的なコスト予測やサービスの安定性に影響を与える可能性があります。
生成AIの進化は、AIモデル提供企業、プラットフォーム企業、そして最終ユーザーであるクリエイターの関係性を再定義しています。
プラットフォーム企業は、単にAIモデルを提供するだけでなく、それらを統合し、ユーザー体験を最適化する「オーケストレーター」としての役割を強化しています。
これは、AIモデルそのものの開発競争から、AIモデルをいかに活用し、価値を創造するかの競争へと重心が移っていることを示唆していると言えるでしょう。
クリエイティブの民主化?Metaが突然の「Vibes」発表!
We’re rolling out the next iteration of the Meta AI app, including an early preview of Vibes, a new feed where you can discover and create AI-generated videos.https://t.co/LnQcUqUmOI
— Meta Newsroom (@MetaNewsroom) 2025年9月25日
そんな中、Metaが9月26日(日本時間)に発表した「Vibes」は、AI生成のショート動画を発見、作成、共有するための新しいプラットフォームです。
ユーザーがテキストで指示を与えるだけで、AIが自律的にショート動画を生成します。さらに既存のAIショート動画同士をリミックスすることで、新しいコンテンツを生成できるという実験的な機能も備えています。
VibesはFacebookやInstagramに直接統合されるものではなく、独立したアプリケーションとして提供される予定です。
全ての動画がAI製であること、そしてリミックス機能を備えていることから、Vibesは生成という行為を生産から消費へと意識的にシフトさせる試みであるように感じます。
ユーザーが自分でコンテンツを作るのではなく、AIが生成したコンテンツを消費し、さらにそれをリミックスして新しいコンテンツを作るという、より軽量で参加しやすいクリエイティブ体験を提供します。
これは、クリエイティブの民主化とも言えますし、新しい消費の形態の模索とも言え、賛否両論を呼んでいます。
さて、そんな物議を醸すVibesですが、本稿の趣旨に沿った特徴があるのです。それは、Vibesの裏で動いているAIモデルが、Midjourney、BFLのモデルになりそうだという点です。
発表上は自社のモデルも開発中、としていますが、サービス投入までのスピード感を考えると、外部モデルの採用は当然の選択だったのでしょう。Metaもまた、選択と集中の戦略を取ったと言えます。