はOpenAIの「Sora2」発表の以前に起きていたAdobeやMicrosoftの動きを追いながら、AI開発の「自前主義」から「外部モデル統合・活用」へと戦略的にシフトしている動きを考察しました。
今回はMetaのAIショート動画生成の新機能発表などにも触れながら、AIモデル開発の「チキンレース」が新しい局面を迎えている状況を捉えていきます。
クリエイティブワークフローの効率化にも直結
Photoshop Beta expands Generative Fill — more AI models, more possibilities!
Try Google’s Gemini 2.5 Flash Image (Nano Banana) + Black Forest Labs’ FLUX.1 Kontext [pro] alongside Firefly, available now in the beta app.Show us your image creation in the comments!
Update… pic.twitter.com/eK1qq16t6D— Adobe Care (@AdobeCare) 2025年10月2日
AdobeはPhotoshopにGoogleの画像生成AI「Nano Banana」、Black Forest Labsの「FLUX.1 Kontext [pro]」を搭載した。
各社の「外部モデル統合・活用」への転換の背景には、いくつかの複合的な要因が考えられます。まず、AIモデル開発のコストとスピードの問題が挙げられます。
最先端の基盤モデルをゼロから開発し、維持するには莫大な計算資源と優秀な研究開発人材が必要です。すべての領域で自社がトップランナーであり続けることは、たとえテックジャイアントであっても極めて困難です。
次に、専門性の問題があります。画像生成、テキスト生成、データ分析など、AIモデルが得意とする分野は多様であり、それぞれの領域で日々新しい技術が生まれています。
ひとつの企業が全ての分野で最高の専門性を持つことは非現実的です。外部の専門性の高いモデルを統合することで、プラットフォーム企業は自社のコア機能に集中しつつ、ユーザーには多様な選択肢と高品質な体験を提供できます。