クラウドネイティブコンピューティングは、AI推論ワークロードの急速な増加に支えられ、急成長期を迎えています。アトランタで開催されたKubeCon North America 2025では、クラウドネイティブコンピューティング財団(CNCF)プロジェクトのリーダーたちが、今後18ヶ月間で、AIを活用したクラウドネイティブへの新たな支出は数千億ドルに達すると予測されています。これは、クラウド時代の幕開け以来、最も重要なインフラ変革の一つと言えるでしょう。.
AI推論は今や、企業におけるAI導入の原動力となっています。CNCFのエグゼクティブディレクター、ジョナサン・ブライス氏は、推論こそがAIが「知性を世界と繋ぐ」場であると強調しました。これにより、GPT-5.1のようなモデルが、アプリケーション、エージェント、そしてビジネスシステムで利用されるリアルタイムサービスへと進化します。.
最先端のモデルの学習コストは非常に高く(GPT-5の学習実行回数は1兆6兆10億回近くと推定されています)、CNCFは組織に対し、より小規模で微調整されたオープンソースモデルを優先し、推論を通じてその価値を拡大するよう促しています。この変化により、KServe、NVIDIA NIM、Parasail.io、AIBrix、llm-dといったクラウドネイティブな推論エンジンの需要が高まっています。これらのプラットフォームは、コンテナとKubernetesを用いたAIワークロードのデプロイと管理に最適化されたプラットフォームです。.
特殊な推論プラットフォームの主な利点は次のとおりです。
- 運用コストの削減
- より高速なドメイン固有のパフォーマンス
- 希少なハイエンドGPUへの依存度の低下
- プライバシーとオンプレミス制御の向上
CNCFのリーダーたちは、クラウドネイティブ開発とAIネイティブ開発の融合について説明し、KubernetesはGPUとTPUを大規模にサポートするように進化していると述べた。CNCFはまた、 認定された Kubernetes AI 適合プログラムにより、AI ワークロードが環境間で実行される方法が標準化され、最新のクラウド アプリと同様の移植性と信頼性が確保されます。.
AI に最適化された「ネオクラウド」(AI のトレーニングと推論専用に構築された GPU サービス プロバイダー)の台頭は、クラウド市場の再編をさらに示唆しています。.
推論ワークロードが急速に増加している(Googleは現在、毎月1.33京トークンを処理している)ため、CNCFは、拡張可能でコスト効率の高いAIインフラストラクチャに対する企業の需要がクラウドネイティブを推進すると予測している。 コンピューティングはこれまでで最も強力な成長サイクルに入ります。.
ソース:

