記事の概要
アカマイ・テクノロジーズは、AIワークロードの遅延を軽減するために「Akamai Inference Cloud」を発表しました。
このサービスは、従来のコアデータセンターからユーザーに近いエッジでAI処理を実行することを目指しています。
Davy Chen氏によると、この移行によりAI応答の遅延を最小化し、自動運転やドローンなどのリアルタイム性が求められるアプリケーションに対応可能になります。
初期のGPU配備はグローバルで約20拠点で行われ、日本でも2025年から東京でテストが開始されます。
今後、配備拠点が増えることで、AI推論の性能向上が期待されており、Akamaiは4段階にわたるアーキテクチャの進化を計画しています。
これは、ユーザーに近いエッジ拠点の利点を最大限に活用し、高性能なAI処理を実現するための取り組みです。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ZDNET Japan
アカマイ・テクノロジーズは、「Akamai Inference Cloud」を発表した。従来コアデータセンターで実行され…
https://japan.zdnet.com/article/35240025/