注目キーワード

アカマイ、インターネットエッジのGPUでAIワークロードの遅延を軽減 – ZDNET Japan

アカマイが発表した「Akamai Inference Cloud」は、AIワークロードの遅延を軽減し、ユーザー近くで処理を行うことでリアルタイム性を向上させます。
これにより、自動運転やドローンなどのフィジカルAIがさらに進化し、社会全体への影響が期待されます。
未来のAIインフラの形が見えてきます。

記事の概要

アカマイ・テクノロジーズは、AIワークロードの遅延を軽減するために「Akamai Inference Cloud」を発表しました。
このサービスは、従来のコアデータセンターからユーザーに近いエッジでAI処理を実行することを目指しています。
Davy Chen氏によると、この移行によりAI応答の遅延を最小化し、自動運転やドローンなどのリアルタイム性が求められるアプリケーションに対応可能になります。
初期のGPU配備はグローバルで約20拠点で行われ、日本でも2025年から東京でテストが開始されます。
今後、配備拠点が増えることで、AI推論の性能向上が期待されており、Akamaiは4段階にわたるアーキテクチャの進化を計画しています。
これは、ユーザーに近いエッジ拠点の利点を最大限に活用し、高性能なAI処理を実現するための取り組みです。

記事のポイント

  1. AIワークロードの遅延軽減: Akamai Inference Cloudは、AIワークロードをユーザーに近いエッジで処理することで、応答遅延を最小化します。
  2. 最新世代のGPU配備: 東京リージョンに配備されるNVIDIA RTX PRO 6000により、推論性能が最大6倍向上し、様々なAI用途に対応します。
  3. グローバルな分散ネットワーク: 4200以上のPoPを活用した独自のインフラにより、AIワークロードの実行プラットフォームとしての新たな可能性が期待されます。

詳しい記事の内容はこちらから(引用元)

ZDNET Japan

アカマイ・テクノロジーズは、「Akamai Inference Cloud」を発表した。従来コアデータセンターで実行され…

アカマイ、インターネットエッジのGPUでAIワークロードの遅延を軽減 – ZDNET Japan
https://japan.zdnet.com/article/35240025/

 

最新情報をチェックしよう!
>ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

国内外の最新AIに関する記事やサービスリリース情報を、どこよりも早くまとめてお届けします。
日々BizAIdeaに目を通すだけでAIの最新情報を手軽にキャッチアップでき、
AIの進化スピードをあなたのビジネスの強みに変えます。

SNSをフォローして頂くと、最新のAI記事を最速でお届けします!
X: https://twitter.com/BizAIdea
Facebook: https://www.facebook.com/people/Bizaidea/61554218505638/

CTR IMG