記事の概要
中国のAI企業「DeepSeek」が、高性能なAIモデル「DeepSeek-V2」を発表しました。
このモデルは「Mixture-of-Experts(MoE)」アーキテクチャを採用し、効率的な学習と推論が可能です。
さらに、およそ236億個のパラメーターを持ちながらも、実際の推論にはおよそ21億個しか使用せず、計算量を削減しています。
DeepSeek-V2は、中国語および英語の言語能力評価ベンチマークで高いスコアを叩き出し、GPT-4に匹敵する性能を持っています。
また、APIの利用料金も非常に安く設定されており、商用利用や研究目的に幅広く活用できるとされています。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ASCII.jp
中国のAI企業「DeepSeek」は5月6日、最新の「Mixture-of-Experts(MoE)」アーキテクチャを採…
https://ascii.jp/elem/000/004/197/4197480/