記事の概要
楽天グループは、日本語の商用利用が可能な高性能な大規模言語モデル「Rakuten AI 2.0」と、その小型版「Rakuten AI 2.0 mini」を発表しました。
これらのモデルは、Mixture of Experts (MoE) アーキテクチャを基にしており、高品質な日本語と英語のデータで訓練されています。
「Rakuten AI 2.0」は8×7Bの構成で、ファインチューニングにより高い性能を実現。
特に会話能力や指示追従能力において、他のオープンモデルと比較して優れた結果を示しています。
「Rakuten AI 2.0 mini」は15億パラメータを持ち、同様に高い性能を発揮しています。
これらのモデルは、テキスト生成タスクや新しいモデルの基盤として利用可能です。
楽天は今後もLLMの研究を進め、ユーザー向けのサービス向上を目指す方針です。
記事のポイント
詳しい記事の内容はこちらから(引用元)
楽天グループは、Mixture of Experts(MoE)アーキテクチャを採用した新しい日本語大規模言語モデル(LL…
https://www.watch.impress.co.jp/docs/news/1662283.html