記事の概要
AI開発企業のStability AIが、日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をリリースした。
このモデルは16億パラメータで学習された小型の日本語言語モデルであり、ハードウェアの使用量を抑えながらも高速かつ高性能な実験が可能となっている。
モデルには「Japanese Stable LM 2 Base 1.6B」と「Japanese Stable LM 2 Instruct 1.6B」という2種類があり、商用利用はStability AIのメンバーシップによって可能となっている。
トレーニングデータにはWikipediaの日本語版と英語版、およびStability AIが収集した日本語ウェブコーパス「CulturaX」が使用されており、幅広い話題に対応した自然な日本語生成が可能とされている。
また、16億パラメータの小型モデルでありながら、70億パラメータのモデルに近いスコアを獲得しており、研究や開発の効率化が期待されている。
記事のポイント
詳しい記事の内容はこちらから(引用元)
Stability AIは5月9日、日本語大規模言語モデル「Japanese Stable LM 2 1.6B」をリリー…
https://ascii.jp/elem/000/004/197/4197879/