記事の概要
東京を拠点とするSakana AIと東京科学大学の研究チームは、2025年1月9日に新しいフレームワーク「Transformer2」を発表しました。
このフレームワークは、大規模言語モデル(LLM)が自律的にタスクを理解し、リアルタイムに適応する能力を持っています。
特に、数学やコーディングなどの多様なタスクに柔軟に対応できることが特徴です。
また、Transformer2は2段階の推論プロセスを採用し、エキスパートベクトルを動的に組み合わせてタスクを実行する仕組みがあります。
さらに、米Metaの研究チームも「メモリー層」を提案し、AIモデルの知識を問うタスクにおける回答精度を向上させる手法を発表しました。
これらの研究は、AI技術の進化に寄与し、事業モデルの構築においても重要な役割を果たしています。
記事のポイント
詳しい記事の内容はこちらから(引用元)
日経クロステック(xTECH)
東京を拠点とするSakana AIと東京科学大学の研究チームは、大規模言語モデル(LLM)が自律的にタスクを理解し、リ…
https://xtech.nikkei.com/atcl/nxt/column/18/02801/012200014/