記事の概要
Googleは、生成AIの「ハルシネーション」(幻覚)対策として、オープンモデル「DataGemma」を発表しました。
ハルシネーションとは、生成AIが不正確な情報を真実のように提供する現象で、長年の課題とされています。
Googleは信頼できるデータを集める「Data Commons」を構築し、これを「DataGemma」プロジェクトに統合しました。
プロジェクトは「RIG」と「RAG」の2つのアプローチで構成され、信頼性のある情報を探し、事実確認を行います。
初期調査では、数値的事実の精度が大幅に向上する成果が得られ、ハルシネーションの頻度が減ることが期待されています。
これにより、生成AIの応答精度が高まることを目指しています。
記事のポイント
詳しい記事の内容はこちらから(引用元)
Impress Watch
Googleは、生成AIの大規模現モデルの課題のひとつとされる「ハルシネーション」対策で有望とする研究成果を発表し、それ…
https://www.watch.impress.co.jp/docs/news/1624288.html