記事の概要
NVIDIAは2025年1月16日に、AIアプリケーションの安全性を向上させるための3つの新機能を発表しました。
これらの機能は、AIエージェントが不適切な出力を避けるための「ガードレール」として機能します。
最初の機能は、有害な出力を防ぐ「Content safety NIM microservice」で、約3万5000件のデータセットでトレーニングされています。
次に、AIの出力テーマを管理する「Topic control NIM microservice」があり、特定の話題に制限を設けることができます。
最後に、不適切な回答を引き出す攻撃を検知する「Jailbreak detection NIM microservice」があり、約1万7000件の成功事例でトレーニングされています。
これらの機能は、企業がAIエージェントの開発において信頼性と安全性を確保するための重要な手段となるでしょう。
記事のポイント
詳しい記事の内容はこちらから(引用元)
米NVIDIA(エヌビディア)は米国時間2025年1月16日、AI(人工知能)アプリケーションの安全性を高める3つの新…
https://xtech.nikkei.com/atcl/nxt/news/24/02069/