記事の概要
米国の非営利団体ThornとAll Tech Is Humanは、主要なAI企業と協力し、児童性的虐待コンテンツ(CSAM)の生成と拡散を防ぐための原則「Safety by Design」を発表しました。
Amazon、Google、Microsoftなどの企業は、CSAMを含まないトレーニングデータセットの使用や高リスクなデータセットの回避、CSAMの画像やリンクの削除を約束しています。
さらに、AIモデルのストレステストを実施し、子供の安全性が確保された場合にのみリリースすることも約束しています。
Thornは、生成AIによって児童性的虐待コンテンツが容易に作成される危険性があると警告しています。
また、Googleは児童保護団体への広告助成金を増額することも発表しました。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ITmedia NEWS
Microsoft、Google、OpenAIなどを含むAI企業10社は、非営利団体が策定した児童性的虐待コンテンツ(C…
https://www.itmedia.co.jp/news/articles/2404/24/news112.html