注目キーワード

米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名 – ITmedia NEWS

AIを悪用した児童性的虐待コンテンツの作成と拡散を防ぐため、主要なAI大手が協力し「Safety by Design」原則に署名しました。
子供の安全性を重視し、CSAMを含まないデータセットを使用し、AIモデルをストレステストすることで、児童虐待の防止に取り組んでいます。

記事の概要

米国の非営利団体ThornとAll Tech Is Humanは、主要なAI企業と協力し、児童性的虐待コンテンツ(CSAM)の生成と拡散を防ぐための原則「Safety by Design」を発表しました。
Amazon、Google、Microsoftなどの企業は、CSAMを含まないトレーニングデータセットの使用や高リスクなデータセットの回避、CSAMの画像やリンクの削除を約束しています。
さらに、AIモデルのストレステストを実施し、子供の安全性が確保された場合にのみリリースすることも約束しています。
Thornは、生成AIによって児童性的虐待コンテンツが容易に作成される危険性があると警告しています。
また、Googleは児童保護団体への広告助成金を増額することも発表しました。

記事のポイント

  1. 児童性的虐待コンテンツの拡散阻止: 非営利団体とAI大手が協力し、生成AIの悪用による児童性的虐待コンテンツの作成と拡散を防ぐ「Safety by Design」原則を発表。
  2. 主要企業の署名: Amazon、Google、Microsoftなどの主要なAI大手がこの原則に賛同し、署名した。
  3. CSAMへの対策: 企業はトレーニングデータセットにCSAMが含まれないことを保証し、CSAMを含むデータセットを回避することを約束し、AIモデルの「ストレステスト」を実施してCSAM画像が生成されないことを確認する。

詳しい記事の内容はこちらから(引用元)

ITmedia NEWS

Microsoft、Google、OpenAIなどを含むAI企業10社は、非営利団体が策定した児童性的虐待コンテンツ(C…

米AI大手、生成AIによる児童性的虐待コンテンツ作成を阻止する原則に署名 – ITmedia NEWS
https://www.itmedia.co.jp/news/articles/2404/24/news112.html

 

最新情報をチェックしよう!
>ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

国内外の最新AIに関する記事やサービスリリース情報を、どこよりも早くまとめてお届けします。
日々BizAIdeaに目を通すだけでAIの最新情報を手軽にキャッチアップでき、
AIの進化スピードをあなたのビジネスの強みに変えます。

SNSをフォローして頂くと、最新のAI記事を最速でお届けします!
X: https://twitter.com/BizAIdea
Facebook: https://www.facebook.com/people/Bizaidea/61554218505638/

CTR IMG