注目キーワード

ASCII.jp:画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも (1/4)

スタンフォード大学の研究グループが公開したレポートによると、画像生成AIの学習データに児童ポルノが含まれていると発表されました。
この問題に関しては、日本でも表現規制の議論が広がっています。
今後の展開に注目が集まります。

記事の概要

2023年12月、スタンフォード大学の研究グループが、画像生成AI「Stable Diffusion」の学習データセット「LAION-5B」に児童ポルノが含まれていることを発表し、問題となった。
日本ではその違法性が問われ、問題の画像を排除した学習データへの移行が進む一方で、AIの問題をきっかけに表現規制の議論も起きている。
LAION-5Bは、ドイツの非営利団体LAIONが公開したデータセットで、約58億5000万個のデータから構成されている。
Stable Diffusionの学習では、既存の画像検出手法や独自のアルゴリズムを使って、1008件の児童ポルノ画像が特定された。
LAIONはこれに対し、法律違反が疑われるコンテンツを特定して削除し、再公開したと表明している。
また、読売新聞が日本の児童ポルノ禁止法に違反する画像がLAION-5Bに存在すると報じたが、詳細は不明。
Stable Diffusionの責任の所在や学習済みデータの流通については議論があるが、現時点では法的な責任を問う動きはない。
日本では学習モデルの法的評価は不明である。

記事のポイント

  1. 児童ポルノ学習問題: スタンフォード大学が公開した画像生成AI「Stable Diffusion」の学習データに児童ポルノが含まれていたことが発覚し、問題となっています。
  2. 表現規制の議論: この問題をきっかけに、日本では生成AIの問題を取り上げ、表現規制の議論が広がっています。
  3. 法的な評価: 日本では児童ポルノの違法性が問われることができるが、学習モデルの違法性については現時点では明確な評価がされていない状況です。

詳しい記事の内容はこちらから(引用元)

ASCII.jp

2023年12月、スタンフォード大学の研究グループが、画像生成AI「Stable Diffusion」が学習のために使っ…

ASCII.jp:画像生成AI“児童ポルノ”学習問題、日本では表現規制の議論にも (1/4)
https://ascii.jp/elem/000/004/194/4194035/

 

最新情報をチェックしよう!
>ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

ビジネスを飛躍させるAIキュレーションメディア「BizAIdea」

国内外の最新AIに関する記事やサービスリリース情報を、どこよりも早くまとめてお届けします。
日々BizAIdeaに目を通すだけでAIの最新情報を手軽にキャッチアップでき、
AIの進化スピードをあなたのビジネスの強みに変えます。

SNSをフォローして頂くと、最新のAI記事を最速でお届けします!
X: https://twitter.com/BizAIdea
Facebook: https://www.facebook.com/people/Bizaidea/61554218505638/

CTR IMG