記事の概要
2023年12月、スタンフォード大学の研究グループが、画像生成AI「Stable Diffusion」の学習データセット「LAION-5B」に児童ポルノが含まれていることを発表し、問題となった。
日本ではその違法性が問われ、問題の画像を排除した学習データへの移行が進む一方で、AIの問題をきっかけに表現規制の議論も起きている。
LAION-5Bは、ドイツの非営利団体LAIONが公開したデータセットで、約58億5000万個のデータから構成されている。
Stable Diffusionの学習では、既存の画像検出手法や独自のアルゴリズムを使って、1008件の児童ポルノ画像が特定された。
LAIONはこれに対し、法律違反が疑われるコンテンツを特定して削除し、再公開したと表明している。
また、読売新聞が日本の児童ポルノ禁止法に違反する画像がLAION-5Bに存在すると報じたが、詳細は不明。
Stable Diffusionの責任の所在や学習済みデータの流通については議論があるが、現時点では法的な責任を問う動きはない。
日本では学習モデルの法的評価は不明である。
記事のポイント
詳しい記事の内容はこちらから(引用元)
2023年12月、スタンフォード大学の研究グループが、画像生成AI「Stable Diffusion」が学習のために使っ…
https://ascii.jp/elem/000/004/194/4194035/