記事の概要
AIを使用した画像生成ツールが人種差別的な偏見を反映しているという問題が浮上している。
OpenAIの「DALL-E」や「Stable Diffusion」などのツールは、アフリカ人労働者の画像をヨーロッパ人労働者と比べて貧困や困難な生活を反映したものに生成してしまうことがある。
このようなAIモデルは、学習データや開発者のバイアスによって影響を受けるため、社会的なステレオタイプを再生産する恐れがある。
一部の研究者は、高品質な学習データを集める必要性を指摘しているが、手動でデータを集めることは困難であり、スクレイピングなどを用いて効率的にデータを収集する傾向がある。
偏見の問題を解決するためには、AIモデルの改良や注意書きの追加などの対策が必要であるとされている。
記事のポイント
詳しい記事の内容はこちらから(引用元)
TECH INSIDER
画像生成AIモデルに「アフリカの労働者」の画像生成を促すと、有害なステレオタイプを永続させるような結果もあるようです。【…
https://www.businessinsider.jp/post-284681