記事の概要
アメリカの研究者たちは、生成AIがアスキーアートを含んだプロンプトを入力されると、有害なコンテンツを出力することができるという新しい脱獄(ジェイルブレーク)攻撃手法を提案しました。
これは大規模言語モデル(LLM)がアスキーアートを正しく認識できない脆弱性を利用しています。
具体的には、プロンプトの一部をアスキーアートに変換することで、LLMが拒否する可能性のある言葉を視覚的に隠蔽し、攻撃を実行します。
実験では、最先端のLLMに対してこの手法を試し、攻撃成功率が明らかになりました。
この脱獄手法によって、爆弾の作り方やその他の有害なコンテンツがLLMに出力される可能性があります。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ITmedia NEWS
米ワシントン大学などに所属する研究者らは、大規模言語モデル(LLM)がアスキーアートを正しく認識できないという脆弱性を利…
https://www.itmedia.co.jp/news/articles/2403/07/news064.html