記事の概要
米Googleの研究者らが、米OpenAIのブラックボックスとなっている言語モデル(LLM)の一部を盗み出す攻撃手法を発表しました。
この手法では、言語モデルのAPIを悪用して、最終層の重みを復元し、モデルの隠れ層の次元数を特定することが可能です。
実験ではわずか20ドル未満の費用で成功し、adaモデルが1024次元、babbageモデルが2048次元の隠れ層を持つことが明らかになりました。
攻撃手法の詳細は脆弱性の影響を受けるサービス提供者に開示され、GoogleやOpenAIは対策を実施しました。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ITmedia NEWS
米Google DeepMindなどに所属する研究者らは、米OpenAIのGPT-4や米GoogleのPaLM-2などの…
https://www.itmedia.co.jp/news/articles/2403/14/news087.html