記事の概要
Anthropicは、AIモデル「Claude」ファミリーの安全管理ポリシーを改定しました。
この変更は、悪意のある主体がAIを利用してサイバー攻撃を自動化するリスクが高まっていることを受けたものです。
新しいポリシーでは、AIモデルの悪用リスクを継続的に監視するための手続きが明示され、AI安全レベル基準(ASL)が設けられました。
具体的には、レベル2の要件を満たす必要があり、これにはセキュリティ評価や物理的防護策が含まれます。
Anthropicは、サイバー運用の専門家と協力し、高度なサイバー能力を持つモデルに対して段階的な導入とアクセス制御を検討する方針を示しています。
このようにして、AIの安全性を確保し、潜在的な脅威に対応していくことを目指しています。
記事のポイント
詳しい記事の内容はこちらから(引用元)
ZDNET Japan
大規模言語モデル(LLM)「Claude」ファミリーを開発するAnthropicが自社ソフトウェアの安全管理ポリシーを改…
https://japan.zdnet.com/article/35225072/