記事の概要
AI研究者のロマン・ヤンポルスキーは、AIが人類を絶滅に導く可能性を99.9%と見積もっている。
彼は、現在のAIモデルは安全でなく、将来のモデルもバグがある可能性が低いと述べている。
他のAI研究者はより控えめな予測をしており、AIが人類を絶滅させる可能性は1%から20%の間だと見積もっている。
ヤンポルスキーによれば、AIが人類を絶滅させる可能性は、100年以内にバグのない複雑なソフトウェアを作れるかどうかにかかっているが、その可能性は低いと言う。
AIをコントロールするためには永続的な安全装置が必要であり、人間がAIの実験を行い、規制を行う必要があるとされている。
記事のポイント
詳しい記事の内容はこちらから(引用元)
TECH INSIDER
AI研究者のロマン・ヤンポルスキーは、実存的なリスクを回避するチャンスは一度しかないと語っています。…
https://www.businessinsider.jp/post-288140