ChatGPTやClaudeなどのチャットAIには「犯罪行為の詳細な手法」など安全上の問題がある質問への回答を拒否する仕組みが備わっています。新たに、Claudeを開発するAI企業のAnthropicがアメリカの国家核安全保障局(NNSA)などの政府機関と協力して核兵器関連の応答を拒否する仕組みを開発したことを発表しました。続きを読む……
このサイトの記事を見る
「AIに核兵器を作らせない仕組み」をAnthropicが開発
ChatGPTやClaudeなどのチャットAIには「犯罪行為の詳細な手法」など安全上の問題がある質問への回答を拒否する仕組みが備わっています。新たに、Claudeを開発するAI企業のAnthropicがアメリカの国家核安全保障局(NNSA)などの政府機関と協力して核兵器関連の応答を拒否する仕組みを開発したことを発表しました。続きを読む……
このサイトの記事を見る