スポンサーリンク

Metaが「リスクが高すぎると判断したAIは開発を中止する可能性がある」と発表

Metaが先端的なAIの開発と公開に関する包括的な方針文書となる「Frontier AI Framework」を発表しました。この中で、MetaはAIによるリスクを3段階に分類し、最も重大なリスクがあると判断された場合は開発を停止し、限られた専門家のみがアクセスできる厳格な管理体制を敷くことを明記しています。続きを読む……

このサイトの記事を見る

通知を有効にしますか? OK! No...
タイトルとURLをコピーしました