スポンサーリンク

AIの思考を少しずつずらしてAIに催眠をかけるように「ジェイルブレイク」した具体例

大規模言語モデル(LLM)を用いたAIは、驚くほど自然な文章やリアルな画像を生成できる能力を備えている一方で、危険なことに回答したり不適切な画像を生成したりできないように、セキュリティロックがかかっていることがほとんどです。しかし、意図的にLLMをだまそうと試みてロックを回避するジェイルブレイク(脱獄)の方法もしばしば話題になります。GoogleのAIチームでコンサルタントを務めた経験もある技術者…

このサイトの記事を見る

通知を有効にしますか? OK! No...
タイトルとURLをコピーしました