スポンサーリンク

AIにプログラミングさせる時に幻覚が発生しても大した問題にはならないという主張

大規模言語モデル(LLM)は人間が書いたような自然な文章を生み出すことができ、さらにコーディングも可能ですが、LLMが生成する文章やコードにはしばしば「幻覚(ハルシネーション)」と呼ばれる誤りが含まれることもあります。そのため、LLMの生成したコードは必ずしも正確とはいえませんが、エンジニアのサイモン・ウィルソン氏は自身のブログで「幻覚のせいでLLMを使った開発は無理だ」という指摘に疑問を呈してい…

このサイトの記事を見る

通知を有効にしますか? OK! No...
タイトルとURLをコピーしました