Quantcast
Channel: ブレークスルー・テクノロジー10 – MITテクノロジーレビュー
Viewing all articles
Browse latest Browse all 637

解説:生成AIのハルシネーションはなぜ起きるのか

$
0
0
大規模言語モデルが「ハルシネーション(幻覚)」を生成することはよく知られている。ただ、その仕組みから明らかのように、LLMの出力は本質的にはすべてハルシネーションであり、間違いが発覚したものがそう呼ばれているだけだ。

Viewing all articles
Browse latest Browse all 637

Trending Articles