Abbeal

カテゴリ · AI

ハルシネーション(Hallucination)

LLMがもっともらしいが事実と異なる内容を生成することです。

数値や日付の誤りなど部分的なもの、APIや判例の捏造など全面的なものがあります。対策はRAGによる根拠付け、厳密な指示、的を絞った評価、信頼度閾値の設定です。確率的なLLMでは100%排除することはできません。

// クライアント事例

// 関連

貴社で実装したい?

アーキテクトと話す