カテゴリ · AI
ハルシネーション(Hallucination)
LLMがもっともらしいが事実と異なる内容を生成することです。
数値や日付の誤りなど部分的なもの、APIや判例の捏造など全面的なものがあります。対策はRAGによる根拠付け、厳密な指示、的を絞った評価、信頼度閾値の設定です。確率的なLLMでは100%排除することはできません。
// クライアント事例
// 関連
カテゴリ · AI
LLMがもっともらしいが事実と異なる内容を生成することです。
数値や日付の誤りなど部分的なもの、APIや判例の捏造など全面的なものがあります。対策はRAGによる根拠付け、厳密な指示、的を絞った評価、信頼度閾値の設定です。確率的なLLMでは100%排除することはできません。
// クライアント事例
// 関連