■
多言語モデルAIの「ハルシネーション」が解決策がない?
簡単ですよ。
この問題は、質問者が求めるのがAIの裁量なのか情報自体なのか、AIが判断してないから起こるわけでしょ?人間は後者の場合は引用の正確性に重点を置くけど、現行のChatAIでは裁量の場合と同じアルゴリズムで生成してるんだと思う。
だったら判断させりゃいいじゃん。
意図は分かるんだけど、元々で有利な案件に不正に喩えてるから、実際とは違う問題提起になってしまう。答えがズレてるんじゃなく、そもそもの喩えがズレてるの。正しくない問題提起に正しく回答しちゃうから、期待したのとは違う答えになるわけだ。
変に邪な意図で質問するから知恵比べになってしまう。自分より知能高い奴から期待通りの答えなんて引き出せるわけがない。素直に分からない問題についてアドバイス求めてるだけなら何も問題にならない。
PR