AI幻觉难根除 提高用户参与可缓解
- 林佳楠/台北
大型语言模型(LLM)虽快速发展,如何降低模型的幻觉(Hallucination)仍是一大挑战。台大资工系教授陈縕侬指出,为了提高AI的可信任程度,应增加使用者参与、鼓励使用者多加验证答案,开发者也可训练AI勇于表达「不确定性」、提供消息来源。
会员登入
会员服务申请/试用
申请专线:
+886-02-87125398。
(周一至周五工作日9:00~18:00)
+886-02-87125398。
(周一至周五工作日9:00~18:00)
关键字