大模型又在「说胡话」

大家好,我是皇子


解释大模型会「说胡话」就好比即便是”聪明“的人类也会在某些情况下开始「说胡话」,比如:

在误解别人意思就开始发表见解(面试者)

面对复杂的问题但是必须要回答时(考试时)

过于理性而忽略感情时(会游泳的先救谁的问题)

过于感性而忽略理性判断时(买它买它~)

...

人类亦如此又何况被训练出来的模型呢?

回归问题本身,我们需要合理地解释清楚大模型会「说胡话」的原因有哪些

为什么大模型会「说胡话」?

1、过度依赖训练数据:在大量训练数据中,可能存在噪声、异常值或者不准确的信息。大模型可能会学习到这些错误模式,并在处理新输入时基于错误的学习结果生成输出,同样跟我们接受太多的各路神仙的育儿方法,最后可能在如何培养孩子专注力上我们永远做不好。

2、上下文理解不足:虽然大模型能够捕捉到文本中的复杂模式,但它们可能无法始终如一地保持对前后文的连贯理解,尤其是在长篇对话或多轮交互中,容易忽略关键的上下文关联性,或者无法完美地理解和把握前后文的所有关联细节,就像学生没有读懂全部题目就匆匆作答,导致答案与实际要求不符。

3、最大似然训练目标:现有的大模型通常基于最大似然估计进行训练,这使得模型倾向于生成在统计意义上最可能的序列,而不一定是最符合事实或最合理的答案。

解决大模型「说胡话」

1、持续优化数据:通过建立更加公正、多元和准确的语料库,可以减少数据偏差对模型的影响。此外,使用数据清洗和去重技术,去除语料库中的噪声和重复内容,可以提高模型的准确性。

2、改进模型结构:优化模型架构,使其更加适合处理自然语言任务,可以让模型更好地理解和生成自然语言。

3、增加上下文信息同时引入合适的交互体验:在模型中加入上下文信息,使其能够理解语境并根据上下文生成回答。例如,使用对话历史、问题背景等作为输入,可以帮助模型更好地理解问题。同时对于语义不清楚的,适当给出多种可能解释用户意图的选项,而不是一定要进行回答,直接避免一本正经的胡说八道。

4、引入人类专家知识和情感认知:在训练模型时,可以引入人类专家的知识和经验,以帮助模型更好地理解和生成符合常识和事实的回答。同时加入情感认知模块,使其能够理解语言中的情感色彩。这样可以使模型在回答问题时更加符合人类的情感和认知。

5、引入安全机制:通过制定安全机制,限制模型在某些场景下的输出,以避免产生误导或恶意的内容。例如,可以使用过滤器或监管机制来限制模型的输出。


关注我,一起成长


有启发,点个赞或在看再走呀



请使用浏览器的分享功能分享到微信等