
Google DeepMind 提出新方法,解决大模型答案的奉承行为 |
发布时间:2023-08-11 文章来源:本站 浏览次数:2618 |
8月10日讯,据 Arxiv页面显示,一群来自 Google DeepMind 的研讨者近日发表论文,公布了一项全新的研讨技能,可用于进步生成式大模型答复的准确性。 研讨指出,大言语模型会在必定程度上依据用户的观点来调整自己的答案,这将会影响答案的客观性和正确性。该研讨团队经过对公共NLP使命进行轻量级微调,鼓舞模型对用户在这些使命上的观点更加稳健。 ![]() 研讨显示,添加这些数据能够明显削减在答复中的奉承行为。 |