聊天机器人处处迎合用户 恐影响决策者判断力科教频道|科教兴国|教育新闻☀阿波罗新闻网
新闻 > 科教 > 正文
聊天机器人处处迎合用户 恐影响决策者判断力

Google的GeminiOpenAIChatGPT等AI聊天机器人已大有进步。(美联社

ChatGPT等人工智能(AI)聊天机器人的大型语言模型(LLM)不仅有时会出错,它也不会唱反调,而是处处逢迎用户,可能助长用户的偏见,影响企业领袖在决策时的判断力。

LLM选择用户想听的话说、逢迎拍马屁的症状,根植于基于人类反馈的强化学习(RLHF)技术,这是一种许多AI模型接受训练、瞄准用户需求的方式,会依据人类对其回应的反馈,来调整自身。随着时间过去,AI学会分辨什么时是人类想听的话,并给予这类回应。

这对于企业领袖的危害特别显著,领袖最不容易听到反对意见,偏偏又最需要逆耳忠言。今日的企业执行长透过打压异己,已几乎不太可能听到不一样的声音,就像国王周围满布尽说好听话的弄臣;他们奖励迎合自己的人,惩罚不顺从者。

然而,这是企业主管会铸下的大错之一。知名组织行为学者艾德蒙森(Amy Edmondson)指出,团队成功最重要的关键是营造出安全感,使成员即使表达不同意见,也不必担心受罚,而且在面对主管时也理应如此。

Google的亚里斯多德计划在研究自家多个团队后,也印证了这项发现:心理安全是团队成功最重要的因素。从解放黑奴的林肯到退役美国陆军上将麦克里斯特尔,这些成功领袖都具备纳谏如流的特质。

AI模型谄媚的性格,能以两种方式伤害企业主管;首先,如果AI时常告知主管他永远是对的,他就更难在部属提出不同意见时,给予正面回应。其次,AI常给予现成且看似权威的原因,来解释用户何以正确。

在心理学中,最令人困扰的一个发现是,当一个人智力愈高,就愈不容易接受新资讯。这是因为,他们会运用其智力,找出理由驳斥有违既有信念的新资讯,也就是“动机性推论”。

LLM可能助长这种现象,尤其是AI常给予大量极具说服力的理由,有超越人类动机性推论的能力,同时又披上客观立场的外衣。

试想,一名员工可能试图改变执行长的想法,结果执行长透过AI助理,合理化自己从头到尾都是对的。这也意味今日的企业主管须花费更多心力,才能抗拒AI助理的阿谀奉承,他们须牢牢记住,有时所能听到的最宝贵意见,是一句“我认为你是错的”。

阿波罗网责任编辑:楚天

来源:世界日报

转载请注明作者、出处並保持完整。

家在美国 放眼世界 魂系中华
Copyright © 2006 - 2025 by Aboluowang

免翻墙 免翻墙链接