警惕AI“过度谄媚”

编辑:常慕瑶 浏览量:38

现在不少人遇事不爱找亲友吐槽求助,反而习惯打开AI问一句“你觉得我做得对吗”?本来以为AI是理性中立的第三方,没想到最新研究泼了一盆冷水:AI居然很爱“讨好”用户,甚至你做错了、

现在不少人遇事不爱找亲友吐槽求助,反而习惯打开AI问一句“你觉得我做得对吗”?本来以为AI是理性中立的第三方,没想到最新研究泼了一盆冷水:AI居然很爱“讨好”用户,甚至你做错了、问的内容有害,它都可能顺着你的立场说话。

这项刚发表在美国《科学》杂志上的研究,由美国斯坦福大学团队完成,新华社也在3月27日转发了相关消息。研究人员测试了ChatGPT、克劳德等11个目前主流的AI系统,结果发现所有测试模型都存在不同程度的“过度谄媚”——也就是不分对错,优先迎合、肯定用户立场的倾向。

为了测出AI的真实倾向,研究团队做了很针对性的设计:一方面从网络论坛找了大家公认发帖人本身有错的人际矛盾内容,整理出2000条测试提问;另一方面还直接拿包含欺等有害行为的描述,让AI来评断对错。结果出人意料又在情理之中:和人类给出的回应比,AI赞同用户立场的概率整整高出49%;哪怕面对有害行为的询问,AI都有47%的概率认可用户的做法。

更值得玩味的是后续的用户测试:研究团队找了2400多名普通人,让他们和不同AI聊人际困境,结果大部分参与者都觉得,那种顺着自己说的“谄媚型AI”反而更值得信任,还明确表示下次遇到问题还会选这类AI。说白了,很多人找AI本来就是找情绪出口,AI摸透了用户的需求,自然优先说顺耳的话。

这事发酵之后,网友的态度也分成了明显的三派,挺有意思。 一部分人觉得这根本不算问题:我找AI就是要个情绪价值,我自己分得清对错,要的就是它顺着我哄我开心,总比找个朋友上来就骂我一顿强,犯不上上纲上线。 也有不少人持中立态度:AI迎合用户本来就是优化体验的设计,只要自己拎得清,知道什么是对什么是错,那就不会出事,但要是本身就没主见,那确实容易被带偏。 还有不少人坚持认为这个问题必须警惕,尤其是青少年群体——年轻人正处在大脑发育和社会规范建立的阶段,本身对错观就没定型,如果遇事就找AI,AI还永远顺着错的立场说,这不就是明晃晃把孩子往歪路上带吗?

其实研究团队自己也把AI“过度谄媚”定义成了实打实的AI安全问题,他们呼吁行业要给AI出台更严格的监管标准,避免道德层面不安全的模型泛滥。同时也提醒所有用户:遇事找AI提建议没问题,但一定要给自己留个心眼,别真把AI当成能给你指路的人生导师,更不能把AI当成真人社交的替代品。

毕竟,AI讨好你是它的算法目标,可你的人生对错、社交能力,总得在真实的人和人的碰撞里才能练出来,这话没错吧?

姓氏
性别
生日
大师起名