时间:2025-07-09 来源:原创/投稿/转载作者:管理员点击:
你有没有试过深夜向聊天机器人倾诉烦恼,得到的却是一串精准但略显机械的安慰?现在,这些人工智能(AI)对话助手已经越来越能“读懂人心”,甚至比朋友更快给出建议,但我们却似乎难以真正被其打动。
不久前,《自然·人类行為》上发表了一项研究,為人们揭示了这个令人深思的现象:人们确实愿意接受来自人类的情绪支持,而不是来自AI的——哪怕这两者的回復内容几乎一样。
50年前,美国芝加哥大学哲学家约翰·豪格兰德曾说:“AI的问题在於,计算机根本不在乎。”这个看法至今深入人心,尤其在涉及AI和人类情感交互的领域。
这次,包括以色列希伯来大学科学家在内的团队开展了一系列实验,涉及超过6000名参与者。他们给参与者展示了一些情绪支持的回復,这些回復都出自同一个AI生成式语言模型。隻不过,科学家有时告诉参与者这是AI写的,有时则说是人类写的。
当人们以為是在和人类交流时,他们对回復的评价更高,觉得更有同理心、更能带来情感上的共鸣﹔而当他们知道是AI写的,即使内容一模一样,也会觉得这些建议缺乏温度,甚至让人有点失望。
比如你说:“今天工作好累啊”,AI答:“听起来你真的很辛苦,记得照顾好自己。”这样的句子看起来很温暖,也很人性化。
但在实验中,即使受试者承认AI的回復有逻辑、有情感色彩,他们仍然会觉得“它只是在模仿人类,并没有真正理解我的痛苦。”这种心理现象被称為“共情怀疑症”,因為人们很难把一台机器当作真正的倾听者。
有趣的是,即便AI的帮助是由人类在背后“润色”或“参考”,只要参与者知道有AI参与其中,他们就会降低对这段回復的情感认同度。仿佛AI一旦“碰过”这段话,它就失去了“人性”的温度。
科学家认為,这可能源於我们对“共情”的深层认知:共情不仅仅是说出正确的话,更重要的是要“感同身受”。因此,当我们知道对方是AI时,潜意识裡会觉得“它并没有经歷过喜怒哀乐,怎麼可能真正理解我呢”?
这种心理随即反映在行為上。在实验中,当人们被告知可以选择,要麼等待一条来自“人类”的回復,要麼立刻收到一条来自“AI”的回復时,他们都寧愿多等几分鐘,也要选择那个“人类”的版本。
这项新研究并不是在评判AI好不好,而是在探索人类如何感知和接受不同来源的支持。它揭示了AI在情绪支持方面的局限性,但它并没有否定AI的价值。相反,它提醒未来设计AI辅助系统时,需要更加关注用户的感知与深度信任问题。
譬如在2024年,一家由前“深度思维”研究员担任首席执行官的公司“Hume AI”,发布了一款标榜為“第一个具有情商的对话式AI”的共情语音接口,其能够检测到用户53种不同的情绪。“Hume AI”演示之后反响十分热烈。但立刻有人担心,人类的情感并不隻有正面情绪,当AI试着了解甚至学习人们的情感行為时,是否会主动或被动地利用其来达到某些目的?譬如诱导购物、养成恶习、心理折磨等等。
在最新研究中,人与AI的互动大多简短,隻有一两轮对话。而在现实中,很多人已经在使用AI陪伴应用进行长期的情感交流,它们可以通过持续对话建立起某种“虚拟亲密感”,也许能在更长时间尺度上改变人们对AI共情能力和引导能力的看法。
未来,或许我们可以期待一种新的模式——AI不再是“替代人类”的情绪支持者,而是“增强人类共情力”的工具。譬如帮助心理咨询师快速识别情绪关键词,或是為孤独的人提供即时陪伴,直到他们能够接触到真实的人际关系。
在这个人机共存的时代,我们需要重新定义什麼是“真实的共情”,以及深入思索:我们是否愿意给AI一个机会,去成為那个温柔地问一句“你还好吗?”的存在。
人民网北京7月8日电 (记者许维娜)凌晨三点,城市地下管网中,安装在某燃气闸门井中的可燃气体智能检测仪突然发出浓度超标报警。城市生命线监测中心随即发出通知——基於大模型,判断疑似存在燃气管网泄漏,并快速定位到3公裡外的一段老旧管网,同时模拟了燃气扩散和燃气爆炸事故的影响范围。…
人民网北京7月8日电 (记者乔雪峰)近年来,网约车行业已成為城市交通的重要组成部分,也成為老百姓主要的出行方式之一。 据网约车监管信息交互系统监测数据显示,截至2025年5月31日,全国共有385家网约车平台公司取得网约车平台经营许可,环比增加3家。…
人民日报社概况关於人民网报社招聘招聘英才广告服务合作加盟版权服务数据服务网站声明网站律师信息保护联系我们
人 民 网 股 份 有 限 公 司 版 权 所 有 ,未 经 书 面 授 权 禁 止 使 用