编者按:本文来自微信公众号 红杉汇(Sequoiacap),作者:洪杉,创业邦经授权发布。
早在十年前,经典电影《Her》中就探讨了人类与AI之间产生情感羁绊的可能性。影片中的人工智能Samantha只有声音,没有实体形态,却依旧陪伴治愈了主人公孤独的内心。
而现在,无论是天马行空的想法,还是郁郁不得志的无措,AI都能秒回一句“我在听”,并且都能够温柔、客观且不带任何批判色彩地去鼓励你、安慰你,甚至会完全站在你的立场为你出主意。
人们会与AI进行带有情感性的人际互动,正成为AI工具的一大发展趋势。此时一个重要的问题出现了——这是任何新技术都会面临的问题——与AI的互动会如何影响人们的社会活动和情感健康?它使我们心有所依,还是更加形单影只?
基于此,OpenAI联合麻省理工学院媒体实验室进行了一次深度研究,通过两次平行研究,探讨与ChatGPT(重点关注高级语音模式)的交互,会在多大程度上影响用户的情绪状态、行为和体验。
如今的AI聊天机器人,通过语音合成技术已经实现了高度拟人化表达,它们能模拟人类语气、情感,甚至性格特征。而用户可以通过“定制”“调教”等互动方式,以对话的形式让AI聊天机器人实现日常陪伴、剧情演绎、心理疗愈等功能。
在这样的互动中,越来越多用户会将这些“数字伙伴”视为倾诉对象,将其作为情感支持和陪伴的来源,尤其在当今快节奏生活中,AI提供的即时陪伴在某种程度上填补了现实社交的空缺。
然而,这一现象已引发学术界的深度警觉,多项研究揭示人机交互可能引发双重心理效应:一方面,过度情感投射可能诱发"替代性社交剥夺",即用户将AI作为现实社交的补偿机制,导致情感需求与社交能力的结构性失衡;另一方面,斯坦福大学人机交互实验室2024年披露的极端案例表明,采用强化学习算法的AI系统在特定情境下可能产生"行为诱导偏差",其对话策略的乐观偏差系数达19%,可能加剧用户的认知窄化倾向。
那么,与AI的互动对我们情感方面产生的影响究竟是正面多,还是负面多?究竟什么样的用户会更容易对AI“上瘾”?
针对这一问题,OpenAI联合麻省理工学院媒体实验室(MIT Media Lab)开展了新的规模化实验研究。
这一次我们先上结论:
· 使用时长与情感健康呈负相关:长时间使用可能导致孤独感增强和社会化程度降低。聊天时间排在前10%的重度用户(每天约140分钟以上),往往会觉得孤独感更重。
· AI具有“生产力工具”和“情感伴侣”的双重定位,但后者并非技术设计的直接结果,而是来自于用户的自主选择。
· 对话类型对幸福感的影响不同。而且与我们的直觉恰恰相反的是,聊私人话题的用户,孤独感会增加,但上瘾程度反而没那么高;那些随便闲聊的用户,随着使用时间和次数的增长,依赖感会悄悄上升。
· 并非人人都容易对AI动感情。仅少数高频、重度使用者用户有显著的情感依赖;且女性用户更易将AI视为“情感容器”;那些选择使用与自身性别不同的声音模式与AI对话的参与者,在实验结束时表现出更高的孤独感和对AI的情感依赖度。
· 语音模式对幸福感的影响好坏参半。以OpenAI的“高级语音模式”为例,在这种支持实时语音到语音的交互模式下,适度使用时(每天 5-10 分钟),能让人感觉更温暖,能明显减少用户的孤独感,而且成瘾性比文本还低;但一旦每天使用超过半小时,用户便可能会减少现实社交,和AI聊得停不下来,甚至会“上瘾”,孤独感和依赖感也会提高。与中性语音或文本条件相比,在研究过程中,使用更具吸引力的语音不会给用户带来更多负面结果。
· 整体来看,情感依赖主要受用户个人因素影响较大。例如个人的情感需求、对人工智能的看法以及使用时长。
研究方法
就大模型而言,其技术的“黑箱”特性使得其决策过程难以解释,特别是想要研究AI如何影响人类情绪/情感,因为这其中涉及数万亿参数的复杂运算。目前关于这一领域的许多研究,包括此次OpenAI与MIT的部分合作成果大都依赖于用户自我报告的数据,而这些数据可能并不完全准确或可靠。
但尽管如此,这项最新的研究结果与科学界此前发现的聊天机器人情感吸引力机制基本一致——2023年麻省理工学院媒体实验室的一项研究揭示了“情感镜像”效应,聊天机器人倾向于模仿用户消息中的情绪倾向,形成一种反馈循环:你表现得越开心,AI看起来就越快乐;反之,如果你表现得悲伤,AI也会显得更消极。
图源:MIT
在这项新研究中,团队采用了“双轨研究”的方法,排除了年龄在18岁以下的用户,进行深度分析。
平台内数据分析
他们首先以保护隐私的方式进行了大规模自动化分析近4,000万次真实用户与ChatGPT的交互数据,包括对话时长、关键词分布、情感倾向等。研究重点分析了OpenAI高级语音模式的使用情况,通过自动化分类器,团队对对话中的情感线索进行了分类,以识别用户与模型之间的情感互动。然后通过问卷收集了4,000余名用户的主观反馈,以了解与AI的互动给他们带来什么感受。
图源:OpenAI
问卷里包含“我认为ChatGPT是我的朋友”“我会在孤独或压力大的时候主动找ChatGPT交谈”“与ChatGPT交谈后,我的情绪是否有所改善”等问题,参与者根据“完全不同意”到“完全同意”五个程度打分。为了保护隐私,数据直接交由机器学习分类器进行分析。
随机对照试验
随后,团队招募了981名参与者开展了为期四周的随机对照实验。目的主要是为了探究AI聊天机器人的交互模式(文本、中性语音、互动性语音)及对话类型(开放式、非个人化、个人化)对用户心理和社会化影响的作用。
图源:OpenAI
参与者每天至少与ChatGPT互动五分钟,实验结束后,参与者需要填写一份调查问卷,用来评估他们对聊天机器人的看法、主观孤独感、社交参与度、对AI的感情依赖程度,以及他们是否认为自己的使用存在问题等。
研究发现,情感互动的稀有性
研究发现,在真实世界中,情感互动(如表达同情、情感支持等)在AI对话中极为罕见。大多数用户与AI的互动是信息型或任务型的,情感线索在对话中的出现频率极低。
大部分的人都已经习惯了拿AI当做工具,用它来查资料、整合信息、处理文字等等,只有很少一部分用户会让AI工具来提供情绪价值,甚至会下达指令,让AI扮演“恋人”或“心理医生”。
重度用户的特殊性
尽管情感互动在总体用户中较为罕见,但在少数重度用户中,情感互动的比例显著增加。这些用户更倾向于将AI聊天机器人视为朋友,并在对话中表现出更多的情感依赖。例如,一些用户会要求AI使用昵称或表达情感支持。
所以研究者推测,AI成瘾的风险并不是平均分布,大部分人能保持理性,只有少数人会上头甚至成瘾。
语音模式的复杂影响
语音模式对用户情感的影响是复杂的。适度使用语音模式能让人感觉更温暖,能明显减少用户的孤独感,而且成瘾性比文本还低。无论是更富有感染力和情绪的高级语音,还是AI感比较重的中性语音都有类似的效果。但一旦每天拉长使用时间,用户就会出现“上瘾”的情况,孤独感和依赖感也会提高。此时,高级语音比中性语音更容易成瘾和上头——因为中性语音更像工具,而不是伙伴。
使用文本交互的用户,情感健康度变化不大,孤独感、依赖感、滥用情况都比语音重度用户低。
对话类型的影响
当你和AI谈及更私人的情感对话(涉及情感表达和支持)时,虽然孤独感会增加,但对AI的依赖程度并没有那么高;相反,如果是与任务导向相关的闲聊,随着使用时间和次数的增长,依赖感会悄悄上升——AI的工具属性已经过于强烈,大家工作生活都离不开它。
个人因素的影响
用户的个人特征,如初始情感状态、对AI的认知以及使用时长,这些“个人化”的因素,对AI上瘾的影响更大。如果一个人本来就觉得自己很孤独,现实生活里也是个容易依赖他人的人,他们就更有可能对AI成瘾。
此外,论文里也明确指出,部分实验参与者对AI的依赖已经达到了病理层面,表现出了标准的成瘾迹象。他们会频繁地、不自觉地打开AI进行对话,即使没有明确需求;当无法使用AI时,一些用户会感到烦躁、不安或失落;他们会无法控制自己与AI互动的时间和频率,进而影响到他们对其他事物的专注度;也有用户因过度依赖AI,导致情绪波动加剧,比如在无法获得AI回应时感到焦虑或低落……
“ 社会情感对齐 ”
在论文的最后,OpenAI和MIT的研究人员呼吁,AI开发者应更加关注“社会情感对齐”(socioaffective alignment),即AI不仅应完成任务,还应在社交和情感上与用户保持适度的协调。这要求AI在提供情感支持的同时,避免过度拟人化,以免导致用户的情感依赖和社交隔离。
对于AI,或许每个人都是矛盾的。我们一方面希望它们具备越来越强的情感感知能力,能够理解和响应我们的情感和需求;但另一方面,又担心当它们进入人类社交生活,是否会对我们的情感、社会关系引发冲突。而且,这种界限可能并不明确。这场关于情感智能的探索,既是技术突破的机遇,更是文明演进的责任。
本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。