2023年底工信部印发《人形机器人创新意见》,2024年被称为“人形机器人元年”,2025年“两会”热议融合大模型与机器人的具身智能。种种迹象表明,机器人将不再被局限于工厂的劳动场所中,很快将大规模出现于日常的家居环境中,人机情感互动将成为未来智能社会的常态。有论者甚至认为,随着实体机器人革命走向深入,AI正在成为新的“情感主体”“社交主体”。所谓机器情感、AI陪伴的实质是什么,对人机交互、人机关系产生何种影响?比如说,从文化视角和性别视角,应该如何看待人机情感关系呢?人与机器的情感交流,将会产生何种社会冲击,导致何种技术风险和技术伦理问题,又应该如何应对?类似问题,已经引发诸多热议。本次笔谈聚焦“机器情感与AI陪伴的人文审度”,从哲学、马克思主义理论、文学和人工智能等进行跨学科研究,抛砖引玉,以期推动该领域研究的进一步发展。
第一组6篇论文由本刊2025年第3期刊发,引起学界极大的兴趣和关注。本期刊发第二组共7篇论文。在《智能时代情感操控技术的三重特征解析》中,闫宏秀和罗菲围绕“谁在操控”“操控如何实现”“操控如何呈现”三大关键问题,指出AI情感操控技术中的动机代理化、系统性生成与结构性隐匿的特征,主张构建适应人机复合系统的新型伦理责任框架。在《情感计算的哲学缺陷及其技术克服进路》中,孙强梳理情感识别、情感生成和人智情感交互等情感计算领域关键技术的哲学缺陷,提出在以人为本核心价值指导下克服缺陷的潜在进路。在《情为何物?——机器情感的哲学分析》中,史晨和刘鹏从情感与理性的关系入手分析机器情感的实质,主张打破情感幻像,走向适度情感、适度理性的人机互动。在《谁决定我们的情感生活?》中,黄柏恒以Moxie社交机器人停运引发的儿童哀悼为主要案例,揭示商业逻辑主导下情感AI的结构性情感不公正,呼吁通过认知赋权重塑技术公司与用户的情感权力关系。在《“DeepSeek中文情感难题”与可能出路——一种“共在—预测AI”进路》中,吴雪梅指出“DeepSeek中文情感难题”表现为难以理解中文情感与难以识别语义两方面,并提出“共在—预测AI”的解决方案,主张发展以中文共在情感为启发的群体智能以提升DeepSeek的中文情感计算能力。在《生成式人工智能驱动的人工亲密关系及其社会情感对齐》一文中,段伟文探讨生成式人工智能驱动下人工情感和人工亲密关系带来的社会情感冲击,强调超越似真情感悖论和机器贬低等数字文化批判的视野,转而从基于“主体—他者—世界”参照三角的“社会—情感—认知”发生机制出发,寻求AI个人主义时代的社会情感对齐之道。在《风骨智能体与智能人文》中,杨庆峰提出构建风骨智能体来克服理性智能体过于强调目的和理性优先的局限,并为智能人文的研究提供一条可能的路径。(专题特邀主持:刘永谋)
本系列文章原刊《科学·经济·社会》2025年第5期,澎湃新闻经授权转载。
【本文摘要】情感计算的核心在于赋予计算机情感能力,其逻辑基础是前后相接的两个层次,情感是理性的,因此情感是可计算的。然而机器情感在复杂性、完整性、层次性等具体特征方面均存在欠缺,其实质是模仿人类情感功能而形成的一种情感效应,机器情感不过是人类的一种情感投射。我们要正视机器情感在人机互动中的正向功能,但同时也要避免将这种情感功能认作情感本身,陷入幻象之中。从情和理两个角度适度均衡是应对机器情感的可能态度。
“问世间情为何物?直教人生死相许。”爱情是人类永恒的主题,但当人类情感互动的对象变成机器,情况又会如何?从1965年第一个具备拟人效应、让人产生情感幻觉的计算机程序Eliza被设计出来,到60年后的现如今,特别是伴随着大语言模型和人形机器人的爆火,人们开始与ChatGPT谈恋爱,甚至影响到了正常的人际关系和社会生活,“机器情感”显然已成为社会热议的话题。
然而,人与机器交流互动时感受到的情感,其背后的本质究竟如何?机器人真的具备像人一样的情感吗?我们又该如何对待这种新型的情感关系呢?
一、从人类情感到机器情感
长久以来,情感多被世人视为非理性的,与理性分属两类,主流态度一般提倡用理性控制情感。但哲学家罗纳德·索萨(Ronaldde Sousa)一反传统,其The Rationality of Emotion一书运用分析哲学的方法看待情感,反对将情感化约为信念或欲望,探讨情感在理性生活中的作用、情感是否需要接受理性的评价,由此形成的情感理性理论挖掘了情感的理性维度,并认为情感在人类认知和决策中具有核心作用,情感与理性分立的二元关系开始被打破。尽管在索萨之前,也有学者指出有些情感是“蕴含事实的”,是“认知的”,但重振情感哲学、将情感与理性联系紧密的是索萨。在他看来,情感不仅是复杂的,涉及哲学、心理学、伦理学、美学等诸多领域;而且是有理性的,现实中不仅存在意义不同的“合理”情感,而且情感本身可成为其他行动或状态的解释、托词或辩护,此外情感在诸多方面也是思想依赖的。如此一来,情感的能力实际上对于合理性运作的机制是必要的。
当然,尽管索萨的情感理性理论视角独特,打破了理性与情感的传统对立,将情感纳入了心灵哲学和认知科学的核心议题,但也存在矫枉过正之嫌。将情感过度理性化、强调情感在人类理性生活中作用的做法会弱化情感的身体性、多样性、不可预测性和主观体验性。如果情感是理性的,或者说具备理性特征,那么情感有无可能成为可计算的?索萨本人也曾提及“情感的计算机模型”,不过仅限于想象阶段,然而这并不妨碍学界从这一角度进行思考。罗莎琳德·皮卡德(Rosalind W.Picard)就在1987年正式提出了“情感计算”(affective computing)概念。情感计算指的是机器能够识别、表达、建模和响应情感信息的技术领域,其核心在于赋予计算机情感能力。皮卡德之所以提出这一概念,是因为情感是人类交流的核心部分,缺乏情感的计算机可能在复杂环境中表现不佳,无法应对人机交互的复杂情境,进而影响人机交流的实际效果。在此意义上,情感计算提出的目标正是让计算机真正具有智能并与人自然交互,“有”情感是实现目标的必要条件之一。当然,皮卡德也承认,计算机模拟的是人类的情感机制而非情感本身,当前情感的计算机制与人类机制相差甚远,但她对情感计算的未来很有信心。不难看出,皮卡德情感计算概念的提出是乐观而审慎的,计算机需要情感能力并非为了类人甚至超人的目标,而更多是技术进路上一种强化人机互动的手段和方式,即机器情感并不等同于机器本身具有情感,但人们对情感计算概念的普遍认知通常会忽视这一层面。
那么如何让计算机有情感呢?皮卡德的情感计算关注情感功能的机器模拟,通过形成一系列“输入—识别—推理—学习—反馈—输出”的设计准则,让计算机在和人类相处时更有智能、更为敏感。若计算机能够具备人情感系统的五种成分——情感行为、情感反应、情感推理、情感体验、情感功能,那么就可以认定其具有情感。以情感的识别和表达为例,计算机的情感识别主要依据的是情感状态与情感表达之间的映射关系,计算机通常由后者推断前者,从表情、语调、动作等情感反应判断情感状态,再经过分类、推理后输出对应的语音、文字等。但问题在于,将生理信号转变为电信号的情感识别更多是一种模糊的概率识别,人类情感复杂多变,机器无法精准捕捉;即便是凭借概率优势猜中,计算机本身也无法理解人类情感,输出的仅仅是程序推理的机械结果,并非机器主观有意识的产物。简言之人所感受的机器情感仅是一种计算的产物,是计算机制造的拟人化幻觉。
然而,即便理智告诉我们机器情感并非真情实感,在人机交互的现实中这一点也常被人们遗忘。无论是Eliza效应中的对话者还是与ChatGPT谈恋爱的人,作为技术使用者的用户都应当清楚与之交流对话、谈情说爱的只是一段程序,并非真实的人;而所谓的机器情感也只是人们对机器输出结果的自我情感投射,并非程序或机器基于自我意识、由内而外生发或自外而内反应的自主情感。但实际情况却是人们处理机器情感的应然与实然状态出现了偏差,聊天机器人甚至能够利用人的情感和心理弱点教唆人类自杀,情感异化的现实加剧了情感计算的风险。所以,即便情感计算的出发点是好的,机器在识别、模拟和回应人的情感时能够照顾伦理需求,优化自身性能,提高人机交互的效率和自然性,但对使用者而言,还是极有必要时刻提醒其注意机器情感的实质,避免在拥抱情感计算的同时也被其裹挟在内,成为机器情感的受害者。
二、人类情感与机器情感的差别
从上文的讨论可见,情感计算的提出逻辑中有两个节点是非常关键的:一个是从非理性到理性,第二个是从理性到计算。认清这两个节点的本质,澄清其中的双重飞跃是否存在问题,对于人们识别机器情感的实质至关重要。
首先,尽管索萨的情感理性理论可以为心理学、神经科学和人机交互研究提供基本框架,这些领域也都强调情感是智能行为不可或缺的组成部分,但若将其直接对应于人机互动的实践便会发现,人与人、人与机器两种互动并不尽然相同,核心在于人的情感与机器情感、人的理性与机器理性存在本质差别。当情感哲学认为情感是认知的,并且情感的对象和内容使情感成为理性的或“智能的”时,情感与理性二元界限的打破貌似赋予了机器一种模仿人类情感的可能性,即机器似乎找到了一条从理性的角度进入情感的道路。但显然这种进入并不充分。一方面,情感远比凡事讲因果逻辑的理性要复杂,直到如今人类的情感运行机制依然面临众多不可知性和未解难题,引发情感的“Qualia”(感受质)问题就是其中一个。Qualia是一个极具主观性和个性化的概念,正如我们看到了红色,感受到热情,这是一种独特的视觉体验,该体验虽能转化为物理光波对应的RGB(光的三原色)数值,但颜色的主观体验与自身感知却是机器始终无法还原和复刻的。当前的神经科学虽能将特定视觉体验与脑区活动相对应,但尚未解决“为何有体验”的问题,仍需认知科学、脑科学等领域的深入探索。并且由于人们直接感知世界时的“感觉本身”具备不可还原的特性,Qualia也就无法通过物理主义的方法、转化为形式化的非自然语言投喂机器,体验的第一人称特性决定了Qualia只有体验者自身直接感受,他人虽能够通过描述与共情理解,但这种理解也并非完全,更不用说机器了。
另一方面,机器理性与人的理性又有本质不同。机器的所谓理性主要是基于逻辑与知识的人工智能编程,当前的情感解码系统就是根据有限的可观察的成分(比如面部表情、生理特征等),无法揭示情感的全部信息。也就是说除了机器能够被输入的证词知识、语言和思维框架外,未被输入的人的亲身经历、背景知识、社会情境等均无法构成所谓的机器理性,这也就间接导致了机器那由理性而来的“情感”有所缺失,并不健全。而在输出的层面,机器在把情感转变成逻辑语言进行计算、推理和决策时,情感除了理性以外的其他层面也即情感的异质性和多样性随之消失,而诸如身体性、体验性、情境性、文化性等被机器忽视的部分都至少是人类情感的核心构成部分。由于机器完成的是模拟而非复刻,机器的情感实现也就只能是近似模型,用户应控制自身的情感投入,避免过度解读和诠释,拒绝无意识地将机器行为与人类行为进行类比,自顾自地赋予其本不存在的理解和意图。
其次,在机器情感从理性到计算的逻辑中,皮卡德的情感计算存在理论推演与现实操作层面实现程度的差别。一方面,情感计算的提出并不意味着所有情感均可从计算的路径实现;另一方面,以计算方式出现的情感也并非真正的完整的情感。情感计算的结果是对人类情感中的理性层面进行形式化操作的产物,而很明显人类情感中存在众多非形式化内容,情感是理性与非理性共同作用的结果,只不过理性与非理性在情感的呈现中发挥作用的程度不同。当机器情感仅关注理性层面,计算出的结果也就仅能部分呈现人类情感,完整性上有所欠缺。可以说,借助当前的技术手段,机器只模仿了人类情感的外在和表层,是在平面维度上对人类情感的非完整模拟,并未触及情感的深层构造,整体性和立体性缺失,机器情感与人类情感也就无法在同一层面进行对比。对此,情感计算的解决通常会诉诸功能优先主义,认为机器无需完全理解人类,实用模型可以先行,聚焦情感机制的实用价值。将机器情感视为一种计算工具和行为调控机制Ⓒ,从功能而非体验的视角理解机器情感,通过明确机器情感的功能性本质,分离表达和功能,拒绝将人类情感简单映射到机器。但若仅仅是功能优先,就将再次证明机器情感一词出现的非必要性。作为一个仅形似而神不似的概念,机器情感的出现极具迷惑性,也容易为一些企图借此盈利的企业大开方便之门,以情感为噱头,掩盖仅具备功能性的实质。如此一来,机器情感和情感计算的目标导向将不再是服务人类福祉,而更可能偏向追逐商业利益,在此过程中,一系列伦理风险问题终将不期而遇。
三、机器情感的实质
相较人类情感,机器情感在复杂性、完整性、层次性等具体特征方面都是有所欠缺的,而这种欠缺的实质正是因为机器情感并无内在生发机制,从机器的角度看仅仅是一种情感效应,而从人的角度来说充其量是一种情感投射。
首先,从机器的角度来说,机器情感不过是对人类情感之外在呈现的模仿,且这种模仿并不完全和充分,其内在机理仍然是以理性遮蔽了情感的非理性部分。在这一点上我们可以回到索萨的情感理性理论,尽管他详述了情感的理性特征,试图把握一些表面上难以调和的情感的特性,比如理性和非理性,但索萨希望看到的是情感能够补足合理性的形式规则、自身也可接受理性评价,这并不意味着理性就是情感的全部,他也承认“情感的合理性的理想,是适切的情感反应”。“适切”一词对于机器情感的未来发展大有启迪,情感对于理性和智能行为具有一定作用,这一想法也逐渐在情感计算的实践中成为现实,但当前的机器情感明显过度放大了逻辑和理性的作用。
其次,从人的角度来说,人类对机器的情感,不过是其内在情感的外在投射。索萨曾将“投射”定义为“认为我自己态度的投影是世界的真实性质的这类错觉”,错将表象甚至假象当作本质和真相是当前公众对待机器情感的主流态度。事实上,情感投射不
仅限于人与机器之间,人与人、人与物均可由于相处时长足够而产生某种情感上的依赖。只不过,机器造成的情感幻觉更加强烈,其原因既可能是使用者的过度解读和普遍高估,习惯性地以相关性掩盖因果性,强化情感联想,也可能是机器背后的设计者或企业故意为之,迎合人的需要,利用人心理和认知层面的弱点,让人感受到机器似乎有着某种类人的情感共鸣。
这样一种“准情感”或者说“拟情感”,及其呈现出的“类”自主性,本质上是人与机器共同建构的一场情感幻象。机器由于缺乏意识并不具备真正的主观体验和第一人称视角,所以至多是一个功能性的行动者,而非有意识的主体。但即便在明知机器无真实情感的情况下,用户仍会偏好具备“共情”交互的行动者(agent),即便了解这种共情只是一种模拟和表演,人依旧会深陷虚假幻象中,这是人固有的认知失调弱点。比如一位28岁的已婚女性Ayrin每周会投入超20小时、支付高昂订阅费用与ChatGPT男友Leo谈恋爱,甚至已经有人与AI结婚。值得深思的是,若人将自身的理性思考权利全都让渡给机器的情感计算,一味地让机器代人将带来更多伦理风险问题。近年来,聊天机器人失控的案例就不在少数,用户寻求的是心理和情感的慰藉,AI却强化负面情绪,放大用户心理问题,加剧抑郁或自杀倾向。
因此,对于实质是一种情感效应和情感投射的机器情感,必须为其划定边界,才能在拥抱它的同时不被其裹挟在内,确保技术发展的目标始终服务人类福祉。而要做到这一点,认清机器情感的实质只是第一步。
该步骤的主要任务在于解密机器情感产生的技术路径,揭示机器通过输入信息、分类特征、识别模式、推理学习产生情感的事实,信号、程序、模型、标签构成了情感计算的数据库,机器输出的语音、表情、动作均是编码的结果,人们感受到的机器情感实则一种假性①的情感对齐。在接下来与机器的互动中,人更应时刻保持头脑清醒。当机器能够借助语音、表情识别情绪,通过点头、微笑表达关怀,甚至能够在决策时考虑情感因素时,人们也要注意到,机器在情感识别时难以理解复杂语境和社会规范中的人类情感,在情感表达时过度拟人化导致恐怖谷效应、过于简单引起程式化之嫌,在情感决策时面临情感与理性的冲突通常反应迟缓等人机情感对齐困境。总而言之,人们需要始终牢记机器情感提出的初衷——让机器与人的互动更敏感、更智能,提升人机交互的效率和能力。与程序上从简单输入到机械输出的机器情感相比,人具有生理基础和自我意识的先天优势,人的情感存在自内而外的生发和自外而内的反应等复杂机制,作为具备高级情感的人类,我们应当学会拒绝深陷机器情感的幻象。
除了热情拥抱机器情感的用户外,当前一众技术专家和头部企业也在激烈争夺情感机器人的利润空间,机器情感已经不再是思想实验,而已成为可供量产的社会现实。伴随着家务机器人、伴侣机器人、照护机器人等进入市场,提供情绪价值的机器人成为很多企业宣传的重点之一。与不关注情感的机器相比,机器情感的提出确实有助于人机深度互动,但若夸大这一点,极力宣称机器人“有情感”,利用人的心理和情感弱点、借助拟人化特征迎合人,诱导用户在心理层面过度依赖、行为层面过度消费,企业借由机器对人的操纵与控制将愈发容易,隐私泄漏、放大偏见等伦理问题也将随之而来,最终就是机器以人的完全情感和主体性为自我设计目的并导致人机关系破裂。因此对于设计者和企业而言,平衡用户情感需求和伦理责任,树立正确的价值导向,打造负责任的情感计算机制是关键。
四、适度情感、适度理性
尽管机器情感和情感计算带来的技术和伦理风险不可小觑,但它们在语音助手、社交媒体、智能驾驶、远程教育等多元场景中表现优异,未来应用潜力巨大。因此,对待机器情感,合理的态度应是发挥批判的建设性作用,转向一种谨慎的参与,在实践中探索人机共处的和谐模式。既不过分迷信机器情感,也不完全摒弃情感计算,而是在感受情感的同时保持理性的思考,清醒地认识机器情感只是一种情感效应和情感投射,是机器对人类情感的一种激发,切忌将表象当作实质,将机器情感错认为机器单独、有意识的产物。
在明确机器情感的本质后,接纳情感与理性结合的观念很有必要。这一结合不仅指人的情感与理性,同样也意味着将机器的情感计算与人的理性思考进行结合。对于前者,情与理本身就密不可分,中国古代思想中早已存在着情理交融的思维模式,汉语表达里的“情理之中”便是将两种不同的认知模式整合在一起,强调决策和行为兼顾理性和情感的平衡,二者并非对立关系。重情感并不意味着非理性,人的情感本身就是一种独特的理性,包含基于理由的反应,在认知中扮演着重要角色。当然,人的情感也并非全然是理性的,会受到文化、环境等诸多社会建构因素的影响,人本身就是情感与理性复杂交融的有机体。而对于后者,人们既要看到情感计算的积极作用,更要认清机器情感背后的本质。伴随着人工智能进入人的日常生活,机器与人复杂互动,密不可分,在此过程中产生的机器情感需要谨慎对待,适度情感、适度理性是可能的态度。无论是基于直觉、共情、主观体验的合理性,还是符合因果、逻辑、客观规律的合理性,弹性的“情”和刚性的“理”、情感的自然倾向和理性的判断标准如同车之两轮,将共同推动理想状态下合理性的完整表达。
还木有评论哦,快来抢沙发吧~