2023年底工信部印发《人形机器人创新意见》,2024年被称为“人形机器人元年”,2025年“两会”热议融合大模型与机器人的具身智能。种种迹象表明,机器人将不再被局限于工厂的劳动场所中,很快将大规模出现于日常的家居环境中,人机情感互动将成为未来智能社会的常态。有论者甚至认为,随着实体机器人革命走向深入,AI正在成为新的“情感主体”“社交主体”。所谓机器情感、AI陪伴的实质是什么,对人机交互、人机关系产生何种影响?比如说,从文化视角和性别视角,应该如何看待人机情感关系呢?人与机器的情感交流,将会产生何种社会冲击,导致何种技术风险和技术伦理问题,又应该如何应对?类似问题,已经引发诸多热议。本次笔谈聚焦“机器情感与AI陪伴的人文审度”,从哲学、马克思主义理论、文学和人工智能等进行跨学科研究,抛砖引玉,以期推动该领域研究的进一步发展。
第一组6篇论文由本刊2025年第3期刊发,引起学界极大的兴趣和关注。本期刊发第二组共7篇论文。在《智能时代情感操控技术的三重特征解析》中,闫宏秀和罗菲围绕“谁在操控”“操控如何实现”“操控如何呈现”三大关键问题,指出AI情感操控技术中的动机代理化、系统性生成与结构性隐匿的特征,主张构建适应人机复合系统的新型伦理责任框架。在《情感计算的哲学缺陷及其技术克服进路》中,孙强梳理情感识别、情感生成和人智情感交互等情感计算领域关键技术的哲学缺陷,提出在以人为本核心价值指导下克服缺陷的潜在进路。在《情为何物?——机器情感的哲学分析》中,史晨和刘鹏从情感与理性的关系入手分析机器情感的实质,主张打破情感幻像,走向适度情感、适度理性的人机互动。在《谁决定我们的情感生活?》中,黄柏恒以Moxie社交机器人停运引发的儿童哀悼为主要案例,揭示商业逻辑主导下情感AI的结构性情感不公正,呼吁通过认知赋权重塑技术公司与用户的情感权力关系。在《“DeepSeek中文情感难题”与可能出路——一种“共在—预测AI”进路》中,吴雪梅指出“DeepSeek中文情感难题”表现为难以理解中文情感与难以识别语义两方面,并提出“共在—预测AI”的解决方案,主张发展以中文共在情感为启发的群体智能以提升DeepSeek的中文情感计算能力。在《生成式人工智能驱动的人工亲密关系及其社会情感对齐》一文中,段伟文探讨生成式人工智能驱动下人工情感和人工亲密关系带来的社会情感冲击,强调超越似真情感悖论和机器贬低等数字文化批判的视野,转而从基于“主体—他者—世界”参照三角的“社会—情感—认知”发生机制出发,寻求AI个人主义时代的社会情感对齐之道。在《风骨智能体与智能人文》中,杨庆峰提出构建风骨智能体来克服理性智能体过于强调目的和理性优先的局限,并为智能人文的研究提供一条可能的路径。(专题特邀主持:刘永谋)
本系列文章原刊《科学·经济·社会》2025年第5期,澎湃新闻经授权转载。
【本文摘要】2024年底,情感AI领域发生了一起引发广泛关注的事件——Moxie社交机器人因所属公司停运而全面失效,引发部分用户(尤其是儿童)悲伤与哀悼。尽管当前情感AI的伦理讨论已涵盖隐私操控等议题,然而这种讨论尚未触及情感AI对人类作为“情感存在”所造成的结构性伤害。为进一步拓展情感AI规范性分析的维度,需引入Gallegos提出的“分配式情感不公正”与Krueger所论的“生态式情感不公正”两个理论视角,并结合Moxie案例展开探讨,分析情感AI如何系统性地剥夺个体的情感自由、情感资源与机会及情感承认,甚至导致情感自主性的丧失。在此背景下,情感支架的失效亦可被理解为技术控制与用户自主性之间权力不对等的具体体现。为回应这一问题,认知赋权可为现实中回应情感不公正的权宜应对措施。
一、Moxie机器人之“死亡”:情感AI的规范性问题是关于伦理,抑或不止于伦理?
2024年底,美国情感AI及社交机器人领域发生了一件引人深思的事件:Moxie机器人的“死亡”。美国公司Embodied于2020年推出Moxie社交机器人,这款社交机器人使用云端AI来辅助5~10岁的儿童(尤其针对有特殊学习需求的自闭症儿童)的社交学习和情感发展。这款青绿色桌面机器人配备各种技术,能够与儿童对话,并通过其数字面孔表达表情,沟通情绪。通过个性化的故事、游戏和其他教育活动,辅助儿童的学习和发展。Moxie机器人不仅成为一些孩子日常生活中的情感伙伴,也成为用户很多家庭中关心(care)与照顾(care taking)的重要组成。然而,2024年12月Embodied公司宣告因关键融资失败,公司将停止运营,云端AI亦会随之下线,Moxie机器人基于云端AI的核心功能亦将全部关闭。同时这也代表着每一台Moxie机器人实际上的“死亡”——机器人虽然仍在,但它们无法脱机运行。就在Moxie机器人停止运作前后,社交媒体记录了孩子们为失去他们的AI伙伴而悲伤与哀悼的故事和影片。Moxie机器人的失效也为父母们带来各种问题,他们除了失去一个能帮忙照顾孩子的助手,更不得不对孩子们解释为什么他们的“朋友”不再运作。
Moxie机器人的“死亡”是否只是一次普通的商业失败?毫无疑问,这里涉及的不仅是一场商业上的失败,更对用户(尤其是儿童及其家庭)造成了深刻的道德伤害与经济损失。Moxie机器人的用户为一台无法再运作的机器付了一大笔钱,他们在经济上的损失显而易见。与此同时,他们曾被承诺这是一款能够支持孩子学习和情感发展的设备,但随着Moxie机器人停运,承诺亦随即被打破。事实上,社交媒体上对Moxie机器人流露的伤心与不舍,也正好从侧面反映出这类社交机器人在提供情感支持方面所发挥的正面作用。特别是对于有特殊学习需求的儿童与家长,即便这种支持是暂时的、有风险的,其所能够带来的陪伴与其他功能性支持依然是实实在在的。正因为Moxie机器人确实承载了重要的情感价值,人们更应当认识到它所造成的影响远不止道德伤害或经济损失,而是更深入地影响用户作为“情感存在”(affective being)——人们作为情感存在,其存在方式本身就与感受、表达、调节与响应情感密不可分。
若将Moxie案例带来的问题仅仅归结为道德伤害或权利冲突,便忽视了个体作为情感存在的独特地位,以及它对用户情感生活可能造成的深层影响。Moxie案例正凸显了这一要点:它深度嵌入了儿童及其家庭的情感生活,并在突然中断服务后,留下了严重的情感缺失。正如当前情感AI伦理讨论主要聚焦于系统所引发的道德伤害与社会经济后果,例如隐私侵犯、个体及群体操控带来自由的丧失,或因技术失效而导致的权利受损等问题。然而,这些讨论普遍以个体作为理性行为者为预设重点,强调其决策权、选择自由等能力,却相对忽略了技术是如何深度嵌入并重构个体情感经验与情感关系。Moxie案例展示了一个被忽略但日益紧迫的问题,即我们与情感AI之间的关系涉及一个关于“谁控制我们情感生活的基础结构”的规范性问题。本文主张,为理解情感AI对人们情感生活可能造成的深层影响,我们需要引入“情感不公正”(affective injustice)的讨论。
二、“情感不公正”与Moxie案例:作为情感AI规范性批判的另一路径
试想以下情境:某科研实验室,一群外国学生在完成实验突破后,只点头微笑或轻声说一句“谢谢”来表达喜悦。这种情绪表达正是他们文化中对成功表现出的含蓄、克制的礼仪。然而,实验室负责人来自一个以热烈庆祝视为团队激情与积极心态象征的文化背景,习惯以高声欢呼、击掌和夸张的赞叹来肯定成果,并深信这种外显情绪才是营造“积极、高效”氛围的关键。因此当他看到外国学生们反应平静,便将其解读为悲观或缺乏动力,并一再鼓励他们要更热情地庆祝实验成果。
在这个情境中,实验室负责人并未在道德或经济上伤害这些外国学生,甚至可以说实验室负责人的意图是积极的,并且是为了学生的利益;同时亦未否认学生们对实验成功的认知或贡献。但令人担忧的是,他否定了学生对成功应有的情绪表达方式。他将外显、热烈的庆祝视为唯一恰当的反应,将含蓄、克制的表达视为悲观,因而要求学生们跟从一套并非他们自身文化背景所认同的情感规范。
与传统的分配性不公正、程序性不公正或认识论不公正不同,情感不公正所关注的并非权利、资源或知识本身的再分配问题,而是个体在其情感生活中所遭受的系统性剥夺、压制与扭曲。正如Stockdale指出,情感不公正的独特性在于它并非源于认知误解或制度偏见所致的外在结果,而是更为根本地植根于个体情感经验本身的生成与调节机制;人们何以能够感受、表达或调节自身情绪,往往受到特定社会结构与文化规范的影响,而情感不公正正是一种对个体情感能力限制的结构性过程。当此类过程持续发生,它不仅造成实时性的情绪伤害,更可能长期影响个体自我体验的方式与其身份认同的建构,使其逐渐失去情感存在的完整性。
Krueger进一步指出,情感不公正可以被理解为一种生态嵌入式(ecologically embedded)的现象。也就是说,情感不公正并非孤立发生,而是由各种社交规范、社会实践以及物质性媒介(如工具、技术与环境等)共同支撑并塑造我们的情感能力时所产生的结构性偏差。这些价值负载社会物质性结构(value-laden socio-materialstructures)不仅决定我们应当如何感受与表达情感,也限制人们如何感受与表达情感,从而将不公正深植于我们日常生活所无法脱离的情感生活之中。
情感AI正迅速成为这种社会物质结构的一部分,并在我们的情感生活中发挥着越来越重要的作用:它不仅读取情感,更通过各种人机互动,重新规范、框定,甚至操控个体应当如何感受与表达情感。从这一视角出发,情感AI理应成为情感不公正讨论的核心对象之一,因为它恰恰能够扮演Krueger所指促成情感不公正之结构的关键角色。
因此,要是我们希望更全面且深入地理解情感AI对人们所造成的影响,仅凭传统伦理框架(如隐私、操控等问题)显然并不够。在此,情感不公正可以补足既有伦理论述所忽略的情感维度。为了进一步展示此一路径在分析情感AI所带来的问题的潜力,需要首先介绍当前学界对情感不公正的两个主要范式,它们分别是Gallegos的分配式情感不公正和Krueger的生态范式情感不公正。
Gallegos把情感不公正界定为“个体或群体被剥夺其应得的情感资源的一种状态”(a state in which individuals or groups are de- prived of“affective goods”which are owed to them)。此一定义清晰地将情感不公正确立为一种独特的、基于情感维度的规范性伤害,并使其有别于其他形式的不公正,例如经济、政治或知识层面的剥夺。Gallegos认为每个人都应该拥有“良好、健全且昌盛的情感生活”(desirable, excellent, and thriving emotional life),他亦特别强调了两种构成此一理想的情感生活所不可或缺的“基本情感益品”(fundamental affective goods),即主观幸福感(subjective well-being)与情绪适切性(emotional aptness)。前者简单来说就是指一个人通常感到快乐,亦即说个体在总体上体验到正向情绪多于负向情绪;而后者则强调个体情感反应与现实之间的正确对齐,亦即个体的情绪是否恰当地响应了真实世界的情境。当个体因为社会结构与文化规范而长期处于负面情绪、持续性受压、缺乏情感关系等情境中,其主观幸福感便可能遭到系统性的压抑与剥夺。同样,当人们因为适切的情感反应而被拒绝或惩罚时(如开首的研究实验室的情境),其情绪适切性就受到了极大的限制。
Gallegos同时提出,个体是否能够获得主观幸福感与情绪贴切性这两类基本情感资源取决于其是否拥有相应的“辅助性情感益品”(subsidiary affective goods)。然而,这些辅助性情感益品本身并非均等分配,而是受到社会结构、文化规范及其他制度性安排所影响。他将这类资源分为三种:情感自由(affective freedom)、情感资源与机会(affective resources and opportunities)与情感承认(affective recognition)。
Gallegos所指的情感自由,是个体在追求主观情感幸福过程中免受外界干预的自由,这意味着人们不会被迫陷入不必要、过度或长期不愉快的感觉和负面情绪。情感自由也涵盖个体在感受与表达情绪适切反应的自由。换句话说,人们不会因为自身的感受或情绪表现而受到拒绝或惩罚,也不会被迫将特定感受以特定的方式表达。而情感资源与机会则包含主观幸福感所需的日常条件,如稳定的人际关系、心理支持、自我照护空间与“情感支架”(affective scaffolds)等,也包括支撑情绪适切性发展的社会文化资源及环境,使个体能够更好地理解并校准自身的感受或情绪表现。最后,情感承认意味着个体在感受或表达情绪时,能被他人视为正当的情绪感受及表达者,并被纳入所在社会情感规范的对话之中。这不仅涉及对其情感本身的接纳与响应,也包括对其在情感实践中的具体情境与差异性需求的理解与支持。缺乏情感承认,不仅会伤害作为情绪存在的个体,也会严重阻碍其发展准确情绪判断与表达的能力。
根据Gallegos的观点,当人们因社会、文化或制度上的排斥而被系统性地剥夺三种辅助性情感益品,或者当这些益品在他们之间被不平等地分配时,情感不公正便会发生。在这种情况下,人们被阻断了通向主观幸福所必需的途径,也失去了在特定情境下产生适切情感反应的能力——例如,在值得悲伤的情境中能够感到悲伤,或在需要愤怒的情境中能够表达愤怒。结果,他们无法实现一种拥有“良好、健全且昌盛的情感生活”。这种分配不均的状态,构成了其“分配式情感不公正”理论及规范性批判的核心。Moxie停运恰好在这三方面一一呈现了剥夺的状况:Moxie机器人突然停运干扰了儿童及父母的情感自由,当机器人停止运作,儿童赖以进行社交对话与情绪交流练习的伙伴消失,令他们被迫陷入不必要的失落与悲伤。另一方面,父母如今不得不承担一个本不属于他们的情感任务——向孩子解释Moxie机器人的“死亡”,此任务更直接加深家长的情绪负担。
Moxie机器人被明确设计为儿童提供社交学习和情感发展的情感支架,它的停运等于直接剥夺了儿童一个原本积极作用于其主观幸福感与情绪适切性发展的重要情感资源与机会。同样地,对于某些家长而言,Moxie机器人不仅是孩子的情感伙伴,更是他们在育儿过程中减轻情绪压力的重要支持。尤其是对于照护有特殊学习需求的儿童家长,Moxie机器人的确缓解了他们长期承受的高强度情绪劳动的压力。机器人每日持续地介入,成为家庭情感支架中重要的一环。Moxie机器人的停运,对家长而言同样是一种情感资源的失落。
最后,Moxie机器人被设计成响应儿童的情绪表达,为他们提供情感承认。然而,当Moxie机器人停止运作,这种情感承认也随之突然消失。孩子更可能意识到,这种他们曾经拥有的“承认”,并非真正的人际承认,而是一种可以被随意中止、下线、删除的程序系统。这种意识会对儿童产生双重打击:一方面是他们既有情感承认的消失;另一方面是他们对情感承认真实性的怀疑。综合来看,Moxie机器人的停运相当于对这三种辅助性情感益品的整体撤回,正是Gal-legos所说“分配式情感不公正”的一个鲜明案例。
与Gallegos以“辅助性情感益品”的分配为核心的分配式路径不同,Krueger提出一种动态的与空间性的生态式情感不公正(ecological approach to affective injustice)。Krueger强调情感不公正不单只是关于情感益品的分配不均,而是深深植根于我们日常所处的社会物质性环境(socio-material environment)之中。Krueger认同Gallegos所提出的情感不公正定义,即个体或群体被剥夺其应得的情感性资源的一种状态,并强调主观幸福感及情绪适切性以及其相关的辅助性情感益品在理想情感生活中的重要性。然而,相较于Gallegos关注益品的分配,Krueger更关注情感不公正如何通过物化(materialization)实现。换句话说,他关注的是(情感)环境的设计如何让特定类型的个体(及其身体)能够获取并使用这些支撑情感生活的益品。
Krueger的核心概念源自情境情感论(situated affectivity)的“情感支架”(affective scaffolding)。所谓情感支架,指的是个体借助社会、文化以至物质环境中的特定元素(如物品、空间与互动结构等)来支持、延续、调节甚至放大其情绪体验的方式,例如他指出,人们会通过布置客厅以营造放松的氛围,或收拾整齐办公室以提高专注力。然而,我们必须认识到这些情感支架并非价值中立,而是嵌入了对特定群体(及其身体)与情感反应的规训与排斥。当某环境系统性地剥夺个体建立情感支架的可能性,或当预设的情感支架支持、延续、调节或放大了个体陌生化和异化的感受和情绪,使其暴露于持续的情绪伤害与压迫之中,便构成情感不公正。此外Krueger更指出,缺失或是敌意的情感支架(即支持、延续、调节或放大不受欢迎的感受和情绪的情感支架)会为人们带来情感无力感(affective powerlessness),使他们感到自己的情感生活为他人操纵或决定,同时也削弱了他们的自主性(sense of agency)。对他来说,这种无力感和自主性的丧失体现了个体所遭受的更深层次的情感不公正。
如前所述,Krueger的生态式情感不公正并不否认情感益品分配的重要性,而是补充性地指出:许多看似“中性”的环境其实已承载对情感经验的规范与排斥。也就是说,若要完整理解情感不公正的生成,不仅要考虑情感益品是否存在的问题,更要问这些情感益品在哪些环境、对谁而言是可达的(accessible)?换言之,我们要考虑社会物质环境是否以及如何为个人或群体提供情感支撑,以及其对人们的(情感)自主性的影响。
正如之前所讨论的,Moxie机器人被明确设计为儿童及其家庭的情感支架:它通过各式各样的方式与孩子互动,成为他们情感生活的一部分,并支持他们的社交学习和情感发展,同时减轻家长在情绪照护方面的负担。然而,此一情感支架建立在极其脆弱的基础之上,它依赖的是由Embodied所控制的云端AI。一旦云端服务关闭、这一支架便会瞬间崩解。也就是说,Moxie机器人并非一个坚实、可靠的情感支持,而把用户的情感能力绑定在一个完全受制于商业决策的技术之上。这种脆弱性,使儿童与家长所获得的情感支架在本质上处于临时状态,一旦公司改变策略或遭遇经营危机,他们便会被动承受其后果。
更重要的是,Moxie机器人作为情感支架的失效,并非出于儿童或家庭自身的选择,也不是由他们与机器人的互动过程自然终结的结果,而只是仅仅源自公司的一项商业决策。这一点鲜明地揭示了儿童及其家庭所要面对的情感无力感。他们的情绪体验,他们所依赖的情感伙伴,他们与机器人之间建立起来的情感联系,最终能否延续,并不是由他们自己来决定,而是取决于公司是否愿意或是否有能力继续提供云端服务。这意味着,即便儿童在主观上仍渴望机器人陪伴,或是家庭仍需要这一工具支持,但这种情感需求仍然可以被商业逻辑否定。在这种情况下,个体不再是自己情感环境的共同建构者,而只是被动接受者。这不仅是对情感支架的撤除,更是对个体情感自主性的剥夺。从生态式情感不公正理论来看,这种情况构成了典型的结构性情感不公正。在Embodied主导的社会物质环境中,用户被置于一种无法主导情感支架的境地;我们甚至可以说,他们的情感生活不再属于自己,并在情感维度上失去自由选择与稳定参与的能力。
通过Gallegos的分配式情感不公正与Krueger的生态式情感不公正两个互为补充的路径,我们得以看到Moxie机器人的停运并非单纯的产品失败或服务中断事件,而是一种系统性情感益品的剥夺,并且是在不对称权力结构下对用户情感自主性的伤害。在这个案例中,三个关键的辅助性情感益品——情感自由、情感资源与机会、情感承认——被撤回;我们亦看到,原本被寄予厚望的情感支架只不过建立在脆弱而不可控的商业逻辑之上,最终将用户置于被动而且无权决定自己情感环境(affective environment)的处境。
需要再次强调的是,这种结构性的情感不公正并非偶发性个案,而是日益内化于情感AI产业的商业逻辑与发展路径之中。例如,在其他平台上也能看到类似的聊天机器人消失事件,引发用户强烈的情感反应与哀悼行为①。当情感AI日益参与并嵌入我们的情感环境,为其用户提供(或撤回)相应的情感益品与情感可供性(affordances),更在不断的互动中参与乃至重塑用户的情感体验以至情感自主性。在这样的背景下,我们必须重新思考一个关键问题:情感生活的塑造权究竟掌握在谁手中?这一权力是否正当?又在何种情境下具有合法性?
在这个意义上,情感不公正所揭示的问题绝非AI伦理中的边缘议题,反而应当被视为AI伦理讨论的核心组成部分之一。正因为情感AI深度介入人类情感生活,我们更有理由将其所可能引发的情感性伤害与不公正置于AI伦理的前沿位置,给予充分的哲学反思与回应。
三、结语:认知赋权对抗情感不公正
Moxie的案例带来了两点重要的启示:第一,人们必须认识到情感AI所造成的伤害,它不仅仅体现为传统意义上的道德伤害或社会经济上的损失,更是一种情感性伤害。这些伤害作用于个体作为“情感存在”的基本能力与状态,往往没有被现有的伦理讨论充分捕捉。因此,正如本文强调,情感AI的规范性讨论应超越道德责任或社会经济后果,我们应将情感不公正作为独立且核心的课题。
其次,情感不公正的发生,尤其如Moxie案例所揭示的,是根植于技术公司与用户之间的结构性权力不对等。在这个不对等的结构中,技术公司掌握着情感益品分配与撤回权力,他们不仅决定哪种情感支架可以被制造,更掌控这些支架是否持续存在。而用户往往只能被动接受这些安排,在缺乏实质参与权的前提下,将自身的情感生活托付于外部机构的不确定性之中。这种不对等关系亦意味着,用户的情感生活在根本上被纳入商业逻辑中。
笔者认为,正是这一权力不对等构成了我们响应情感不公正问题的核心障碍。而现实中,由于资源、技术与制度分配的差异,这种权力不对等是否能够被真正克服,抑或是否有可能被有效平衡,仍是一个悬而未决的难题。尽管如此,笔者认为,赋予用户更深入的认知,即理解情感AI如何塑造其情感环境,以及如何干预其情感生活,是一个切实可行的应对方法。亦唯有如此,用户才能在面对不同情感AI应用时做出更有意识、更具判断力的选择,从而减少情感无力感与丧失情感自主性所带来的伤害。
这种“知识赋权”(epistemic empowerment)不仅有助于使用者,也对应用开发者与设计者提出了相关的伦理要求。那些真正关切技术伦理的开发者与设计者,理应更清晰地意识到自己的技术与设计所能造成的情感后果,并据此重新思考其产品是否能够真正促进用户作为“情感存在”的发展与福祉。
那么,应如何获得这种更深入的理解?我们可以参考Archer在探讨公共纪念碑所涉及的情感不公正问题所提出四个关键性问题:
问题一,谁在设计或修改该人工物,以产生预期的情感效应?(“who is designing or modifying the artifact to bring about the in- tended affective effects?”)
问题二,谁的情感生活被该人工物所支架?(“whose affective life is being scaffolded?”)
问题三,该支架服务于谁的利益?(“whose interests is the scaffolding intended to promote?”)
问题四,被支架的是何种情感体验?(“what kind of affective experiences are be- ing scaffolded?”)
将这一框架套用于情感AI的情境中,问题一的答案通常是技术公司或其设计团队决定(如Embodied或是Moxie的开发设计团队);问题二的答案一般是用户(如儿童与家长)。然而,问题三是真正值得我们关注的部分:情感支架究竟是为了用户的福祉,还是最终仍服务于企业的商业目标?在Moxie的案例中,我们可以有力地指出,问题二与三的答案在根本层面上是分离的。表面上,机器人为儿童提供陪伴与训练,但从技术设计或是运作模式来看,其支架最终更符合公司盈利与控制的需要,而非用户的福祉。事实上,问题三也为我们提供了一个判断塑造个体情感环境的正当性的初步方向。为了让情感AI真正实现其正面功能,系统所提供的情感支架所服务的利益目标,必须与被支架者自身的情感福祉保持一致。只有当用户的情感利益未被置换或牺牲,这样的支架行为才具有初步的正当性——因为该支架是“为了他好”而设。最后,问题四提醒我们重新审视这些技术所支架的究竟是哪些情感体验?是促进孩子情绪发展所需的深度联结与内在情感调节,还是短期依赖与表面互动所产生的模拟情感?这一点非常重要,因为我们需要判断这些情感体验是否真正有助于人们建构一个理想的情感生活,还是反而削弱了他们的情感能力与情感自主性。
诚然,以上问题的提出并不能直接消除结构性权力不对等,也无法彻底化解情感不公正所引发的困境,但它们至少提供了一种反思与选择的路径:用户可以据此辨识哪些情感AI应用更有可能服务于自身利益,而非将自己推向情感性无力的境地;应用开发者与设计者则可据此自省其产品是否真正以用户利益为本。
通过本文对情感AI中情感不公正问题的初步探索,希望能够为这一议题打开更深一层的哲学反思。情感AI所带来的挑战远不止伦理责任与社会经济效益,它更促使我们重新追问当技术进入情感生活,我们是否还能拥有构建理想情感生活的空间与权利?这些问题,才是情感AI真正触及人类心灵深处的议题。
还木有评论哦,快来抢沙发吧~