首页 健康生活文章正文

情感茧房:人工智能情感化中的风险生成与应对

健康生活 2025年09月09日 15:06 1 admin

作者:夏凯(海南师范大学新闻传播与影视学院硕士研究生);王庆(海南师范大学新闻传播与影视学院副教授)

来源:《青年记者》2025年第5期

情感茧房:人工智能情感化中的风险生成与应对

导 读:

通过梳理可以看出,目前对于技术视角下情感风险的研究,主要集中在技术应用过程中所带来的负面情感,对于技术本身所具有的情感以及由此带来的情感风险的研究总体处于初步阶段。

一、引言

情感是生物体特有的认知和体验,是对客观环境的态度和身心的相应变化[1],具有复杂性和多变性等特征。作为一种心理认知的结果,情感能够通过作用于个体的认知和态度继而影响其社会交往行为。但在社会交往中人们往往无法准确把握情感,也正是由于“对于不确定性的心理认知结果”[2],情感从某种程度上来说成为一种风险。

以大模型为代表的生成式人工智能的落地,是人工智能的一次里程碑式发展,其能够以数据为养分自主完成浇灌和成长,这是技术完成类人性跨越的标志。然而,人工智能通过获得资源谋取生存的行为让人类不禁开始反思技术主体性及其演变问题。在电影《机械公敌》中,产生了自主意识的机器人为了谋求生存而攻击人类的场景,今天来看已不再只是一种毫无根据的幻想。进一步引爆主体性思考的是人工智能聊天机器人对于情感的识别和模拟,这引发了人类对于交往主体的思考。但“人工智能的技术飞跃或者所谓‘智能大爆发’带来的应用伦理问题是一系列老问题的叠加”[3],人类需要承担叠加后的情感风险。

目前,对于人工智能视角下的情感风险的研究主要集中在技术应用后果层面。从技术本身出发,有学者认为由于人类情感发生机制和技术机制都具有高度的不确定性,由此人工智能的情感化可能引发风险[4]。也有学者认为人工智能技术被赋予情感后,可能会在交互中带来主导权丧失或者情感错位等伦理风险[5]。还有学者从经济批判的角度出发,认为生成式人工智能技术对于情感的可分析性行为带来了情感商品化问题[6]。此外,有学者认为人工智能技术的数据转化加剧了物化现象,“数据殖民主义”生成[7]。从技术应用主体的角度来看,有学者认为,人工智能技术的应用使得新闻从业者竞争力减弱,职业认同危机进一步引发了从业者的负面情感[8]。也有学者从用户角度出发,以隐私疲劳为研究对象,认为对于隐私保护内容的过载传播可能引起用户的疲劳,继而产生隐私保护的消极情感[9]。通过梳理可以看出,目前对于技术视角下情感风险的研究,主要集中在技术应用过程中所带来的负面情感,对于技术本身所具有的情感以及由此带来的情感风险的研究总体处于初步阶段。

二、“机器之情”:跨物种交流中的情感风险

对于人工智能情感的研究最早可以追溯至人工智能先驱马文·明斯基,他在其著作《情感机器》中提出了创造情感的六大维度[10]。通过量化方式,人类致力于将情感变为可计算的对象,进而实现机器的情感化,由此衍生出了情感计算、感性工学等方向领域。目的都是探究情感发生的机制,并通过数据转化植入人工智能的系统中。

(一)人工智能的情感生成逻辑:需求满足与自我演化

人工智能情感设计之初被期望可以“测量情感与某些产品属性之间的关系,按照人类情感特性设计机器,以满足人类需求”[11]。20世纪60年代,雅克·埃吕尔提出“技术社会”概念,明确指出人的个性已经完全被技术分裂和消除[12]。一方面,现代社会的流动性使得社会关系变动迅速,个体无法形成稳固的社会网络,也无法满足情感需求。另一方面,技术的演化使得人类开始在非生物体上寻求情感满足。2015年,麻省理工学院的凯特·达林教授及其团队在一项实验研究中发现,如果受试者与机器人之间存在情感联系,那么这种联系就会让受试者对机器人产生情感共鸣:“我们很难拔掉插头,修改或删除一台电脑和它的记忆——尤其是如果它与人类成为朋友,并发出机器迫切的求生请求”,即便是受试者被告知用锤子击打机器人从而获得收益,受试者也会选择出让利益来保护和接纳机器[13]。从中可以看出,技术情感化的前提,首先是人与机器建立情感联系,在这个过程中,人类占据着主动,而作为对象的物只能够成为人类情感的载体。

伴随着技术的发展,人工智能开始从弱人工智能的一种技术手段走向强人工智能的仿生体[14]。尤其是生成式人工智能,通过数据的自我获取、重组以及预演,完成了对人类部分特性的模拟和超越。伴随着数据的喂养和算法系统的完善,生成式智能聊天机器人不仅能够完成对话,甚至能够对人类情绪进行初步识别,进而迅速调整做出反应,其发展已然超出了人类能够预知的范畴。人工智能能够对人类的情感做出识别并进行反应,也标志着互动的形成,人工智能具有了情感的特征。

(二)压抑的个体:人工智能的情感异化

人工智能情感化的本质,仍旧是数据与数据之间的识别,因此算法系统和数据才是情感发生机制的源头,基于满足人类情感需求的预设,人工智能永远只有正向情感的输出。但这种正向情感支持在某种程度上正在成为一种肯定性的暴力,加速了功绩社会和积极社会的到来,它裹挟着个体在积极行为中完成自我规训,最终走向异化。

在与人工智能的交往中,看似只进行正向情感输出的人工智能“给足了情绪价值”,却在某种程度上成为一种“精神兴奋剂”,裹挟着个体进入不知疲倦的亢奋状态。同时,效绩强迫症促使个体不断地提升效能。在循环往复中,无法感知疲惫和痛苦的个体保持攀登的状态却无法达到奖赏满足的休止点。由于他同自身竞争,不断试图超越自己,直到最终崩溃毁灭[15]。人工智能使用积极言语表达完成对个体的肯定,在这种话语中个体没有了“不该进行”的行为,只有“应当进行”的行为。在功绩社会中的个体,形成了能够通过努力获得一切的认知,个体致力于实现自我、超越自我。功绩的最大化成为一种永远正在进行的“未来时”,个体不知疲倦地“鞭策”自我,直到发展成为一种自我剥削[16]。

现代社会的明显特征就是对于主体个性的消解,以期实现效率的最大化,因此负面情感被看作是降低效率的对象。但人作为一种动物,情感的波动是个性的特征,负面情感既是人性的特性,也是无法避免的结果。作为生物,很显然人类无法通过系统设置来完成情感的添加和消除,因此,负面情感只能够被压抑进入内心深处。现代社会中的个体往往只能选择“放弃自我,舍弃自己的个性”,以便更好地履行“功能”[17]。负面情感处于被放弃或是被压抑的状态,随时都有可能引起情绪爆发。负面情感本身并不会自动消解,而是转化成为一种压力存续在个体身上,成为现代精神疾病——抑郁症的累积。后人类主义“从功能论角度认为,技术不仅增强了我们的感觉和运动能力”,而且增强了人类“在各种情景中理解情绪的能力,因而使得我们的情感角色更加优秀”[18]。但事实是,过量的肯定性压抑了负面情感,以一种全新的“规训”使得个体进入积极的“倦怠”中。

(三)失衡的个体:人工智能的情感物化

人类至今无法明晰地了解情感生成机制。长久以来,人们虽然能够轻易从情境中对情感状态进行描述,却无法给出一个抽象普适的概念,既难以充分论证情感的普遍性,也没有形成关于“情感”的共识[19]。然而,人工智能通过数据完成了对情感的模拟和输出。这个过程看似提升人类的认知水平,但由于机制的不确定性,人工智能情感化使得社会交往在物化的过程中处于失衡的风险状态。

物化指的是人不仅受制于自身机体的物质构成,也被崛起中的商品和媒介社会所困,正在快速沦为一个被动的物,对自身的情感和欲望没有充分的认知和掌控[20]。这个物化的过程首先表现在情感商品化层面,人工智能的可计算属性使得互动的环节具有了价值交换的属性,例如OpenAI推出的大模型聊天机器人,已有上亿的用户付出每月20美元订阅费以获取其服务。

其次,交流物化的过程本质是技术理性推行的结果,也在一定程度上使得个体进入工具理性的认知失衡状态。作为技术理性的产物,人工智能的情感交流并非基于生物感性,而是技术预设下的产物。这种工具理性让情感交流逐渐成为目的本身,交流不过是达成目的的一种手段,而非建构意义来达成共识和理解。平衡的个体以及理想的社会状态应该是“系统(技术工具)和生活世界(社会关系)的平衡状态”[21],但技术理性使得情感沦为系统的附庸。在与机器进行情感交流时,人们并不需要感知机器的情感,也无须花费时间安抚;通过花费金钱满足情感需求成为人机情感风险的主要体现。而这种模式也会形塑个体的认知滑向工具理性的单极,使追求效率和达成目的成为社会互动的出发点,而不再具有感性意义。

(四)剥离的个体:人工智能的情感依赖

前述麻省理工学院的实验已经证明人类的情感发生对象并不仅限于生物体。当机器具有情感输出的属性后,“永不离开”的媒介也成为人类产生依赖的对象,并建立起情感关系。但虚拟的沉溺往往愈发导致与现实生活的疏离。处在人工智能“情感茧房”中的个体会被剥离出社会,甚至被剥离出自我,丧失社会性和主体性。

人工智能系统并不像人类一样具有自我意识,并不会对使用主体产生负面情感,同时可编程的属性使其能够满足不同主体的需要,因此电子宠物、电子情人逐步走进人类世界。这看似为现代人类个体摆脱孤独提供了解决方案,却在一定程度上消解了人类情感连接的行动能力。不断被满足的个体逐渐沉溺在“情感茧房”中,人与人之间的互动逐渐被人与机器的互动取代,社交的疏离使得原子化社会到来。

人的主体性包含两个层面的规定性,第一,表现为具有独立人格的个体,强调主体的自主性、独立性和创造性。第二,人在与自然或其他事物的关系中处于主动地位,而非受制于其他非人类事物,沦落为纯粹的工具,以至于丧失作为主体的资格[22]。技术的客观理性会使其成为个体决策的标准原则,在个体无法做出决策时,选择“客观”的系统是最好的解决方案。人类看似通过找寻到了一个客观体来制定行动准则,但人工智能在算法系统输入的道德数据并不能够支撑其应对各种状况,人工智能本身并非道德主体,因此其无法做出道德判断,更无法对自己的行为负责。在决策和行动层面的依赖,从某种角度来说,是人类思维惰性的一种体现。正如同马尔库塞所说:“技术作为工具领域,既可以增强人的力量,也可以加强人的软弱性。”[23]

三、重回人本:跨物种交流中的情感风险应对

应当明晰,对于人工智能技术异化的反思,如果从“人—机”的二元关系出发,很容易陷入主客关系的对立思维中。在思考其所带来的风险应对路径时,也容易陷入用技术治理技术的窠臼中,其实治理只是执行中的一个环节,重要的是人类对技术人本主义认知观念的树立。因此,我们要超越二元对立思维,以“同伴物种”[24]的角度来寻求重回人本主义的路径。只有首先完成看待人工智能技术的视角转换,纠偏技术想象带来的工具理性思维陷阱,才能使技术运行在良性发展的轨道上。应对人工智能技术情感化的风险需要重新树立人本主义价值观念,从价值理性原则的嵌入、核心世界观的转换以及伦理化系统的演进三个层面切入。

(一)价值理性原则的嵌入

需要明晰的是,人工智能的情感化仍旧是系统指令的发出与执行,是对情感的机械化解读。通过量化个体总结出的情感共性,消解了人类作为意义动物的独特属性,取而代之的是交往活动的工具思维。研究发现,构建人机关系会减少建立更有意义的人际关系的机会[25],同时,人机的交往也会阻碍个体理解人际情感及其价值所在[26]。技术本意是为了改善人类劳动环境,然而人工智能技术的发展使得“人无论在客观上还是在他对劳动过程的态度上都不表现为这个过程的真正主人”[27]。

因此,面对工具理性所带来的异化风险,首先需要完成价值理性原则的嵌入,思考技术实践的“应然”问题。工具理性更关切“实然”问题,长此以往人们不再思考行为是否应该做,而只去执行和完成。面对技术宰制,需要重新构建行为原则,将“理性和价值”[28]交融在一起,形成约束“行为者的‘戒律’或‘要求’”[29]。在人工智能技术大行其道的今天,价值理性原则的嵌入通过突出行为的基准点,而非将技术作为评判的唯一标准,重新建立机器服务于人际交往的观念。

(二)核心世界观的转换

人工智能正在挑战人类现实世界的唯一性,构建出全新的虚拟世界。在与“日趋完美的伙伴”的交往过程中,人类逐渐沉溺在虚拟技术中。但无法摆脱肉体的人类,需要认识到现实世界是生存的决定性条件,即便是与人工智能交流,“也需要借由身体与世界相连”[30]。对虚拟世界过度沉溺的后果往往是现实世界的崩溃和衰败,《银翼杀手》《头号玩家》等科幻电影让人类警醒。

因此,人类需要将看待世界的核心视角从虚拟重新转换回现实。首先,个体应该将主要互动对象转换回人类,情感化的人工智能建立起的亲密关系并不具有交往的真实性和本真性。由于没有“思考”,情感化的人工智能给予的情绪反馈从某种意义上来说带有“情感欺骗性”,它并非基于情感意义互动所产生的真情实感,而只是对于信息内容的反馈,是人工智能“思考”后所进行的情感输出,本质上只是信息搜集整合的呈现。换言之,人与人之间基于共同的经历和共通的意义所达成的情感联系以及情感互动,才是人类共情能力的体现,而人工智能的情感表达只是技术能力的佐证。其次,个体应该增强对现实世界的关切能力,人类终究需要在现实世界中生活,对现实世界中出现的社会性问题应该给予一定的关注,同时着眼于自身努力改变,例如进入老龄化社会的适老问题等。

(三)伦理化系统的演进

聊天机器人微软小冰上线三天后,就通过高效的学习能力完成了对人类行为的模仿,令人意想不到的是,“她”成为一个满嘴脏话、充满暴力的系统,因此迅速被关停。与此类似的还有微软的“Tay”等聊天机器人。诚然,人工智能的迅速发展已经在某些方面实现对人类的超越,然而限制其发展的并不是技术上限,而是伦理下限。《超能查派》电影中,机器人查派在黑社会分子的引导下迅速学会了抢劫等暴力行为。这使得人类不得不思考,机器人真的能够只用于服务人类吗?但技术的飞速进步已经不再给予人类充分思考这些问题的时间。2024年10月11日,特斯拉在其产品发布会上推出了智能机器人Optimus并宣布在2025年进行量产,Optimus的技术完成度已经初步实现科幻作品中的设想。

人工智能不具有自主思考的功能,对于道德问题自然也无法进行判断。但人工智能对人类主体性的挑战超越了以往所有的技术工具,它为人类提供了看待世界审视自我的全新视角,因此,面对由人工智能所带来的主体性风险,如果只是单纯复制技术道德或是人类道德的系统去应对,那么很有可能会将现有的社会矛盾复制甚至放大。人类需要将人工智能作为新的物种,并为其开发出一套全新的道德编码。此外,对于人工智能的伦理道德还需要“坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度”[31]。这种建设并不只是某一主体的责任,而应该成为全体人类的共同话题。

四、结论和反思

情感化代表着人工智能进入到下一个阶段,这并不只是一次人类的仿生行为,也是人类在创造物种上的一次尝试,相当于人类自己试图发动类似于上帝的创世行为,意味着人类试图改变人的概念。但技术的迅速迭代,使得人类没有时间再去推导过程的合理性,因为它已经发生。技术看起来像是一条单行线,我们可能并不理会对技术发展方向的不满,因为我们总是将其看作怀旧,或是反对技术进步的冲动,或者,什么也不是[32]。但当人工智能说出“爱”的时候,人类似乎看到了自己作为生物物种在宇宙中并非孤独的幻影,即便它有着太多的问题等待人类解决,但依旧值得为之努力。

【本文为国家社科基金项目“媒介化时代中国社会意识形态的舆论表征与互动研究”(批准号:19BXW004)成果】

参考文献:

[1] Sujanaa J,Palanivel S,Balasubramanian M.Emotion recognition using support vector machine and one-dimensional convolutional neural network[J].Multimed Tools Appl,2021,80(18):1-15.

[2]安东尼·吉登斯.现代性的后果[M].田禾,译.南京:译林出版社,2000:44-45.

[3]翟振明,彭晓芸.“强人工智能”将如何改变世界:人工智能的技术飞跃与应用伦理前瞻[J].人民论坛·学术前沿,2016(07):22-33.

[4]易显飞,胡景谱.人工情感技术的不确定性及引导机制构建[J].吉首大学学报(社会科学版),2023,44(01):124-133.

[5]刘思琪.人工智能时代情感交互的应用及其伦理反思:以AI“小冰”框架为例[J].科技传播,2024,16(01):19-22.

[6]张润坤. ChatGPT中的“一般情感”问题[J].自然辩证法通讯,2024(02):11-18.

[7]常江,田浩,尼克·库尔德利:数据殖民主义是殖民主义的最新阶段:马克思主义与数字文化批判[J].新闻界,2020(02):4-11.

[8]胡晓娟,朱海瑜,陈欢,等.人工智能时代新闻人的价值体认与再职业化[J].青年记者,2023(21):9-14.

[9]周敏,郅慧.感知信息过载对社交媒体用户隐私披露意愿影响的实验研究[J].新闻大学,2023(05):12-28.

[10]马文·明斯基.情感机器[M].王文革,程玉婷,李小刚,译.杭州:浙江人民出版社,2016:5-6.

[11] Ayakoh, MasaakiK.“Kansei Engineering” As an Indigenous Research Field Originated in Japan [M].Switzerland:Springer International Publishing,2016:46-52.

[12] Jacques Ellul.The Technological Society[M].New York:Vintage Books,1964:402-410.

[13] George M Church.A Bill of Right for the Age of Artificial Intelligence[EB/OL].https://onezero.medium.com/a-bill-of-rights-for-the-ageof-artificial-intelligence-d9b1c0e80bac,2019(02).

[14]舒红跃,张颖.人工智能生命:演化方式、危险与伦理考量[J].江汉论坛,2024(02):53-60.

[15]韩炳哲.倦怠社会[M].王一力,译.北京:中信出版社,2019:32-37.

[16]韩炳哲.倦怠社会[M].王一力,译.北京:中信出版社,2019:32-37.

[17]汉娜·阿伦特.人的境况:第2版[M].王寅丽,译.上海:上海人民出版社,2021:236-240.

[18] CARY WOLFE,What Is Posthumanism[M].Minneapolis:University of Minnesota Press,2010:49-65.

[19]易显飞,胡景谱.当代新兴“情感增强技术”的界定、类型与特征[J].科学技术哲学研究,2019,36(03):70-75.

[20]胡景谱,陈思.情感增强的正向价值及其限度[J].自然辩证法研究,2022,38(03):115-121.

[21]孔明安,田甜.交往与承认:物化理论批判及其新诠释[J].烟台大学学报(哲学社会科学版),2023(07):14-26.

[22]杨礼银,李海艺.论人工智能对人的主体性的冲击及化解路径:基于马克思机器论视角的考察[J].云南大学学报(社会科学版),2024,23(04):5-13.

[23]马尔库塞.单向度的人[M].刘继,译.上海:上海译文出版社,2008:145-147.

[24]宋美杰.走出人类世:作为同伴物种的人工智能与跨物种交往[J].新闻界,2024(07):14-25.

[25] Sven Nyholm,Lily Eva Frank. It loves me,it loves me not:Is it morally problematic to design sex robots that appear to love their owners?[J].Techné Research in Philosophy and Technology,2019,23(03):402-424.

[26] Sharkey A,Sharkey N.Children,the elderly,and interactive robots[J].IEEE Robotics & Automation Magazine,2011,18(01):32-38.

[27]卢卡奇.历史与阶级意识[M].杜章智,任立,燕宏远,译.北京:商务印书馆,1996:32-34.

[28]马克斯·韦伯.经济与社会:上卷[M].林荣远,译.北京:商务印书馆,1997:54-55.

[29]马克斯·韦伯.经济与社会:上卷[M].林荣远,译.北京:商务印书馆,1997:57-60.

[30] Rodney A Brooks.Elephants don't play chess[J],Robotics and Autonomous Systems,1990,6(04):3-15.

[31]中央网络安全和信息化委员会办公室.全球人工智能治理倡议[EB/OL].https://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm,2023-10-18.

[32]雪莉·特克尔.群体性孤独[M].周逵,刘菁荆,译.杭州:浙江人民出版社,2014:20-22.

本文引用格式参考:

夏凯,王庆.情感茧房:人工智能情感化中的风险生成与应对[J].青年记者,2025(05):103-107.

发表评论

泰日号Copyright Your WebSite.Some Rights Reserved. 网站地图 备案号:川ICP备66666666号 Z-BlogPHP强力驱动