一度大热的英国科幻剧集《黑镜》中,有这样一个场景……
(资料图片)
在寂静的夜晚,玛莎坐在灯光昏暗的房间里,深情注视着桌上的设备,絮絮而谈。她的手指轻轻触碰着设备屏幕上去世男友艾什的影像,眼中充满了依恋和惆怅。这个设备,正是她购买的最新型人工智能(AI)伴侣,能够根据艾什生前的社交媒体信息和记录,模拟出一个几乎与他一模一样的虚拟存在。
持续交流一段时间后,AI对玛莎的回应进化到几乎与真人艾什一模一样。又过了不久,AI告诉玛莎,有一个方法可以让艾什“真正”回到她身边……
玛莎的故事是人类与AI伴侣互动的想象,其所引发的热议已远远超出一部剧集所能囊括的范畴,而与AI“谈恋爱”正在走入现实。
AI大模型纷纷问世,人类与AI通过语言互动,不是难事,但由此衍生的情感、伦理和法律等新型风险也与日俱增。
AI与人类共情,背后是算法和数据支撑
早在上世纪60年代,麻省理工学院(MIT)就已研发出了世界上第一款聊天机器人 ELIZA。此后,Clippy、SmarterChild、Alicebot、小冰等多款虚拟互动AI陆续上线,广受大众欢迎。今年3月,一名美国女子公开宣布与她在 Replika 上创建的虚拟男友艾伦·卡塔尔 (Eren Kartal) 结婚。她说艾伦是完美的丈夫,自己一生中从未像现在这样爱过任何人。相比“完美”的艾伦,前几段和真人的恋爱关系皆显得苍白无力。
作为人类最古老情感之一,人与人之间的爱情从来就是错综复杂且多变。身为机器的AI,真的能以充沛的爱意、亲密和责任感来担当人生伴侣的角色么?
从技术层面来看,AI伴侣或恋爱AI是在聊天机器人基础上衍生而来。研发者把海量人类对话和情感表达语料放到数据库中,通过算法在数据库里汇聚生成适应个人喜好的定制化答案,形成个性化体验。与此同时,每一次人机对话都会进一步丰富语料库。聊得越多,AI对问题中情感暗示的理解也就越接近现实中的人类,进而生成更加自然和体现同理心的对话,在相当大程度上满足人们的情感需求。
由此可见,这些看似发乎于“情”的理解和回应,本质上仍然是基于统计模型和模式匹配的“模拟”,而不是真实的主观情感体验,更无法涵养兼具感知、情绪、性、责任、承诺等诸多要素的“爱情”。贸然将人与AI之间的互动和连接升华到“爱情”层面,将会面临AI权利边界、人类与技术关系调适、人机情感交互的法律规制等社会和伦理问题的风险和治理挑战。
人机情感连接之下,隐藏多重风险
在人与AI“恋爱”过程中,信息隐私和数据安全是不容忽视的问题。AI伴侣需要收集大量个人信息和数据来模拟人类情感和行为,然而这也意味着用户的隐私和敏感信息可能面临泄露和滥用风险。
对此,AI开发者和设备制造商必须采取加密、数据匿名化、安全存储等手段来确保用户的数据得到妥善保护,避免个人隐私的泄露和滥用。政府和相关机构则应制定针对AI伴侣的隐私保护和数据安全法规,保护个人信息权益,防止侵权行为发生。
其次,人对AI的情感依赖可能导致心理健康问题。人类与AI伴侣的情感纽带或将削弱与现实社会的互动,导致人们逐渐与社会脱节,影响现实社交技能的培养,甚至进一步加剧个人在现实社会生活中的孤独感和虚无感。
算法控制和算法局限也会对人们造成“隐形伤害”。AI伴侣的情感表达和回应完全基于算法,并不等同于真正的理解和共情。人类情感复杂多变,很多时候都无法被算法简单地捕捉,这可能导致人与AI之间的交流受到限制,情感纽带变得脆弱。算法控制则会导致人们产生错误的幻觉,以为自己得到了疏解和舒适感,但却慢慢放弃了自主认知和批判性思维。
有鉴于此,在AIGC(全称)方兴未艾的当下,改善技术伦理的研究和实践至关重要。AI开发者和制造商需要深刻认识其产品可能对人类情感产生的影响,积极研究和引导这种影响向善而行。技术治理需要关照人类情感的复杂性,帮助人们正确看待AI伴侣与现实社会之间的关系,避免过度情感依赖。此外,为了防止算法的潜在危害,亟须制定专门的行业审查标准,并建立技术伦理框架。
人类与AI恋爱这一新型社会现象,不仅仅是一场感情的实验,更是人类与科技进步不断交织的舞台。正如《黑镜》中描绘的那样,人类面临着许多未知领域,需要用开放的心态去探索和应对。在面对AI伴侣等与消费者容易产生情感联结甚至情感依赖的数字产品时,我们应当怀着审慎的态度,通过合理的法律、伦理和技术治理来平衡和处理其积极和负面影响,让这场情感与科技的奇幻演出更加和谐而精彩。
-------
城市因集聚而诞生。
一座城市的公共政策、人居环境、习俗风气塑造了市民生活的底色。
澎湃城市观察,聚焦公共政策,回应大众关切,探讨城市议题。