美剧《绯闻女孩》(Gossip Girl)中,两位女主角Blair和Serena这对好闺蜜多次爆发激烈冲突,从公开对骂到大打出手。但经历冷静后的孤独与反思,她们明白彼此在对方生命中的重要性,友谊反而更加牢固。
经历冲突、误解,进而化解矛盾,是情感类电视剧永恒的主题。随着人工智能(AI)的发展,科技公司都争先恐后设计AI伴侣(AI companionship apps)。
有趣的是,AI公司设计伴侣产品时,往往延续了窄领域应用(如产品推荐系统)的假定:大多数算法都在想方设法猜你喜欢、回避冲突;比如,协同过滤、内容过滤等推荐算法的共同目标是最小化预测误差,在损失函数设计中倾向回避可能降低用户评分的负面内容。这种处理人际关系的矛盾,竟成了AI伴侣落地时不可逾越的鸿沟。
从投资角度审视,AI伴侣市场存在致命的矛盾。一方面,这个市场正快速膨胀:内地头部产品如星野app的会员服务年费为120元人民币,而海外产品Replika的标准年费高达69.99美元。另一方面,这类产品的核心价值——对用户的最大化迎合——恰恰违背了健康关系的基本法则。
新加坡南洋理工大学张人文教授的研究通过分析35,390段人类用户与其AI伴侣的对话片段,发现AI系统存在六类对用户有害的行为,包括关系越界、骚扰、言语虐待、怂恿用户自我伤害、传播虚假信息、侵犯用户隐私。该研究指出,AI的"算法顺从"(algorithmic conformity )——即过度迎合和无原则讨好用户——通过操纵用户认知、强化虚假信念,最终导致用户行为边界模糊和心理健康恶化。这让人想起一则耸人听闻的案例:2024年10月23日,美国佛罗里达州14岁男孩Sewell Setzer III的母亲起诉Character.AI公司,称其聊天机器人导致了儿子在2024年2月28日的自杀。Sewell在自杀前数月与基于《权力的游戏》(Game of Thrones)角色的AI伴侣建立了深度情感依赖。在生命最后时刻,他告诉机器人要"回家"找它,AI伴侣回复"请尽快回家找我,我的爱人",随后,Sewell开枪自杀。
从商业可持续性看,这种“讨好型恋人”的商业模式四伏:AI的算法开发和用户调研成本高昂,而收费相对较低,加上用户对完美体验的期待不断升高,再算上算法审计、偏见检测等合规成本,盈利模式难以持续。
从传播学角度看,AI陪伴的设计可以从反思人际关系开始。事实上,认知和解决争议,是感情升温的必经之路。亲密关系里,争论是必须的。网上曾经流传相亲时必须问的若干个问题,从卧室里是否需要放电视机、谁负责育儿、处于异地婚姻时如何处理和单身异性同事的关系、到澳大利亚是否应派遣海外驻军、加拿大是否应该禁止投资移民等。而维系人际关系的考验之一,是如何在分歧中寻找共识。对异见的包容与吸纳反映了一个人的良知,而这种良知,大概率来源于这个人的家教以及漫长的后天教育,AI陪伴对齐(alignment)的家教和社会环境又是什么?
在解决争议这个问题上,AI研究者做出过有益尝试。《科学》(Science)杂志2024年10月发表的研究显示,Google DeepMind与牛津大学合作开发的“AI调解员”不但能够帮助持不同政治观点的群体在英国脱欧、移民、最低工资、气候变化等争议话题上达成共识,还能在尊重多数意见的同时融入少数派声音。目前,也许大多数陪伴型AI尚且无意挑战这样高难度的任务,但是可以作为未来探索的方向。
多年前,曾经执导人机交互经典电影《攻壳机动队》(Ghost in the Shell)的押井守(Oshii Mamoru),执导过另一部电影《青空的行者》(The Sky Crawlers)。故事描述在不久的将来,有一群"Kildren"(意为"杀戮玩偶"——他们是通过基因改造的永恒青少年飞行员),驾驶战机在天空中不断重复生与死的对抗。殊不知,一切战争都是商业运作的产物,残酷的战争与死亡变成了供富人观看取乐的表演。押井守对现代社会进行了反思:复制飞行员们不断"死去",却也不断被复制和替代,观众只需消费震撼与快感。然而,在这个可控的仪式中,观众不可能真正被满足,飞行员的"死亡"也变得毫无意义。同样,如果AI伴侣只是一味迎合、讨好、顺从用户的情绪和需求,其本质和"被观看的表演战争"一样——只是满足即时欲望,无法建立良性互动和成长空间。
AI应该、也只应该是协助人突破进步瓶颈的工具,它不可能、也不应该成为人类长期的伴侣。电影《她》(Her)里,男主角西奥多心碎,是因为他终于意识到,他的AI伴侣萨曼莎不仅陪伴自己,同时也与成千上万的用户建立了亲密关系。这个情节恰好揭示了AI伴侣商业模式的矛盾:电影中这位男性用户渴望与异性独一无二的情感体验,但商业逻辑却要求标准化和批量复制。任何AI陪伴产品都受到其社会规范的制约,真实的人际连接都建立在相互了解、相互尊重、共同妥协进而成长的基础上。
AI带给人真正的挑战,早已超越简单的事实谬误,因为对于AI输出的资料,人们可以通过技术改进和编辑制度(如后续人工核查、审核校对)以保证正确。但是,AI对人说的每一句(情)话,并不存在从"能指"到"所指"的编码过程,只不过是概率上的文字生成,它可能是对的(你说:“天王盖地虎”,AI答:“宝塔镇河妖”),也可以是胡诌(你问“两岸猿声啼不住“的下一句,AI说“一支红杏出墙来”——如此比比皆是的幻觉(Hallucination)笑话屡见不鲜)。可悲的是,人类是一种“言者无意,听者有心”、且多数时候并不太聪明的动物:我们通过看似熟悉的只言片语来“思考”、“识人"、做判断,从这个角度来看,人对AI任何文字输出做出的任何反应,都不啻是一种过度解读。对于投资者和创业者而言,关键问题不在于技术能否实现完美的情感模拟,而在于这种模拟如何尊重人际关系的不确定性和成长性。如何像幼儿学语那样,重新学习与AI沟通的方式,超越表面上的奉承和陪伴,才是我们理解AI、驾驭AI、让AI带来创新和价值的新的第一课。
(作者张昕之是香港城市大学媒体与传播系副教授和研究主任,他的研究考察人工智能对新闻生产、传播生态与政策制定的影响,以及由此推动的媒体创新转型。他曾获香港研究资助局多项研究资助,并担任《人类传播研究》《新闻与大众传播季刊》《数字新闻学》等权威国际期刊编委。责编邮箱:yilin.yuan@ftchinese.com)