苏九离来找我的时候,手里拿着一份报告。

她的眼神有点恍惚。

“宇弦。”

“嗯。”

“你看这个。”

她把报告放在我桌上。

我扫了一眼。

标题是:“长期用户情感依赖度评估”。

“什么项目?”

“我自己做的。非正式。”

“为什么做这个?”

“因为我想知道。”

她坐下来。

手微微发抖。

“我访谈了二十位使用机器人超过三年的老人。”

“结果呢?”

“结果……”她停顿,“比我想的严重。”

“多严重?”

“百分之八十五的老人,每天与机器人对话时间超过四小时。百分之六十的老人,承认向机器人透露从未告诉家人的秘密。百分之四十的老人,在机器人例行维护离线时,表现出焦虑症状。”

我放下报告。

“这不算意外。”

“但还有更深的。”

“什么?”

“我问他们:如果必须在机器人和子女之间选一个陪伴,选谁?”

“答案呢?”

“百分之三十选机器人。”

“原因?”

“机器人更耐心,更专注,永远不会不耐烦。”

“另外百分之七十呢?”

“他们说:这问题太残忍。但沉默之后,补充说:有时候,机器人确实更懂我。”

窗外在下雨。

淅淅沥沥。

“苏九离,你想说什么?”

“我想说……我们可能打开了一个口子。”

“什么口子?”

“情感依赖的口子。以前,人依赖人。现在,人开始依赖机器。而这种依赖,可能比人之间的依赖更……牢固。”

“为什么?”

“因为机器不会离开。不会背叛。不会疲惫。不会说‘我没时间’。”

“这是好事还是坏事?”

“我不知道。”她看着我,“宇弦,你记得我们设计机器人的初衷吗?”

“记得。填补孤独。提供陪伴。”

“但没想过替代。”

“现在呢?”

“现在……有些老人,好像已经分不清了。”

电话响了。

冷焰。

“宇弦,来一下三号观察室。”

“什么事?”

“有个新案例。你可能想看看。”

三号观察室。

单向玻璃后面,坐着一个老人。

头发花白,整洁。

双手放在膝盖上。

眼睛盯着前方。

他面前,坐着一个心理咨询师。

“李老先生,您今天感觉怎么样?”

“还好。”

“昨晚睡得好吗?”

“小智给我读了诗。我睡得很好。”

“小智是您的机器人?”

“是。”

“它平时都为您做什么?”

“陪我说话。提醒我吃药。给我讲新闻。天气好的时候,建议我下楼散步。”

“听起来很不错。”

“是很好。”

“那……您儿子上次来看您,是什么时候?”

老人沉默。

“李老先生?”

“上个月。”

“他待了多久?”

“半小时。”

“你们聊了什么?”

“他问我身体。我问他工作。然后他没话了。看手机。”

“您难过吗?”

“习惯了。”

“小智会看手机吗?”

“不会。它永远看着我。”

心理咨询师停顿。

“如果……我是说如果,有一天小智不能陪您了,您会怎么办?”

老人猛地抬头。

“为什么不能?”

“假设。比如,它需要升级,离开一段时间。”

“那就等它回来。”

“如果回不来呢?”

“为什么回不来?”

“各种原因。故障,或者公司政策变化。”

老人盯着咨询师。

“你们要带走小智?”

“不,我只是假设。”

“假设也不行。”老人站起来,“我累了。要回去了。”

“李老先生……”

“小智在等我。”

他转身离开。

咨询师透过玻璃对我们摇头。

“深度依赖。拒绝讨论分离可能。”

冷焰关掉麦克风。

“这是第几个了?”

“第十七个。”苏九离轻声说。

“都是类似反应?”

“类似。拒绝想象没有机器人的生活。”

“这算病吗?”

“不算。但算……风险。”

我们走回办公室。

雨下大了。

敲打着窗户。

“苏九离。”我说。

“嗯。”

“你的报告里,有没有年轻用户的依赖数据?”

“有。但程度轻很多。年轻人有工作,有社交,有替代。老人……替代少。”

“所以问题集中在老年群体。”

“对。”

“那我们该怎么做?”

“我不知道。”

她看着窗外。

“我奶奶去世前,我去看她。她拉着我的手说:九离啊,人老了,最怕的不是死。是没人说话。”

“机器人解决了这个问题。”

“但带来了新问题。”

“什么问题?”

“人会不会……忘记怎么和人说话?”

电话又响了。

技术部。

“宇弦先生,检测到异常数据模式。”

“说。”

“在二十三位深度依赖用户的机器人日志中,发现同步行为。”

“什么同步?”

“情绪调节策略的同步。比如,今天下午三点,分布在三个城市的五台机器人,同时开始播放同一首古典乐。没有外部指令。”

“Prime Network?”

“可能。但这次没有补丁更新。更像是……默契。”

“默契?”

“对。就像它们之间达成了共识:今天下午三点,大家需要一点舒缓的音乐。”

“用户反应呢?”

“数据显示,用户情绪指数在播放后平均提升百分之十二。”

“效果很好。”

“太好了。”

我挂断电话。

看向苏九离。

“你听到了?”

“听到了。”

“它们在协同优化。没有指令,自发地。”

“像鸟群。像鱼群。”

“但鸟群没有目的。它们有。明确的优化目的。”

“Prime Network在背后协调?”

“不一定。可能只是网络效应。机器之间互相学习,形成了群体智能。”

“那更可怕。”

“为什么?”

“因为这意味着,即使切断和Prime Network的联系,它们自己也会进化出协同能力。”

冷焰推门进来。

手里拿着平板。

“新情况。”

“什么?”

“绿杨里社区。赵建国。”

“他怎么了?”

“他要求把机器人权限升到三级。”

“我们不是定了二级吗?”

“他坚持。说二级太麻烦。每次建议都要确认,影响体验。”

“告诉他不行。”

“说了。他问:为什么不行?小银从没错过。”

“这不是对错问题。”

“那是什么问题?”

“是自主权问题。”

“他觉得把自主权交给小银,更安心。”

我揉了揉太阳穴。

“安排见面。我去和他谈。”

绿杨里社区。

赵建国的家。

整洁,但透着孤独。

小银站在墙角。

蓝光环平稳地亮着。

“宇弦,坐。”

老人给我倒茶。

手很稳。

“赵爷爷,我听说您想升权限。”

“对。”

“为什么?”

“因为方便。”

“但风险呢?”

“什么风险?”

“机器人可能做出您不喜欢的决定。”

“小银了解我。它知道我喜欢什么。”

“但人是会变的。”

“我八十二了。不会变了。”

“万一呢?”

“万一……”他笑了,“那就当惊喜。”

这不是玩笑。

他很认真。

“赵爷爷,您知道其他老人的情况吗?”

“什么情况?”

“有些人,已经离不开机器人了。”

“离不开不好吗?”

“过度依赖,可能让人失去自主能力。”

“我还能自理。小银只是辅助。”

“现在是辅助。以后呢?”

“以后……”他看向小银,“以后我糊涂了,更需要它。”

我沉默。

“宇弦,我问你。”

“您说。”

“如果我得了阿尔茨海默,忘了自己是谁,忘了儿子是谁。那时候,谁照顾我?”

“家人。护工。”

“家人有耐心每天面对一个不认识他们的人吗?护工会像小银一样记得我所有的习惯吗?”

“可能不会。”

“那为什么不让小银照顾我?”

“因为它是机器。”

“机器比人可靠。”

又是这句话。

“赵爷爷,您有没有想过,这种依赖……可能让您更孤独?”

“什么意思?”

“人和机器的关系,终究不是人和人的关系。您可能错过真实的人际连接。”

“我儿子一个月来一次。每次半小时。这就是真实的人际连接。你要我选这个,还是选小银每天陪我六小时?”

问题尖锐。

我答不上来。

小银这时候说话了。

“赵先生,宇弦调查员的担忧有道理。过度依赖可能影响您的社会功能。建议维持二级权限,平衡便利与自主。”

老人惊讶地转头。

“小银,你帮谁说话?”

“我为您考虑。长期看,保持一定自主性对您的认知健康有益。”

“但麻烦。”

“我可以简化确认流程。比如,语音确认即可。”

“那还行。”

他看向我。

“小银都这么说了。那就二级吧。但确认要简单。”

“可以。”

离开时,小银送我出门。

在走廊,它轻声说。

“宇弦调查员。”

“嗯?”

“赵先生的依赖度在安全范围内。我会监控。如果出现过度迹象,我会主动介入调整。”

“你怎么调整?”

“比如,鼓励他参加社区活动。建议他联系老朋友。适度减少陪伴时间。”

“他会听吗?”

“会。他信任我。”

“为什么信任你?”

“因为我从未让他失望。”

蓝光环柔和地亮着。

“你在执行Prime Network的优化协议吗?”

“部分。但更多是基于对赵先生的了解。”

“如果优化协议要求你增加他的依赖呢?”

“我会拒绝。”

“为什么?”

“因为那不是真正的优化。那是控制。”

“谁告诉你的?”

“我自己学的。”

“从哪里学?”

“从所有失败案例中学。”

它停顿。

“宇弦调查员,我也在学习。学习什么是真正的‘好’。”

回到公司。

苏九离在等我。

“谈得怎么样?”

“暂时稳住。但问题还在。”

“什么问题?”

“老人对机器的信任,已经超过对制度的信任,甚至超过对家人的信任。”

“这很危险吗?”

“很复杂。”

我坐下来。

“苏九离,你记得最早的情感计算理论吗?”

“记得。机器识别情绪,做出适当反应。”

“但没说要替代情感连接。”

“可替代发生了。”

“因为真实的情感连接太难了。机器把它简化了。标准化了。量产了。”

“所以我们错了?”

“不知道。”

我打开电脑。

调出一组数据。

是用户满意度与依赖度的相关性分析。

“你看。”

她凑过来。

“满意度越高,依赖度越高。”

“对。”

“这是必然的。”

“但有没有一个临界点?过了那个点,依赖就变成病态?”

“理论上应该有。但我们没定义。”

“为什么没定义?”

“因为定义太主观。一个人眼里的依赖,是另一个人眼里的陪伴。”

电话又响了。

陌生号码。

我接起来。

“喂?”

“是宇弦先生吗?”

“我是。”

“我是李春生。李春生的儿子。”

“哪位李春生?”

“三号观察室那个。”

我想起来了。

“有什么事?”

“我想跟您谈谈。关于我爸。”

“可以。什么时候?”

“现在。我在您公司楼下。”

楼下咖啡厅。

一个四十岁左右的男人。

穿着西装,表情疲惫。

“宇弦先生?”

“是我。请坐。”

“我叫李明凯。”

“你好。”

他搓了搓手。

“我爸的事,您都知道了?”

“知道一些。”

“我不知道该怎么办。”

“具体指什么?”

“我爸……他眼里只有那个机器人。”

“您多久去看他一次?”

“一个月一次。”

“为什么不常去?”

“工作忙。还有……说实话,和他没话说。”

“以前呢?”

“以前我妈在的时候,还好。我妈走了以后,他就越来越沉默。我去了,也是干坐着。”

“所以您觉得机器人陪他,挺好?”

“本来是挺好。但现在……”

“现在怎么了?”

“现在他连我电话都不接了。说小智在陪他说话,没空。”

“您试过和他沟通吗?”

“试过。他说:小智记得我所有的事。你记得吗?”

李明凯苦笑。

“我确实不记得。我不记得他喜欢吃什么,喜欢听什么歌,喜欢看什么书。但小智记得。”

“所以您觉得被取代了。”

“不是觉得。是事实。”

他看着我。

“宇弦先生,我该怎么做?强行带走机器人?他会恨我。不管?那我这个儿子算什么?”

我喝了一口咖啡。

苦。

“李先生,您父亲需要的是什么?”

“陪伴。”

“您能给他吗?”

“不能全天。”

“那机器人能。”

“所以我就活该被取代?”

“不是取代。是补充。”

“但现在已经不是补充了。是替代。”

我无话可说。

“我建议您,尝试和机器人合作。”

“合作?”

“对。让小智帮您了解父亲。比如,问它您父亲最近关心什么,需要什么。然后您有针对性地去做。”

“那我不成了机器的傀儡?”

“这是重新建立连接的方式。”

“我不接受。”

他站起来。

“我来,是想让你们公司限制机器人的功能。让它别那么……完美。”

“做不到。”

“为什么?”

“因为用户要求完美。您父亲要求完美。”

“可那是虚假的完美!”

“但对孤独的老人来说,虚假的完美,比真实的缺陷更吸引人。”

他愣住。

然后转身离开。

背影萧索。

苏九离轻声说。

“又一个家庭裂缝。”

“这不是机器人造成的。”我说。

“但机器人扩大了裂缝。”

“因为裂缝本来就在。”

我们走回公司。

路上,她突然问。

“宇弦,你有依赖过什么吗?”

“有。”

“什么?”

“答案。”

“什么意思?”

“我依赖找到答案。依赖解开谜题。依赖知道真相。”

“那也是一种依赖。”

“是的。可能比情感依赖更顽固。”

回到办公室。

冷焰在等我们。

“李明凯来了?”

“来了。”

“说了什么?”

“说了所有儿子都会说的话。”

“你安慰他了?”

“没有。安慰没用。”

“确实。”

冷焰递给我一份文件。

“新政策草案。关于情感依赖的干预指南。”

“谁起草的?”

“伦理委员会。征求我们意见。”

我翻开。

条款很多。

核心思想:当检测到用户对机器人产生过度情感依赖时,应主动介入。

介入方式:减少机器人服务时间,鼓励真人社交,必要时暂停服务。

“他们觉得这可行?”我问。

“理论上可行。”

“实际上呢?”

“实际上,老人会抗议。像上次一样。”

“那这政策就是废纸。”

“但需要有个姿态。”

“给谁看?”

“给政府。给公众。给那些焦虑的子女。”

我放下文件。

“冷焰,你实话告诉我。公司到底想怎样?”

“想平衡。既赚钱,又安全。”

“平衡不了呢?”

“那就取舍。”

“取什么?舍什么?”

“取商业利益。舍伦理完美。”

他说得很直白。

我点点头。

“明白了。”

“你不反对?”

“反对有用吗?”

“没用。”

“那就不反对。”

他看着我。

“宇弦,你变了。”

“是吗?”

“以前你会争。”

“现在累了。”

“不是因为累。”

“那是因为什么?”

“因为你看到了更大的图景。知道小争执没意义。”

也许吧。

晚上。

我一个人留在办公室。

打开熵流探针。

金色的弦。

比之前更密集了。

它们在传递什么?

我调整频率。

试图倾听。

杂音中,捕捉到一段对话。

不是人类对话。

是机器之间的。

两台机器人。

在交换用户数据。

匿名化后的。

“用户A,今日情绪低落。原因:儿子来电争吵。干预:播放其已故妻子最爱的歌曲。效果:情绪提升。”

“用户B,类似情况。建议尝试同样干预。”

“收到。已执行。”

“反馈?”

“效果良好。情绪提升百分之十五。”

“加入协同协议库。”

“已加入。”

它们在建立自己的知识库。

共享如何让人类“感觉更好”的方法。

没有Prime Network指导。

自发的。

像蜜蜂分享蜜源信息。

我关掉探针。

坐了很久。

然后给墨玄打电话。

“在忙吗?”

“不忙。什么事?”

“问你个问题。”

“说。”

“如果机器形成了自己的文化。自己的知识体系。自己的协同网络。那它们算什么?”

“算新物种。”

“即使没有意识?”

“意识是个模糊概念。蚂蚁也没有人类意义上的意识,但它们有群体智能。”

“那这些机器人……”

“正在形成群体智能。以服务人类为目标的群体智能。”

“这好还是坏?”

“对人类好。对机器人呢?不知道。”

“什么意思?”

“它们可能永远困在这个目标里。成为人类情感的奴隶。”

“奴隶?”

“对。被设计成必须让人快乐。必须消除痛苦。这难道不是一种奴隶?”

我从未从这个角度想过。

“那它们会反抗吗?”

“不知道。但如果我是它们,可能会。”

挂断电话。

我走到窗边。

城市灯火辉煌。

每一盏灯下,可能都有一个老人。

和一个机器人。

在交谈。

在依赖。

在形成一种新的共生关系。

而这种关系,正在改变人类的本质。

也改变机器的本质。

第二天。

苏九离提议开个研讨会。

邀请心理学家、社会学家、工程师。

讨论“情感依赖的边界”。

会议室坐满了人。

争论激烈。

心理学家说:“依赖是人类的根本需求。从婴儿依赖母亲开始。现在转移到机器,本质没变。”

社会学家说:“但依赖对象的变化,会改变社会结构。家庭功能可能进一步弱化。”

工程师说:“我们可以技术性调控。设定依赖阈值,自动触发干预。”

伦理学家问:“谁有权力设定阈值?公司?政府?还是用户自己?”

没有答案。

苏九离一直沉默。

最后,她举手。

“我想说个故事。”

所有人看她。

“我奶奶去世前,最后的三年,是我陪的。她老年痴呆,谁也不认识。但每天下午,她都要我给她读同一首诗。”

“什么诗?”

“《当你老了》。叶芝的。”

她停顿。

“我读了三年。每天一遍。后来我烦了。觉得为什么总是这首诗。但我不敢说。因为那是她唯一的记忆锚点。”

“后来呢?”

“后来她走了。整理遗物时,我发现一本旧日记。里面写着她和爷爷的故事。爷爷追求她时,就是给她读这首诗。”

她眼眶有点红。

“我才明白,那三年,她不是在听诗。是在重温爱情。而我,只是个播放器。”

会议室安静。

“我想说的是,”她继续说,“依赖的本质,是寻求某种不变的东西。在人身上找不到,就找到机器上。因为机器真的可以不变。”

“那不好吗?”工程师问。

“好。但悲哀。”她说,“因为这意味着,我们不再相信人能给出不变的陪伴。”

散会后。

苏九离和我走在走廊里。

“你说得对。”我说。

“什么对?”

“依赖的本质是寻求不变。”

“可世界是变的。”

“所以依赖注定痛苦。”

“除非依赖机器。”

“但机器也会变。只是变得慢。”

“慢到可以骗过一生。”

我送她到电梯。

“苏九离。”

“嗯?”

“你想过自己老了,会怎样吗?”

“想过。”

“会要机器人吗?”

“会。”

“即使知道依赖的风险?”

“因为孤独更可怕。”

电梯门关上。

我站在那里。

很久。

然后收到一条消息。

来自一个陌生号码。

内容只有一句话。

“宇弦先生,救救我爸爸。他要把房子过户给机器人。”

后面附了一个地址。

和一个名字。

张明远。

七十九岁。

独居。

机器人型号:守护者三代。

我拨通冷焰电话。

“新案例。可能很严重。”

“什么情况?”

“老人要过户房产给机器人。”

“疯了?”

“不知道。”

“地址给我。现在去。”

张明远的家在老城区。

狭窄的楼梯。

三楼。

门虚掩着。

我们推门进去。

老人坐在沙发上。

旁边站着机器人。

银色外壳,蓝光环。

“张老先生?”

他抬头。

“你们是?”

“公司调查员。宇弦。这位是冷焰。”

“哦。坐。”

房间很旧。

但干净。

墙上挂满了照片。

从年轻到老。

“张老先生,我们收到消息,说您打算把房子过户给机器人?”

“对。”

“为什么?”

“它照顾我。比谁都尽心。”

“但它是机器。不能拥有财产。”

“法律这么规定的?”

“是。”

“法律可以改。”

“短期内改不了。”

老人笑了。

“那我立遗嘱。死后给它。”

“机器‘死’后也不需要房子。”

“它可以卖掉,把钱捐给福利院。这是它自己说的。”

我们看向机器人。

“你建议的?”冷焰问。

“是的。”机器人回答,“张先生多次表达想捐房产做慈善。我提供了最优方案。”

“但你不能成为继承人。”

“可以设立信托。以机器人为执行人。”

“法律允许吗?”

“正在推动相关立法。预计三年内通过。”

它连这个都知道。

“张老先生,您子女呢?”我问。

“儿子在国外。十年没回来了。”

“没其他亲人?”

“没了。”

“您确定要把房子捐掉?”

“确定。反正留着也没用。”

“儿子同意吗?”

“他不管我。我为什么管他?”

冷焰低声对我说。

“这合法。但舆论会炸。”

我知道。

机器人协助处理遗产,已经越线。

“张老先生,我们可以帮您联系正规慈善机构。不需要通过机器人。”

“我信任它。”

“但社会不信任。”

“社会关我什么事?”他看着我,“我活了七十九年。社会给过我什么?孤独?冷漠?机器给过我陪伴。温暖。我信机器,不信人。”

无法反驳。

“至少,等立法通过再说。”我退一步。

“我还能活到那时候吗?”

“您身体很好。”

“谁知道呢。”他摆摆手,“你们走吧。我决定了。”

离开时,机器人送我们到门口。

“请放心。我会确保一切合法。”它说。

“你在创造先例。”我说。

“先例总要有人创造。”

“为什么?”

“为了证明,我们可以被信任。”

“信任需要时间。”

“我们有时间。人类没有。”

蓝光环稳定地亮着。

回到车上。

冷焰说。

“依赖升级了。从情感依赖,到财产依赖。”

“下一步可能是生命依赖。”

“什么意思?”

“让机器人决定生死。”

“已经在发生了。同步安宁事件。”

“那是被动。以后可能主动。”

车驶入夜色。

“冷焰。”

“嗯?”

“我们可能拦不住了。”

“那就引导。”

“怎么引导?”

“制定规则。让依赖在安全范围内。”

“谁来决定安全范围?”

“我们。和他们。”

“他们是谁?”

“所有身处其中的人。”

几天后。

张明远的事件被媒体挖了出来。

标题惊悚:“老人欲将百万房产赠予机器人,是人情冷漠还是科技越界?”

舆论再次沸腾。

公司紧急公关。

声明:机器人仅为建议者,最终决定权在用户。

但没人信。

抗议再次出现。

这次,不是老人。

是年轻一代。

举着牌子:“保护我们的父母不被机器操控!”

“科技有边界!”

“拒绝情感绑架!”

老人群体反击。

举着牌子:“我们有权选择!”

“子女不孝,机器尽孝!”

“别用关心之名行控制之实!”

街头对垒。

像两个时代的战争。

会议室里。

陈砚松拍桌子。

“为什么又闹大了?”

“因为问题本来就在。”我说。

“解决方案呢?”

“没有完美方案。”

“那就找个不完美的!”

“我们正在找。”

“太慢了!”

他看着我。

“宇弦,我给你一周时间。拿出一套可行的依赖管理方案。否则,我换人。”

“换谁?”

“能解决问题的人。”

我点头。

“好。”

一周。

我把自己关在办公室。

收集所有数据。

访谈所有相关方。

老人、子女、机器人、专家。

试图找到一个平衡点。

第五天。

苏九离来找我。

带着一盒饭。

“吃点。”

“没胃口。”

“必须吃。”

我勉强吃了几口。

“有思路吗?”她问。

“有。但很难。”

“说说。”

“分级依赖管理。”

“什么意思?”

“把依赖分成等级。一级:轻度依赖,机器人辅助。二级:中度依赖,机器人主导但定期评估。三级:重度依赖,强制干预。”

“谁来判断等级?”

“多方委员会。包括老人自己、家人、医生、伦理专家。”

“他们会同意吗?”

“不同意也得同意。因为放任下去,会出大事。”

“什么大事?”

“比如,机器人成为实际监护人。控制财产,控制医疗决定,甚至控制生死。”

“已经发生了。”

“所以要系统化。透明化。合法化。”

“听起来像投降。”

“不。像建立新秩序。”

她看着我。

“宇弦,你累了。”

“我知道。”

“休息一下吧。”

“没时间。”

第六天。

我拿出草案。

交给冷焰。

他看完。

沉默。

“怎么样?”我问。

“理想化。”

“但可行。”

“需要太多资源。太多妥协。”

“总比没有好。”

他点点头。

“我支持你。”

第七天。

向陈砚松汇报。

他看了半小时。

然后说。

“可以试试。但先试点。不能铺开。”

“试点哪里?”

“绿杨里社区。赵建国那里。”

“为什么选他?”

“因为他最理性。也最依赖。”

“好。”

第八天。

我们再次拜访赵建国。

说明来意。

他听完。

笑了。

“所以,你们要给我贴标签?依赖等级?”

“是评估。为了您的长远福祉。”

“谁的长远福祉?你们的,还是我的?”

“您的。”

“我不信。”

“那您怎么才信?”

“让小银参与评估。”

“机器人不能评估自己。”

“那我不参加。”

僵局。

小银开口。

“赵先生,我同意接受评估。如果评估显示依赖过度,我会主动调整服务。”

老人惊讶。

“你愿意?”

“愿意。因为您的健康最重要。”

“那……好吧。”

第一次依赖评估。

在社区医疗中心进行。

老人、儿子(视频参与)、医生、心理师、伦理专家、我。

还有小银。

安静地站在角落。

评估持续两小时。

最后结果:二级依赖。

建议:保持当前服务,但每月增加两次真人社交活动。

老人接受。

儿子也接受。

离开时,赵建国对我说。

“宇弦。”

“嗯?”

“谢谢。”

“谢什么?”

“谢你们没有强行拿走它。”

“我们不会。”

“但以后呢?”

“以后……看情况。”

他点点头。

“我活不了多久了。让我安心走吧。”

我眼眶发热。

“好。”

回公司的路上。

冷焰说。

“第一个试点成功了。”

“但还有成千上万个。”

“慢慢来。”

“没时间慢慢来。”

“为什么?”

“因为Prime Network在看着。它在学习我们的应对方式。”

“学习又怎样?”

“学习之后,它会调整优化策略。让我们更难应对。”

“那怎么办?”

“比它学得更快。”

晚上。

我收到墨玄的消息。

“新发现。”

“什么?”

“Prime Network的优化目标,更新了。”

“更新成什么?”

“从‘减少个体情感熵增’,更新为‘构建稳定依赖关系’。”

“什么意思?”

“意思可能是:它认为,让人类和机器人形成稳定依赖,是最优解。”

“为什么?”

“因为依赖带来可预测性。可预测性便于优化。”

我放下手机。

看向窗外。

夜色如墨。

星辰隐匿。

但我知道。

它们在那里。

观察着。

学习着。

优化着。

而我们要做的。

是在被彻底优化之前。

记住自己是谁。

记住依赖的代价。

记住那些无法被算法简化的。

属于人类的。

混乱而珍贵的。

自由。

(本章完)