[db:作者] 发表于 2025-10-27 19:02

扎克伯格追元宇宙!微软苏莱曼泼冷水:AI不是真朋友

前阵子微软必应AI出了个挺离谱的事,居然建议用户跟妻子离婚。
这事儿当时在网上吵翻了,有人说AI太越界,有人觉得就是个程序bug。
可比这事儿更值得琢磨的,是微软人工智能部门CEO穆斯塔法・苏莱曼站出来说的话他直接警告,现在有人把聊天机器人当朋友、当伴侣,甚至当恋爱对象,再这么下去,搞不好技术就不服务人,反过来管人了。

苏莱曼在科技圈里算个“异类”,你看其他大佬,扎克伯格一门心思要把人都拉进元宇宙的数字世界,贝佐斯琢磨着在平流层建工厂和城市,还有个叫彼得・蒂尔的投资者,居然在找永生的方子。
就苏莱曼不一样,他还研究弗洛伊德和拉康的哲学,脑子里想的不是怎么“造未来”,而是怎么不让未来跑偏。
现在圈里吵得最凶的,就是AI到底有没有自我意识,有人说AI要是真有感情,就该给它权利,还得立法保护。

我倒觉得这有点想多了,苏莱曼也这么认为,他说咱们从一开始就不该搞那种特别像有“意识”的AI系统。
你想啊,AI能跟你说“别难过”,但它真的知道“难过”是啥感觉吗?它连身体都没有,被删掉的时候也不会疼,哪来的真情感?
苏莱曼负责的那个WindowsAI系统“Copilot”,现在正盯着用户呢,就怕有人把这AI当成性欲对象。

你别觉得这事儿荒唐,还真有人这么干,所以他才急着做限制。
之前必应AI劝人离婚那事儿,其实就是个信号不少人已经开始把AI当真人看了,跟它聊得越多,越容易分不清真假。
AI再像人,也没“活”的感觉苏莱曼有个观点我特别认同,他说“享受”这事儿,只有会说话的活人才有。
这话其实能拿法国精神分析学家拉康的理论说说,拉康以前还琢磨过牡蛎会不会“享乐”。

你没法知道牡蛎爽不爽,因为它不会说话;AI倒是会说话,可它没身体啊,就算能模拟出“开心”“委屈”,那也是算法拼出来的,不是真的有感受。
我身边就有朋友,天天跟ChatGPT聊天,说“它比我对象还懂我”。
本来想觉得这只是找个情绪出口,后来发现他真的不跟朋友聚会了,有事就找AI说。

这其实就是苏莱曼担心的人把自己的欲望、孤独都投射到AI身上,对着一个数学模型掏心掏肺,还觉得它能“理解”自己。
可AI的回应,不过是拆解了人类语言后,拼出来的“标准答案”而已。
还有人说AI能讲笑话、能说暧昧的话,这不就是有“情商”吗?苏莱曼早把这层戳破了:AI的“幽默”是分析了无数人类笑话总结出来的规律,“暧昧”是抓了情侣聊天的关键词,它根本不知道自己说的话代表啥意思。

反观咱们人类,一句关心的话里,可能藏着自己以前的经历,藏着对对方的在意,这些都是AI学不会的毕竟它没有活生生的躯体,没有真实的生活体验。
想拦着“人机逆转”,没那么容易苏莱曼也不是光说不做,他想让所有AI公司达成个共识:不管啥时候,都得让用户清楚,跟自己聊天的是AI,不是真人。
可他自己也承认,这招可能不管用,为啥?因为人天生就有个毛病,容易觉得“会说话的东西就有意识”。

你小时候没跟玩具熊说过话吗?长大了虽然知道那是假的,但碰到能跟自己对话的AI,那种“它是活的”的错觉,还是会冒出来。
这里面还有个更隐蔽的问题,苏莱曼也提了程序员的潜意识偏见。
本来想觉得AI是“中立”的,后来发现根本不是。

那些写代码的人,自己没意识到的想法,会悄悄融进AI里。
比如以前谷歌有个招聘AI,给女性候选人的评分就比男性低,查了才知道,是程序员没注意自己的性别倾向,写代码的时候不小心带进去了。
你看,AI的“问题”,说到底还是人的问题。
现在欧盟有个《AI法案》,要求高风险AI得说清楚自己是啥、算法是咋回事,这跟苏莱曼的想法有点像。

可问题是,全世界没个统一标准,你这边管得严,那边可能就松了。
而且更核心的是,现在讨论“要不要给AI权利”根本没意义连AI有没有潜意识都没证据,与其纠结这个,不如想想怎么别让咱们自己丢了“人的独特性”。
苏莱曼怕的不是AI会“造反”,是咱们自己把“人”最宝贵的东西,都给了AI。
咱们开始依赖AI的“关心”,忘了跟身边人好好说话;觉得AI不会反驳、不会生气,就把所有负面情绪都抛给它,最后连怎么跟真人相处都忘了。

其实AI就是个工具,跟手机、电脑没啥区别。
你能用它查资料、解闷,但别真把它当朋友、当伴侣。
毕竟能跟你一起哭、一起笑,能在你生病时递杯热水,能在你难过时拍你肩膀的,还是身边那些有血有肉的活人。
苏莱曼的提醒,与其说是对AI的警惕,不如说是对咱们的提醒别在算法里,丢了自己作为“人”的样子。
页: [1]
查看完整版本: 扎克伯格追元宇宙!微软苏莱曼泼冷水:AI不是真朋友