vivo副总裁周围:当AI不再索要数据,用户才会真正信任它
近日,2025 vivo开发者大会期间, vivo对外集中呈现了蓝心智能战略、原系统 6(OriginOS 6)、蓝河操作系统 3(BlueOS 3)的最新成果。大会后,vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围,AI产品总经理关岩冰与AI OS产品总监黄梓勋与观察者网等媒体进行了深度对话。他们系统阐述了vivo为何从追逐千亿级云端大模型的竞赛中抽身,转而深耕端侧小型化模型的研发与落地。
vivo副总裁、OS产品副总裁、vivo AI全球研究院院长周围
“现在大模型主要是两个方向,一是满足日常推理和复杂任务的拆解;二是通用人工智能。”周围表示,vivo从2024年就意识到,持续在通用人工智能领域卷下去不太现实。比如,做个4000亿参数的大模型,可能要花50亿元买算力,其中电费就达到15亿元。往后每年还要持续烧钱,很多创业公司根本卷不动。
尤其是在DeepSeek等开源模型的出现,极大地拉齐了行业在千亿大模型层面的基础能力后,vivo得以将更多资源聚焦于更具挑战和价值的端侧创新。
“但这是否意味着我们要放弃云端?”周围称,答案是否定的。对于手机厂商而言,云端的功能相对容易做,真正难的恰恰是端侧的能力。
“端侧不是目的,是让AI消失的手段。”周围强调,3B模型仅占用2GB内存,却能在750毫瓦功耗下实现200 tokens/秒的出词速度,复杂推理能力反超去年7B模型。
更关键的是,它让手机首次具备“个人记忆”——从修图偏好到机票比价逻辑,所有决策过程在本地完成,无需上传云端。“当AI不再索要数据,用户才会真正信任它。”
为了能够让手机端侧的AI能力往前更进一步,vivo原系统6以更直觉化的方式,减少了用户操作步骤,将现实中的沟通习惯下意识地运用在手机系统界面,以此提高任务完成效率。
蓝心个人智能框架,允许大模型通过全域感知和多模态数据融合,理解用户意图,还能通过个人化数据沉淀不断加深对用户的理解。2025年,意图框架2.0全面兼容MCP协议,推出适配智能体协议A2A,与开发者共享意图、技能和上下文能力。
vivo的手机助手,则支持屏幕主体自动识别和意图理解,可以将收藏的内容进行AI提炼、分类整理,还能关联日程和地址等信息。目前,蓝心小V可以调用的手机和生态应用技能超过千余个,应用场景从手机延伸到了车机和智能家居。
“我们内部对于AI体验这件事情有一个名词叫‘无感化’。”vivo AI OS产品总监黄梓勋认为,AI的渗透不应依赖于用户主动寻找并点击一个标有“AI”的按钮,这种方式会给用户带来认知挑战和不确定性。相反,vivo追求的是将AI能力自然地融入用户原有的操作流程中。
与此同时,蓝河操作系统3则为智慧应用开发提供了生成式UI能力。在使用蓝河Studio时只需要输入文字或参考样例,Coding Agent就会根据指令自动编写代码,并支持多轮对话、项目级理解等能力,以此提升开发效率。
但不可否认的是,在端侧AI向更智能化发展的过程中,依然存在着一些需要打通的障碍,比如各大互联网应用形成的“信息孤岛”。
“尤其是手机智能体执行任务时,我们只能做厂商自己的功能、自己的应用,比如说秀一下是否流畅、调一下亮度、连接一下Wi-Fi都没有问题。但是你想跨应用时,应用厂商的安全授权标准和手机终端厂商存在一个讨论的过程。”
周围表示,为了解决这些问题,作为一个终端厂商,vivo第一是要积极推动行业标准的建立,第二是AI技术从现在到成熟还有几年的过程。“随着手机厂商的能力每年越来越成熟,互联网行业需要和终端厂商一起服务用户的时候,我们自然就会一拍即合。”
关于AI功能的商业化问题,周围也明确了vivo的原则:“现在vivo有大量的端侧化,图像识别、声音识别,包括未来的同传、方言识别全部都端侧化,端侧化肯定是免费的。”但他也指出,对于只有4G内存的低端机型,用户若想使用某些高级AI功能,可能需要调用云端算力,而云端会消耗大量成本,“这时候就考虑可能在成本上要分担一下”。
页:
[1]