对话Mobileye CEO:扩局物理AI,打开增长新空间
相比于过去大家对于Mobileye芯片、辅助驾驶系统的关注,接下来,或许需要从更为广阔的视角,来看待这家科技公司。
因为,Mobileye开启了自己的新业务线——具身智能。
在今年1月CES期间,Mobileye 宣布已就收购AI(人工智能)人形机器人公司Mentee Robotics(Mentee)达成最终协议,收购对价总额约为9亿美元。

Mobileye创始人、总裁兼首席执行官Amnon Shashua教授在CES现场接受包括TheCars在内的媒体采访时表示,人形机器人与驾驶自动化领域巨大的协同效应显而易见,Mobileye希望将业务全面覆盖物理AI领域,就必须迈向人形机器人领域,这也将为Mobileye创造一个新的增长引擎。
2028年将启动人形机器人部署
驾驶自动化和机器人都是AI应用于物理世界的两大重要落脚点。在强调收购能够带来的协同效应的同时,Shashua教授也指出了这两个领域的区别:汽车在相对结构化环境中运行,例如道路场景是相对结构化的,而机器人应用所面向的最大市场是非结构化环境。
想象一下在家庭环境中,人形机器人面临的任务并非有限的集合,也就不可能一出场就设置为具备应对所有家庭各式各样场景不同任务的能力。
因此,我们需要具有持续学习能力的机器人。
传统业界熟知的Sim2Real(仿真到现实)是在模拟器中进行训练,然后再部署到现实环境中。但因为模拟器并不能完全呈现机器人的真实状态,无法呈现的事物也不少。
而Mentee在此基础上更进一步开发了“Real2Sim2Real”,本质上是观察人类执行任务的过程。该技术采用基础模型,将其迁移至模拟器进行训练,随后在模拟环境中学习,最后将所学知识自动迁移回机器人——整个过程完全自动化。
这种训练在进入像家庭场景这样的非结构化环境时至关重要,无需头显、无需VR设备、无需体感服,人形机器人通过观察人类少量示范如何执行任务,就能快速学习新技能。
落地部署方面,Mobileye的策略是:从结构化环境,到非结构化环境,阶段性推进。先从结构化环境入手,如仓储配送中心、装配厂等场所,其中任务定义明确且数量有限;随后进入非结构化环境,即家庭使用场景。

时间线上,预计结构化环境的部署将在2028年实现,而非结构化环境下的部署则会晚几年。
环绕式ADAS再接大单
与此同时,Mobileye在驾驶自动化领域的业务扩展,正在如火如荼地开展。
在CES期间,Mobileye正式官宣:一家美国头部车企已选定其基于单EyeQ™6H芯片的新一代组合辅助驾驶系统——环绕式ADAS™,作为其旗下数百万辆汽车的标配方案。

这一合作的预计订单量有900万套,再结合2025年3月官宣的大众汽车集团订单,Mobileye预计,其环绕式ADAS方案未来预期交付量目前已突破1900万套。
Robotaxi规模化,必须减少远程操作员
除了L2层面连续拿单,在更高等级的驾驶自动化方面,Mobileye与大众汽车集团、MOIA合作的无人驾驶出租车(Robotaxi)项目也在按计划推进。
Shashua教授表示:“目前有约100辆ID. Buzz在多地开展路测,包括德国的汉堡和慕尼黑,挪威的奥斯陆,美国加州洛杉矶、德克萨斯州奥斯汀、以及佛罗里达州部分地区。”他还提到,预计今年第三季度会在一座城市率先实现“去安全员”行驶。
Shashua教授直言,Robotaxi要想真正规模化,仍有一个问题悬而未决,却鲜少被真正讨论,人们甚至还会刻意回避,这就是远程操作员的存在。
Mobileye的解决方案:VLSA(视觉-语言-语义-动作)。这是一种基于视觉-语言的深层场景语义处理模型,同时部署在车端和云端,旨在逐步取代远程操作员。
VLSA的作用类似于在复杂驾驶场景中陪伴新手驾驶员的资深驾驶员,能提醒你注意某些事项,但他不直接控制油门、刹车和方向盘;与之类似地,VLSA模型不直接控制车辆或输出行驶轨迹,而是提供结构化的语义指导,馈入规划系统。可以把它理解为经过整个互联网训练的模型,具备出色的推理能力,对场景的理解远胜于常规的基于安全相关数据流训练的模型。这项技术的应用将从Robotaxi起步。

而对于消费级高等级驾驶自动化,其技术演进路径,从L3级到L4级的跨越,功能上具体就是“驾驶员视觉脱离”(Eyes-off)到“驾驶员注意力脱离(Mind-off)”的能力跃升。比如,Mobileye与奥迪合作的L3级有条件自动驾驶量产项目:车辆在高速公路上能以130公里/小时运行,系统激活期间驾驶员可以“视觉脱离”,但仍需在系统要求时介入。而“驾驶员注意力脱离”意味着当遇到各种复杂情况时,无需驾驶员介入,技术就能自行处理。这正是VLSA的用武之地。
也就是说,VLSA对消费级高等级驾驶自动化的意义在于实现从“驾驶员视觉脱离”到“驾驶员注意力脱离”的转变,这也是本十年末有望实现的目标。
关于中国市场、技术趋势的洞察分享
中国辅助驾驶市场一直以来技术密集度相当高,在这里想要长期立足,无论是老牌劲旅还是后起之秀,都必须铆足劲儿。Shashua教授在采访中透露,Mobileye在2025年的中国市场芯片供货量较2024年实现了稳步增长,此前2024年较2023年也呈现了增长态势。“在技术的价格与性能表现方面,我们达到了理想的平衡点。”
在国内市场,对于辅助驾驶方案的刚需,可以基本分成两派,大算力派和传感器冗余派。当被问及如何看待芯片算力和硬件架构的重要时,Shashua教授将市场比喻成了一种三明治结构,一面是辅助驾驶系统,另一面是Robotaxi。
在Shashua教授看来,一方面,在辅助驾驶的演进路径中,环绕式ADAS系统是重要的存在。其成本足够低廉,仅需几百美元,且价值主张相对较高。
另一方面,关于Robotaxi,Shashua教授肯定了冗余的重要性,但同时指出,并不需要将传感器成本推高至数万美元,而是可以采用一圈摄像头和一圈成像雷达组合的方案。“相信在本十年末(2030年前),这套传感器系统最终将成为Robotaxi的传感器配置,将完全无需激光雷达辅助。“
Shashua教授指出,高性能芯片应能满足两个方面:一是高频控制,例如每秒10帧的处理速度,我们称之为快速路径。如此一来,必须确保永远不会发生碰撞,确保安全。
另一种场景理解路径,无需高频率运行,也是高性能计算的用武之地。这条路径的目的是淘汰远程操作员。没错,就是前文中提到的VLSA。它可分为三类:第一类是搭载于车内的视觉语言模型;第二类是部署在云端的视觉语言模型;第三类则是规模极其庞大的语言模型,同样部署在云端,但采用按需调用的模式。
车载视觉语言模型能提供初步响应。系统以每秒一到两帧的速度处理画面,试图理解复杂场景——比如是否有警察走过来,车道是否被其他车辆堵塞,或者是否发生了异常情况。
随后,每秒一帧的数据会被传送至云端更大的语言模型,该模型具备更强的复杂场景理解能力。
当车辆遇到无法理解的状况时,若车载视觉语言模型无法提供满意答案且云端视觉语言模型也无法解决问题,此时便会向云端超级视觉语言模型发起求助。经计算发现,这其实不会给汽车增加太多成本。Shashua教授提到,经过测算,若将700亿参数的网络部署在云端(因其规模过大无法集成到芯片中),每辆Robotaxi的成本仅需增加1000美元。而与Robotaxi的价值主张(即每年削减用以雇佣司机的数万美元开支)相比,1000美元的成本微不足道。
随着“驾驶自动化+具身智能”双技术引擎逐步成型,Mobileye正在以更清晰的节奏推进其在物理AI领域的布局。对于这家公司而言,这两个应用分支的技术有望在相互促进、相互强化的过程中,共同推高整体业务增长曲线。
ati725