【 】2023,正式发布“AI4M智能战略”,将“为用户创造颠覆性的智能场景体验”作为本质,拉开AI变革智能出行的战略序幕。智己汽车将通过“软硬件架构”、“大规模智能算法”和“智能场景体验”三大支点,将AI变革的巨力聚向“忠于用户出行”。AI4M智能战略”具体如何理解?接下来智己汽车又是如何布局的?媒体沟通会上,智己汽车联席CEO-刘涛现场给我们做了一一解答。
“AI4M智能战略”是什么?那这次智己汽车发布的“AI4M智能战略”具体是什么?主要包含AI for Mechanism(下一代软硬件智能架构)、AI for Mind(大模型的智能算法)和AI for Moment(颠覆性的智能场景体验)三大方面的内容。
AI for Mechanism,下一代软硬件智能架构。这个软硬件智能架构包括四大块,第一是集中式中央计算平台,可以 实现业内顶尖的智舱、智驾、控软件融合方案;第二,视觉算法为核心的传感器架构,能够实现对障碍物精准检测;第三,VMC智能集成控制系统,能够融合控制车辆运动的6大自由;IM OS系统,中国唯二基于Linux内核自主研发的操作系统。
AI for Mind,大模型的智能算法。包含了此前联合 Momenta发布的行业首个D.L.P.人工智能模型,实现从感知智能到认知智能的突破。技术路线结合D.L.P、基于Occupancy网络模型的DDOD 和可替代高精地图的DDLD,接管频次将会以两年为周期降低十倍。
AI for Moment,颠覆性的智能场景体验。首先,Glance Sense余光感知交互机制,结合舱驾融合影像,可以实现盲区、侧盲区以及后视盲区的监测。其次,全场景感知的智能本验,可以实现一键贴边、一键脱困和一键循迹的功能。最后,基于原石谷用户数据权益计划,真正将数据价直变成用户价值。
媒体沟通会关键信息点摘录在媒体沟通会上,智己汽车联席CEO-刘涛接受了媒体的采访,透露了“AI4M智能战略”更多的细节,以及智己汽车接下来的产品规划和对于智能出行的看法。下面基于媒体沟通会速记进行整理如下:
Q1 智己汽车今年的目标销量是多少?接下来的产品布局是怎样的?目前智己汽车有L7和LS7两款车型,其中LS7的交付量,呈现单边上涨非常良好的态势,在4月的第一周位居30万以上的第一名。接下来随着产能不断提升,交付量也会进一步攀升,今年全年的销售目标是45000台。
关于产品规划,在2023-2025年智己汽车将会带来四款新车。今年下半年将会推出第三台车(C车),定位是智能城市跨界SUV,无论尺寸还是价位段,直接对标 。2024年上半年,将会带来第四款车型,定位智能运动轿跑,直接PK ,智能座舱将率先应用高通8295芯片。到2025年,将会推出E车和F车。本次发布的AI4M智能化战略会在C、D车上有很好的应用和展现,后面跨域融合的智能化技术储备,将会在E、F车更好地应用。
关于产品差异,C车和D车主要去拿更多的细分市场份额和销量,主要聚焦20-30万的区间。E车和F车会follow另外一条技术路线,始终坚持智能化的进步和VMC这种智能化底盘的控制,可能会把整车的控制进一步集成;中央大脑+域控制器,将会进一步改变车身形态,让你的自由度变得更大。未来,E车一定是个全新body style车型,可能会是类似于未来陆上行驶的太空舱,完全不会被今天的body style去定义、去分类。
Q2 如何看待智能驾驶的技术?真正的智能驾驶是5个Part相乘的矩阵,无论是感知、融合、预测、规划、控制,一环都不能缺失,真正的瓶颈在Planning。智己作为头部公司,就是要把这个硬骨头啃下来。发布D.L.P.就是为了解决Data-Driven(数据驱动)全流程中的Planning模块,目前正在大规模的数据内测过程中。
智能驾驶最终极目标一定是安全的、舒适的体验,让人在最放松的状态下,从A点到B点。在这个过程当中,一方面是OneModel感知对世界理解的问题,另外一方面是对于自车和周边车之间相互认知的问题,和周边车辆、周边环境之间博弈的关系。
国外有类似L3的技术,但是带给用户的体验非常不友好。智己从两方面来提供解决方案,一方面是通过智能驾驶底层技术、底层逻辑和底层Transformer的架构来演变,深挖技术的更多可能性。另一方面,通过技术最终呈现的一定是用户能够感知到的体验,让老用户爱用,新用户敢用,既可以带来稳定的体验,又可以在真正的使用场景下让用户感到惊艳。
智己认为智能驾驶的终点,一定是迈向更高级的智能驾驶,一定是往L3或者L4方向走,但需要通过一段时间的演变,这个演变在目前阶段来看是先通过OTA的拓展,带给用户更轻松的驾驶环境;同时两条腿并行,在某些相对封闭的路段完成更高级的智能驾驶。
Q3 与打造的中国唯二基于Linux的自主研发的操作系统,有什么特点?智己汽车的IM OS 虽然看上去有3块屏,但是基于Linux,它的背后其实是一块画布。它可以打破物理层限制,对于产品的设计是没有限制的。比如一个功能,想让它出现在哪块屏幕就出现在哪块屏幕,或者同时出现在多个屏当中。
像这样的跨域融合,在屏幕当中的融合,别人可能也有做,但是对算力有很大的损耗;我们是天然的,因为背后就是一块画布。如果大家对于行业座舱芯片比较了解,我们目前使用的高通8155芯片,整个屏幕分辨包含显示,功能也不少,但却是最丝滑柔顺的。同样是使用8155芯片,大家可以体验到,即使别人的屏幕比我们少,我们性能也会比别人好,这是因为我们得益于整个斑马智行基于Linux的开发,而这仅仅只是座舱界面上的,同时整车的跨域融合也是可以基于最底层的开源来做。
比如我们刚刚发布的IM GO!组队功能。其他品牌也有组队功能,但是不能听音乐的,只能听别人说话。同时如果8个人在一个房间里,只能1个人说话。我们是8个人可以同时说话,你可以同时听音乐,同时用语音,还可以用头枕音响听导航的声音,不会因为加入跟朋友的聊天打断你平时开车的习惯,这个事情很难做到底层。
Q4 如何看待目前部分车企在智能驾驶方面的“堆硬件”现象?系统的底层架构及算法尤为重要,我们不会轻易堆硬件,我们用30Tops就可以做出最好的IM AD Pilot。我们今天用两个激光雷达,用254Tops的Orin,能够做出绝对超过别人3个激光雷达加500Tops以上算力的NOA。这是我们的自信和能力。
这不是靠堆砌,不是靠Follow别人一个方案,那基本是死路。我们真的是有重写过65%的底层软件,才有底气说硬件能力和软件的充分融合,深层次打通,你也知道这才是唯一的解。当你面对未来时代,如果还像以前汽油车时代一样,只做一个body,制动、转向、ESP、、空悬,全部交由供应,基本上这条路我认为是走不通的,必须要靠自己深层次打通。这也是为什么要整车控制系统,All in Linux,为什么要做VMC的思考。
Q5 智己对于智能驾驶场景或者智能驾驶技术开发的是什么?注重高清地图还是视觉感知?第一,智能驾驶是技术驱动,这一点大家都认同,包括市场上已经存在的,比如说BEV等大模型的应用,也包括最近在自然语言环境下比较火爆的ChatGPT,1750亿参数等等这些内容,我们认为,通过这种技术的驱动,能够对智能驾驶的爆发带来很有效的提升,因为技术驱动是我们的底座。
第二,产品本身是要有温度的。比如说今天推出的驾舱融合功能,在某些情况下即使你没有激活智能驾驶,但是在危险的情况下会通过视频或者一些其他的方式来给你足够的提醒,规避风险。带有温度的产品设计,是我们通过与第一线的用户沟通深入挖掘,广泛听取他们的意见来做的产品化方向。
第三,我们认为技术必须要有温度。智能驾驶不是简单的炫技,而是要给人带来更轻松的智能驾驶环境。通过刚刚发布的D.L.P.的方式,通过对成千上万驾驶员的自然驾驶行为做深入的分析,包括我们和友商一起,同时来设计一个车端和云端的策略,学习什么样的驾驶行为,要摒弃什么样的驾驶行为,让这台车更像人,让你更愿意开,这是智己的智能驾驶理念。
从高精地图应用来说,我们认为高速上的高精地图,国内已经有5年以上的开发时间,它的鲜度实际上是可以得到保证的,我们认为在高速上继续采用这种高精地图的方向来做。
另外,在城区我们内部已经测试起来了,甚至包括高速,也同时内部测试起来了。我们的DDLD去高精地图化、地图的方式,一方面为了在没有高精地图的路段上更好应用,另外一方面降低开发成本更好服务我们的用户,通过这种方式逐步用轻量化的、视觉感知的方案去替代现有的高精地图方案。
我们真正做过5000公里以上的对标,通过大数据的对标,我们的成达到95%以上,在行业内我们还是比较自信的,确实排名比较靠前,我们目前百公里接管率可以达到一次以下。我们内部做过这样的数据分析,两年左右百公里接管率可以成十倍去迭代的。我们内部给自己列了一个目标,千公里甚至万公里接管一次,这也是为了我们后面高阶智能驾驶所做的技术铺垫。
Q6 和的产品标签是什么?智己对于“智能汽车”的定义是什么?从创新的角度来讲,L7“智能世界的驾控天花板”,是非常清晰的标签;LS7的超级大穹顶和全明星驾控底盘,再次把标签树起来。这两款车的定位是非常清楚的。坚持极致的驾控,是智己汽车对于底盘的理解、对于机械素质的理解,因为体验可以OTA,但生命不能OTA,因此无论是C车、D车、E车、F车,我们都会坚持。
智己汽车整体的创新战略,有两个非常大的落地方向。
第一就是整车运动控制,基于智能化、智慧化、数字化底盘未来6个自由度的全能型操控,这方面的体验做到全行业最佳,这是我们非常明显的标签。
另外一个板块我们叫做IM GO!。尤其今天发布的AI4M,能够把智能座舱、智能驾驶、智能底盘这些能力跨域打通,真正把智能化的能力像人一样,赋能整车。这里面的逻辑是:
以前的视觉系统主要给智驾用的,通过调度这些摄像头,做到更好的智能驾驶或更高阶的辅助能力,但现在,整车智能向类人性的真正的智慧生命体发展。比如人的眼睛,既可以专注地看书,也可以用余光去瞥周围环境,还可以用眼神进行交流。再比如,人在走路的过程中,眼、耳、鼻、喉甚至是触感提供的信息,都在参与人的行为判断。
所以,智能电动车要向人学习。今天的智能化通过AI加持可以有很快的进步,但是特别好的Bench mark就是智慧的人体,我们的大脑、小脑,相当于我们的中央集成计算单,我们的D.L.P.、手、神经网络,就像我们的IMOS,而且这方面特别要求我们去跨域。
Q7 智驾的摄像头,要服务于智舱、安全,也要服务于智能驾驶,这如何理解?比如说,在转弯的时候,如何通过AI赋能摄像头解决A柱盲区的问题?
这个摄像头可以录视频,除了保证智能驾驶特别好能够实现无保护的左转,同时要把这一帧的视觉透传到另外一个计算域,这个计算域通过AI能力,把盲区里有危险的——可能是一条狗,一个行人,一个婴儿车,都能够识别出来。所以,我们在A屏上呈现的视频,不是简单地复现出来,而是通过视觉能力把里面的物体GOE(General objective option,一般障碍物),也包括VRU(vulnerable road user,易受伤害的道路使用者),全部检测出来,让出行没有危险地轻松通过。
系统不但能感知环境、识别风险,而且还会将有风险的元素高亮显示出来,甚至是带有声光电的提醒,这才是智能带给我们的跨域的魅力,将眼睛、鼻子、触觉都打通,想象空间扩大很多,带给你更有颠覆性的场景体验。
实际上我们说视觉的拓展是一个应用层的运用,但是智己不会仅局限在这个层次,会拓展至其他各个域。比如说行驶过程中提前识别地面减速带的距离、角度、长度等,让我们的C等提前进行调节,从而实现更舒适的驾驶感觉。