您现在的位置是: 首页 > 汽车报价 汽车报价

apollo自动驾驶教程_apollo 自动驾驶

ysladmin 2024-06-25 人已围观

简介apollo自动驾驶教程_apollo 自动驾驶       随着科技的发展,apollo自动驾驶教程的今日更新也在不断地推陈出新。今天,我将为大家详细介绍它的今日

apollo自动驾驶教程_apollo 自动驾驶

       随着科技的发展,apollo自动驾驶教程的今日更新也在不断地推陈出新。今天,我将为大家详细介绍它的今日更新,让我们一起了解它的最新技术。

1.这台网约车前排没人!试乘百度Apollo Moon极狐版

2.自动驾驶之感知算法

apollo自动驾驶教程_apollo 自动驾驶

这台网约车前排没人!试乘百度Apollo Moon极狐版

       我用萝卜快跑App下单叫了一台前排没有驾驶员的网约车!这不是**,而是在北京首钢园发生的事实,这就是无人驾驶出租车体验的真实场景,而它来自百度Apollo。百度Apollo也被称为“自动驾驶国家队”,近年来一直努力推动无人驾驶产业发展。10月28日在北京首钢园,百度Apollo举办了首期技术开放日,其无人驾驶车辆的第五代车型Apollo Moon三款合作车型亮相,同时极狐版车型也首次开放了试乘体验。我们在首钢园自动驾驶服务示范区抢先试乘体验,你或许会看到未来数年后我们出行的场景。

       在分享试乘体验前,先带大家了解下这次亮相的三款Apollo?Moon合作车型。Apollo?Moon是百度Apollo无人驾驶车辆的第五代车型,这里为大家科普下百度5代自动驾驶车辆的发展路程:

       第一代车型是一台宝马3系GT,它也是国内首台自动驾驶车辆,是由百度的同学在公司地库改装而来,它的出现开启了国内自动驾驶的先河;

       第二代车型是以比亚迪秦、奇瑞eQ、北汽EU260构成的团队,这也是百度Apollo首次尝试多车型、多平台布局,并开启了大规模测试;

       第三代车型是林肯MKZ,它实现了更高的套件集成度,同时测试范围也从北京扩展到更多的城市;

       第四代车型是红旗的E-HS3,这是国内首台前装量产自动驾驶车辆,并在多城市开放运营,目前我们普通老百姓在开放试点的城市可以通过萝卜快跑App体验到的主力车型就是这款车,未来第五代的三款合作车型也将陆续投入运营;

       第五代车型就是上述介绍的三款合作车型了,按照合作先后顺序看,分别是极狐版、威马版和埃安版车型,其中极狐版以极狐阿尔法T为原型车,威马版以威马W6为原型车,埃安版以Aion?LX为原型车。它们的传感器融合度更高,并且面向无人化智能运营,也就是说相比第四代车型,它的前排是没有安全监管员来操作车辆的,自动驾驶程度又向前迈进一步。

       下面咱们来了解下Apollo?Moon的车辆构成,以我们体验的这台极狐版车型为准,因为它相比于威马版和埃安版来说是具备合法身份的正式公民了,而其他两款车型目前还处于试验车阶段,通过它们三个头顶上的激光雷达颜色就能看得出来。

       从它的自动驾驶硬件配置来看,它号称13C5R1L传感器组合,车顶采用了 1 颗禾赛的定制化激光雷达,前向还有一颗安全冗余激光雷达(平时不工作);配备有 13 个摄像头、5 个毫米波雷达以及 2 颗激光雷达,它的算力能够达到800TOPS。

       另外在车顶的激光雷达下面还有一块类似于出租车顶的广告显示屏,但它的功能可比后者要丰富的多:它可以显示特殊的颜色和信息,让乘客更方便辨认自己要乘坐的车辆;在行驶过程中也会实时显示当前行驶状态,让路上的其他车辆和行人了解这台车的驾驶意图;同时它还表明了道路行驶的优先级,遇到行人、非机动车辆时会采取主动避让的形式,不会和他们争夺谁先走谁后走。

       这套硬件同时具备的自检和自清洁功能,能够确保复杂天气及复杂城市路况下的安全行驶。其采用46项安全保障技术和59项出行服务设计,具备全传感器及计算单元冗余,复杂城市道路送达成功率高达99.99%。即使一套系统发生失效,也能确保整车仍然执行驾驶指令,将乘客送到安全地点。

       这次第五代车型的一大特点是更深度的定制和前装量产,它不像之前的车型是在现车的基础上直接安装套件,而是在车辆生产阶段就定制化的改造,比如自动驾驶相关的传感器全部都嵌入车内,自研计算单元的水冷系统也和车内的冷却系统融合,尽量保证原车零件的复用,不另起炉灶产生冗余;同时集成化的设计将自动驾驶套件安放在后备箱盖板下,不影响原车的储物空间。

       而在车内除了原装元件外,我们见到了三块屏幕、多个摄像头和一个安全组件。位于前排的屏幕是供给驾驶位安全员看的实时道路模拟画面,而后排的两个屏幕是给后排的两个乘客看的,显示内容基本一致;而多个摄像头则从不同角度监视车内乘客的状态呢,车顶中央的安全组件平时用不到,更多是一种冗余备份的存在,它设有4个实体键,分别控制车辆解锁、联系客服、静音和启程。

       而Apollo Moon依托百度Apollo全球领先的自动驾驶技术积累,采用“ANP-Robotaxi”架构,不仅让无人车套件轻量化,还可与智能驾驶汽车数据共生共享,打造超强数据闭环。在领航辅助驾驶ANP车型基础上,增加1颗定制激光雷达和相应无人驾驶冗余,即可实现完全无人驾驶能力。

       Apollo无人驾驶三要素“前装量产车”、“AI老司机”、“5G云代驾”正以“三倍速”不断进化。

       前装量产车:从四代车单一车型,发展到五代车三款车型,分别是Apollo?Moon极狐版、威马版、埃安版,为“萝卜快跑”用户提供更多选择;

       AI老司机:自动驾驶安全路测里程已从600万公里增加至1800万公里,实现三倍提升;

       5G云代驾:从单一远程脱困场景,扩展至“赋能共享出行服务、赋能特殊作业场景、赋能智慧城市服务”三大落地场景,不管是自动驾驶出租车、无人驾驶矿车还是阿波罗无人驾驶中巴,在遇到特殊情况时,都可以有一个云代驾通过远程操控车辆,补足了无人驾驶的空缺。

       这是我第一次使用萝卜快跑App来体验百度Apollo的Robotaxi无人驾驶出租车服务,所以第一步就是在手机上下载App并完成用户注册,同时在你第一次下单的时候还需要填写姓名、身份证号等信息,整个操作界面跟打普通的网约车逻辑一样,上手无难度。选择好出发点和目的地,在系统显示你约到车辆后就在原地等待即可,由于是无人驾驶车辆,一定要等到车辆自己完全停稳后再上车。?

       人与车之间的相认它是通过车辆C柱上的小屏幕,乘客在上面输入手机号后四位后,车门自动打开,拉门上车,关门坐好,此时面前的系统会提示你系好安全带。

       万事就绪后点击你面前屏幕上的“开始行程”,车辆就开始行驶了。

       这次体验的路线还是固定且相对短的路线,全程不到2km,用时几分钟。起步后车辆行驶比较平稳,加速转向刹车都很平顺不会给乘客不适感,当然有一点前提是我们体验的路况相对比较简单,整个自动驾驶测试路段社会车辆并不多。

       在屏幕中实时显示的路况渲染画面中对于道路上的机动车、行人、自行车、交通锥等障碍物识别地都比较全面及时,同时也为乘客提供了车辆下一步操作意图让乘客心里有数,而当经过红绿灯时屏幕也能实时显示,车辆也会根据红绿灯情况自主选择行驶或停止等待。

       而在车辆即将抵达目的地后屏幕会显示停靠中并提示乘客在车辆停稳后再下车。当车辆完全停稳后只需轻拉门把手,车门就会自动开启,一次完整的无人驾驶网约车体验就结束了。在现阶段对于我们乘客来说,这毕竟是个尝鲜的过程,整体体验路况虽然相对简单但是感受比较不错,而且作为已经发展了5代的自动驾驶无人出租车,它在未来还将会保持2年更新一代的速度继续成长,我们也将能收获到更好的体验。

       视频正在加载中...

自动驾驶之感知算法

       文/吴鹏飞

       近日,全球首个量产自动驾驶计算平台?ACU?正式下线。

       ACU?全称?Apollo?Computing?Unit,它是百度?Apollo?面向量产的自动驾驶车载计算单元。根据不同需求场景的计算能力要求,ACU?分为多个系列产品,代工生产方为苏州伟创力,年产能可达?20?万套。

       眼下的这个黑盒子便是百度?ACU?系列的先发产品?ACU-Advanced?,它是一套针对自主泊车产品?AVP?的专用车载计算平台,并且提供软硬一体的解决方案。别看它个头不大,但功能强大。

       百度的?AVP?自主泊车主要预设了两大场景:

       1、针对家/公司固定场景的?Home-AVP?:驾驶员直接在停车场电梯口下车,车辆在视距内沿固定路线泊入固定车位;

       2、针对交通枢纽、商业中心等公共场景的?Public-AVP:驾驶员直接在目的地下车,车辆自动驾驶入停车场寻找车位泊车。如果在停车场入口拥堵时,车辆也可自动排队。

       有了这个黑盒子,车辆便可以轻松实现?ValetParking、自动泊车、智能召唤等功能,用户只要在手机上一键遥控,就可实现远程取还车、自动寻找车位、自主泊车等操作。

       据了解,第一家尝鲜的主机厂是威马,今年下半年,威马的新车将搭载上百度的?ACU,实现?AVP?自主泊车的量产。

       ACU?具备很强的?AI?能力,涵盖高精建图和定位、环境感知、规划控制等功能。ACU?还具备云端更新能力,可实现数据回传、云端训练、升级算法的实时闭环迭代。硬件支持?5?路摄像头,12?路超声波雷达,预留毫米波雷达和激光雷达接口;适配百度的深度学习算法;全部元器件和装配都满足车规级要求,能够适应?-40℃~85℃?的工作温度。?

       要想实现一个计算平台的量产并非易事,百度?Apollo?也是集思广益,一枚小小的黑盒子的研发设计背后是多家巨头公司共同努力。

       比如百度?ACU?的核心处理芯片是赛灵思提供的;英飞凌提供了?ACU?的汽车级安全控制处理器;Vector?为百度?ACU?提供了底层操作系统;RTI?为百度ACU提供车端系统和各功能模块之间的通信;瑞士再保险公司(Swiss?Re)为百度?ACU?量产提供全生命周期的风险保障。

       知识扩充:

       2018?年,百度在?GTC?大会上发布了?ACU?计算平台,同年六月,百度和伟创力宣布合作,百度提供方案,伟创力负责代工。

       当然,这个“代工”并不是传统组装那么简单。基于百度?Apollo?专家的建议和架构需求,伟创力为其提供了一种?ADM?辅助开发业务模式,他们为百度提供定制化的硬件开发,诊断软件开发,工业设计,热管理结构设计,测试验证,以及供应链整合优化,产线设计和规模化生产制造等。

       ACU?这款产品究竟该怎么理解?以?ACU-Advanced?为例,事实上?ACU?还算不上整车自动驾驶的计算平台,更像是负责自主泊车的一个域控制器。传统的自主泊车方案里头,几部分的?ECU?经常是各自为战,需要的时候再配合到一起。

       而?ACU?的出现则把各部高度集成,统一调配各大传感器、应用专属算法,专注做好自主泊车功能。与此同时,它还可以支持高速自动驾驶,作为冗余的一部分。

       高度集成化是自动驾驶的必由之路,随着?ACU?计算平台的成功量产,百度?Apollo?更进一步,而高级别的自动驾驶计算平台,百度还没有实现量产,这也是摆在业内的一大难题。

       为什么要为自主泊车专门研发一个计算平台?百度相关负责人在接受采访时道出了背后的考量。

       据统计,在中国泊车市场中,2.7?亿乘用车仅匹配约?1?亿个停车位,大约有?5000?万个停车位缺口,尤其在一线城市中,停车位分布不均,平均停车场有效利用率仅为45%。

       另外在驾驶过程中,“停车难”问题普遍,即便是“老司机”,平均也有超过?30%?的驾驶时间被浪费在找车位和泊车过程中,这反映出来了一个巨大的市场。百度称他们的这套自主泊车产品可以节省?70%?取车还车时间,搞定?99%?以上停车位,能够彻底解决停车难问题。

       眼下,越来越多的主机厂开始在量产产品中搭载自主泊车功能,传统车企比如奔驰、宝马、长安、吉利,新势力的蔚来、小鹏等等,他们的新车都具备了自主泊车功能,特斯拉甚至还量产了“智能召唤”的功能。

       各家产品虽然体验各有差异,但足以反映自主泊车功能在车厂心中的战略地位。

       当然,自主泊车的终极形态绝非是实现一个简单的停车动作,实现“车找位”、“车找人”、可以“一键召唤”才是星辰大海,这种小场景下的自动驾驶往往更能够刺中实际生活中的用车痛点,更打动消费者,也是自动驾驶公司把技术打包落地进行变现的最快途径之一。

       本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。

       感知是自动驾驶的第一环,十分重要,同时感知算法要考虑 传感器 的功能特性、适配其采集到的数据,才能开发出更好的算法。 感知算法 根据使用的传感器不同而不同。

       点云障碍物感知的主要任务是感知障碍物的 位置、大小、类别、朝向、轨迹、速度 等。核心是 点云检测分割技术

        特别注意:首先要利用地图信息对点云进行预处理;例如:去除ROI(感兴趣区域)之外的点云,降低点云图的复杂度。

        算法核心思想:将点云转化为拓扑图分割问题,利用图聚类的方法(Ncut)解决问题,每一簇即为一个障碍物,虽然可以予点云以区分,但是缺乏对应的语义信息。

        算法核心思想:利用 卷积神经网络 来处理激光雷达捕获的点云数据,并对点云中的目标进行识别;关键词:数据驱动、特征学习。

        Apollo的实践:

        1. 前视图 (front-view):将所有点云都投到 前视图 (front-view)(投影面是一个圆柱面)来构造特征,将点云问题转化为矩阵问题,进而使用深度学习进行处理。通过构建全卷积神经网络对前向视图进行处理。

        2.制作俯视图:借助自采集车队,采集更多的实际数据,并且扩展数据视角,制作俯视图,通过将俯视图+前视图相结合的方式进行训练。同时,修改Loss函数,包括使用3D回归和Segmentation的损失函数。如下图:

        但是俯视图没有高度信息,于是把前视图和Camera图像加进来进行辅助检查,综合了 Lidar测距准 和 Camera识别准 的优点,从而诞生了 Middle-Level Fusion 方法(Multi-View 3D Object Detection Network for Autonomous Driving);该方法使用俯视图提取Proposal,利用前视图和光学图像辅助进行更加精准的位置回归。流程图如下:

       视觉感知 最早从ADAS(高级驾驶辅助系统)发展而来(ADAS采用人工构造的特征,使用浅层分类器);现在主流已经变为 “深度学习+后处理计算” ;其特点是计算硬件要求升级、数据需求量大增、安全性评估的变化。

        面向自动驾驶的深度学习的特点:1.2D感知向3D感知渗透,模型输出更丰富(后处理需要的3D信息、跟踪信息、属性信息等都会放在CNN中进行学习);2.环视能力构建(传统方法靠一个Camera完成前向检测、碰撞检测、车道线检测。无人驾驶需要环视);3.感知+定位+地图紧密结合。

        1.场景有几何约束(规则道路),可以辅助检测

        2.模型输出需要更加丰富;Detectation--->2D to 3D--->Tracking

        3.多任务学习(学习多种障碍物特征),网络结构适配;(由多个专用网络则流程太长难以满足需求)

        4.属性识别——不仅限于障碍物级别的输出

        分割与检测有相似之处,但是分割粒度更细,相比于检测的“画框”,它要求边缘分割

        2D-to-3D的几何计算: 需要考虑相机位姿的影响、接地点、稳定性

        时序信息计算(针对跟踪处理) :相机帧率与延时的要求、跟踪不能耗费太多时间、利用检测模块的输出进行跟踪;考虑轻量级的Metric Learning

        多相机的环视融合 :相机布局决定融合策略,要做好视野重叠?

       任务描述:在距离停止线 50~-2米 的范围内精准识别红绿灯亮灯状态,检测精度要求非常高(需要达到99.9%),同时召回不能太低(recall = TP/(TP + FN));天气等环境问题;红绿灯的制式;

        自动驾驶中使用深度学习进行红绿灯感知模块的构建,主要分为以下几步:

        1.相机选择和安装

        2.高精地图的交互

        3.使用深度学习识别灯颜色的变化(分为检测和颜色分类两步)

       非常高兴能与大家分享这些有关“apollo自动驾驶教程”的信息。在今天的讨论中,我希望能帮助大家更全面地了解这个主题。感谢大家的参与和聆听,希望这些信息能对大家有所帮助。