CN110794844A - 自动驾驶方法、装置、电子设备及可读存储介质 - Google Patents
自动驾驶方法、装置、电子设备及可读存储介质 Download PDFInfo
- Publication number
- CN110794844A CN110794844A CN201911129850.0A CN201911129850A CN110794844A CN 110794844 A CN110794844 A CN 110794844A CN 201911129850 A CN201911129850 A CN 201911129850A CN 110794844 A CN110794844 A CN 110794844A
- Authority
- CN
- China
- Prior art keywords
- sub
- vehicle
- network
- information
- lane line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012549 training Methods 0.000 claims description 37
- 238000012545 processing Methods 0.000 claims description 27
- 230000015654 memory Effects 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 18
- 238000005259 measurement Methods 0.000 claims description 11
- 239000000126 substance Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000011176 pooling Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000006978 adaptation Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
- G05D1/0278—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本申请公开了一种自动驾驶方法、装置、电子设备及可读存储介质,涉及自动驾驶领域。具体实现方案为:获取车辆的行驶信息,行驶信息包括所述车辆所在道路环境的图像信息以及车辆的参考位置信息;将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;根据所述目标定位结果,对所述车辆进行运动控制。该方案使得目标定位结果的定位精度得到极大的提升。
Description
技术领域
本申请实施例涉及自动驾驶技术,尤其涉及一种自动驾驶方法、装置、电子设备及可读存储介质。
背景技术
自动驾驶系统中涉及多种组成部分,包括:传感器适配层、智能感知系统、高精地图引擎、环境建模、高精定位、决策规划、运动控制等。其中,高精定位属于自动驾驶系统中的核心处理模块,基于高精定位的定位结果,环境建模、决策规划等模块可以确认车辆的位置,进而执行后续的操作。因此,如何实现高精定位,是需要解决的重要问题。
现有技术中,提出了一种基于端到端深度学习进行高精定位的方法,该方法中,预先训练一个端到端的卷积神经网络,训练完成后,在自动驾驶场景中,将车辆采集的一帧图像信息以及车身信息等输入卷积神经网络,卷积神经网络的各层输出特征,并最终进行回归,得到针对该一帧图像信息以及车身信息的定位结果。
但是,现有技术的方法中卷积神经网络输出结果的解释性较低,难以保证高精定位的精度。
发明内容
本申请实施例提供一种自动驾驶方法、装置、电子设备及可读存储介质,用于解决现有技术中定位精度不高的问题。
第一方面,本申请实施例提供一种自动驾驶方法,包括:
获取车辆的行驶信息,所述行驶信息包括所述车辆所在道路环境的图像信息以及所述车辆的参考位置信息;
将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;
根据所述目标定位结果,对所述车辆进行运动控制。
进一步的,所述第一子网络包括目标中间层以及所述目标中间层的输入层;
所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,包括:
在所述输入层根据所述车辆所在道路环境的图像信息输出第一中间结果;
在所述目标中间层根据所述第一中间结果输出第二中间结果,所述第二中间结果为表征车道线信息的结果;
所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果,包括:
所述第二子网络根据所述目标中间层输出的所述第二中间结果以及所述车辆的参考位置信息,输出所述目标定位结果。
进一步的,所述第一子网络为卷积神经网络,所述目标中间层为全连接层。
进一步的,所述第二子网络包括第一子模型和第二子模型;
所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果,包括:
所述第二子模型根据所述第一子模型输出的参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在第一时刻与第二时刻之间的参考位置信息,输出所述第二时刻的所述目标定位结果;所述第一时刻早于所述第二时刻;
其中,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息以及所述车辆在第一时刻的参考位置信息得到,或者,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息、所述车辆在第一时刻的参考位置信息以及第三子模型输出的参考定位结果得到。
进一步的,所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在所述第一时刻与第二时刻之间的参考位置信息,输出所述目标定位结果之前,还包括:
所述第二子网络根据所述第一时刻与第二时刻之间的参考位置信息进行组合处理,得到组合的特征向量;
所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在所述第一时刻与第二时刻之间的参考位置信息,输出所述目标定位结果,包括:
所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述组合的特征向量,输出所述目标定位结果。
进一步的,所述获取车辆的行驶信息,包括:
根据所述车辆的里程计采集的信息获取所述车辆所在道路环境的参考车道线信息;
根据所述参考车道信息,获取所述车辆所在道路环境的地图信息。
进一步的,所述获取车辆的行驶信息之前,还包括:
基于预设的第一训练数据,对所述目标定位网络中的所述第一子网络和所述第二子网络进行训练;
所述预设的第一训练数据包括:人工标注的车道线真值图像以及预设测量设备测量获得的定位信息。
进一步的,所述获取车辆的行驶信息之前,还包括:
基于预设的第二训练数据以及已训练完成的所述第一子网络,对所述第二子网络进行训练;
所述预设的第二训练数据包括:预设测量设备测量获得的定位信息。
进一步的,所述车辆的参考位置信息包括由所述车辆的全球定位系统GPS获得的位置信息、由所述车辆的惯性测量单元IMU获得的位姿信息以及所述车辆所在道路环境的地图信息中的至少一种。
第二方面,本申请实施例提供一种自动驾驶装置,包括:
获取模块,用于获取车辆的行驶信息,所述行驶信息包括所述车辆所在道路环境的图像信息以及所述车辆的参考位置信息;
处理模块,用于将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;
控制模块,用于根据所述目标定位结果,对所述车辆进行运动控制。
进一步的,所述第一子网络包括目标中间层以及所述目标中间层的输入层;
所述处理模块具体用于:
在所述输入层根据所述车辆所在道路环境的图像信息输出第一中间结果;
在所述目标中间层根据所述第一中间结果输出第二中间结果,所述第二中间结果为表征车道线信息的结果;以及,
由所述第二子网络根据所述目标中间层输出的所述第二中间结果以及所述车辆的参考位置信息,输出所述目标定位结果。
进一步的,所述第一子网络为卷积神经网络,所述目标中间层为全连接层。
所述第二子网络包括第一子模型和第二子模型;
所述处理模块具体用于:
由所述第二子模型根据所述第一子模型输出的参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在第一时刻与第二时刻之间的参考位置信息,输出所述第二时刻的所述目标定位结果;所述第一时刻早于所述第二时刻;
其中,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息以及所述车辆在第一时刻的参考位置信息得到,或者,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息、所述车辆在第一时刻的参考位置信息以及第三子模型输出的参考定位结果得到。
进一步的,所述处理模块还用于:
由所述第二子网络根据所述第一时刻与第二时刻之间的参考位置信息进行组合处理,得到组合的特征向量;
所述处理模块具体用于:
由所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述组合的特征向量,输出所述目标定位结果。
进一步的,所述获取模块具体用于:
根据所述车辆的里程计采集的信息获取所述车辆所在道路环境的参考车道线信息;以及,
根据所述参考车道信息,获取所述车辆所在道路环境的地图信息。
进一步的,所述装置还包括:
第一训练模块,用于基于预设的第一训练数据,对所述目标定位网络中的所述第一子网络和所述第二子网络进行训练;
所述预设的第一训练数据包括:人工标注的车道线真值图像以及预设测量设备测量获得的定位信息。
进一步的,所述装置还包括:
第二训练模块,用于基于预设的第二训练数据以及已训练完成的所述第一子网络,对所述第二子网络进行训练;
所述预设的第二训练数据包括:预设测量设备测量获得的定位信息。
进一步的,所述车辆的参考位置信息包括由所述车辆的全球定位系统GPS获得的位置信息、由所述车辆的惯性测量单元IMU获得的位姿信息以及所述车辆所在道路环境的地图信息中的至少一种。
第三方面,本申请实施例提供一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述第一方面所述的方法。
第四方面,本申请实施例提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行上述第一方面所述的方法。
上述申请中的一个实施例具有如下优点或有益效果:
将参考位置信息以及车辆周围环境的图像信息输入目标定位网络后,由目标定位网络中的第一子网络输出车道线信息,由目标定位网络中的第二子网络根据第一子网络输出的车道线信息以及参考位置信息,输出定位结果。由于车道线信息为一种较强的视觉信息,将其输入到第二子网络后,使得第二子网络的输出结果具有较强的可解释性,从而使得目标定位结果的定位精度得到极大的提升。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例所涉及的自动驾驶系统的系统结构图;
图2为本申请实施例提供的自动驾驶方法的流程示意图;
图3为本申请实施例的目标定位网络的示例图;
图4为本申请实施例提供的自动驾驶方法的流程示意图;
图5为本申请实施例提供的一种自动驾驶装置500的模块结构图;
图6是根据本申请实施例的自动驾驶方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请实施例可以应用于智能驾驶场景中,包括自动驾驶场景以及辅助驾驶场景。本申请以下实施例均以自动驾驶场景为例进行说明。
图1为本申请实施例所涉及的自动驾驶系统的系统结构图,该自动驾驶系统为运行在自动驾驶车辆中的系统。如图1所示,该自动驾驶系统包括:传感器适配层、智能感知系统、高精地图引擎、环境建模模块、高精定位模块、决策规划模块、运动控制模块等。其中,传感器适配层能够获取设置在自动驾驶车辆上的多种传感器的采集数据,该多种传感器包括:毫米波雷达、单目相机、全球定位系统(Global Positioning System,简称GPS)、惯性测量单元(Inertial Measurement Unit,简称IMU)等。高精地图引擎能够输出车辆当前所在区域的高精地图。智能感知系统根据传感器适配层所输出的信息,能够确定车辆周围的车辆、障碍物、可行驶区域等信息,这些信息通过环境建模,可以得到车辆周围环境信息。周围环境信息与由高精定位模块所得到的车辆的高精定位结果作为决策规划模块的输入,由决策规划模块根据该输入的得到待执行的运动信息,进而由运动控制模块进行车辆的运动控制,运动控制例如可以包括:转向、刹车、加速、自动紧急制动(Autonomous EmergencyBraking,简称AEB)、输出提示信息等。高精定位模块能够基于传感器适配层所输出的信息以及高精地图引擎输出的车辆当前所在区域的高精地图,得到车辆当前的高精定位信息。
图2为本申请实施例提供的自动驾驶方法的流程示意图,该方法的执行主体为运行在自动驾驶车辆上的自动驾驶系统。如图2所示,该方法包括:
S201、获取车辆的行驶信息,该行驶信息包括上述车辆所在道路环境的图像信息以及上述车辆的参考位置信息。
可选的,上述车辆的参考位置信息包括由上述车辆的GPS获得的位置信息、由上述车辆的IMU获得的位姿信息以及上述车辆所在道路环境的地图信息中的至少一种。
可选的,基于上述图1所示的系统结构,传感器适配层可以包括GPS、IMU等传感器。车辆在行驶过程中GPS可以持续获取到车辆的位置信息。由GPS所获取到的位置的精度较低,例如可以为10米左右的定位精度。同时,由车辆上的IMU持续检测车辆的角速度、加速度等,从而获取到车辆的位姿信息。另外,自动驾驶系统中的高精地图引擎可以保存或者实时获取高精地图,可以从中得到车辆所在道路环境的地图信息。上述由GPS获得的精度较低的位置信息、由IMU获得的位姿信息以及车辆所在道路环境的地图信息中的至少一种可以作为车辆的参考位置信息。
另外,可选的,车辆在行驶过程中,还可以由单目相机等图像采集设备持续采集车辆所在道路环境的图像信息,一帧图像中可能包括路面中的各种类型的车道线以及路边沿等信息。
S202、将车辆的行驶信息输入目标定位网络,得到由上述目标定位网络输出的上述车辆的目标定位结果,上述目标定位网络包括第一子网络和第二子网络,上述第一子网络根据上述车辆所在道路环境的图像信息输出上述车辆所在道路环境的车道线信息,上述第二子网络根据上述第一子网络输出的上述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果。
上述目标定位网络中包括了第一子网络和第二子网络,其中,第一子网络能够根据车辆所在道路环境的图像信息得到车辆所在道路环境的车道线信息。进而,由第一子网络得到的车道线信息可以与前述的参考信息作为第二子网络的输入信息,经由第二子网络的处理,得到车辆的目标定位结果。首先,该目标定位结果的精度相比于GPS等的定位精度具有极大提升,其次,本实施例将车道线信息作为第二子网络的输入,由于车道线信息为一种较强的视觉信息,将其输入到第二子网络后,使得第二子网络的输出结果具有较强的可解释性,从而使得定位精度得到极大的提升。
可选的,由第二子网络输出的目标定位结果可以包括车辆所在位置的坐标以及车辆周围的车道线,其中,车辆所在位置的坐标可以由六自由度姿态表示。
S203、根据上述目标定位结果,对上述车辆进行运动控制。
在得到上述高精度的目标定位结果后,可以基于该目标定位结果以及以及前述的环境建模结果进行决策规划,进而对车辆进行运动控制。例如控制车辆转向、刹车、加速、AEB等。
本实施例中,将参考位置信息以及车辆周围环境的图像信息输入目标定位网络后,由目标定位网络中的第一子网络输出车道线信息,由目标定位网络中的第二子网络根据第一子网络输出的车道线信息以及参考位置信息,输出定位结果。由于车道线信息为一种较强的视觉信息,将其输入到第二子网络后,使得第二子网络的输出结果具有较强的可解释性,从而使得目标定位结果的定位精度得到极大的提升。
作为一种可选的实施方式,上述第一子网络包括一个目标中间层以及目标中间层的输入层。值得说明的是,该输入层可能包括一层,也可能包括多层。
在该实施方式中,第一子网络根据车辆所在道路环境的图像信息输出车辆所在道路环境的车道线信息时,具体可以首先由输入层根据车辆所在道路环境的图像信息输出第一中间结果,再由目标中间层根据第一中间结果输出第二中间结果,其中,该第二中间结果为表征车道线信息的结果。
可选的,上述第一子网络可以为神经网络,例如可以为卷积神经网络。
以上述第一子网络为卷积神经网络为例,上述目标中间层可以为全连接层,例如卷积神经网络中的第一个全连接层,上述输入层可以为卷积神经网络中在目标中间层之前的各层,这些层可以统一作为目标中间层的输入层。
可选的,上述目标中间层所输出的第二中间结果,可以是能够表征车道线信息的抽象的特征信息,例如可以为能够表征车道线信息的特征向量。该第二中间结果所表征的车道信息例如可以包括道路中的车道线、路边沿等。
当由上述目标中间层输出上述第二中间结果后,相应的,第二子网络根据第一子网络输出的车道线信息以及车辆的参考位置信息输出目标定位结果时,可以根据上述目标中间层输出的第二中间结果以及车辆的参考位置信息,输出上述目标定位结果。
图3为本申请实施例的目标定位网络的示例图,如图3所示,目标定位网络中的第一子网络为卷积神经网络,该卷积神经网络共包括7层,第一层包括一个卷积层conv1和池化层pool1,第二层包括一个卷积层conv2,第三层包括一个卷积层conv3和池化层pool3,第四层包括一个卷积层conv4和池化层pool4,第五层为一个全连接层pc5,第六层为一个全连接层pc6,第7层为一个全连接层pc7。该卷积神经网络可以接收输入的图像信息,并由fc7输出图像中的车道线信息。
而在上述可选的实施方式中,参照图3,第一个全连接层fc5可以作为上述的目标中间层,fc所输出的特征作为第二子网络的输入。fc5之前的各层,即从conv1至pool4,可以统一作为fc5的输入层。
以下对上述图3中的第一子网络的各层的处理过程进行说明。
上述第一子网络的第一层至第四层采用了卷积层和池化层,其中,卷积层可以使用二维卷积,通过对输入的二维特征向量与核算子进行逐元素计算,从而得到更高级的特征,而核算子可以通过预先的训练过程得到最优解。由于单一的卷积层对特征的位置敏感,例如,在变道过程中,车道线特征可能出现在图像左右两边各个可能的位置,因此,在卷积层之后增加池化层,能够有效降低卷积神经网络对于特征位置的敏感性。在上述可选的实施方式中,池化层可以使用最大池化方式。
上述第一子网络的第五层至第七层采用了全连接层,用于整合第一层至第四层中卷积层与池化层提取出的具有类别区分性的特征。在全连接层中,每一个神经元均采用下述公式(1)所示的激励函数:
ReLU(x)=max(x,0) (1)
其中,x为全连接层的输入值,上述激励函数提供了一种非线性变换,由两段线性函数组成,并且,该函数导数在负数区间为0,在正数区间为单位一。
继续参照图3,在fc7之后,卷积神经网络可以输出车道线信息。其中,卷积神经网络可以采用下述公式(2)的Sigmoid函数进行二分类处理,以输出车道线信息:
y=1/(1+ex) (2)
其中,x为fc7的神经激活值,y∈(0,1)为经过Sigmoid函数处理后的值。该值可看作为像素属于车道线的概率,若y接近于1,则说明该像素为车道线,而若y接近于0,则说明该像素为图像背景。则一个像素属于车道线的概率可以由下述公式(3)计算:
p(y=1|x,W)=1/(1+ex) (3)
而一个像素属于背景的概率可以由下述公式(4)计算:
p(y=0|x,W)=1-p(y=1|x,W)=ex/(1+ex) (4)
在上述可选的实施例中,将第一子网络中的目标中间层的输出结果作为向第二子网络的输入结果,相比于第一子网络最终输出的车道线信息而言,该目标中间层所输出的车道线信息为抽象的能够表征车道线信息的特征信息,除了能够表征车道线之外,还能够表征路边沿等路面元素信息,因此,能够使得第二子网络得到精度更高的定位结果。
在一种可选的实施方式中,上述第二子网络可以由多个子模型串行,每个子模型的输出结果可以作为下一个子模型的输入。
继续参照图3,上述第二子网络可以包括N个子模型,N为大于等于2的整数。每个子模型可以为一个长短期记忆网络(Long Short Term Memory Networks,简称LSTM)。车辆在行驶过程中,第一子网络按照一定的周期,根据传感器采集到的图像信息,得到车道信息信息。如图3所示,t1至t2为一个周期,第一子网络获取t1时刻的图像信息,输出该时刻对应的车道线信息,在下个周期,即t2时刻获取图像信息,输出该时刻对应的车道线信息,以此类推。第二子网络也按照一定的周期输出目标定位结果,第二子网络的处理周期与第二子网络所包括的子模型的数量以及第一子网络的周期相关。参照图3,第二子网络的每个子模型分别接收第一子网络的一个周期的输出结果,并基于第一子网络的输出结果得到自身的输出结果,该输出结果可以作为下一个子模型的输入信息。第二子网络的一个周期为从第一个子模型接收输入信息至最后一个子模型输出牧宝定位结果。
基于上述的描述,可选的,上述第二子网络可以包括第一子模型和第二子模型,其中,第二子模型为第二子网络中的最后一个子模型,第一子模型为与第二子模型相邻的前一个子模型。
在该可选的实施方式中,在第二子网络根据第一子网络输出的车道线信息以及车辆的参考位置信息,输出目标定位结果时,可以由第二子模型根据第一子模型输出的参考定位结果、第一子网络输出的第二时刻的车道线信息以及车辆在第一时刻和第二时刻之间的参考位置信息,输出第二时刻的目标定位结果。
其中,基于不同的子模型数量,上述第一子模型输出参考定位结果的过程可能不同。一种情况下,当第二子网络包括两个子模型时,第一子模型为第二子网络中的首个子模型,则第一子模型可以根据第一子网络输出的第一时刻的车道线信息以及车辆在第一时刻的参考位置信息得到参考定位结果。另一种情况下,当第二子网络包括大于两个的子模型时,第一子模型为第二子网络中的一个中间子模型,则第一子模型可以根据第一子网络输出的第一时刻的车道线信息、车辆在第一时刻的参考位置信息以及第三子模型输出的参考定位结果,得到参考定位结果。其中,第三子模型为与第一子模型相邻的前一个子模型。
在上述可选的实施方式中,第二子模型输出的目标定位结果除了基于车道线信息和参考位置信息外,还基于前一个子模型所输出的参考定位结果得到,从而充分利用了车辆的历史轨迹信息,结合历史的多帧图像得到定位结果,从而避免出现现有技术中所出现的定位结果易于跳变等问题。
如前文所述,第二子模型所使用的参考位置信息为第一时刻与第二时刻之间的参考位置信息。在车辆行驶过程中,第一时刻和第二时刻之间可能出现多个参考位置信息。基于此,继续参照图3,作为一种可选的实施方式,在将参考位置信息输入每个子模型之前,第二子网络可以通过其中的特征组合层,根据第一时刻与第二时刻之间的参考位置信息进行组合处理,得到组合的特征向量。
示例性的,假设参考位置信息包括了GPS的输出信息、IMU的输出信息以及高精地图,则特征组合层可以将第一时刻和第二时刻之间所得到的这三种信息组合成特征向量。
相应的,第二子模型根据参考定位结果、第一子网络输出的第二时刻的车道线信息以及车辆在所述第一时刻与第二时刻之间的参考位置信息,输出所述目标定位结果时,可以根据上述参考定位结果、上述第一子网络输出的第二时刻的车道线信息以及上述组合的特征向量,输出上述目标定位结果。
如前文所述,车辆的参考位置信息可以包括车辆所在道路环境的地图信息。高精地图中可以包括较大范围的地图信息,而在车辆定位时,可以仅使用车辆所在道路环境的局部地图信息,因此,因此,作为一种可选的实施方式,可以通过如下过程获取车辆所在道路环境的地图信息。
图4为本申请实施例提供的自动驾驶方法的流程示意图,如图4所示,获取车辆所在道路环境的地图信息的一种可选方式包括:
S401、根据车辆的里程计采集的信息获取车辆所在道路环境的参考车道线信息。
可选的,里程计可以为自动驾驶车辆中的一个模块,里程计可以输出局部的车道信息,称为参考车道线。
S402、根据上述参考车道信息,获取车辆所在道路环境的地图信息。
可选的,将步骤S401所得到的参考车道线信息转换至里程计的局部坐标系下,进而,通过三次方程拟合计算,可以得到局部坐标系下的车道线的方程,该方程能够表示局部的地图信息,具体可以包括:车道线类型,包括:实线,虚线,双线,障碍物,路沿,无效;车道类型,包括匝道,汇合点,紧急行车道,行车道等;车道线颜色,包括白色,红色,黄色等。
上述三次方程可以为下述公式(5)所示:
y=ax3+bx2+cx+d (5)
其中,d为截距,用于反映车身在高精车道内的横向位置,c为一次项,用于反映车身在高精车道内的朝向,三次项a与二次项b用于反映远处高精车道的变化趋势。
以下说明上述目标定位网络的训练过程。
在使用上述目标定位网络进行定位之前,可以预先对目标定位网络进行训练。可以使用下述任意一种方式对目标定位网络进行训练。
一种可选方式中,可以基于预设的第一训练数据,对目标定位网络中的所述第一子网络和所述第二子网络进行训练。
其中,上述预设的第一训练数据包括:人工标注的车道线真值图像以及预设测量设备测量获得的定位信息。
在该方式中,基于上述第一训练数据同时对第一子网络和第二子网络进行训练。
另一种可选方式中,可以基于预设的第二训练数据以及已训练完成的第一子网络,对第二子网络进行训练。
其中,上述预设的第二训练数据包括:预设测量设备测量获得的定位信息。
在该方式中,第一子网络和第二子网络的训练可以分别进行,可以首先训练完成第一子网络,在此基础上,再基于已经训练完成的第一子网络对第二子网络进行训练。
在上述两种训练方式中,均需要预先生成训练数据。在生成上述的人工标注的车道线真值图像时,可以采用抽帧的方式,按照前述的第一子网络的处理周期,人工对所抽取的一帧图像进行车道线标注。示例性的,假设第一子网络的处理周期为200ms,则可以将传感器采集的原始视频转换为图像,并以5hz的频率进行抽帧。在生成上述的预设测量设备获得的定位信息时,使用该预设测量设备实际测量车辆的定位信息。示例性的,该测量设备可以为高精度的组合导航定位系统,该系统能够集成GPS与IMU,并以紧耦合的方式提供高精定位信息。
图5为本申请实施例提供的一种自动驾驶装置500的模块结构图,如图5所示,该装置包括:
获取模块501,用于获取车辆的行驶信息,所述行驶信息包括所述车辆所在道路环境的图像信息以及所述车辆的参考位置信息。
可选的,所述车辆的参考位置信息包括由所述车辆的GPS获得的位置信息、由所述车辆的IMU获得的位姿信息以及所述车辆所在道路环境的地图信息中的至少一种。
处理模块502,用于将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;
控制模块503,用于根据所述目标定位结果,对所述车辆进行运动控制。
另一实施例中,所述第一子网络包括目标中间层以及所述目标中间层的输入层。处理模块502具体用于:
在所述输入层根据所述车辆所在道路环境的图像信息输出第一中间结果,在所述目标中间层根据所述第一中间结果输出第二中间结果,所述第二中间结果为表征车道线信息的结果;以及,由所述第二子网络根据所述目标中间层输出的所述第二中间结果以及所述车辆的参考位置信息,输出所述目标定位结果。
另一实施例中,所述第一子网络为卷积神经网络,所述目标中间层为全连接层。
另一实施例中,所述第二子网络包括第一子模型和第二子模型。
处理模块502具体用于:
由所述第二子模型根据所述第一子模型输出的参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在第一时刻与第二时刻之间的参考位置信息,输出所述第二时刻的所述目标定位结果;所述第一时刻早于所述第二时刻。
其中,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息以及所述车辆在第一时刻的参考位置信息得到,或者,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息、所述车辆在第一时刻的参考位置信息以及第三子模型输出的参考定位结果得到。
另一实施例中,处理模块502还用于:
由所述第二子网络根据所述第一时刻与第二时刻之间的参考位置信息进行组合处理,得到组合的特征向量。
处理模块502具体用于:
由第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述组合的特征向量,输出所述目标定位结果。
另一实施例中,获取模块具体用于:根据所述车辆的里程计采集的信息获取所述车辆所在道路环境的参考车道线信息;以及,根据所述参考车道信息,获取所述车辆所在道路环境的地图信息。
另一实施例中,继续参照图5,所述装置还包括:
第一训练模块504,用于基于预设的第一训练数据,对所述目标定位网络中的所述第一子网络和所述第二子网络进行训练。所述预设的第一训练数据包括:人工标注的车道线真值图像以及预设测量设备测量获得的定位信息。
另一实施例中,继续参照图5,所述装置还包括:
第二训练模块505,用于基于预设的第二训练数据以及已训练完成的所述第一子网络,对所述第二子网络进行训练。所述预设的第二训练数据包括:预设测量设备测量获得的定位信息。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图6所示,是根据本申请实施例的自动驾驶方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,在本申请实施例中,该电子设备可以为设置在自动驾驶车辆中的设备,该电子设备中可以运行前述的。
如图6所示,该电子设备包括:一个或多个处理器601、存储器602,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器601为例。
存储器602即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的自动驾驶方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的自动驾驶方法。
存储器602作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的驾驶控制方法对应的程序指令/模块(例如,附图5所示的获取模块501、处理模块502和控制模块503)。处理器601通过运行存储在存储器602中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的自动驾驶方法。
存储器602可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据自动驾驶控制的电子设备的使用所创建的数据等。此外,存储器602可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器602可选包括相对于处理器601远程设置的存储器,这些远程存储器可以通过网络连接至自动驾驶控制的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
自动驾驶方法的电子设备还可以包括:输入装置603和输出装置604。处理器601、存储器602、输入装置603和输出装置604可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置603可接收输入的数字或字符信息,以及产生与自动驾驶控制的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置604可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,将参考位置信息以及车辆周围环境的图像信息输入目标定位网络后,由目标定位网络中的第一子网络输出车道线信息,由目标定位网络中的第二子网络根据第一子网络输出的车道线信息以及参考位置信息,输出定位结果。由于车道线信息为一种较强的视觉信息,将其输入到第二子网络后,使得第二子网络的输出结果具有较强的可解释性,从而使得目标定位结果的定位精度得到极大的提升。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种自动驾驶方法,其特征在于,包括:
获取车辆的行驶信息,所述行驶信息包括所述车辆所在道路环境的图像信息以及所述车辆的参考位置信息;
将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;
根据所述目标定位结果,对所述车辆进行运动控制。
2.根据权利要求1所述的方法,其特征在于,所述第一子网络包括目标中间层以及所述目标中间层的输入层;
所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,包括:
在所述输入层根据所述车辆所在道路环境的图像信息输出第一中间结果;
在所述目标中间层根据所述第一中间结果输出第二中间结果,所述第二中间结果为表征车道线信息的结果;
所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果,包括:
所述第二子网络根据所述目标中间层输出的所述第二中间结果以及所述车辆的参考位置信息,输出所述目标定位结果。
3.根据权利要求2所述的方法,其特征在于,所述第一子网络为卷积神经网络,所述目标中间层为全连接层。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述第二子网络包括第一子模型和第二子模型;
所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果,包括:
所述第二子模型根据所述第一子模型输出的参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在第一时刻与第二时刻之间的参考位置信息,输出所述第二时刻的所述目标定位结果;所述第一时刻早于所述第二时刻;
其中,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息以及所述车辆在第一时刻的参考位置信息得到,或者,所述第一子模型的参考定位结果根据所述第一子网络输出的第一时刻的车道线信息、所述车辆在第一时刻的参考位置信息以及第三子模型输出的参考定位结果得到。
5.根据权利要求4所述的方法,其特征在于,所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在所述第一时刻与第二时刻之间的参考位置信息,输出所述目标定位结果之前,还包括:
所述第二子网络根据所述第一时刻与第二时刻之间的参考位置信息进行组合处理,得到组合的特征向量;
所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述车辆在所述第一时刻与第二时刻之间的参考位置信息,输出所述目标定位结果,包括:
所述第二子模型根据所述参考定位结果、所述第一子网络输出的第二时刻的车道线信息以及所述组合的特征向量,输出所述目标定位结果。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述获取车辆的行驶信息,包括:
根据所述车辆的里程计采集的信息获取所述车辆所在道路环境的参考车道线信息;
根据所述参考车道信息,获取所述车辆所在道路环境的地图信息。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述获取车辆的行驶信息之前,还包括:
基于预设的第一训练数据,对所述目标定位网络中的所述第一子网络和所述第二子网络进行训练;
所述预设的第一训练数据包括:人工标注的车道线真值图像以及预设测量设备测量获得的定位信息。
8.根据权利要求1-7任一项所述的方法,其特征在于,所述获取车辆的行驶信息之前,还包括:
基于预设的第二训练数据以及已训练完成的所述第一子网络,对所述第二子网络进行训练;
所述预设的第二训练数据包括:预设测量设备测量获得的定位信息。
9.根据权利要求1-8任一项所述的方法,其特征在于,所述车辆的参考位置信息包括由所述车辆的全球定位系统GPS获得的位置信息、由所述车辆的惯性测量单元IMU获得的位姿信息以及所述车辆所在道路环境的地图信息中的至少一种。
10.一种自动驾驶装置,其特征在于,包括:
获取模块,用于获取车辆的行驶信息,所述行驶信息包括所述车辆所在道路环境的图像信息以及所述车辆的参考位置信息,所述车辆的参考位置信息包括由所述车辆的全球定位系统GPS获得的位置信息、由所述车辆的惯性测量单元IMU获得的位姿信息以及所述车辆所在道路环境的地图信息中的至少一种;
处理模块,用于将所述车辆的行驶信息输入目标定位网络,得到由所述目标定位网络输出的所述车辆的目标定位结果,所述目标定位网络包括第一子网络和第二子网络,所述第一子网络根据所述车辆所在道路环境的图像信息输出所述车辆所在道路环境的车道线信息,所述第二子网络根据所述第一子网络输出的所述车道线信息以及所述车辆的参考位置信息,输出所述目标定位结果;
控制模块,用于根据所述目标定位结果,对所述车辆进行运动控制。
11.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-9中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-9中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911129850.0A CN110794844B (zh) | 2019-11-18 | 2019-11-18 | 自动驾驶方法、装置、电子设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911129850.0A CN110794844B (zh) | 2019-11-18 | 2019-11-18 | 自动驾驶方法、装置、电子设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110794844A true CN110794844A (zh) | 2020-02-14 |
CN110794844B CN110794844B (zh) | 2023-03-21 |
Family
ID=69445207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911129850.0A Active CN110794844B (zh) | 2019-11-18 | 2019-11-18 | 自动驾驶方法、装置、电子设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110794844B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111413968A (zh) * | 2020-03-17 | 2020-07-14 | 北京百度网讯科技有限公司 | 车辆的控制方法、装置及电子设备 |
CN111624550A (zh) * | 2020-06-17 | 2020-09-04 | 中国第一汽车股份有限公司 | 一种车辆定位方法、装置、设备及存储介质 |
CN112212872A (zh) * | 2020-10-19 | 2021-01-12 | 合肥工业大学 | 基于激光雷达和导航地图的端到端自动驾驶方法及系统 |
CN113296500A (zh) * | 2021-04-30 | 2021-08-24 | 浙江吉利控股集团有限公司 | 一种局部路径规划方法及系统 |
CN113320546A (zh) * | 2021-07-02 | 2021-08-31 | 恒大新能源汽车投资控股集团有限公司 | 基于阴影的车辆定位方法和控制装置、存储介质及车辆 |
CN113566817A (zh) * | 2021-07-23 | 2021-10-29 | 北京经纬恒润科技股份有限公司 | 一种车辆定位方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193338A1 (en) * | 2016-01-05 | 2017-07-06 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
US20180129887A1 (en) * | 2016-11-07 | 2018-05-10 | Samsung Electronics Co., Ltd. | Method and apparatus for indicating lane |
CN109815300A (zh) * | 2018-12-13 | 2019-05-28 | 北京邮电大学 | 一种车辆定位方法 |
CN109931939A (zh) * | 2019-02-27 | 2019-06-25 | 杭州飞步科技有限公司 | 车辆的定位方法、装置、设备及计算机可读存储介质 |
CN110221328A (zh) * | 2019-07-23 | 2019-09-10 | 广州小鹏汽车科技有限公司 | 一种组合导航方法和装置 |
-
2019
- 2019-11-18 CN CN201911129850.0A patent/CN110794844B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170193338A1 (en) * | 2016-01-05 | 2017-07-06 | Mobileye Vision Technologies Ltd. | Systems and methods for estimating future paths |
US20180129887A1 (en) * | 2016-11-07 | 2018-05-10 | Samsung Electronics Co., Ltd. | Method and apparatus for indicating lane |
CN109815300A (zh) * | 2018-12-13 | 2019-05-28 | 北京邮电大学 | 一种车辆定位方法 |
CN109931939A (zh) * | 2019-02-27 | 2019-06-25 | 杭州飞步科技有限公司 | 车辆的定位方法、装置、设备及计算机可读存储介质 |
CN110221328A (zh) * | 2019-07-23 | 2019-09-10 | 广州小鹏汽车科技有限公司 | 一种组合导航方法和装置 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111413968A (zh) * | 2020-03-17 | 2020-07-14 | 北京百度网讯科技有限公司 | 车辆的控制方法、装置及电子设备 |
CN111413968B (zh) * | 2020-03-17 | 2023-09-19 | 北京百度网讯科技有限公司 | 车辆的控制方法、装置及电子设备 |
CN111624550A (zh) * | 2020-06-17 | 2020-09-04 | 中国第一汽车股份有限公司 | 一种车辆定位方法、装置、设备及存储介质 |
CN112212872A (zh) * | 2020-10-19 | 2021-01-12 | 合肥工业大学 | 基于激光雷达和导航地图的端到端自动驾驶方法及系统 |
CN112212872B (zh) * | 2020-10-19 | 2022-03-11 | 合肥工业大学 | 基于激光雷达和导航地图的端到端自动驾驶方法及系统 |
CN113296500A (zh) * | 2021-04-30 | 2021-08-24 | 浙江吉利控股集团有限公司 | 一种局部路径规划方法及系统 |
CN113320546A (zh) * | 2021-07-02 | 2021-08-31 | 恒大新能源汽车投资控股集团有限公司 | 基于阴影的车辆定位方法和控制装置、存储介质及车辆 |
CN113566817A (zh) * | 2021-07-23 | 2021-10-29 | 北京经纬恒润科技股份有限公司 | 一种车辆定位方法及装置 |
CN113566817B (zh) * | 2021-07-23 | 2024-03-08 | 北京经纬恒润科技股份有限公司 | 一种车辆定位方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110794844B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110794844B (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
KR102382420B1 (ko) | 차량 위치 결정 방법, 전자 기기 및 저장 매체 | |
KR102032070B1 (ko) | 깊이 맵 샘플링을 위한 시스템 및 방법 | |
CN110796692A (zh) | 用于同时定位与建图的端到端深度生成模型 | |
US11698262B2 (en) | Method and apparatus for generating route planning model, and storage medium | |
CN111220154A (zh) | 车辆定位方法、装置、设备和介质 | |
CN111797187A (zh) | 地图数据的更新方法、装置、电子设备和存储介质 | |
CN111231950A (zh) | 规划车辆变道路径的方法、装置、设备及可读存储介质 | |
JP7241057B2 (ja) | 車両測位方法、装置、電子機器、車両及び記憶媒体 | |
US11687079B2 (en) | Methods, devices, and systems for analyzing motion plans of autonomous vehicles | |
EP3893148A1 (en) | Method and device for controlling vehicle, and vehicle | |
US20210365038A1 (en) | Local sensing based autonomous navigation, and associated systems and methods | |
CN111627054A (zh) | 用于预测高置信度密集点云的深度补全误差地图的方法和装置 | |
CN110901656B (zh) | 用于自动驾驶车辆控制的实验设计方法和系统 | |
CN111291650A (zh) | 自动泊车辅助的方法及装置 | |
CN111324945B (zh) | 传感器方案确定方法、装置、设备及存储介质 | |
Yan et al. | Opencalib: A multi-sensor calibration toolbox for autonomous driving | |
US11079497B2 (en) | Vehicle localization based on neural network | |
CN111721281A (zh) | 位置识别方法、装置和电子设备 | |
CN115273002A (zh) | 一种图像处理方法、装置、存储介质及计算机程序产品 | |
CN111767843A (zh) | 三维位置预测方法、装置、设备以及存储介质 | |
CN113844463B (zh) | 基于自动驾驶系统的车辆控制方法、装置及车辆 | |
CN115082690B (zh) | 目标识别方法、目标识别模型训练方法及装置 | |
CN115556769A (zh) | 障碍物状态量确定方法及装置、电子设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |