CN111783611A - 无人车的定位方法、装置、无人车及存储介质 - Google Patents
无人车的定位方法、装置、无人车及存储介质 Download PDFInfo
- Publication number
- CN111783611A CN111783611A CN202010596714.9A CN202010596714A CN111783611A CN 111783611 A CN111783611 A CN 111783611A CN 202010596714 A CN202010596714 A CN 202010596714A CN 111783611 A CN111783611 A CN 111783611A
- Authority
- CN
- China
- Prior art keywords
- points
- unmanned vehicle
- tracking
- vehicle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 238000000605 extraction Methods 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 30
- 238000005457 optimization Methods 0.000 claims description 24
- 238000001514 detection method Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 19
- 230000003287 optical effect Effects 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 11
- 238000005259 measurement Methods 0.000 claims description 9
- 238000012216 screening Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000008859 change Effects 0.000 abstract description 25
- 230000000007 visual effect Effects 0.000 abstract description 17
- 230000000875 corresponding effect Effects 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 20
- 238000010586 diagram Methods 0.000 description 9
- 238000004590 computer program Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 8
- 238000013519 translation Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 230000001276 controlling effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000002596 correlated effect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- DMSMPAJRVJJAGA-UHFFFAOYSA-N benzo[d]isothiazol-3-one Chemical compound C1=CC=C2C(=O)NSC2=C1 DMSMPAJRVJJAGA-UHFFFAOYSA-N 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000000638 solvent extraction Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了无人车的定位方法、装置、无人车及存储介质,涉及自动驾驶技术领域。本申请中的方法的具体实现方案为:对车载相机采集到的图像进行特征提取,得到特征点;从所述特征点中选取至少一个跟踪点;基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。本申请可以通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
Description
技术领域
本申请涉及计算机视觉领域中的自动驾驶技术,尤其涉及一种无人车的定位方法、装置、无人车及存储介质。
背景技术
无人驾驶汽车(以下简称无人车)是一种智能汽车,可以基于车载导航系统感知车辆周围环境,并根据感知所获得的道路,车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。而定位技术是车载导航系统的一个关键技术,只有精准地获取到无人车的定位信息,才能够进行无人车的驾驶控制。
现有技术中,常采用全球定位系统(Global position system,GPS)、惯性导航系统(Inertia navigation system,INS)、激光雷达等方式进行定位。
然而现有技术中,GPS信号容易被遮挡,使得无人车出现定位误差或者无法定位的情况。而采用INS定位方法中,虽然可以通过加速度计及陀螺仪经过积分计算出机器人的位置、速度、姿态等,其数据更新率高、短期精度和稳定性较好,但定位误差会随时间积累,导致定位精度较低。激光雷达定位精度高,但是对设备要求较高,定位成本较大。
发明内容
本申请提供一种无人车的定位方法、装置、无人车及存储介质,可以实现不依赖地图的精准定位,定位鲁棒性好,效率高。
第一方面,本申请实施例提供一种无人车的定位方法,所述方法包括:
对车载相机采集到的图像进行特征提取,得到特征点;
从所述特征点中选取至少一个跟踪点;
基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
本实施例中,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像,通过对车载相机采集到的图像进行特征点提取,然后从特征点中筛选至少一个跟踪点,并基于对连续两帧图像中该跟踪点的位置变化,结合无人车的位姿信息来确定无人车的定位信息,从而可以通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
第二方面,本申请实施例提供一种无人车的定位装置,所述装置包括:
采集模块,用于对车载相机采集到的图像进行特征提取,得到特征点;
筛选模块,用于从所述特征点中选取至少一个跟踪点;
确定模块,用于基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
本实施例中,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像,通过对车载相机采集到的图像进行特征点提取,然后从特征点中筛选至少一个跟踪点,并基于对连续两帧图像中该跟踪点的位置变化,结合无人车的位姿信息来确定无人车的定位信息,从而可以通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
第三方面,本申请提供一种无人车,包括:处理器和存储器;存储器中存储有所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行如第一方面中任一项所述的无人车的定位方法。
第四方面,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任一项所述的无人车的定位方法。
第五方面,本申请实施例提供一种程序产品,所述程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,服务器的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得服务器执行第一方面中任一所述的无人车的定位方法。
第六方面,本申请实施例提供一种无人车的定位方法,所述方法可以包括:
对车载相机采集到的图像进行特征提取,得到特征点;
基于连续两帧图像中所述特征点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
本实施例中,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像,通过对车载相机采集到的图像进行特征点提取,并基于对连续两帧图像中该特征点的位置变化,结合无人车的位姿信息来确定无人车的定位信息,从而可以通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
上述申请中的一个实施例具有如下优点或有益效果:实现不依赖地图的精准定位,定位鲁棒性好,效率高。因为采用对车载相机采集到的图像进行特征提取,得到特征点;从所述特征点中选取至少一个跟踪点;基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息的技术手段,所以克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是可以实现本申请实施例的无人车的定位方法的原理示意图;
图2是根据本申请第一实施例的示意图;
图3是根据本申请第二实施例的示意图;
图4是根据本申请第三实施例的示意图;
图5是根据本申请第四实施例的示意图;
图6是用来实现本申请实施例的无人车的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
下面以具体地实施例对本申请的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
无人驾驶汽车(以下简称无人车)是一种智能汽车,可以基于车载导航系统感知车辆周围环境,并根据感知所获得的道路,车辆位置和障碍物信息,控制车辆的转向和速度,从而使车辆能够安全、可靠地在道路上行驶。而定位技术是车载导航系统的一个关键技术,只有精准地获取到无人车的定位信息,才能够进行无人车的驾驶控制。现有技术中,常采用全球定位系统(Global position system,GPS)、惯性导航系统(Inertia navigationsystem,INS)、激光雷达等方式进行定位。然而现有技术中,GPS信号容易被遮挡,使得无人车出现定位误差或者无法定位的情况。而采用INS定位方法中,虽然可以通过加速度计及陀螺仪经过积分计算出机器人的位置、速度、姿态等,其数据更新率高、短期精度和稳定性较好,但定位误差会随时间积累,导致定位精度较低。激光雷达定位精度高,但是对设备要求较高,定位成本较大。
针对上述技术问题,本申请提供一种无人车的定位方法、装置、无人车及存储介质可以克服现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。图1是可以实现本申请实施例的无人车的定位方法的原理示意图,如图1所示,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像。在驾驶过程中,相机可能会出现抖动等情况,从而导致相机拍摄的图像出现模糊,而相机安装的位置不同,也会使得拍摄的图像出现畸变,因此需要对车载相机采集到的图像进行去畸变处理。对原始图像进行去畸变,可以有效地提升图像质量,使得后续基于图像的定位更加准确。
然后,在去畸变的图像中进行特征的检测,点特征的提取中,在图像仿射变换中使用Newton-Raphson式的搜索,筛选其中适合于跟踪的特征。其中,特征点包括:实际物体上的角点、物体上的纹理形成的角点、物体与平面的交叉点。在提取特征点时,首先识别出图像中的物体,然后对物体的角点、纹理形成的角点,以及物体与平面的交叉点进行识别,得到特征点,这种位置处提取的特征点比较容易检测和跟踪,从而可以提高定位的效率,减少数据处理量。
由于实际物体上的角点是因为遮挡引起的特征,不适合跟踪,这些特征点在前景和背景上具有不同的深度值。因此,可以通过差异度(dissimilarity)来滤除这些特征点,从特征点中选取至少一个跟踪点。随着运动距离的变大,差异度与之成正相关的趋势。因此,在图像的局部区域内的灰度值有显著变化,但在世界空间位置上没有剧烈的变化,从而可以滤除掉受环境影响变化较大的特征点,使得跟踪点的检测更加准确,提高定位精度和鲁棒性。
在完成特征的检测之后,在后续的图像序列中使用光流法对每个特征进行跟踪,从而可以实现对跟踪点的准确检测,提高定位精度。在对跟踪点追踪过程中,可以通过划分区域网格的策略来加快对跟踪点的检测。在每个格子所在的局部区域内检测特征,当局部区域中包含已经跟踪上的特征时,剩余的其他区域不再检测特征,从而可以加快特征点的检测过程。
最后,可以基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。在通过在二维坐标转换为三维坐标时,利用无人车的轮速计和惯性测量单元预测的位姿信息以及无人车的初始位姿所构建的目标函数对三维坐标进行优化,以使得三维坐标在车载相机的投影残差尽可能地小。在优化过程中,将无人车的三维坐标相对于车载相机的投影残差的全局优化问题转换为里程计关键点、地图关键点元素、语义路标元素相当于车载相机的投影残差的局部优化问题。从而能够通过控制引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在目标函数中对应的损失来减小三维坐标相对于车载相机的投影残差。由于整个优化过程融合里程计关键点、地图关键点元素、语义路标元素,从而可以使得无人车最终的定位结果不易受外界环境影响,定位更加准确,鲁棒性高。
应用上述方法克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
图2是根据本申请第一实施例的示意图,如图2所示,本实施例中的方法可以包括:
S101、对车载相机采集到的图像进行特征提取,得到特征点。
S102、从特征点中选取至少一个跟踪点。
S103、基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。
本实施例中,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像,通过对车载相机采集到的图像进行特征点提取,然后从特征点中筛选至少一个跟踪点。其中,特征点可以包括:实际物体上的角点、物体上的纹理形成的角点、物体与平面的交叉点。通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
在一种可选的实施方式中,在执行步骤S101之前,还可以先确定车载相机对应的畸变参数;根据畸变参数,对车载相机采集到的图像进行去畸变处理。
具体地,在驾驶过程中,相机可能会出现抖动等情况,从而导致相机拍摄的图像出现模糊,而相机安装的位置不同,也会使得拍摄的图像出现畸变,因此需要对车载相机采集到的图像进行去畸变处理。考虑一个多相机系统C1,…,CN。每个相机Ck具有事先标定的内参Kk和外参相机的内外参都可作为待估计变量进行在线估计,这里内外参数固定。相机数量和外参应该在程序运行前给出,并给每个相机分配一个从0开始的ID。对于每个相机使用对应相机的畸变参数,对原始图像进行去畸变,可以有效地提升图像质量,使得后续基于图像的定位更加准确。
在去畸变的图像中进行特征的检测,点特征的提取中,在图像仿射变换中使用Newton-Raphson式的搜索,筛选其中适合于跟踪的特征。虽检测到的特征点多为角点,在跟踪和重建3D点的时候对其不加区分的处理,但是其中一部分不适合跟踪,因此特征的筛选是十分必要的。根据这些角点在世界位置分布的不同,这里把提取的特征分为三个种类:1)实际物体上的角点对应的特征。2)物体上的纹理形成的角点对应的特征。3)物体平面交叉点对应的特征。在提取特征点时,首先识别出图像中的物体,然后对物体的角点、纹理形成的角点,以及物体与平面的交叉点进行识别,得到特征点,这种位置处提取的特征点比较容易检测和跟踪,从而可以提高定位的效率,减少数据处理量。
示例性的,在步骤S102中可以获取特征点在图像前景和背景上的深度值;选取深度值的差异度小于预设值的特征点作为跟踪点。
具体地,由于实际物体上的角点是因为遮挡引起的特征,不适合跟踪,这些特征点在前景和背景上具有不同的深度值。因此,可以通过差异度(dissimilarity)来滤除这些特征点。随着运动距离的变大,差异度与之成正相关的趋势。因此,在图像的局部区域内的灰度值有显著变化,但在世界空间位置上没有剧烈的变化,从而可以滤除掉受环境影响变化较大的特征点,使得跟踪点的检测更加准确,提高定位精度和鲁棒性。
示例性的,在步骤S103中,可以根据车载相机的内参,将连续两帧图像中跟踪点的坐标转换至归一化平面,得到跟踪点在连续两帧图像中对应的二维坐标;通过三角化,将连续两帧图像中对应的二维坐标转换为三维坐标,得到无人车的定位信息;其中,在二维坐标转换为三维坐标时,通过无人车的初始位姿,以及轮速计和惯性测量单元预测的位姿信息构建的目标函数优化三维坐标,目标函数的优化问题包括:控制目标函数优化过程中引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在目标函数中对应的损失最小。
具体地,通过在二维坐标转换为三维坐标时,利用无人车的轮速计和惯性测量单元预测的位姿信息以及无人车的初始位姿所构建的目标函数对三维坐标进行优化,以使得三维坐标在车载相机的投影残差尽可能地小。在优化过程中,将无人车的三维坐标相对于车载相机的投影残差的全局优化问题转换为里程计关键点、地图关键点元素、语义路标元素相当于车载相机的投影残差的局部优化问题。从而能够通过控制引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在目标函数中对应的损失来减小三维坐标相对于车载相机的投影残差。由于整个优化过程融合里程计关键点、地图关键点元素、语义路标元素,从而可以使得无人车最终的定位结果不易受外界环境影响,定位更加准确,鲁棒性高。
示例性的,假设当前帧为第i帧图像,第i帧图像中无人车对应的初始位姿记为表示第i帧图像的旋转矩阵,表示第i帧图像的平移矩阵。通过轮速计和惯性测量单元得到无人车的先验位姿记为表示第i帧图像先验位姿的旋转矩阵,表示第i帧图像先验位姿的平移矩阵。以重投影误差作为似然信息,构建如下的优化目标函数:
进一步地,获取三维坐标点pl在第i帧图像第k个相机中的投影记为pikl,计算pikl对应的残差,计算公式如下:
进一步地,检测里程计关键点地图关键点元素语义路标元素其中语义路标元素包括车道线及杆状物等,路标元素数量随场景二变化,里程计关键点及地图关键点元素的数量固定,并且相对语义路标元素较多。另外,由于里程计的关键点在局部坐标系,地图关键点元素及语义路标元素在全局坐标系,因此三维坐标的优化的问题中引入一个全局到局部的转换。具体地,优化公式如下:
其中,表示里程计关键点在第i帧图像第k个相机中的投影点在目标函数中对应的损失,表示里程计关键点在第i帧图像第k个相机中的投影点;表示地图关键点元素或者语义路标元素在第i帧图像第k个相机中的投影点在目标函数中对应的损失,RLG表示全局坐标系到局部坐标系的转换信息中的旋转矩阵,tLG表示全局坐标系到局部坐标系的转换信息中的平移矩阵,表示地图关键点元素或者语义路标元素二选一,表示地图关键点元素或者语义路标元素在第i帧图像第k个相机中的投影点。
本实施例中,通过优化视觉里程计关键点及地图关键点路标元素数量,完成定位状态的估计,提升了了定位系统的鲁棒性,更好的融合了不同关键点和路标元素,使得定位结果更加准确。
本实施例,通过对车载相机采集到的图像进行特征提取,得到特征点;从特征点中选取至少一个跟踪点;基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
图3是根据本申请第二实施例的示意图,如图3所示,本实施例中的方法可以包括:
S201、对车载相机采集到的图像进行特征提取,得到特征点。
S202、从特征点中选取至少一个跟踪点。
本实施例中,步骤S201、步骤S202的具体实现原理和实现过程,参见图2所示实施例中的相关描述,此处不再赘述。
S203、确定下一帧图像中跟踪点的位置信息。
在一种可选的实施方式中,可以获取上一帧图像中跟踪点的位置信息;通过光流法,对下一帧图像中的跟踪点进行检测,确定下一帧图像中,跟踪点的位置信息。
具体地,物体上的纹理形成的角点、物体平面交叉点在图像的局部区域内的灰度值有显著变化,但在世界空间位置上没有剧烈的变化。在完成特征的检测之后,在后续的图像序列中使用光流法对每个特征进行跟踪,从而可以实现对跟踪点的准确检测,提高定位精度。
在另一种可选的实施方式中,还可以获取上一帧图像中跟踪点的位置信息;将下一帧图像划分为多个区域网格,通过光流法对各个区域网格进行跟踪点检测;若从区域网格中检测出跟踪点,则停止对剩余的其他区域网格进行检测;确定下一帧图像中,跟踪点的位置信息。
具体地,可以通过划分区域网格的策略来加快对跟踪点的检测。在每个格子所在的局部区域内检测特征,当局部区域中包含已经跟踪上的特征时,剩余的其他区域不再检测特征,从而可以加快特征点的检测过程。
S204、基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。
本实施例中,步骤S204的具体实现过程和技术原理请参见图2所示的方法中步骤S103中的相关描述,此处不再赘述。
本实施例,通过对车载相机采集到的图像进行特征提取,得到特征点;从特征点中选取至少一个跟踪点;基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
另外,本实施例还可以获取上一帧图像中跟踪点的位置信息;通过光流法,对下一帧图像中的跟踪点进行检测,确定下一帧图像中,跟踪点的位置信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
图4是根据本申请第三实施例的示意图;如图4所示,本实施例中的装置可以包括:
采集模块31,用于对车载相机采集到的图像进行特征提取,得到特征点;
筛选模块32,用于从特征点中选取至少一个跟踪点;
确定模块33,用于基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。
具体地,无人车上安装有车载相机,车载相机在车辆行驶过程中采集无人车周围的环境图像,通过对车载相机采集到的图像进行特征点提取,然后从特征点中筛选至少一个跟踪点,并基于对连续两帧图像中该跟踪点的位置变化,结合无人车的位姿信息来确定无人车的定位信息,从而可以通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高。
可选地,特征点包括:实际物体上的角点、物体上的纹理形成的角点、物体与平面的交叉点。
具体地,在提取特征点时,首先识别出图像中的物体,然后对物体的角点、纹理形成的角点,以及物体与平面的交叉点进行识别,得到特征点,这种位置处提取的特征点比较容易检测和跟踪,从而可以提高定位的效率,减少数据处理量。
可选地,筛选模块32,具体用于:
获取特征点在图像前景和背景上的深度值;
选取深度值的差异度小于预设值的特征点作为跟踪点。
具体地,由于实际物体上的角点是因为遮挡引起的特征,不适合跟踪,这些特征点在前景和背景上具有不同的深度值。因此,可以通过差异度(dissimilarity)来滤除这些特征点。随着运动距离的变大,差异度与之成正相关的趋势。从而可以滤除掉受环境影响变化较大的特征点,使得跟踪点的检测更加准确,提高定位精度和鲁棒性。
可选地,确定模块33,具体用于:
根据车载相机的内参,将连续两帧图像中跟踪点的坐标转换至归一化平面,得到跟踪点在连续两帧图像中对应的二维坐标;
通过三角化,将连续两帧图像中对应的二维坐标转换为三维坐标,得到无人车的定位信息;其中,在二维坐标转换为三维坐标时,通过无人车的初始位姿,以及轮速计和惯性测量单元预测的位姿信息构建的目标函数优化三维坐标,目标函数的优化问题包括:控制目标函数优化过程中引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在目标函数中对应的损失最小。
具体地,通过在二维坐标转换为三维坐标时,利用无人车的轮速计和惯性测量单元预测的位姿信息以及无人车的初始位姿所构建的目标函数对三维坐标进行优化,以使得三维坐标在车载相机的投影残差尽可能地小。在优化过程中,将无人车的三维坐标相对于车载相机的投影残差的全局优化问题转换为里程计关键点、地图关键点元素、语义路标元素相当于车载相机的投影残差的局部优化问题。从而能够通过控制引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在目标函数中对应的损失来减小三维坐标相对于车载相机的投影残差。由于整个优化过程融合里程计关键点、地图关键点元素、语义路标元素,从而可以使得无人车最终的定位结果不易受外界环境影响,定位更加准确,鲁棒性高。
示例性的,假设当前帧为第i帧图像,第i帧图像中无人车对应的初始位姿记为表示第i帧图像的旋转矩阵,表示第i帧图像的平移矩阵。通过轮速计和惯性测量单元得到无人车的先验位姿记为表示第i帧图像先验位姿的旋转矩阵,表示第i帧图像先验位姿的平移矩阵。以重投影误差作为似然信息,构建如下的优化目标函数:
进一步地,获取三维坐标点pl在第i帧图像第k个相机中的投影记为pikl,计算pikl对应的残差,计算公式如下:
进一步地,检测里程计关键点地图关键点元素语义路标元素其中语义路标元素包括车道线及杆状物等,路标元素数量随场景二变化,里程计关键点及地图关键点元素的数量固定,并且相对语义路标元素较多。另外,由于里程计的关键点在局部坐标系,地图关键点元素及语义路标元素在全局坐标系,因此三维坐标的优化的问题中引入一个全局到局部的转换。具体地,优化公式如下:
其中,表示里程计关键点在第i帧图像第k个相机中的投影点在目标函数中对应的损失,表示里程计关键点在第i帧图像第k个相机中的投影点;表示地图关键点元素或者语义路标元素在第i帧图像第k个相机中的投影点在目标函数中对应的损失,RLG表示全局坐标系到局部坐标系的转换信息中的旋转矩阵,tLG表示全局坐标系到局部坐标系的转换信息中的平移矩阵,表示地图关键点元素或者语义路标元素二选一,表示地图关键点元素或者语义路标元素在第i帧图像第k个相机中的投影点。
本实施例中,通过优化视觉里程计关键点及地图关键点路标元素数量,完成定位状态的估计,提升了了定位系统的鲁棒性,更好的融合了不同关键点和路标元素,使得定位结果更加准确。
本实施例的无人车的定位装置,可以执行图2所示方法中的技术方案,其具体实现过程和技术原理参见图2所示方法中的相关描述,此处不再赘述。
本实施例,通过对车载相机采集到的图像进行特征提取,得到特征点;从特征点中选取至少一个跟踪点;基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
图5是根据本申请第四实施例的示意图;如图5所示,本实施例中的装置在图4所示装置的基础上,还可以包括:
预处理模块34,用于:
确定车载相机对应的畸变参数;
根据畸变参数,对车载相机采集到的图像进行去畸变处理。
具体地,在驾驶过程中,相机可能会出现抖动等情况,从而导致相机拍摄的图像出现模糊,而相机安装的位置不同,也会使得拍摄的图像出现畸变,因此根据各个车载相机已知的畸变参数,对车载相机拍摄到的图像进行去畸变处理,可以有效地提升图像质量,使得后续基于图像的定位更加准确。
可选地,还包括:检测模块35,用于:
获取上一帧图像中跟踪点的位置信息;
通过光流法,对下一帧图像中的跟踪点进行检测,确定下一帧图像中,跟踪点的位置信息。
具体地,物体上的纹理形成的角点、物体平面交叉点在图像的局部区域内的灰度值有显著变化,但在世界空间位置上没有剧烈的变化。在完成特征的检测之后,在后续的图像序列中使用光流法对每个特征进行跟踪,从而可以实现对跟踪点的准确检测,提高定位精度。
可选地,还包括:检测模块35,用于:
获取上一帧图像中跟踪点的位置信息;
将下一帧图像划分为多个区域网格,通过光流法对各个区域网格进行跟踪点检测;
若从区域网格中检测出跟踪点,则停止对剩余的其他区域网格进行检测;
确定下一帧图像中,跟踪点的位置信息。
具体地,可以通过划分区域网格的策略来加快对跟踪点的检测。在每个格子所在的局部区域内检测特征,当局部区域中包含已经跟踪上的特征时,剩余的其他区域不再检测特征,从而可以加快特征点的检测过程。
本实施例的无人车的定位装置,可以执行图2、图3所示方法中的技术方案,其具体实现过程和技术原理参见图2、图3所示方法中的相关描述,此处不再赘述。
本实施例,通过对车载相机采集到的图像进行特征提取,得到特征点;从特征点中选取至少一个跟踪点;基于连续两帧图像中跟踪点的位置信息、以及无人车的位姿信息,确定无人车的定位信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
另外,本实施例还可以获取上一帧图像中跟踪点的位置信息;通过光流法,对下一帧图像中的跟踪点进行检测,确定下一帧图像中,跟踪点的位置信息。克服了现有的定位方法容易受环境影响,定位鲁棒性差,对设备要求高的技术问题,通过跟踪序列图像中所选取的特征点的位置变化信息,预估出车载相机的运动,从而确定无人车在视觉地图中的三维坐标,实现不依赖地图的精准定位,定位鲁棒性好,效率高的技术效果。
图6是用来实现本申请实施例的无人车的框图;如图6所示,是根据本申请实施例的图6无人车的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图6所示,该无人车包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图6中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的图6无人车的无人车的定位方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的图6无人车的定位方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的图6无人车的定位方法对应的程序指令/模块。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的图6无人车的定位方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据图6无人车的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至图6无人车。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
图6无人车还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线或者其他方式连接,图6中以通过总线连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与图6无人车的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置504可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、GPU(图形处理器)、FPGA(现场可编程门阵列)设备、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (17)
1.一种无人车的定位方法,所述方法包括:
对车载相机采集到的图像进行特征提取,得到特征点;
从所述特征点中选取至少一个跟踪点;
基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
2.根据权利要求1所述的方法,在基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息之前,还包括:
获取上一帧图像中跟踪点的位置信息;
通过光流法,对下一帧图像中的所述跟踪点进行检测,确定所述下一帧图像中,所述跟踪点的位置信息。
3.根据权利要求1所述的方法,在基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息之前,还包括:
获取上一帧图像中跟踪点的位置信息;
将下一帧图像划分为多个区域网格,通过光流法对各个区域网格进行跟踪点检测;
若从区域网格中检测出所述跟踪点,则停止对剩余的其他区域网格进行检测;
确定所述下一帧图像中,所述跟踪点的位置信息。
4.根据权利要求1-3中任一项所述的方法,所述基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息,包括:
根据车载相机的内参,将连续两帧图像中所述跟踪点的坐标转换至归一化平面,得到所述跟踪点在连续两帧图像中对应的二维坐标;
通过三角化,将连续两帧图像中对应的二维坐标转换为三维坐标,得到所述无人车的定位信息;其中,在二维坐标转换为三维坐标时,通过无人车的初始位姿,以及轮速计和惯性测量单元预测的位姿信息构建的目标函数优化所述三维坐标,所述目标函数的优化问题包括:控制所述目标函数优化过程中引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在所述目标函数中对应的损失最小。
5.根据权利要求1所述的方法,在对车载相机采集到的图像进行特征提取,得到特征点之前,还包括:
确定所述车载相机对应的畸变参数;
根据所述畸变参数,对所述车载相机采集到的图像进行去畸变处理。
6.根据权利要求1所述的方法,所述特征点包括:实际物体上的角点、物体上的纹理形成的角点、物体与平面的交叉点。
7.根据权利要求1所述的方法,从所述特征点中选取至少一个跟踪点,包括:
获取所述特征点在图像前景和背景上的深度值;
选取深度值的差异度小于预设值的特征点作为跟踪点。
8.一种无人车的定位装置,所述装置包括:
采集模块,用于对车载相机采集到的图像进行特征提取,得到特征点;
筛选模块,用于从所述特征点中选取至少一个跟踪点;
确定模块,用于基于连续两帧图像中所述跟踪点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
9.根据权利要求8所述的装置,还包括:检测模块,用于:
获取上一帧图像中跟踪点的位置信息;
通过光流法,对下一帧图像中的所述跟踪点进行检测,确定所述下一帧图像中,所述跟踪点的位置信息。
10.根据权利要求8所述的装置,还包括:检测模块,用于:
获取上一帧图像中跟踪点的位置信息;
将下一帧图像划分为多个区域网格,通过光流法对各个区域网格进行跟踪点检测;
若从区域网格中检测出所述跟踪点,则停止对剩余的其他区域网格进行检测;
确定所述下一帧图像中,所述跟踪点的位置信息。
11.根据权利要求8-10中任一项所述的装置,所述确定模块,具体用于:
根据车载相机的内参,将连续两帧图像中所述跟踪点的坐标转换至归一化平面,得到所述跟踪点在连续两帧图像中对应的二维坐标;
通过三角化,将连续两帧图像中对应的二维坐标转换为三维坐标,得到所述无人车的定位信息;其中,在二维坐标转换为三维坐标时,通过无人车的初始位姿,以及轮速计和惯性测量单元预测的位姿信息构建的目标函数优化所述三维坐标,所述目标函数的优化问题包括:控制所述目标函数优化过程中引入的里程计关键点、地图关键点元素、语义路标元素相对于车载相机的投影点在所述目标函数中对应的损失最小。
12.根据权利要求8所述的装置,还包括:预处理模块,用于:
确定所述车载相机对应的畸变参数;
根据所述畸变参数,对所述车载相机采集到的图像进行去畸变处理。
13.根据权利要求8所述的装置,所述特征点包括:实际物体上的角点、物体上的纹理形成的角点、物体与平面的交叉点。
14.根据权利要求8所述的装置,所述筛选模块,具体用于:
获取所述特征点在图像前景和背景上的深度值;
选取深度值的差异度小于预设值的特征点作为跟踪点。
15.一种无人车,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种无人车的定位方法,所述方法包括:
对车载相机采集到的图像进行特征提取,得到特征点;
基于连续两帧图像中所述特征点的位置信息、以及无人车的位姿信息,确定所述无人车的定位信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010596714.9A CN111783611B (zh) | 2020-06-28 | 2020-06-28 | 无人车的定位方法、装置、无人车及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010596714.9A CN111783611B (zh) | 2020-06-28 | 2020-06-28 | 无人车的定位方法、装置、无人车及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111783611A true CN111783611A (zh) | 2020-10-16 |
CN111783611B CN111783611B (zh) | 2023-12-29 |
Family
ID=72760258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010596714.9A Active CN111783611B (zh) | 2020-06-28 | 2020-06-28 | 无人车的定位方法、装置、无人车及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783611B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115359192A (zh) * | 2022-10-14 | 2022-11-18 | 阿里巴巴(中国)有限公司 | 三维重建与商品信息处理方法、装置、设备及存储介质 |
CN113706633B (zh) * | 2021-09-02 | 2023-08-29 | 广州小鹏自动驾驶科技有限公司 | 一种目标对象的三维信息确定方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080095402A1 (en) * | 2006-09-29 | 2008-04-24 | Topcon Corporation | Device and method for position measurement |
CN104200494A (zh) * | 2014-09-10 | 2014-12-10 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
JP2016173795A (ja) * | 2015-03-18 | 2016-09-29 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
WO2018094932A1 (zh) * | 2016-11-23 | 2018-05-31 | 北京清影机器视觉技术有限公司 | 用于立体视觉呈现的人眼观察图像的生成方法和装置 |
CN109711363A (zh) * | 2018-12-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 车辆定位方法、装置、设备和存储介质 |
-
2020
- 2020-06-28 CN CN202010596714.9A patent/CN111783611B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080095402A1 (en) * | 2006-09-29 | 2008-04-24 | Topcon Corporation | Device and method for position measurement |
CN104200494A (zh) * | 2014-09-10 | 2014-12-10 | 北京航空航天大学 | 一种基于光流的实时视觉目标跟踪方法 |
JP2016173795A (ja) * | 2015-03-18 | 2016-09-29 | 株式会社リコー | 画像処理装置、画像処理方法およびプログラム |
WO2018094932A1 (zh) * | 2016-11-23 | 2018-05-31 | 北京清影机器视觉技术有限公司 | 用于立体视觉呈现的人眼观察图像的生成方法和装置 |
CN109711363A (zh) * | 2018-12-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 车辆定位方法、装置、设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
方辉;杨明;杨汝清;: "基于地面特征点匹配的无人驾驶车全局定位", 机器人, no. 01 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113706633B (zh) * | 2021-09-02 | 2023-08-29 | 广州小鹏自动驾驶科技有限公司 | 一种目标对象的三维信息确定方法和装置 |
CN115359192A (zh) * | 2022-10-14 | 2022-11-18 | 阿里巴巴(中国)有限公司 | 三维重建与商品信息处理方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111783611B (zh) | 2023-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110595494B (zh) | 地图误差确定方法和装置 | |
CN111220154A (zh) | 车辆定位方法、装置、设备和介质 | |
CN111959495B (zh) | 车辆的控制方法、装置及车辆 | |
CN110806215B (zh) | 车辆定位的方法、装置、设备及存储介质 | |
CN111274343A (zh) | 一种车辆定位方法、装置、电子设备及存储介质 | |
CN110738183B (zh) | 路侧相机障碍物检测方法及装置 | |
CN111666891B (zh) | 用于估计障碍物运动状态的方法和装置 | |
CN109903330B (zh) | 一种处理数据的方法和装置 | |
CN111220164A (zh) | 定位方法、装置、设备及存储介质 | |
CN110929639A (zh) | 用于确定图像中障碍物位置的方法、装置、设备和介质 | |
CN111612753B (zh) | 三维物体检测方法、装置、电子设备和可读存储介质 | |
CN111753961A (zh) | 模型训练方法和装置、预测方法和装置 | |
CN111739005B (zh) | 图像检测方法、装置、电子设备及存储介质 | |
CN112184914B (zh) | 目标对象三维位置的确定方法、装置和路侧设备 | |
CN110794844B (zh) | 自动驾驶方法、装置、电子设备及可读存储介质 | |
CN111721281B (zh) | 位置识别方法、装置和电子设备 | |
CN111784834A (zh) | 一种点云地图生成方法、装置以及电子设备 | |
CN111767853A (zh) | 车道线检测方法和装置 | |
CN113034594A (zh) | 位姿优化方法、装置、电子设备及存储介质 | |
CN113887400B (zh) | 障碍物检测方法、模型训练方法、装置及自动驾驶车辆 | |
CN111767843A (zh) | 三维位置预测方法、装置、设备以及存储介质 | |
CN111783611B (zh) | 无人车的定位方法、装置、无人车及存储介质 | |
CN115773759A (zh) | 自主移动机器人的室内定位方法、装置、设备及存储介质 | |
CN111462179A (zh) | 三维物体跟踪方法、装置及电子设备 | |
CN111597987A (zh) | 用于生成信息的方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20211019 Address after: 105 / F, building 1, No. 10, Shangdi 10th Street, Haidian District, Beijing 100085 Applicant after: Apollo Intelligent Technology (Beijing) Co.,Ltd. Address before: 2 / F, baidu building, 10 Shangdi 10th Street, Haidian District, Beijing 100085 Applicant before: BEIJING BAIDU NETCOM SCIENCE AND TECHNOLOGY Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |