CN111127584A - 建立视觉地图的方法和装置、电子设备和存储介质 - Google Patents
建立视觉地图的方法和装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN111127584A CN111127584A CN201911137911.8A CN201911137911A CN111127584A CN 111127584 A CN111127584 A CN 111127584A CN 201911137911 A CN201911137911 A CN 201911137911A CN 111127584 A CN111127584 A CN 111127584A
- Authority
- CN
- China
- Prior art keywords
- information
- camera
- current vehicle
- measurement unit
- position information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 141
- 238000000034 method Methods 0.000 title claims abstract description 90
- 238000005259 measurement Methods 0.000 claims abstract description 118
- 238000012545 processing Methods 0.000 claims description 17
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000013519 translation Methods 0.000 claims description 14
- 238000001914 filtration Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 230000010354 integration Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000274965 Cyrestis thyodamas Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/206—Drawing of charts or graphs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
Abstract
本公开实例公开了一种建立视觉地图的方法和装置、电子设备和存储介质,其中,方法包括:通过当前车辆中的定位装置获取当前车辆的位置信息,通过当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;基于摄像头姿态信息和当前车辆的驾驶环境图像信息,确定摄像头中惯性测量单元内生成的图像深度信息;基于当前车辆的位置信息、当前车辆的驾驶环境图像信息、以及摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。本公开实施例可以根据当前车辆中定位装置的位置信息和摄像头中的驾驶环境图像信息,建立实时的视觉地图,从而实现对当前车辆的精准定位。
Description
技术领域
本公开涉及汽车技术,尤其是一种建立视觉地图的方法和装置、电子设备和存储介质。
背景技术
随着自动驾驶技术的发展,用于自动驾驶的地图也尤为重要。在自动驾驶车辆的行驶过程中,需要依赖区别于普通地图的视觉定位地图来对自身进行定位,从而进一步对行驶路径和行驶策略等作出决策。
在实现本公开的过程中,发明人发现:现有技术中,多使用特定的车辆运用人机协同方式对目标区域内的道路情况进行特征采集后,构建相应的视觉地图,其不能有效适应道路环境的改变从而影响车辆位置信息的准确度。
发明内容
有鉴于此,为了解决上述技术问题,提出了本公开。本公开的实施例提供了一种建立视觉地图的方法和装置、电子设备和存储介质。
根据本公开实施例的一个方面,提供了一种建立视觉地图的方法,包括:
通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;
基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;
基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
可选地,在本公开上述各方法实施例中,所述当前车辆中定位装置还包括惯性测量单元;
所述当前车辆中的摄像头为单目摄像头;所述当前车辆的驾驶环境图像信息包括:至少一个图像帧以及位于各图像帧中的至少一个像素点信息。
可选地,在本公开上述各方法实施例中,还包括:获取所述摄像头的时间戳信息;
所述基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图之前,还包括:
基于所述定位装置中当前车辆的位置信息,对所述定位装置中的惯性测量单元进行初始化,获得所述定位装置中惯性测量单元的初始位置信息;
基于所述时间戳信息,对所述定位装置中惯性测量单元的初始位置信息进行预积分处理,获得与所述各图像帧时间同步的定位装置中惯性测量单元的位置信息;
基于所述定位装置的位置信息校准所述定位装置中惯性测量单元的位置信息。
可选地,在本公开上述各方法实施例中,所述基于所述摄像头姿态信息和所述车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息,包括:
基于所述当前车辆的驾驶环境图像信息中至少连续两幅图像帧,确定所述图像帧的平移信息;
基于所述摄像头姿态信息对所述摄像头中的惯性测量单元进行初始化,获得所述摄像头中惯性测量单元的姿态信息;
基于所述摄像头中惯性测量单元的姿态信息和所述图像帧的平移信息,确定所述摄像头中惯性测量单元内生成的图像深度信息。
可选地,在本公开上述各方法实施例中,还包括:获取所述摄像头的位置信息;
所述基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元生成的图像深度信息,建立视觉地图,包括:
基于校准后的所述定位装置中惯性测量单元的位置信息,对所述摄像头的位置信息进行滤波;
对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息;
基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的深度信息,建立视觉地图。
可选地,在本公开上述各方法实施例中,所述对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息和所述基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图之间,包括:
基于至少连续两个所述关键帧中至少一个像素点的亮度信息,确定所述至少连续两个所述关键帧之间的光流信息;
对各所述关键帧中的特征点信息进行匹配,获得匹配成功的特征点信息;
对所述匹配成功的特征点信息进行三角化重构,获得三维路标信息。
可选地,在本公开上述各方法实施例中,所述基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图,包括:
基于所述三维路标信息和所述光流信息,确定视觉点云信息;
基于滤波后摄像头的位置信息、所述三维视觉点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
可选地,在本公开上述各方法实施例中,还包括:获取所述摄像头相对于地球坐标系的绝对位置信息;
所述基于滤波后摄像头的位置信息、所述三维视觉点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图,包括:
基于所述绝对位置信息对所述三维视觉点云信息进行区域划分,获得所述分段点云信息;
基于滤波后摄像头的位置信息、所述分段点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立划分区域的视觉地图。
可选地,在本公开上述各方法实施例中,还包括:基于所述视觉地图和所述滤波后摄像头的位置信息,以所述摄像头为中心设定半径,获得局部视觉地图。
可选地,在本公开上述各方法实施例中,还包括:基于所述当前车辆的驾驶环境图像信息,获取视觉语义信息;
基于所述局部视觉地图和所述视觉语义信息,确定停车位置,规划泊车路线。
根据本公开实施例的另一个方面,提供了一种建立视觉地图的装置,包括:
第一获取模块,用于通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;
第一确定模块,用于基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;
建立模块,用于基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
可选地,在本公开上述各装置实施例中,当前车辆中定位装置还包括惯性测量单元;
所述当前车辆中的摄像头为单目摄像头;
所述当前车辆的驾驶环境图像信息包括:至少一个图像帧以及位于各图像帧中的至少一个像素点信息。
可选地,在本公开上述各装置实施例中,还包括:第二获取模块,用于获取所述摄像头的时间戳信息;
在所述建立模块之前,还包括:
第一获得模块,用于基于所述定位装置中当前车辆的位置信息,对所述定位装置中的惯性测量单元进行初始化,获得所述定位装置中惯性测量单元的初始位置信息;
第二获得模块,用于基于所述时间戳信息,对所述定位装置中惯性测量单元的初始位置信息进行预积分处理,获得与所述各图像帧时间同步的定位装置中惯性测量单元的位置信息;
校准模块,用于基于所述定位装置的位置信息校准所述定位装置中惯性测量单元的位置信息。
可选地,在本公开上述各装置实施例中,所述确定模块,包括:
第一确定单元,用于基于所述当前车辆的驾驶环境图像信息中至少连续两幅图像帧,确定所述至少连续两幅图像帧平移信息;
第一获得单元,用于基于所述摄像头姿态信息对所述摄像头中的惯性测量单元进行初始化,获得所述摄像头中惯性测量单元的姿态信息;
第二确定单元,用于基于所述摄像头中惯性测量单元的姿态信息和所述图像帧的平移信息,确定所述摄像头中惯性测量单元内生成图像深度信息。
可选地,在本公开上述各装置实施例中,还包括:第三获取模块,用于获取所述摄像头的位置信息;
所述建立模块,包括:
滤波单元,用于基于校准后的所述定位装置中惯性测量单元的位置信息,对所述摄像头的位置信息进行滤波;
第二获得单元,用于对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息;
第一建立单元,用于基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
可选地,在本公开上述各装置实施例中,所述第二获得单元和所述第一建立单元之间,包括:
第三确定单元,用于基于至少连续两个所述关键帧中至少一个像素点的亮度信息,确定所述至少连续两个所述关键帧之间的光流信息;
第三获得单元,用于对各所述关键帧中的特征点信息进行匹配,获得匹配成功的特征点信息;
第四获得单元,用于对所述匹配成功的特征点信息进行三角化重构,获得三维路标信息。
可选地,在本公开上述各装置实施例中,所述第一建立单元,具体用于:
基于所述三维路标信息和所述光流信息,确定视觉点云信息;
基于滤波后摄像头的位置信息、所述三维视觉点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
可选地,在本公开上述各装置实施例中,还包括:第四获取模块,用于获取所述摄像头相对于地球坐标系的绝对位置信息;
所述第一建立单元,具体还用于:
基于所述绝对位置信息对所述三维视觉点云信息进行区域划分,获得所述分段点云信息;
基于滤波后摄像头的位置信息、所述分段点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立划分区域的视觉地图。
可选地,在本公开上述各装置实施例中,还包括:
第三获得模块,用于基于所述视觉地图和所述滤波后摄像头的位置信息,以所述摄像头为中心设定半径,获得局部视觉地图;
第二获取模块,用于基于所述当前车辆的驾驶环境图像信息,获取视觉语义信息;
第二确定模块,用于基于所述局部视觉地图和所述视觉语义信息,确定停车位置,规划泊车路线。
根据本公开实施例的又一个方面,提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行本公开上述任一实施例所述的建立视觉地图的方法。
根据本公开实施例的又一个方面,提供了一种电子设备,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述任一实施例所述的建立视觉地图的方法。
基于本公开上述实施例提供的建立视觉地图的方法和装置、电子设备和存储介质,通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。由此,本公开实施例可以根据当前车辆中定位装置的位置信息和摄像头中的驾驶环境图像信息,建立实时的视觉地图,从而实现对当前车辆的精准定位,此外,自动驾驶系统还跟可以根据该视觉地图中车辆的位置信息进行自动泊车。
下面通过附图和实施例,对本公开的技术方案做进一步的详细描述。
附图说明
通过结合附图对本公开实施例进行更详细的描述,本公开的上述以及其他目的、特征和优势将变得更加明显。附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。在附图中,相同的参考标号通常代表相同部件或步骤。
图1是本公开一个示例性实施例提供的建立视觉地图的方法的流程示意图。
图2是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。
图3是本公开图1所示的实施例中步骤S102的一个流程示意图。
图4是本公开图1所示的实施例中步骤S106的一个流程示意图。
图5是本公开图4所示的实施例中步骤S402与步骤S403之间的一个流程示意图。
图6是本公开图5所示的实施例中步骤S403的一个流程示意图。
图7是本公开图5所示的实施例中步骤S502的一个流程示意图。
图8是本公开又一示例性实施例提供的建立视觉地图的方法的流程示意图。
图9是本公开一个示例性实施例提供的建立视觉地图的装置的结构示意图。
图10是本公开另一示例性实施例提供的建立视觉地图的装置的结构示意图。
图11是本公开一示例性实施例提供的电子设备的结构图。
具体实施方式
下面,将参考附图详细地描述根据本公开的示例实施例。显然,所描述的实施例仅仅是本公开的一部分实施例,而不是本公开的全部实施例,应理解,本公开不受这里描述的示例实施例的限制。
应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本公开的范围。
本领域技术人员可以理解,本公开实施例中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
还应理解,在本公开实施例中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本公开实施例中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
另外,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本公开中字符“/”,一般表示前后关联对象是一种“或”的关系。
还应理解,本公开对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
本公开实施例可以应用于终端设备、计算机系统、服务器等电子设备,其可与众多其它通用或专用计算系统环境或配置一起操作。适于与终端设备、计算机系统、服务器等电子设备一起使用的众所周知的终端设备、计算系统、环境和/或配置的例子包括但不限于:个人计算机系统、服务器计算机系统、瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。
终端设备、计算机系统、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
图1是本公开一示例性实施例提供的建立视觉地图的方法的流程示意图。本实施例可应用在电子设备上,如图1所示,该建立视觉地图的方法包括如下步骤:
S102,通过当前车辆中的定位装置获取当前车辆的位置信息,通过当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像。
其中,当前车辆中的定位装置可以包括:惯性测量单元、以及含有全球定位系统(GPS)、北斗卫星导航系统、伽利略卫星导航系统或俄罗斯全球导航卫星系统等定位系统的装置。当前车辆中的摄像头为单目摄像头,本实施例可以利用运动建模方法(SFM)对该单目摄像头进行初始化,以获得该单目摄像头的姿态信息和当前车辆的驾驶环境图像信息。其中,该单目摄像头的姿态信息可以包括旋转矩阵。驾驶环境图像信息可以包括:至少一个图像帧以及位于各图像帧中的至少一个像素点信息。
S104,基于摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定摄像头中惯性测量单元内生成的图像深度信息。
其中,当前车辆的定位装置和摄像头中各设有一个惯性测量单元(IMU),定位装置中的惯性测量单元用于预测下一时刻当前车辆的位置信息,摄像头中的惯性测量单元用于预测下一时刻摄像头的姿态信息并计算连续两个图像帧之间的深度信息,例如利用曲线拟合的方式计算深度信息。其中,深度信息用于表示对三维空间坐标尺寸的预测值,例如通过比较当前图像帧与上一图像帧之间的平移信息,确定的尺度因子。
S106,用于基于当前车辆的位置信息、当前车辆的驾驶环境图像信息、以及摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
基于本公开上述实施例提供的建立视觉地图的方法,通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。由此,本公开实施例可以根据当前车辆中定位装置的位置信息和摄像头中的驾驶环境图像信息,建立实时的视觉地图,从而实现对当前车辆的精准定位,此外,自动驾驶系统还可以根据该视觉地图中车辆的位置信息进行自动泊车。
图2是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图2所示,在上述图1所示实施例的基础上,还可以包括获取摄像头中生成的时间戳信息,以及在步骤S106之前可以包括:
S201,基于定位装置中当前车辆的位置信息,对定位装置中的惯性测量单元进行初始化,获得定位装置中惯性测量单元的初始位置信息。
其中,将定位装置中当前车辆的位置信息赋值给当前车辆中的惯性测量单元以完成对其的初始化,即惯性测量单元的初始位置信息为当前车辆的位置信息。
S202,基于时间戳信息,对定位装置中惯性测量单元的初始位置信息进行预积分处理,获得与各图像帧时间同步的定位装置中惯性测量单元的位置信息。
其中,时间戳信息用于表示摄像头拍摄的各图像帧的时刻,预计分处理用于表示在定位装置中惯性测量单元的初始位置信息的基础上,对连续两个图像帧数据之间的位置信息进行积分,得到与各图像帧时间同步的定位装置中惯性测量单元的位置信息。
S203,基于定位装置的位置信息校准定位装置中惯性测量单元的位置信息。
其中,本实施例通过加权处理对定位装置中惯性测量单元获得的位置信息进行校准,例如,分别预设定位装置的位置信息的权重系数和定位装置中惯性测量单元的位置信息的权重系数后,对定位装置的位置信息和定位装置中惯性测量单元的位置信息进行加权平均,将加权处理后得到的位置信息赋值给定位装置中惯性测量单元,完成对定位装置中惯性测量单元的位置信息的校准。
基于本公开上述实施例提供的建立视觉地图的方法,可以减小定位装置中惯性测量单元的位置信息因预积分处理产生的误差,从而实现对当前车辆的精准定位。
图3是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图3所示,在上述图1所示实施例的基础上,步骤S104可以包括:
S301,基于当前车辆的驾驶环境图像信息中至少连续两幅图像帧,确定图像帧的平移信息。
其中,图像帧的平移信息用于表示连续两幅图像帧之间的相对平移信息。
S302,基于摄像头姿态信息对摄像头中的惯性测量单元进行初始化,获得摄像头中惯性测量单元的姿态信息。
其中,本公开的实施例需要利用摄像头姿态信息对摄像头中惯性测量单元的姿态信息进行初始化,对初始化后的姿态信息进行预积分,获得摄像头中惯性测量单元下一时刻的姿态信息。
S303,基于摄像头中惯性测量单元的姿态信息和图像帧的平移信息,确定摄像头中惯性测量单元内生成的图像深度信息。
其中,摄像头初始化完成后,利用图像帧的平移信息通过2D-2D对极约束算法,将摄像头的姿态信息和摄像头中惯性测量单元的姿态信息对齐,得到摄像头中惯性测量单元内生成的图像深度信息,即尺度因子。
基于本公开上述实施例利用摄像头中的惯性测量单元确定系统中的三维场景与真实场景对应的图像深度信息,实现了以当前车辆为中心的360度全方位三维重建。
图4是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图4所示,在上述图1所示实施例的基础上,还可以包括:获取摄像头的位置信息,以及步骤S106可以包括:
S401,基于校准后的定位装置中惯性测量单元的位置信息,对摄像头的位置信息进行滤波。
S402,对至少一个图像帧进行关键帧选取,对关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息。
其中,根据摄像头的分别率预设跟踪点数,对位于各图像帧中的至少一个像素点信息进行跟踪,将跟踪的像素点数大于预设跟踪点数的图像帧设为关键帧。对位于各图像帧中的至少一个像素点信息进行特征提取,获得至少一个特征点信息。
S403,基于滤波后摄像头的位置信息,至少一个特征点信息、以及摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
其中,特征点信息用于表示图像帧中具有一些特殊属性的点。这样的点相对于一些普通的点具有相对较多的信息量,可以根据这样的特征点信息,来描述图像中的关键点信息,例如线条特征和角点特征等,在本公开的实施例中特征点信息可以包括关键点和描述子。
其中,利用校准后的定位装置中惯性测量单元的位置信息与摄像头的位置信息进行相互滤波,
由此,本公开上述实施例通过互补滤波提高了摄像头中位置信息的定位质量,利用各帧之间的像素点信息获得的关键帧和特征点信息可以提供可靠的建立视觉地图的依据,从而获得当前车辆准确的位置信息。
图5是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图5所示,在上述图4所示实施例的基础上,步骤S402与步骤S403之间可以包括:
S501,基于至少连续两个关键帧中至少一个像素点的亮度信息,确定至少连续两个所述关键帧之间光流信息。
其中,光流信息用于表示追踪关键帧中某个像素点在其他图像中运动的瞬时速度,
S502,对各关键帧中的特征点信息进行匹配,获得匹配成功的特征点信息。
其中,可以采用归一化相关系数(如以特征点周围的灰度值作为匹配实体的情形),也可以采用经过设计的度量函数,然后再结合其他各种约束性条件进行匹配。
S503,对匹配成功的特征点信息进行三角化重构,获得三维路标信息。
其中,利用三角形法来恢复点在三维空间的结构,例如线性三角形法(Lineartriangulation methods)。线性三角形法使用直接线性变化(DLT)对匹配成功的特征点的世界坐标进行求解,获得与特征点相对应的三维空间的路标信息。
由此,本公开上述实施例利用三维重构的方法获得的三维路标信息建立的视觉地图,可以在自动驾驶系统实现对当前车辆周边道路环境的重构。
图6是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图6所示,在上述图5所示实施例的基础上,步骤S403可以包括:
S601,基于三维路标信息和光流信息,确定视觉点云信息。
其中,当将所有的三维路标信息对连接起来之后就行形成初步运动轨迹,利用光流信息将整个轨迹描画出来,即可得到视觉点云信息。例如。可以利用Susan算子和光流法配合EM算法进行视觉点云模型的建立。
S602,基于滤波后摄像头的位置信息、三维视觉点云信息、以及摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
其中,根据摄像头中惯性测量单元的深度信息和滤波后摄像头的位置信息,可以得到三维空间中任意两点间的距离,在三维视觉点云信息的基础上,即可建立的视觉地图。
图7是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图7所示,在上述图5所示实施例的基础上,步骤S502还可以包括:
S701,基于绝对位置信息对三维视觉点云信息进行区域划分,获得分段点云信息。
其中,绝对位置信息用于表示由摄像头获取的当前车辆所在位置相对于地球坐标系的绝对位置信息。区域划分用于表示将三维视觉点云信息划分为一定大小的方格区域,基于划分后的区域获得分段点云信息。
S702,基于滤波后摄像头的位置信息、分段点云信息、以及摄像头中惯性测量单元内生成的图像深度信息,建立划分区域的视觉地图。
基于本公开上述实施例利用分段点云信息建立的划分区域的视觉地图,可以更加精准的对当前车辆进行快速定位。
图8是本公开另一示例性实施例提供的建立视觉地图的方法的流程示意图。如图8所示,在上述图1所示实施例的基础上,步骤S106之后还可以包括:
S801,基于视觉地图和滤波后摄像头的位置信息,以摄像头为中心设定半径,获得局部视觉地图。
例如,可以以当前车辆为中心预设一定的半径,将环境中过高或过远的三维点云信息删除,获得满足条件的局部视觉地图。
S802,基于当前车辆的驾驶环境图像信息,获取视觉语义信息。
其中,视觉语义信息用于表示提示当前车辆位置的标志信息,例如车道线、停车线、以及停车场区域标识等。
S803,基于局部视觉地图和视觉语义信息,确定停车位置,规划泊车路线。
其中,自动驾驶系统利用建立局部视觉地图确定车辆的当前位置,利用获取的视觉语义信息,确定当前车辆可以进行车辆停放的区域后,规划至少一条泊车路线进行自动泊车。
在一个具体的例子中,通过当前车辆中定位装置获取当前车辆的位置信息,通过获取的摄像头姿态信息和当前车辆的驾驶环境图像信息,确定摄像头中惯性测量单元的图像深度信息,基于校准后当前车辆的位置信息、滤波后的驾驶环境图像信息、以及摄像头中惯性测量单元的图像深度信息,建立视觉地图,当前车辆在该视觉地图的基础上,根据获取的停车场标识等视觉语义信息,判断当前区域是否为停车场区域,若是,则自动驾驶系统在视觉地图上检测到停车位置后进行泊车路线规划;若否,则自动驾驶系统控制当前车辆运行搜索下一视觉语义信息。
由此,本公开的实施例可以实现自动驾驶中的自动泊车功能,并且能够根据周围环境的变化自适应的调整泊车路径,有效提高了泊车的成功率。
另外,在另一些可选的实施方式中,本公开还可以包括按照预设的时间周期,更新车辆中定位装置的位置信息、车辆中摄像头的轨迹信息、姿态信息、以及驾驶环境图像信息,从而可以提高车辆位置的准确性。
本公开实施例提供的任一种建立视觉地图的方法可以由任意适当的具有数据处理能力的设备执行,包括但不限于:终端设备和服务器等。或者,本公开实施例提供的任一种建立停车场视觉地图的方法可以由处理器执行,如处理器通过调用存储器存储的相应指令来执行本公开实施例提及的任一种建立停车场视觉地图的方法。下文不再赘述。
图9是本公开一示例性实施例提供的建立视觉地图的装置的结构示意图。该建立停车场视觉地图的装置可以设置于终端设备、服务器等电子设备中,执行本公开上述任一实施例的建立视觉地图的方法。如图9所示,该建立视觉地图的装置包括:
第一获取模块901,用于通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息。
第一确定模块902,用于基于摄像头姿态信息和当前车辆的驾驶环境图像信息,确定摄像头中惯性测量单元内生成的图像深度信息。
建立模块903,用于基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
基于本公开上述实施例提供的建立视觉地图的装置,通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。由此,本公开实施例可以根据当前车辆中定位装置的位置信息和摄像头中的驾驶环境图像信息,建立实时的视觉地图,从而实现对当前车辆的精准定位,此外,自动驾驶系统还可以根据该视觉地图中车辆的位置信息进行自动泊车。
在其中一些实施方式中,当前车辆中定位装置还包括惯性测量单元;所述当前车辆中的摄像头为单目摄像头;所述当前车辆的驾驶环境图像信息包括:至少一个图像帧以及位于各图像帧中的至少一个像素点信息。
图10是本公开另一示例性实施例提供的测试装置的结构示意图。如图9所示,在图9所示实施例的基础上,还包括:第二获取模块110,用于获取所述摄像头中生成的时间戳信息。
在所述建立模块903之前,还包括:第一获得模块111,用于基于所述定位装置中当前车辆的位置信息,对所述定位装置中的惯性测量单元进行初始化,获得所述定位装置中惯性测量单元的初始位置信息。
第二获得模块112,用于基于所述时间戳信息,对所述定位装置中惯性测量单元的初始位置信息进行预积分处理,获得与所述各图像帧时间同步的定位装置中惯性测量单元的位置信息。
校准模块113,用于基于所述定位装置的位置信息校准所述定位装置中惯性测量单元的位置信息。
在其中一些实施方式中,所述确定模块,包括:第一确定单元,用于基于所述当前车辆的驾驶环境图像信息中至少连续两幅图像帧,确定所述图像帧的平移信息;第一获得单元,用于基于所述摄像头姿态信息对所述摄像头中的惯性测量单元进行初始化,获得所述摄像头中惯性测量单元的姿态信息;第二确定单元,用于基于所述摄像头中惯性测量单元的姿态信息和所述图像帧的平移信息,确定所述摄像头中惯性测量单元内生成的图像深度信息。
在其中一些实施方式中,还包括:第三获取模块,用于获取所述摄像头的位置信息;所述建立模块,包括:滤波单元,用于基于校准后的所述定位装置中惯性测量单元的位置信息,对所述摄像头的位置信息进行滤波;第二获得单元,用于对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息;第一建立单元,用于基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
在其中一些实施方式中,所述第二获得单元和所述第一建立单元之间,包括:第三确定单元,用于基于至少连续两个所述关键帧中至少一个像素点的亮度信息,确定至少连续两个所述关键帧之间光流信息;第三获得单元,用于对各所述关键帧中的特征点信息进行匹配,获得匹配成功的特征点信息;第四获得单元,用于对所述匹配成功的特征点信息进行三角化重构,获得三维路标信息。
在其中一些实施方式中,所述建立单元,包括:确定子单元,用于基于所述时间戳信息、所述三维路标信息和所述光流信息,确定当前时刻的三维视觉点云信息;建立子单元,用于基于校准后所述惯性测量单元的位置信息、当前时刻的三维视觉点云信息、以及所述单目摄像头的尺度因子,建立当前时刻的视觉地图。
在其中一些实施方式中,所述第一建立单元,具体用于:基于所述三维路标信息和所述光流信息,确定视觉点云信息;基于滤波后摄像头的位置信息、所述三维视觉点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
在其中一些实施方式中,本公开建立视觉地图的装置还包括:第四获取模块,用于获取所述摄像头相对于地球坐标系的绝对位置信息;所述第一建立单元,具体还用于:基于所述绝对位置信息对所述三维视觉点云信息进行区域划分,获得所述分段点云信息;基于滤波后摄像头的位置信息、所述分段点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立划分区域的视觉地图。
在其中一些实施方式中,本公开建立视觉地图的装置还包括:第三获得模块,用于基于所述视觉地图和所述滤波后摄像头的位置信息,以所述摄像头为中心设定半径,获得局部视觉地图;第二获取模块,用于基于所述当前车辆的驾驶环境图像信息,获取视觉语义信息;第二确定模块,用于基于所述局部视觉地图和所述视觉语义信息,确定停车位置,规划泊车路线。
另外,本公开实施例还提供了一种电子设备,该电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现本公开上述任一实施例所述建立视觉地图的方法。
下面,参考图11来描述根据本公开实施例的电子设备。该电子设备可以是第一设备和第二设备中的任一个或两者、或与它们独立的单机设备,该单机设备可以与第一设备和第二设备进行通信,以从它们接收所采集到的输入信号。图11图示了根据本公开实施例的电子设备的框图。如图11所示,电子设备120包括一个或多个处理器121和存储器122。
处理器121可以是中央处理单元(CPU)或者具有数据处理能力和/或指令执行能力的其他形式的处理单元,并且可以控制电子设备中的其他组件以执行期望的功能。
存储器122可以包括一个或多个计算机程序产品,所述计算机程序产品可以包括各种形式的计算机可读存储介质,例如易失性存储器和/或非易失性存储器。所述易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器(cache)等。所述非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪存等。在所述计算机可读存储介质上可以存储一个或多个计算机程序指令,处理器121可以运行所述程序指令,以实现上文所述的本公开的各个实施例的软件程序的建立视觉地图的方法以及/或者其他期望的功能。在一个示例中,电子设备还可以包括:输入装置123和输出装置124,这些组件通过总线系统和/或其他形式的连接机构(未示出)互连。
此外,该输入设备123还可以包括例如键盘、鼠标等等。
该输出装置124可以向外部输出各种信息。该输出装置124可以包括例如显示器、扬声器、打印机、以及通信网络及其所连接的远程输出设备等等。
当然,为了简化,图11中仅示出了该电子设备中与本公开有关的组件中的一些,省略了诸如总线、输入/输出接口等等的组件。除此之外,根据具体应用情况,电子设备还可以包括任何其他适当的组件。
除了上述方法和设备以外,本公开的实施例还可以是计算机程序产品,其包括计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述各种实施例的软件程序的建立视觉地图的方法中的步骤。
所述计算机程序产品可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例操作的程序代码,所述程序设计语言包括面向对象的程序设计语言,诸如Java、C++等,还包括常规的过程式程序设计语言,诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。
此外,本公开的实施例还可以是计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令在被处理器运行时使得所述处理器执行本说明书上述各种实施例的软件程序的建立视觉地图的方法中的步骤。
所述计算机可读存储介质可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
以上结合具体实施例描述了本公开的基本原理,但是,需要指出的是,在本公开中提及的优点、优势、效果等仅是示例而非限制,不能认为这些优点、优势、效果等是本公开的各个实施例必须具备的。另外,上述公开的具体细节仅是为了示例的作用和便于理解的作用,而非限制,上述细节并不限制本公开为必须采用上述具体的细节来实现。
本说明书中各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本公开中涉及的器件、装置、设备、系统的方框图仅作为例示性的例子并且不意图要求或暗示必须按照方框图示出的方式进行连接、布置、配置。如本领域技术人员将认识到的,可以按任意方式连接、布置、配置这些器件、装置、设备、系统。诸如“包括”、“包含”、“具有”等等的词语是开放性词汇,指“包括但不限于”,且可与其互换使用。这里所使用的词汇“或”和“和”指词汇“和/或”,且可与其互换使用,除非上下文明确指示不是如此。这里所使用的词汇“诸如”指词组“诸如但不限于”,且可与其互换使用。
可能以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本公开的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本公开实施为记录在记录介质中的程序,这些程序包括用于实现根据本公开的方法的机器可读指令。因而,本公开还覆盖存储用于执行根据本公开的方法的程序的记录介质。
还需要指出的是,在本公开的装置、设备和方法中,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本公开的等效方案。
提供所公开的方面的以上描述以使本领域的任何技术人员能够做出或者使用本公开。对这些方面的各种修改对于本领域技术人员而言是非常显而易见的,并且在此定义的一般原理可以应用于其他方面而不脱离本公开的范围。因此,本公开不意图被限制到在此示出的方面,而是按照与在此公开的原理和新颖的特征一致的最宽范围。
为了例示和描述的目的已经给出了以上描述。此外,此描述不意图将本公开的实施例限制到在此公开的形式。尽管以上已经讨论了多个示例方面和实施例,但是本领域技术人员将认识到其某些变型、修改、改变、添加和子组合。
Claims (10)
1.一种建立视觉地图的方法,其特征在于,包括:
通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;
基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;
基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
2.根据权利要求1所述的方法,其特征在于,所述当前车辆中定位装置还包括惯性测量单元;
所述当前车辆中的摄像头为单目摄像头;所述当前车辆的驾驶环境图像信息包括:至少一个图像帧以及位于各图像帧中的至少一个像素点信息。
3.根据权利要求1或2所述的方法,其特征在于,还包括:获取所述摄像头中生成的时间戳信息;
所述基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图之前,还包括:
基于所述定位装置中当前车辆的位置信息,对所述定位装置中的惯性测量单元进行初始化,获得所述定位装置中惯性测量单元的初始位置信息;
基于所述时间戳信息,对所述定位装置中惯性测量单元的初始位置信息进行预积分处理,获得与所述各图像帧时间同步的定位装置中惯性测量单元的位置信息;
基于所述定位装置的位置信息校准所述定位装置中惯性测量单元的位置信息。
4.根据权利要求3所述的方法,其特征在于,所述基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息,包括:
基于所述当前车辆的驾驶环境图像信息中至少连续两幅图像帧,确定所述图像帧的平移信息;
基于所述摄像头姿态信息对所述摄像头中的惯性测量单元进行初始化,获得所述摄像头中惯性测量单元的姿态信息;
基于所述摄像头中惯性测量单元的姿态信息和所述图像帧的平移信息,确定所述摄像头中惯性测量单元内生成的图像深度信息。
5.根据权利要求4所述的方法,其特征在于,还包括:获取所述摄像头的位置信息;
所述基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图,包括:
基于校准后的所述定位装置中惯性测量单元的位置信息,对所述摄像头的位置信息进行滤波;
对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息;
基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
6.根据权利要求5所述的方法,其特征在于,所述对所述至少一个图像帧进行关键帧选取,对所述关键帧中的至少一个像素点信息特征检测,获得至少一个特征点信息和所述基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图之间,包括:
基于至少连续两个所述关键帧中至少一个像素点的亮度信息,确定所述至少连续两个所述关键帧之间的光流信息;
对各所述关键帧中的特征点信息进行匹配,获得匹配成功的特征点信息;
对所述匹配成功的特征点信息进行三角化重构,获得三维路标信息。
7.根据权利要求6所述的方法,其特征在于,所述基于滤波后摄像头的位置信息、所述至少一个特征点信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图,包括:
基于所述三维路标信息和所述光流信息,确定视觉点云信息;
基于滤波后摄像头的位置信息、所述三维视觉点云信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
8.一种建立视觉地图的装置,其特征在于,包括:
第一获取模块,用于通过当前车辆中的定位装置获取当前车辆的位置信息,通过所述当前车辆中的摄像头获取摄像头姿态信息和当前车辆的驾驶环境图像信息;
第一确定模块,用于基于所述摄像头姿态信息和所述当前车辆的驾驶环境图像信息,确定所述摄像头中惯性测量单元内生成的图像深度信息;
建立模块,用于基于所述当前车辆的位置信息、所述当前车辆的驾驶环境图像信息、以及所述摄像头中惯性测量单元内生成的图像深度信息,建立视觉地图。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序用于执行上述权利要求1-7任一所述的建立视觉地图的方法。
10.一种电子设备,其特征在于,所述电子设备包括:
处理器;
用于存储所述处理器可执行指令的存储器;
所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述权利要求1-7任一所述的建立视觉地图的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911137911.8A CN111127584A (zh) | 2019-11-19 | 2019-11-19 | 建立视觉地图的方法和装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911137911.8A CN111127584A (zh) | 2019-11-19 | 2019-11-19 | 建立视觉地图的方法和装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111127584A true CN111127584A (zh) | 2020-05-08 |
Family
ID=70495832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911137911.8A Pending CN111127584A (zh) | 2019-11-19 | 2019-11-19 | 建立视觉地图的方法和装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111127584A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112673233A (zh) * | 2020-12-10 | 2021-04-16 | 北京嘀嘀无限科技发展有限公司 | 地图构建系统和方法 |
CN112991813A (zh) * | 2021-03-03 | 2021-06-18 | 广州小鹏自动驾驶科技有限公司 | 一种停车位对齐方法、装置、设备和计算机可读存储介质 |
CN113160270A (zh) * | 2021-02-24 | 2021-07-23 | 广州视源电子科技股份有限公司 | 视觉地图生成方法、装置、终端及存储介质 |
CN113781539A (zh) * | 2021-09-06 | 2021-12-10 | 京东鲲鹏(江苏)科技有限公司 | 深度信息获取方法、装置、电子设备和计算机可读介质 |
CN115147805A (zh) * | 2021-03-31 | 2022-10-04 | 欧特明电子股份有限公司 | 自动泊车建图与定位的系统及其方法 |
CN116228834A (zh) * | 2022-12-20 | 2023-06-06 | 阿波罗智联(北京)科技有限公司 | 图像深度获取方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108407802A (zh) * | 2017-02-09 | 2018-08-17 | 阿尔派株式会社 | 停车辅助装置以及停车辅助方法 |
CN109859266A (zh) * | 2019-01-28 | 2019-06-07 | 西安理工大学 | 一种基于预变换的大视角变化下视觉同时定位与绘图方法 |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110207714A (zh) * | 2019-06-28 | 2019-09-06 | 广州小鹏汽车科技有限公司 | 一种确定车辆位姿的方法、车载系统及车辆 |
CN110310304A (zh) * | 2019-06-14 | 2019-10-08 | 深圳前海达闼云端智能科技有限公司 | 单目视觉建图和定位方法、装置、存储介质及移动设备 |
CN110322500A (zh) * | 2019-06-28 | 2019-10-11 | Oppo广东移动通信有限公司 | 即时定位与地图构建的优化方法及装置、介质和电子设备 |
-
2019
- 2019-11-19 CN CN201911137911.8A patent/CN111127584A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108407802A (zh) * | 2017-02-09 | 2018-08-17 | 阿尔派株式会社 | 停车辅助装置以及停车辅助方法 |
CN109859266A (zh) * | 2019-01-28 | 2019-06-07 | 西安理工大学 | 一种基于预变换的大视角变化下视觉同时定位与绘图方法 |
CN109887032A (zh) * | 2019-02-22 | 2019-06-14 | 广州小鹏汽车科技有限公司 | 一种基于单目视觉slam的车辆定位方法及系统 |
CN110044354A (zh) * | 2019-03-28 | 2019-07-23 | 东南大学 | 一种双目视觉室内定位与建图方法及装置 |
CN110310304A (zh) * | 2019-06-14 | 2019-10-08 | 深圳前海达闼云端智能科技有限公司 | 单目视觉建图和定位方法、装置、存储介质及移动设备 |
CN110207714A (zh) * | 2019-06-28 | 2019-09-06 | 广州小鹏汽车科技有限公司 | 一种确定车辆位姿的方法、车载系统及车辆 |
CN110322500A (zh) * | 2019-06-28 | 2019-10-11 | Oppo广东移动通信有限公司 | 即时定位与地图构建的优化方法及装置、介质和电子设备 |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112673233A (zh) * | 2020-12-10 | 2021-04-16 | 北京嘀嘀无限科技发展有限公司 | 地图构建系统和方法 |
WO2022120733A1 (en) * | 2020-12-10 | 2022-06-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for constructing map |
CN112673233B (zh) * | 2020-12-10 | 2024-04-16 | 北京嘀嘀无限科技发展有限公司 | 地图构建系统和方法 |
CN113160270A (zh) * | 2021-02-24 | 2021-07-23 | 广州视源电子科技股份有限公司 | 视觉地图生成方法、装置、终端及存储介质 |
CN112991813A (zh) * | 2021-03-03 | 2021-06-18 | 广州小鹏自动驾驶科技有限公司 | 一种停车位对齐方法、装置、设备和计算机可读存储介质 |
CN115147805A (zh) * | 2021-03-31 | 2022-10-04 | 欧特明电子股份有限公司 | 自动泊车建图与定位的系统及其方法 |
CN113781539A (zh) * | 2021-09-06 | 2021-12-10 | 京东鲲鹏(江苏)科技有限公司 | 深度信息获取方法、装置、电子设备和计算机可读介质 |
CN116228834A (zh) * | 2022-12-20 | 2023-06-06 | 阿波罗智联(北京)科技有限公司 | 图像深度获取方法、装置、电子设备及存储介质 |
CN116228834B (zh) * | 2022-12-20 | 2023-11-03 | 阿波罗智联(北京)科技有限公司 | 图像深度获取方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111127584A (zh) | 建立视觉地图的方法和装置、电子设备和存储介质 | |
US20210012520A1 (en) | Distance measuring method and device | |
CN109544629B (zh) | 摄像头位姿确定方法和装置以及电子设备 | |
EP3138078B1 (en) | Speed-up template matching using peripheral information | |
CN110095752B (zh) | 定位方法、装置、设备和介质 | |
CN111415387A (zh) | 相机位姿确定方法、装置、电子设备及存储介质 | |
KR101880185B1 (ko) | 이동체 포즈 추정을 위한 전자 장치 및 그의 이동체 포즈 추정 방법 | |
EP3621032A2 (en) | Method and apparatus for determining motion vector field, device, storage medium and vehicle | |
CN110501036A (zh) | 传感器参数的标定检查方法及装置 | |
KR102006291B1 (ko) | 전자 장치의 이동체 포즈 추정 방법 | |
CN112529957B (zh) | 确定摄像设备位姿的方法和装置、存储介质、电子设备 | |
US9875575B2 (en) | Smoothing 3D models of objects to mitigate artifacts | |
CN114913290A (zh) | 多视角融合的场景重建方法、感知网络训练方法及装置 | |
KR20200037502A (ko) | 포즈 정보를 출력하는 방법 및 장치 | |
CN111105695A (zh) | 地图制作方法、装置、电子设备及计算机可读存储介质 | |
CN115272452A (zh) | 一种目标检测定位方法、装置、无人机及存储介质 | |
CN112651535A (zh) | 局部路径规划方法、装置、存储介质、电子设备及车辆 | |
CN113610702B (zh) | 一种建图方法、装置、电子设备及存储介质 | |
CN112665593B (zh) | 一种车辆定位方法及装置 | |
US11461928B2 (en) | Location estimation apparatus | |
CN112652018B (zh) | 外参确定方法、外参确定装置及电子设备 | |
CN113159197A (zh) | 一种纯旋转运动状态判定方法及装置 | |
KR20190070235A (ko) | 비전 기반 위치 추정 기법을 이용한 6-자유도 상대 변위 추정 방법 및 그 장치 | |
CN113762001B (zh) | 一种目标检测方法、装置、电子设备和存储介质 | |
JP7079041B2 (ja) | 情報処理装置、プログラム、及び、情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200508 |
|
RJ01 | Rejection of invention patent application after publication |