CN111292420B - 用于构建地图的方法和装置 - Google Patents
用于构建地图的方法和装置 Download PDFInfo
- Publication number
- CN111292420B CN111292420B CN202010126478.4A CN202010126478A CN111292420B CN 111292420 B CN111292420 B CN 111292420B CN 202010126478 A CN202010126478 A CN 202010126478A CN 111292420 B CN111292420 B CN 111292420B
- Authority
- CN
- China
- Prior art keywords
- frame
- panoramic image
- matching
- image sequence
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/26—Techniques for post-processing, e.g. correcting the recognition result
- G06V30/262—Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
- G06V30/274—Syntactic or semantic context, e.g. balancing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Instructional Devices (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
本公开的实施例公开了用于构建地图的方法和装置。该方法的一具体实施方式包括:从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;基于相邻的各全景图像帧对应的透视图像序列,确定与全景图像序列对应的特征轨迹;基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。本公开的实施例提供的用于构建地图的方法和装置,基于从目标区域的全景图像序列中确定出透视图像序列,确定对应的特征轨迹,结合各全景图像帧的位姿信息构建视觉地图,降低了构建地图过程中采集图像的难度,以及降低了采集图像的质量对构建视觉地图的精度的不利影响。
Description
技术领域
本公开的实施例涉及计算机技术领域,具体涉及计算技术视觉技术领域,尤其涉及一种用于构建地图的方法和装置。
背景技术
在基于构建视觉地图的领域中,一般是使用定制的单目或者双目相机采集目标场景的图像数据。然后以采集到的视频流或者图片作为输入数据,使用视觉SLAM(Simultaneous Localization and Mapping,同步定位与地图构建)技术或者SFM(Structure From Motion,运动恢复结构)算法构建目标场景的视觉地图。
相关技术中,采集目标场景的图像数据时,不同场景需要不同的采集方式,而且必须保证图像之间有一定的重复度,因而对于数据采集人员的专业素质要求较高,尤其是一些特殊场景中,由于相机视场角不够大,经常会遇到整张图像纹理非常少的情况,如白墙、地板、一大片玻璃等,这种情况会使图像间的特征跟踪失败,也会在一定程度上影响建图精度。
发明内容
本公开的实施例提出了用于构建地图的方法和装置。
第一方面,本公开的实施例提供了一种用于构建地图的方法,该方法包括:从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;基于相邻的各全景图像帧对应的透视图像序列,确定与全景图像序列对应的特征轨迹;基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。
在一些实施例中,特征轨迹经由对全景图像序列执行如下特征点匹配步骤得到:将全景图像序列中的第一张全景图像帧确定为目标帧,并将全景图像序列中位于目标帧之后的预设数量的全景图像帧确定为匹配帧序列,预设数量大于1;将目标帧所对应的透视图像序列、匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;响应于目标帧与各匹配帧的帧间特征点匹配完成,清空滑窗,并将目标帧从全景图序列中删除,获得更新后的全景图序列;对更新后的全景图序列执行特征点匹配步骤,直至全景图序列中最后一张全景图像帧已作为匹配帧与目标帧完成帧间特征点匹配,获得特征轨迹。
在一些实施例中,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹包括:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
在一些实施例中,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹包括:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果;将目标帧对应的透视图像序列中的每个透视图像,分别与距离目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;基于第一匹配结果和第二匹配结果,得到部分特征轨迹。
在一些实施例中,从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列还包括:对各全景图像帧进行语义分割,从各全景图像帧中删除预设的分割目标,得到预处理的全景图像帧;从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
在一些实施例中,该方法还包括,对视觉地图执行如下步骤:对视觉地图中的特征点执行三角化步骤,确定特征点的三维坐标;对特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;对更新后的特征点执行基于RANSAC的三角化步骤,删除特征点中的误匹配点,得到二次更新后的特征点;对更新后的位姿信息和二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;基于二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
第二方面,本公开的实施例提供了一种用于构建地图的装置,该装置包括:图像处理单元,被配置成从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;特征匹配单元,被配置成基于相邻的各全景图像帧对应的透视图像序列,确定与全景图像序列对应的特征轨迹;地图构建单元,被配置成基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。
在一些实施例中,特征匹配单元经由如下步骤得到特征轨迹:目标帧确定单元,被配置成将全景图像序列中的第一张全景图像帧确定为目标帧,并将全景图像序列中位于目标帧之后的预设数量的全景图像帧确定为匹配帧序列,预设数量大于1;滑窗匹配单元,被配置成将目标帧所对应的透视图像序列、匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;序列更新单元,被配置成响应于目标帧与各匹配帧的帧间特征点匹配完成,清空滑窗,并将目标帧从全景图序列中删除,获得更新后的全景图序列;以及,轨迹获取单元,被配置成对更新后的全景图序列执行特征点匹配步骤,直至全景图序列中最后一张全景图像帧已作为匹配帧与目标帧完成帧间特征点匹配,获得特征轨迹。
在一些实施例中,滑窗匹配单元被配置成通过如下方式得到部分特征轨迹:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
在一些实施例中,滑窗匹配单元还被配置成通过如下方式得到部分特征轨迹:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果;将目标帧对应的透视图像序列中的每个透视图像,分别与距离目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;基于第一匹配结果和第二匹配结果,得到部分特征轨迹。
在一些实施例中,该装置还包括语义分割单元,被配置成执行如下步骤:对各全景图像帧进行语义分割,从各全景图像帧中删除预设的分割目标,得到预处理的全景图像帧;从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
在一些实施例中,该装置还包括地图更新单元,被配置成对视觉地图执行如下步骤:对视觉地图中的特征点执行三角化步骤,确定特征点的三维坐标;对特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;对更新后的特征点执行基于RANSAC的三角化步骤,删除特征点中的误匹配点,得到二次更新后的特征点;对更新后的位姿信息和二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;基于二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
本公开的实施例提供的用于构建地图的方法和装置,基于从目标区域的全景图像序列中确定出的透视图像序列,确定对应的特征轨迹,结合全景图像帧的位姿信息构建视觉地图,降低了构建地图过程中采集图像的难度,以及降低了采集图像的质量对构建视觉地图的精度的不利影响。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的用于构建地图的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于构建地图的方法的一个应用场景的示意图;
图4是根据本公开的用于构建地图的方法的又一个实施例的流程图;
图5是根据本公开的用于构建地图的装置的一个实施例的结构示意图;
图6是适于用来实现本公开的实施例的电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的实施例的用于构建地图的方法或用于构建地图的装置的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送数据。终端设备101、102、103可以将获取到的目标区域的全景图像序列(例如全景图像组成的视频)发送至服务器105,由服务器105执行本公开的实施例提出的用于构建地图的方法,基于获取到的目标区域的全景图像序列构建视觉地图,并将构建的视觉地图发送至终端设备。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持信息交互的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上获取的目标区域的全景图像序列提供支持的后台应用服务器。后台应用服务器可以基于接收到的全景图像序列构建目标区域的视觉地图,并将构建的视觉地图发送给终端设备。
需要说明的是,本公开的实施例所提供的用于构建地图的方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,用于构建地图的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在此不做具体限定。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的用于构建地图的方法的一个实施例的流程200。该用于构建地图的方法,包括以下步骤:
步骤201,从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
在本实施例中,透视图像序列用于确定全景图像序列的特征轨迹,特征轨迹和位姿信息则是构建视觉地图的关键数据。
在本实施例中,用于构建地图的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从用户利用其进行地图构建的终端或全景相机接收目标区域的全景图像序列。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在一个具体示例中,操作人员可以通过全景相机采集目标区域的全景图像序列,之后将全景图像序列发送至本实施例的执行主体(例如可以是图1中所示的服务器或终端设备)中,由执行主体通过上述步骤,从全景图像序列中确定出每一个全景图像帧的位姿信息和对应的一个透视图序列。
上述的全景图像,是指通过全景相机采集到的图像,可以以360°的观测角全方位地采集目标区域的图像信息,与普通相机采集到的透视图相比,全景图像中包含的信息要更加丰富,因而可以避免图像采集过程中丢失信息的情况。但是相应的,全景图像中会存在一定程度的图像扭曲,不能像普通相机采集的透视图像一样,直接用于地图构建,因而,需要对全景图像进行预处理,才能用于执行后续的构图步骤。
在本实施例中,执行主体(例如图1所示的服务器)接收到目标区域的全景图像序列(例如可以是全景相机拍摄的目标区域的全景视频)后,执行图像预处理的步骤,其中,全景图像序列中的每一个图像帧均是目标区域的全景图像。作为示例,首先可以基于视觉SLAM技术,确定出序列中的各个全景图像帧的位姿信息,其中位姿信息用于表征相机采集图像时的位置和姿态。之后从每一个全景图像帧中确定出多个透视图像,每个透视图像分别对应不同的预设的观测角,且在此过程中对全景图像帧中扭曲的图像部分进行了修正。例如可以基于0°、90°、180°和270°这4个观测角度对全景图像帧进行拆分,依次确定出4张透视图像,并根据观测角度对透视图像进行排序,得到对应于该全景图像帧的透视图像序列。需要说明的是视觉SLAM技术属于地图构建领域中的现有技术,此处不再赘述。而基于观测角度从全景图像中确定出多个透视图像的技术,同样属于计算机图像领域的现有技术,例如可以通过OpenCV算法实现,本公开的实施例对此不做限定。
在本实施例的一些可选的实现方式中,还可以通过如下步骤从全景图像帧中确定出位姿信息和透视图像序列:对目标区域的全景图像帧进行语义分割,从全景图像序列中删除预设的分割目标,得到预处理的全景图像数据;从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。结合具体场景进行举例说明,目标区域的全景图像中存在对于构建地图无效的内容时,需要将其从全景图像中剔除,以减少不必要的运算。例如可以将人、动物、植物等对象设定为分割目标,将全景图像帧输入语义分割模型(例如全卷积神经网络模型),将分割目标从全景图像中删除,得到预处理的全景图像帧,然后基于视觉SLAM技术,确定出预处理的全景图像帧的位姿信息,并从全景图像帧中确定出一个透视图序列。
步骤202,基于相邻的各全景图像帧对应的透视图像序列,确定与全景图像序列对应的特征轨迹。
在地图构建领域中,通过将不同图像帧中相同的特征点匹配在一起,就可以得到与各图像帧对应的特征轨迹(feature track)。通过特征轨迹推算出相机的运动状态,然后基于特征点的位置信息和相机的运动状态就可以获得特征点的三维坐标,是构建视觉地图的过程中不可或缺的步骤。
在本实施例中,通过对步骤201中得到的各全景图像帧对应的透视图像序列进行帧间特征点匹配,以此获得与全景图像序列对应的特征轨迹。具体包括如下步骤:首先,从各透视图像序列中确定出特征点,特征点包括关键点和描述子,关键点是图像帧中包含有构建地图的关键信息的点(例如角点尺度、旋转特性等信息),而描述子则用于区别每个特征点,用于不同图像帧之间特征点的匹配,描述子的相似度越高,表示对应的特征点相似度越高。然后,在相邻全景图像帧对应的透视图像序列之间进行帧间特征点匹配,例如,可以将两个透视图像序列中处于相同排序位置的透视图像作为匹配对象,将其中相同或相似的特征点进行匹配。
提取特征点的方法和计算特征点的相似度的方法,可以为现有技术或未来发展的技术中用于提取特征点的方法和计算特征点的相似度的方法,本申请对此不作限定。
在一个具体的示例中,采用ORB(Oriented FAST and Rotated BRIEF)特征点算法从两个透视图像中提取特征点,其中的特征点包括的描述子为BRIEF二进制描述子,使用汉明距离(Hamming distance)来表征两个特征点之间的相似程度。汉明距离是指两个长度相等的字符串之间不同数据位的个数,例如:两个8位的二进制串00110100与10110100,它们之间只有第一个数据位不同,所以它们的汉明距离为1。在ORB算法的特征匹配中,汉明距离越小,特征点的相似度越高。以此将两个透视图像之间相似度符合预设标准的两个特征点认为是同一个点,即完成了特征匹配。
与相关技术中通过两张相邻的单独图像帧进行帧间特征点匹配不同的是,本公开的实施例中是将相邻的两张全景图像帧对应的两个透视图像序列进行帧间特征点匹配。由于透视图序列中处于相同排序位置的透视图像对应的观测角度是相同的,因而可将其作为匹配对象进行帧间特征点匹配,然后将透视图像序列中所有透视图像的特征匹配结果合并,得到的特征匹配结果即为两个全景图像帧之间的特征匹配结果。最后将各个全景图像帧的特征匹配结果合并,即可得到与全景图像序列对应的特征轨迹。
需要说明的是,本公开的实施例中涉及的特征匹配结果和特征轨迹的合并,其规则是保留所有的特征点,并将其中相同的特征点合并为一个。
下面结合具体场景举例说明,全景图像序列中包括A、B、C三个全景图像帧,分别对应a、b、c三个透视图像序列,每个透视图像序列包括4张透视图像,按照观测角大小的顺序依次排列,分别为a1、a2、a3、a4,b1、b2、b3、b4,c1、c2、c3、c4。分别将a1与b1、a2与b2、a3与b3、a4与b4作为匹配对象进行帧间特征点匹配,将匹配结果合并即得到透视图像序列a和b的匹配结果,以此类推可以得到透视图像序列b和c的匹配结果,将这两组透视图像序列的匹配结果合并就得到了全景图像序列的特征轨迹。
在本实施例的一些可选的实现方式中,可以通过滑窗匹配的方法对透视图像序列进行帧间特征点匹配,通过目标帧对应的透视图像序列与相邻的多个匹配帧对应的透视图像序列同时进行帧间特征点匹配,以获得对应于全景图像的特征轨迹。滑窗匹配的方法可以包括以下步骤:将全景图像序列中的第一张全景图像帧确定为目标帧,并将全景图像序列中位于目标帧之后的预设数量的全景图像帧确定为匹配帧序列,预设数量大于1);将目标帧所对应的透视图像序列、匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;响应于目标帧与各匹配帧的帧间特征点匹配完成,清空滑窗,并将目标帧从全景图序列中删除,获得更新后的全景图序列;对更新后的全景图序列执行特征点匹配步骤,直至全景图序列中最后一张全景图像帧已作为匹配帧与目标帧完成帧间特征点匹配,获得特征轨迹。
在本实施例的一些可选实现方式中,上述的基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹可以包括:将在所述滑窗中对所述目标帧与各所述匹配帧的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
在一个具体的示例中,将全景图像序列中第一个全景图像帧A确定为目标帧,预设数量为3,则将第二、三、四个全景图像帧确定匹配帧,分别为全景图像帧B、C、D。以上4个全景图像帧对应的透视图像序列分别为:a、b、c、d,每个透视图序列中包括4个透视图像。将以上4个全景图像帧对应的透视图像序列同时读入预设的滑窗中,按如下方式进行帧间特征点匹配:将透视图像序列a中的第一个透视图像a1与b1、c1、d1同时进行帧间特征点匹配,以此类推,将a中4个透视图像分别进行帧间特征点匹配之后,可以获得透视图像序列a的匹配结果,将透视图像序列a的匹配结果作为与全景图像帧A对应的部分特征轨迹。然后,将A从全景图像序列中删除,将B更新为目标帧,则相应的C、D、F更新为匹配帧,经由上述步骤,得到与全景图像帧B对应的部分特征轨迹。重复上述步骤,直到全景图像序列中最后一个全景图像作为匹配帧读入滑窗,执行帧间特征点匹配,即完成了对整个全景图像序列的帧间特征点匹配,将与各全景图像帧对应的多个部分特征轨迹合并,即得到了与全景图像序列对应的特征轨迹。
在本实施例的一些可选实现方式中,上述的基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹可以包括:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果;将目标帧对应的透视图像序列中的每个透视图像,分别与距离目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;基于第一匹配结果和第二匹配结果,得到部分特征轨迹。
继续结合上述示例进行举例说明,将透视图像序列a中的第一个透视图像a1与b1、c1、d1同时进行帧间特征点匹配,以此类推,将a中4个透视图像分别进行帧间特征点匹配之后,可以获得透视图像序列a的匹配结果,将这种方式得到的透视图像序列a的匹配结果作为与全景图像帧A对应的第一匹配结果。此外,还可以将a1分别与b1、b2、b3、b4进行帧间特征点匹配,将a2分别与b1、b2、b3、b4进行帧间特征点匹配,以此类推,将a中4个透视图像分别进行帧间特征点匹配之后,可以获得透视图像序列a的另一个匹配结果,将此匹配结果作为与全景图像帧A对应的第二匹配结果。再然后,将第一匹配结果与第二匹配结果合并,即可得到与全景图像帧A对应的部分特征轨迹,重复上述步骤,即可得到与全景图像序列对应的特征轨迹。
步骤203,基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。
在本实施例中,结合全景图像帧的位姿信息,对步骤202获得的特征轨迹进行三角化,可以确定出其中的特征点的三维坐标,得到对应的一系列三维点,这些三维点构成的三维空间图像,就是目标区域的视觉地图的雏形。之后经过闭环检测来优化位姿和合并相似的三维点,再进行全局位姿和三维点联合优化,即可得到目标区域的视觉地图。需要说明的是基于特征轨迹构建视觉地图属于本领域的现有技术,本公开的实施例对此不做限定。
继续参见图3,图3是根据本实施例的用于构建地图的方法的应用场景的一个示意图。在图3的应用场景中,用户将目标区域的全景图像序列发送至执行主体301(可以是图1中所示的服务器,也可以是终端),由执行主体通过图像处理从全景图像序列中确定出位姿信息和透视图像序列,然后执行帧间特征点匹配步骤获得特征轨迹,最后基于特征轨迹和各全景图像帧的位姿信息构建目标区域的视觉地图,从而实现了基于全景图像构建视觉地图的过程。
本公开的实施例提供的用于构建地图的方法和装置,基于从目标区域的全景图像序列中确定出透视图像序列,确定对应的特征轨迹,结合全景图像帧的位姿信息构建视觉地图,降低了构建地图过程中采集图像的难度,以及降低了采集图像的质量对构建视觉地图精度的影响。
进一步参考图4,其示出了用于构建地图的方法的又一个实施例的流程400。该用于构建地图的方法的流程400,包括以下步骤:
步骤401,从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。此步骤与前述步骤201相对应,此处不再赘述。
步骤402,将全景图像序列中的第一张全景图像帧确定为目标帧,并将全景图像序列中位于目标帧之后的预设数量的全景图像帧确定为匹配帧序列,在本实施例中,预设数量设定为大于1的整数。
步骤403,将目标帧所对应的透视图像序列、匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗。
步骤404,将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果。关于此步骤,已在前述实施例的可选的实现方式中有所论述,此处不再赘述。需要说明的是,对相邻两个透视图像序列之间进行帧间特征点匹配的过程中,如果出现图像模糊或者物体遮挡,会导致匹配失败,而采用滑窗匹配的方法,将目标帧同时与多个匹配帧进行帧间特征点匹配,即便某个透视图像无法匹配成功,依然可以与其他对应的透视图像进行匹配,因而降低了匹配失败的几率,提高了建图过程的鲁棒性。
步骤405,将目标帧对应的透视图像序列中的每个透视图像,分别与距离目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果。关于此步骤,已在前述实施例的可选的实现方式中有所论述,此处不再赘述。需要说明的是,与第一匹配结果相比,第二匹配结果考虑到了相机的运动可能会导致一些特征从一个透视图像的观测范围移动到另一个透视图像的观测范围中,因而这种匹配结果有助于更精确地推算出相机的运动状态。
步骤406,基于第一匹配结果和第二匹配结果,得到部分特征轨迹。关于此步骤,已在前述实施例的可选的实现方式中有所论述,此处不再赘述。将第一匹配结果与第二匹配结果合并,即可得到对应于目标帧的部分特征轨迹。需要说明的是,将第一匹配结果与第二匹配结果相结合,既提高了建图过程的鲁棒性,又提高了构建的视觉地图的精度。
步骤407,响应于目标帧与各匹配帧的帧间特征点匹配完成,清空滑窗,并将目标帧从全景图序列中删除,获得更新后的全景图序列。关于此步骤,已在前述实施例的可选的实现方式中有所论述,此处不再赘述。
步骤408,对更新后的全景图序列执行特征点匹配步骤,直至全景图序列中最后一张全景图像帧已作为匹配帧与目标帧完成帧间特征点匹配,获得特征轨迹。将步骤403至步骤408中获得的对应于全景图像帧的部分特征轨迹进行合并,记得到了对应全景图像序列的特征轨迹。关于此步骤,已在前述实施例的可选的实现方式中有所论述,此处不再赘述
步骤409,基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。此步骤与前述步骤203相对应,此处不再赘述。
步骤410,基于视觉地图,获得更新后的视觉地图。在本实施例中,可以进一步通过如下步骤提高视觉地图的优精度,获得更新后的视觉地图:对视觉地图中的特征点执行三角化步骤,确定特征点的三维坐标;对特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;对更新后的特征点执行基于RANSAC(Random Sample Consensus)的三角化步骤,删除特征点中的误匹配点,得到二次更新后的特征点;对更新后的位姿信息和二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;基于二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
通过上述步骤,可以对已构建的视觉地图进行优化,如通过基于RANSAC的三角化步骤去除视觉地图中的部分误匹配点,还可以通过基于视觉约束和相对位姿约束的全局光束平差优化步骤减小特征点的重投影误差,从而得到精度更高的视觉地图。
需要说明的是,虽然上述三角化和基于视觉约束和相对位姿约束的全局光束平差优化的步骤本身都是本领域中比较成熟的技术手段,但是,上述步骤的组合方式,并非本领域的现有技术。因而,本实施例限定的是各个步骤的组合方式,而不是实现每个步骤的技术手段。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于构建地图的方法的流程400体现了基于滑窗匹配方法确定特征轨迹的步骤和对构建好的视觉地图进行优化的步骤,通过滑窗匹配方法可以有效地避免特征点匹配失败导致的关键信息的缺失,提高了建图过程的鲁棒性,通过对视觉地图的优化则提高视觉地图的精度。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种用于构建地图的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于构建地图的装置500包括:图像处理单元501,被配置成从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;特征匹配单元502,被配置成基于相邻的各全景图像帧透视图像序列,确定与全景图像序列对应的特征轨迹;地图构建单元503,被配置成基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。
在本实施例中,特征匹配单元502经由如下步骤得到特征轨迹:目标帧确定单元,被配置成将全景图像序列中的第一张全景图像帧确定为目标帧,并将全景图像序列中位于目标帧之后的预设数量的全景图像帧确定为匹配帧序列,预设数量大于1;滑窗匹配单元,被配置成将目标帧所对应的透视图像序列、匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;序列更新单元,被配置成响应于目标帧与各匹配帧的帧间特征点匹配完成,清空滑窗,并将目标帧从全景图序列中删除,获得更新后的全景图序列;轨迹获取单元,被配置成对更新后的全景图序列执行特征点匹配步骤,直至全景图序列中最后一张全景图像帧已作为匹配帧与目标帧完成帧间特征点匹配,获得特征轨迹。
在本实施例中,滑窗匹配单元被配置成通过如下方式得到部分特征轨迹:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
在本实施例中,滑窗匹配单元还被配置成通过如下方式得到部分特征轨迹:将在滑窗中对目标帧与各匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果;将目标帧对应的透视图像序列中的每个透视图像,分别与距离目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;基于第一匹配结果和第二匹配结果,得到部分特征轨迹。
在本实施例中,该装置还包括语义分割单元,被配置成执行如下步骤:对各全景图像帧进行语义分割,从各全景图像帧中删除预设的分割目标,得到预处理的全景图像帧;从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
在本实施例中,该装置还包括地图更新单元,被配置成对视觉地图执行如下步骤:对视觉地图中的特征点执行三角化步骤,确定特征点的三维坐标;对特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;对更新后的特征点执行基于RANSAC的三角化步骤,删除特征点中的误匹配点,得到二次更新后的特征点;对更新后的位姿信息和二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;基于二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
下面参考图6,其示出了适于用来实现本公开的实施例的电子设备(例如图1中的服务器或终端设备)600的结构示意图。本公开的实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的终端设备/服务器仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的实施例的方法中限定的上述功能。需要说明的是,本公开的实施例的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;基于相邻的各全景图像帧对应的透视图像序列,确定与全景图像序列对应的特征轨迹;基于特征轨迹和各全景图像帧的位姿信息,构建目标区域的视觉地图。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括图像处理单元、特征匹配单元和地图构建单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,图像处理单元单元还可以被描述为“从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列的单元。”。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种用于构建地图的方法,包括:
从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;
基于相邻的各全景图像帧对应的透视图像序列,将所述各全景图像帧中相同的特征点匹配在一起,确定与所述全景图像序列对应的特征轨迹;
基于所述特征轨迹和所述各全景图像帧的位姿信息,构建所述目标区域的视觉地图。
2.根据权利要求1所述的方法,其中,所述特征轨迹经由对所述全景图像序列执行如下特征点匹配步骤得到:
将所述全景图像序列中的第一张全景图像帧确定为目标帧,并将所述全景图像序列中位于所述目标帧之后的预设数量的全景图像帧确定为匹配帧序列,所述预设数量大于1;
将所述目标帧所对应的透视图像序列、所述匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;
响应于所述目标帧与各匹配帧的帧间特征点匹配完成,清空所述滑窗,并将所述目标帧从所述全景图像序列中删除,获得更新后的全景图像序列;
对所述更新后的全景图像序列执行所述特征点匹配步骤,直至所述全景图像序列中最后一张全景图像帧已作为匹配帧与所述目标帧完成帧间特征点匹配,获得所述特征轨迹。
3.根据权利要求2所述的方法,其中,所述基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹包括:
将在所述滑窗中对所述目标帧与各所述匹配帧的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
4.根据权利要求2所述的方法,其中,所述基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹包括:
将在所述滑窗中进行所述目标帧与各所述匹配帧对应的透视图像序列进行的帧间特征点匹配的结果作为第一匹配结果;
将所述目标帧对应的透视图像序列中的每个透视图像,分别与距离所述目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;
基于所述第一匹配结果和所述第二匹配结果,得到部分特征轨迹。
5.根据权利要求1所述的方法,其中,所述从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列,包括:
对各全景图像帧进行语义分割,从所述各全景图像帧中删除预设的分割目标,得到预处理的全景图像帧;
从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
6.根据权利要求1至5之一所述的方法,其中,所述方法还包括,对所述视觉地图执行如下步骤:
对所述视觉地图中的特征点执行三角化步骤,确定所述特征点的三维坐标;
对所述特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;
对所述更新后的特征点执行基于RANSAC的三角化步骤,删除所述特征点中的误匹配点,得到二次更新后的特征点;
对所述更新后的位姿信息和所述二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;
基于所述二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
7.一种用于构建地图的装置,包括:
图像处理单元,被配置成从目标区域的全景图像序列中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列;
特征匹配单元,被配置成基于相邻的各全景图像帧对应的透视图像序列,将所述各全景图像帧中相同的特征点匹配在一起,确定与所述全景图像序列对应的特征轨迹;
地图构建单元,被配置成基于所述特征轨迹和所述各全景图像帧的位姿信息,构建所述目标区域的视觉地图。
8.根据权利要求7所述的装置,其中,所述特征匹配单元经由如下步骤得到所述特征轨迹:
目标帧确定单元,被配置成将所述全景图像序列中的第一张全景图像帧确定为目标帧,并将所述全景图像序列中位于所述目标帧之后的预设数量的全景图像帧确定为匹配帧序列,所述预设数量大于1;
滑窗匹配单元,被配置成将所述目标帧所对应的透视图像序列、所述匹配帧序列中各匹配帧所对应的透视图像序列分别读入预设滑窗,基于在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果,得到部分特征轨迹;
序列更新单元,被配置成响应于所述目标帧与各匹配帧的帧间特征点匹配完成,清空所述滑窗,并将所述目标帧从所述全景图像序列中删除,获得更新后的全景图像序列;以及
轨迹获取单元,被配置成对所述更新后的全景图像序列执行所述特征点匹配步骤,直至所述全景图像序列中最后一张全景图像帧已作为匹配帧与所述目标帧完成帧间特征点匹配,获得所述特征轨迹。
9.根据权利要求8所述的装置,其中,所述滑窗匹配单元被配置成通过如下方式得到所述部分特征轨迹:
将在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为部分特征轨迹。
10.根据权利要求8所述的装置,其中,所述滑窗匹配单元还被配置成通过如下方式得到所述部分特征轨迹:
将在所述滑窗中对所述目标帧与各所述匹配帧对应的透视图像序列进行帧间特征点匹配的结果作为第一匹配结果;
将所述目标帧对应的透视图像序列中的每个透视图像,分别与距离所述目标帧最近的匹配帧所对应的透视图像序列,进行帧间特征点匹配,得到第二匹配结果;
基于所述第一匹配结果和所述第二匹配结果,得到部分特征轨迹。
11.根据权利要求7所述的装置,其中,所述装置还包括语义分割单元,被配置成执行如下步骤:
对各全景图像帧进行语义分割,从所述各全景图像帧中删除预设的分割目标,得到预处理的全景图像帧;
从预处理的全景图像帧中,确定出各全景图像帧的位姿信息,以及从每个全景图像帧中确定出一个透视图像序列。
12.根据权利要求7至11之一所述的装置,其中,所述装置还包括地图更新单元,被配置成对所述视觉地图执行如下步骤:
对所述视觉地图中的特征点执行三角化步骤,确定所述特征点的三维坐标;
对所述特征点和位姿信息,执行基于视觉约束和相对位姿约束的全局光束平差优化步骤,得到更新后的特征点和位姿信息;
对所述更新后的特征点执行基于RANSAC的三角化步骤,删除所述特征点中的误匹配点,得到二次更新后的特征点;
对所述更新后的位姿信息和所述二次更新后的特征点,再次执行基于视觉约束和相对位姿约束的全局光束平差优化的步骤,得到二次更新后的位姿信息和三次更新后的特征点;
基于所述二次更新后的位姿信息和三次更新后的特征点,确定更新后的视觉地图。
13.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
14.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010126478.4A CN111292420B (zh) | 2020-02-28 | 2020-02-28 | 用于构建地图的方法和装置 |
US17/020,171 US11417014B2 (en) | 2020-02-28 | 2020-09-14 | Method and apparatus for constructing map |
EP21157017.1A EP3872764B1 (en) | 2020-02-28 | 2021-02-15 | Method and apparatus for constructing map |
JP2021030704A JP7150917B2 (ja) | 2020-02-28 | 2021-02-26 | 地図作成のためのコンピュータ実施方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム |
KR1020210026106A KR102502651B1 (ko) | 2020-02-28 | 2021-02-26 | 지도를 구축하기 위한 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010126478.4A CN111292420B (zh) | 2020-02-28 | 2020-02-28 | 用于构建地图的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111292420A CN111292420A (zh) | 2020-06-16 |
CN111292420B true CN111292420B (zh) | 2023-04-28 |
Family
ID=71026558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010126478.4A Active CN111292420B (zh) | 2020-02-28 | 2020-02-28 | 用于构建地图的方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11417014B2 (zh) |
EP (1) | EP3872764B1 (zh) |
JP (1) | JP7150917B2 (zh) |
KR (1) | KR102502651B1 (zh) |
CN (1) | CN111292420B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112597787B (zh) * | 2020-08-27 | 2021-10-15 | 禾多科技(北京)有限公司 | 用于融合局部图像的方法、装置、服务器和介质 |
CN112270754B (zh) * | 2020-11-12 | 2024-06-18 | Oppo广东移动通信有限公司 | 局部网格地图构建方法及装置、可读介质和电子设备 |
US20220172386A1 (en) * | 2020-11-27 | 2022-06-02 | Samsung Electronics Co., Ltd. | Method and device for simultaneous localization and mapping (slam) |
CN114758082A (zh) * | 2021-01-08 | 2022-07-15 | 华为技术有限公司 | 地图构建方法、装置、设备及存储介质 |
CN112562081B (zh) * | 2021-02-07 | 2021-05-11 | 之江实验室 | 一种用于视觉分层定位的视觉地图构建方法 |
WO2023028892A1 (en) * | 2021-08-31 | 2023-03-09 | Intel Corporation | Hierarchical segment-based map optimization for localization and mapping system |
CN113935942B (zh) * | 2021-09-02 | 2024-07-23 | 同致电子科技(厦门)有限公司 | 一种基于非线性优化的车底透明方法、装置、设备、存储介质及计算机程序产品 |
CN115049731B (zh) * | 2022-06-17 | 2023-04-21 | 感知信息科技(浙江)有限责任公司 | 一种基于双目摄像头的视觉建图和定位方法 |
EP4421447A1 (en) * | 2023-02-23 | 2024-08-28 | Floorfy S.L. | Method for positioning images within an arbitrary 3d coordinate system |
CN116934857A (zh) * | 2023-07-17 | 2023-10-24 | 北京理工大学 | 一种基于全景图片的视觉定位方法、装置、设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082766A (zh) * | 2006-06-01 | 2007-12-05 | 上海杰图软件技术有限公司 | 一种快速采集全景图像的设备和方法 |
JP2012064131A (ja) * | 2010-09-17 | 2012-03-29 | Tokyo Institute Of Technology | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 |
CN103996036A (zh) * | 2014-06-09 | 2014-08-20 | 百度在线网络技术(北京)有限公司 | 一种地图数据采集方法及装置 |
JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
CN106920279A (zh) * | 2017-03-07 | 2017-07-04 | 百度在线网络技术(北京)有限公司 | 三维地图构建方法和装置 |
CN107843251A (zh) * | 2017-10-18 | 2018-03-27 | 广东宝乐机器人股份有限公司 | 移动机器人的位姿估计方法 |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
JP2019125227A (ja) * | 2018-01-18 | 2019-07-25 | 光禾感知科技股▲ふん▼有限公司 | 屋内測位方法及びシステム、ならびにその屋内マップを作成するデバイス |
CN111210476A (zh) * | 2018-11-22 | 2020-05-29 | 驭势科技(北京)有限公司 | 一种同时定位与建图的方法及装置 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007124664A1 (fr) | 2006-04-29 | 2007-11-08 | Shanghai Jietu Software Co., Ltd. | Appareil et procédé permettant d'obtenir une représentation panoramique contenant des informations de position et procédé de création, d'annotation et d'affichage d'un service de cartographie électrique panoramique |
US20120300020A1 (en) * | 2011-05-27 | 2012-11-29 | Qualcomm Incorporated | Real-time self-localization from panoramic images |
US8787700B1 (en) * | 2011-11-30 | 2014-07-22 | Google Inc. | Automatic pose estimation from uncalibrated unordered spherical panoramas |
US9674507B2 (en) * | 2013-04-30 | 2017-06-06 | Qualcomm Incorporated | Monocular visual SLAM with general and panorama camera movements |
CN104374395A (zh) * | 2014-03-31 | 2015-02-25 | 南京邮电大学 | 基于图的视觉slam方法 |
CN109478330B (zh) * | 2016-06-24 | 2022-03-29 | 罗伯特·博世有限公司 | 基于rgb-d照相机的跟踪系统及其方法 |
WO2018049581A1 (zh) * | 2016-09-14 | 2018-03-22 | 浙江大学 | 一种同时定位与地图构建方法 |
KR101891201B1 (ko) * | 2016-12-09 | 2018-08-23 | 한국과학기술원 | 전방향 카메라의 깊이 지도 획득 방법 및 장치 |
EP3474230B1 (en) * | 2017-10-18 | 2020-07-22 | Tata Consultancy Services Limited | Systems and methods for edge points based monocular visual slam |
CN107990899B (zh) * | 2017-11-22 | 2020-06-30 | 驭势科技(北京)有限公司 | 一种基于slam的定位方法和系统 |
CN108489482B (zh) * | 2018-02-13 | 2019-02-26 | 视辰信息科技(上海)有限公司 | 视觉惯性里程计的实现方法及系统 |
US11210804B2 (en) * | 2018-02-23 | 2021-12-28 | Sony Group Corporation | Methods, devices and computer program products for global bundle adjustment of 3D images |
CN108537845B (zh) * | 2018-04-27 | 2023-01-03 | 腾讯科技(深圳)有限公司 | 位姿确定方法、装置及存储介质 |
KR102367361B1 (ko) | 2018-06-07 | 2022-02-23 | 우이시 테크놀로지스 (베이징) 리미티드. | 위치 측정 및 동시 지도화 방법 및 장치 |
CN108776976B (zh) | 2018-06-07 | 2020-11-20 | 驭势科技(北京)有限公司 | 一种同时定位与建图的方法、系统及存储介质 |
CN109785357B (zh) * | 2019-01-28 | 2020-10-27 | 北京晶品特装科技有限责任公司 | 一种适用于战场环境的机器人智能化全景光电侦察的方法 |
CN110310326B (zh) * | 2019-06-28 | 2021-07-02 | 北京百度网讯科技有限公司 | 一种视觉定位数据处理方法、装置、终端及计算机可读存储介质 |
CN110322511B (zh) * | 2019-06-28 | 2021-03-26 | 华中科技大学 | 一种基于物体和平面特征的语义slam方法和系统 |
CN110260857A (zh) * | 2019-07-02 | 2019-09-20 | 北京百度网讯科技有限公司 | 视觉地图的校准方法、装置及存储介质 |
-
2020
- 2020-02-28 CN CN202010126478.4A patent/CN111292420B/zh active Active
- 2020-09-14 US US17/020,171 patent/US11417014B2/en active Active
-
2021
- 2021-02-15 EP EP21157017.1A patent/EP3872764B1/en active Active
- 2021-02-26 JP JP2021030704A patent/JP7150917B2/ja active Active
- 2021-02-26 KR KR1020210026106A patent/KR102502651B1/ko active IP Right Grant
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082766A (zh) * | 2006-06-01 | 2007-12-05 | 上海杰图软件技术有限公司 | 一种快速采集全景图像的设备和方法 |
JP2012064131A (ja) * | 2010-09-17 | 2012-03-29 | Tokyo Institute Of Technology | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 |
CN103996036A (zh) * | 2014-06-09 | 2014-08-20 | 百度在线网络技术(北京)有限公司 | 一种地图数据采集方法及装置 |
JP2016157197A (ja) * | 2015-02-23 | 2016-09-01 | 株式会社リコー | 自己位置推定装置、自己位置推定方法およびプログラム |
CN106920279A (zh) * | 2017-03-07 | 2017-07-04 | 百度在线网络技术(北京)有限公司 | 三维地图构建方法和装置 |
CN107843251A (zh) * | 2017-10-18 | 2018-03-27 | 广东宝乐机器人股份有限公司 | 移动机器人的位姿估计方法 |
JP2019125227A (ja) * | 2018-01-18 | 2019-07-25 | 光禾感知科技股▲ふん▼有限公司 | 屋内測位方法及びシステム、ならびにその屋内マップを作成するデバイス |
CN109509230A (zh) * | 2018-11-13 | 2019-03-22 | 武汉大学 | 一种应用于多镜头组合式全景相机的slam方法 |
CN111210476A (zh) * | 2018-11-22 | 2020-05-29 | 驭势科技(北京)有限公司 | 一种同时定位与建图的方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP7150917B2 (ja) | 2022-10-11 |
CN111292420A (zh) | 2020-06-16 |
EP3872764A1 (en) | 2021-09-01 |
KR102502651B1 (ko) | 2023-02-21 |
US20210272313A1 (en) | 2021-09-02 |
KR20210110514A (ko) | 2021-09-08 |
JP2021140780A (ja) | 2021-09-16 |
US11417014B2 (en) | 2022-08-16 |
EP3872764B1 (en) | 2022-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111292420B (zh) | 用于构建地图的方法和装置 | |
CN109584276B (zh) | 关键点检测方法、装置、设备及可读介质 | |
CN112927363B (zh) | 体素地图构建方法及装置、计算机可读介质和电子设备 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
CN115115593B (zh) | 一种扫描处理方法、装置、电子设备及存储介质 | |
WO2021093679A1 (zh) | 视觉定位方法和装置 | |
CN110660098A (zh) | 基于单目视觉的定位方法和装置 | |
CN113689372A (zh) | 图像处理方法、设备、存储介质及程序产品 | |
CN112907628A (zh) | 视频目标追踪方法、装置、存储介质及电子设备 | |
CN110717467A (zh) | 头部姿势的估计方法、装置、设备及存储介质 | |
CN111915532B (zh) | 图像追踪方法、装置、电子设备及计算机可读介质 | |
CN112258647B (zh) | 地图重建方法及装置、计算机可读介质和电子设备 | |
CN116188583B (zh) | 相机位姿信息生成方法、装置、设备和计算机可读介质 | |
CN110264431A (zh) | 视频美化方法、装置及电子设备 | |
CN113703704B (zh) | 界面显示方法、头戴式显示设备和计算机可读介质 | |
CN117788659A (zh) | 渲染图像的方法、装置、电子设备及存储介质 | |
CN112880675B (zh) | 用于视觉定位的位姿平滑方法、装置、终端和移动机器人 | |
CN111368015B (zh) | 用于压缩地图的方法和装置 | |
CN118262078B (zh) | 三维人脸模型的摆正处理方法、装置、设备及介质 | |
CN115082514A (zh) | 目标跟踪方法、装置、设备及介质 | |
CN117079172A (zh) | 渲染图像的方法、装置、电子设备及存储介质 | |
CN117422817A (zh) | 三维模型构建方法、装置、设备及存储介质 | |
CN117437258A (zh) | 图像处理方法、装置、设备及介质 | |
CN117906634A (zh) | 一种设备检测方法、装置、设备及介质 | |
CN118537911A (zh) | 图像处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |