CN103900583B - 用于即时定位与地图构建的设备和方法 - Google Patents
用于即时定位与地图构建的设备和方法 Download PDFInfo
- Publication number
- CN103900583B CN103900583B CN201210573191.1A CN201210573191A CN103900583B CN 103900583 B CN103900583 B CN 103900583B CN 201210573191 A CN201210573191 A CN 201210573191A CN 103900583 B CN103900583 B CN 103900583B
- Authority
- CN
- China
- Prior art keywords
- sensor
- characteristic point
- image
- current scene
- transformation matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
一种可移动电子设备,用于在未知环境中进行定位和地图构建,包括:第一传感器,用于以当前位姿获得当前场景的第一图像;第二传感器,用于以当前位姿获得当前场景的第二图像;特征点提取单元,用于利用特征提取算法提取第一图像的特征点和第二图像的特征点;匹配单元,用于将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵;定位和地图构建单元,用于基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并。
Description
技术领域
本发明涉及用于即时定位与地图构建的设备和方法,更具体地说,涉及能够改进定位性能的即时定位与地图构建的设备和方法。
背景技术
即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)是目前在机器人定位方面的热门研究课题。所谓SLAM就是将移动机器人定位与环境地图创建融为一体,即机器人在运动过程中根据自身位姿估计和传感器对环境的感知构建增量式环境地图,同时利用该地图实现自身的定位。
在机器人定位中,需要足够多的环境特征点来进行精确的定位。基于二维(2D)激光传感器的特征点多采用几何特征,由于激光线采样点有限,导致计算的特征点数目少,匹配的鲁棒性不好。而视觉传感器所提供的图像包含的信息更多,但计算的特征点数量大,另外除了可以获得环境的纹理结构信息,还可以提供颜色信息。
发明内容
鉴于以上情形,本发明提出一种融合激光传感器和视觉传感器的机器人定位设备和方法,从而能够提高定位精度。
根据本发明的一个方面,提供了一种可移动电子设备,用于在未知环境中进行定位和地图构建,包括:
第一传感器,用于以当前位姿获得当前场景的第一图像;
第二传感器,用于以当前位姿获得当前场景的第二图像;
特征点提取单元,用于利用特征提取算法提取第一图像的特征点和第二图像的特征点;
匹配单元,用于将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵;
定位和地图构建单元,用于基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并。
优选地,在根据本发明实施例的可移动电子设备中,所述匹配单元包括:
第一图像特征点匹配单元,用于将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配;
第二图像特征点匹配单元,用于将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配;
变换矩阵计算单元,用于基于第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵;
变换矩阵调整单元,用于向前一场景的第二图像的特征点应用所述变换矩阵,并将变换后的特征点与匹配特征点进行比较,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。
优选地,在根据本发明实施例的可移动电子设备中,所述第一传感器为二维激光传感器,且所述第二传感器为二维视觉传感器。
优选地,在根据本发明实施例的可移动电子设备中,所述第一传感器为二维激光传感器,且所述第二传感器为由两个二维视觉传感器构成的三维视觉传感器。
优选地,在根据本发明实施例的可移动电子设备中,所述第一传感器为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器为二维激光传感器。
根据本发明的另一个方面,提供了一种信息处理方法,用于一可移动电子设备以在未知环境中进行定位和地图构建,包括如下步骤:
通过第一传感器以当前位姿获得当前场景的第一图像;
通过第二传感器以当前位姿获得当前场景的第二图像;
利用特征提取算法提取第一图像的特征点和第二图像的特征点;
将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵;
基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并。
优选地,在根据本发明实施例的方法中,将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵的步骤包括:
将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配;
将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配;
基于第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵;
向前一场景的第二图像的特征点应用所述变换矩阵,并将变换后的特征点与匹配特征点进行比较,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。
优选地,在根据本发明实施例的方法中,所述第一传感器为二维激光传感器,且所述第二传感器为二维视觉传感器。
优选地,在根据本发明实施例的方法中,所述第一传感器为二维激光传感器,且所述第二传感器为由两个二维视觉传感器构成的三维视觉传感器。
优选地,在根据本发明实施例的方法中,所述第一传感器为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器为二维激光传感器。
在根据本发明实施例的用于即时定位与地图构建的设备和方法,由于采用两种不同类型的传感器的特征点融合,因此能够增加特征点数。此外,将其中一种类型传感器的估计结果作为初始值,并利用第二类型的传感器进一步优化,从而能够改进定位能力。
附图说明
图1是示出了根据本发明实施例的、用于即时定位与地图构建的可移动电子设备的配置的功能性框图;
图2是示出了图1中的匹配单元的具体配置的功能性框图;
图3是示出了根据本发明实施例的、用于一可移动电子设备以在未知环境中进行定位和地图构建的信息处理方法的过程的流程图;以及
图4是示出了图3中所示的步骤S303的具体过程的流程图。
具体实施方式
下面将参照附图对本发明的各个优选的实施方式进行描述。提供以下参照附图的描述,以帮助对由权利要求及其等价物所限定的本发明的示例实施方式的理解。其包括帮助理解的各种具体细节,但它们只能被看作是示例性的。因此,本领域技术人员将认识到,可对这里描述的实施方式进行各种改变和修改,而不脱离本发明的范围和精神。而且,为了使说明书更加清楚简洁,将省略对本领域熟知功能和构造的详细描述。
首先,参照图1描述根据本发明实施例的可移动电子设备,其用于在未知环境中进行定位和地图构建。
如图1所示,可移动电子设备100包括:第一传感器101、第二传感器102、特征点提取单元103、匹配单元104、定位和地图构建单元105。
这里需要说明的是,第一传感器101和第二传感器102是不同类型的图像传感器,用于以当前位姿获得当前场景的图像。作为一种示例,第一传感器可以是二维激光传感器,其对当前场景中、当前位姿下能够观察到的各个面进行测距,并获得包含深度信息的二维图像,其能够表现当前场景的几何特征,将这样的图像称为激光扫描线图像。举例来说,当所述可移动电子设备进入一个房间后观察到一个墙角时,其在所述激光扫描线图像中表现为相互垂直的两条线段。并且,第二传感器可以是二维视觉传感器(如,摄像头),其获得的第二图像为不包含深度信息的二维图像。仍沿用上面的例子,当所述可移动电子设备进入一个房间后观察到一个墙角时,其在所述二维视觉传感器获得的图像中表现为该墙角的实际空间状态,只是不包括深度信息。当然,可替代地,第二传感器也可以是由两个二维视觉传感器构成的三维视觉传感器。与二维视觉传感器不同的是,三维视觉传感器获得的图像包含深度信息。需要注意的是,上面所列举的第一传感器和第二传感器的示例仅为示意性的,本发明并不仅限于此。本领域的技术人员根据具体情况,可以自由地变换。例如,第一传感器可以是三维视觉传感器,第二传感器可以是二维激光传感器。
特征点提取单元103接收第一传感器101和第二传感器102获得的第一图像和第二图像,并利用特征提取算法提取第一图像的特征点和第二图像的特征点。
匹配单元104将当前场景的特征点与前一场景的特征点进行匹配。需要指出的是,随着可移动电子设备的行进,以前一位姿获得的图像和以当前位姿获得的图像之间实际空间位置一致的点由于观察角度的不同导致其在图像中的位置不同。这里所谓的“匹配”是指,将当前场景和前一场景中表示相同的实际空间位置的特征点对应起来。然后,匹配单元104基于匹配的特征点获得由前一场景到当前场景的变换矩阵。
下面,参照图2描述匹配单元104的具体配置。
如图2所示,所述匹配单元104包括:第一图像特征点匹配单元1041、第二图像特征点匹配单元1042、变换矩阵计算单元1043和变换矩阵调整单元1044。
第一图像特征点匹配单元1041接收特征点提取单元103提取的第一图像的特征点,并将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配。
第二图像特征点匹配单元1042接收特征点提取单元103提取的第二图像的特征点,并将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配。
变换矩阵计算单元1043基于第一图像特征点匹配单元1041获得的第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵。
变换矩阵调整单元1044用于对所述变换矩阵计算单元1043获得的变换矩阵进行调整。具体来说,首先,向前一场景的第二图像的特征点应用所述变换矩阵。然后,将变换后的特征点与匹配特征点进行比较。最后,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。简言之,通过第二传感器102获得的第二图像的特征点对变换矩阵进行校正。
如上文中所述,第一传感器101和第二传感器102为不同类型的传感器,且例如可以是二维激光传感器、二维视觉传感器或三维视觉传感器。这里需要指出的是,由于在两种类型的传感器中,第一传感器101用于初步定位,第二传感器102用于在此基础之上进行修正,因此在选择第一传感器101和第二传感器102的类型时,应该满足如下原则:第一传感器101获得的当前场景的第一图像包含深度信息。
作为第一示例,所述第一传感器可以为二维激光传感器,且所述第二传感器可以为二维视觉传感器。
作为第二示例,所述第一传感器可以为二维激光传感器,且所述第二传感器可以为由两个二维视觉传感器构成的三维视觉传感器。
作为第三示例,所述第一传感器可以为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器可以为二维激光传感器。
定位和地图构建单元105接收匹配单元104获得的相互匹配的特征点以及变换矩阵,并基于相互匹配的特征点以及变换矩阵,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并。
上文中参照图1到图2描述了根据本发明实施例的、用于在未知环境中进行定位和地图构建的可移动电子设备,其中,通过第一传感器和第二传感器的特征点融合,增大了特征点数量,并通过第一传感器初步定位、第二传感器优化定位,进一步改进了定位能力。
在下文中,将参照图3描述根据本发明实施例的、用于一可移动电子设备以在未知环境中进行定位和地图构建的信息处理方法。
如图3所示,所述方法包括如下步骤:
首先,在步骤S301,通过第一传感器以当前位姿获得当前场景的第一图像;并通过第二传感器以当前位姿获得当前场景的第二图像。
然后,在步骤S302,利用特征提取算法提取第一图像的特征点和第二图像的特征点。
接下来,在步骤S303,将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵。
然后,在步骤S304,基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并。
下面,参照图4具体描述步骤S303的具体过程。
如图4所示,步骤S303包括如下步骤:
首先,在步骤S3031,将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配,并将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配。
然后,在步骤S3032,基于第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵。
接着,在步骤S3033,向前一场景的第二图像的特征点应用所述变换矩阵,并将变换后的特征点与匹配特征点进行比较,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。
如上文中所述,第一传感器和第二传感器是两种不同类型的传感器,并且作为第一示例,所述第一传感器可以为二维激光传感器,且所述第二传感器可以为二维视觉传感器;或者作为第二示例,所述第一传感器可以为二维激光传感器,且所述第二传感器可以为由两个二维视觉传感器构成的三维视觉传感器;或者作为第三示例,所述第一传感器为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器为二维激光传感器。
以上参照图3到图4描述了根据本发明实施例的用于即时定位与地图构建的方法,由于其与根据本发明实施例的用于即时定位与地图构建的可移动电子设备完全对应,因此为了简明起见,关于其具体细节不再赘述。
在上文中,已经参照附图详细描述了根据本发明实施例的用于即时定位与地图构建的设备和方法。概括来说,本发明的要点在于,获取新场景的激光扫描线和图像后,利用特征提取算法提取激光扫描线的几何特征和图像的特征,并将这些特征放在当前场景对应的节点内;然后,利用特征检索算法,找到与当前节点匹配的历史节点;通过激光扫描线的几何特征计算出当前节点与历史节点间的初始位置关系;并利用多视图像特征满足的几何关系(极化约束)进一步优化该初始位置关系。
通过根据本发明的设备和方法,可以实现如下优点:首先,激光的快速性和精确性得到保留;其次,环境的特征点数得到丰富,有激光扫描线的特征,也有图像特征,可改进机器人定位的鲁棒性;最后,图像特征满足的几何约束可以用来优化激光特征的定位结果,从而能够进一步提高定位精度。
需要说明的是,在本说明书中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
最后,还需要说明的是,上述一系列处理不仅包括以这里所述的顺序按时间序列执行的处理,而且包括并行或分别地、而不是按时间顺序执行的处理。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明可借助软件加必需的硬件平台的方式来实现,当然也可以全部通过软件来实施。基于这样的理解,本发明的技术方案对背景技术做出贡献的全部或者部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
以上对本发明进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种可移动电子设备,用于在未知环境中进行定位和地图构建,包括:
第一传感器,用于以当前位姿获得当前场景的第一图像;
第二传感器,用于以当前位姿获得当前场景的第二图像;
特征点提取单元,用于利用特征提取算法提取第一图像的特征点和第二图像的特征点;
匹配单元,用于将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵;
定位和地图构建单元,用于基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并;
其中所述匹配单元包括:第一图像特征点匹配单元,用于将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配;第二图像特征点匹配单元,用于将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配;变换矩阵计算单元,用于基于第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵;变换矩阵调整单元,用于向前一场景的第二图像的特征点应用所述变换矩阵,并将变换后的特征点与匹配特征点进行比较,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。
2.根据权利要求1所述的可移动电子设备,其中所述第一传感器为二维激光传感器,且所述第二传感器为二维视觉传感器。
3.根据权利要求1所述的可移动电子设备,其中所述第一传感器为二维激光传感器,且所述第二传感器为由两个二维视觉传感器构成的三维视觉传感器。
4.根据权利要求1所述的可移动电子设备,其中所述第一传感器为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器为二维激光传感器。
5.一种信息处理方法,用于一可移动电子设备以在未知环境中进行定位和地图构建,包括如下步骤:
通过第一传感器以当前位姿获得当前场景的第一图像;
通过第二传感器以当前位姿获得当前场景的第二图像;
利用特征提取算法提取第一图像的特征点和第二图像的特征点;
将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵;
基于所述变换矩阵以及相互匹配的特征点,确定所述可移动电子设备相对于前一位姿的变化以进行定位,并将当前场景的图像与已知地图合并;
其中所述第一传感器不同于所述第二传感器,所述第二传感器用于对所述变换矩阵进行修正;
其中将当前场景的特征点与前一场景的特征点进行匹配,并获得由前一场景到当前场景的变换矩阵的步骤包括:将当前场景的第一图像的特征点与前一场景的第一图像的特征点进行匹配;将当前场景的第二图像的特征点与前一场景的第二图像的特征点进行匹配;基于第一图像的匹配特征点,计算由前一场景到当前场景的变换矩阵;向前一场景的第二图像的特征点应用所述变换矩阵,并将变换后的特征点与匹配特征点进行比较,基于比较结果调整所述变换矩阵,以便变换后的特征点与匹配特征点之间的误差最小。
6.根据权利要求5所述的信息处理方法,其中所述第一传感器为二维激光传感器,且所述第二传感器为二维视觉传感器。
7.根据权利要求5所述的信息处理方法,其中所述第一传感器为二维激光传感器,且所述第二传感器为由两个二维视觉传感器构成的三维视觉传感器。
8.根据权利要求5所述的信息处理方法,其中所述第一传感器为由两个二维视觉传感器构成的三维视觉传感器,且所述第二传感器为二维激光传感器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210573191.1A CN103900583B (zh) | 2012-12-25 | 2012-12-25 | 用于即时定位与地图构建的设备和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210573191.1A CN103900583B (zh) | 2012-12-25 | 2012-12-25 | 用于即时定位与地图构建的设备和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103900583A CN103900583A (zh) | 2014-07-02 |
CN103900583B true CN103900583B (zh) | 2018-02-27 |
Family
ID=50992052
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210573191.1A Active CN103900583B (zh) | 2012-12-25 | 2012-12-25 | 用于即时定位与地图构建的设备和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103900583B (zh) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104240297A (zh) * | 2014-09-02 | 2014-12-24 | 东南大学 | 一种救援机器人三维环境地图实时构建方法 |
CN105492985B (zh) | 2014-09-05 | 2019-06-04 | 深圳市大疆创新科技有限公司 | 一种用于在环境内控制可移动物体的系统及方法 |
CN104848848A (zh) * | 2015-03-30 | 2015-08-19 | 北京云迹科技有限公司 | 基于无线基站和激光传感器的机器人绘制地图和定位的方法及系统 |
JP2017116363A (ja) * | 2015-12-24 | 2017-06-29 | アイシン・エィ・ダブリュ株式会社 | 車両位置推定システム、方法およびプログラム |
CN105953798B (zh) * | 2016-04-19 | 2018-09-18 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
CN105928505B (zh) * | 2016-04-19 | 2019-01-29 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
CN105953787A (zh) * | 2016-04-27 | 2016-09-21 | 河北德普电器有限公司 | 一种机器人导航地图生成系统 |
CN108121764B (zh) * | 2016-11-26 | 2022-03-11 | 星克跃尔株式会社 | 图像处理装置、图像处理方法、电脑程序及电脑可读取记录介质 |
CN107168514B (zh) * | 2017-03-27 | 2020-02-21 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN107153831A (zh) * | 2017-03-28 | 2017-09-12 | 宇龙计算机通信科技(深圳)有限公司 | 智能终端的定位方法、系统及智能终端 |
WO2019084804A1 (zh) * | 2017-10-31 | 2019-05-09 | 深圳市大疆创新科技有限公司 | 一种视觉里程计及其实现方法 |
US10636198B2 (en) * | 2017-12-28 | 2020-04-28 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for monocular simultaneous localization and mapping |
CN108564657B (zh) * | 2017-12-28 | 2021-11-16 | 达闼科技(北京)有限公司 | 一种基于云端的地图构建方法、电子设备和可读存储介质 |
CN108319976B (zh) * | 2018-01-25 | 2019-06-07 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN110132242B (zh) * | 2018-02-09 | 2021-11-02 | 驭势科技(北京)有限公司 | 多摄像机即时定位与地图构建的三角化方法及其运动体 |
CN110444102B (zh) * | 2018-05-02 | 2021-10-01 | 北京京东乾石科技有限公司 | 地图构建方法、装置和无人驾驶设备 |
CN110570465B (zh) * | 2018-06-05 | 2022-05-20 | 杭州海康机器人技术有限公司 | 实时定位与地图构建方法、装置及计算机可读存储介质 |
CN110633336B (zh) * | 2018-06-05 | 2022-08-05 | 杭州海康机器人技术有限公司 | 激光数据搜索范围的确定方法、装置及存储介质 |
CN108983769B (zh) * | 2018-06-22 | 2022-06-21 | 理光软件研究所(北京)有限公司 | 即时定位与地图构建的优化方法及装置 |
CN110722547B (zh) * | 2018-07-17 | 2022-11-15 | 天津工业大学 | 模型未知动态场景下移动机器人视觉镇定 |
CN109691185B (zh) * | 2018-07-26 | 2022-09-30 | 达闼机器人股份有限公司 | 一种定位方法、装置、终端和可读存储介质 |
CN110855601B (zh) * | 2018-08-21 | 2021-11-19 | 华为技术有限公司 | Ar/vr场景地图获取方法 |
CN111260779B (zh) * | 2018-11-30 | 2022-12-27 | 华为技术有限公司 | 地图构建方法、装置及系统、存储介质 |
CN109725329B (zh) * | 2019-02-20 | 2021-12-07 | 苏州风图智能科技有限公司 | 一种无人车定位方法及装置 |
WO2020192039A1 (en) * | 2019-03-27 | 2020-10-01 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Three-dimensional localization using light-depth images |
CN111768443A (zh) * | 2019-07-23 | 2020-10-13 | 北京京东尚科信息技术有限公司 | 基于移动摄像头的图像处理方法和装置 |
CN110363179B (zh) * | 2019-07-23 | 2022-03-25 | 联想(北京)有限公司 | 地图获取方法、装置、电子设备以及存储介质 |
CN110561423B (zh) * | 2019-08-16 | 2021-05-07 | 深圳优地科技有限公司 | 位姿变换的方法、机器人及存储介质 |
WO2021046829A1 (zh) * | 2019-09-12 | 2021-03-18 | 华为技术有限公司 | 定位方法、装置及系统 |
CN112711249B (zh) * | 2019-10-24 | 2023-01-03 | 科沃斯商用机器人有限公司 | 机器人定位方法、装置、智能机器人和存储介质 |
CN110986969B (zh) * | 2019-11-27 | 2021-12-28 | Oppo广东移动通信有限公司 | 地图融合方法及装置、设备、存储介质 |
CN111679669B (zh) * | 2020-06-01 | 2023-08-08 | 陕西欧卡电子智能科技有限公司 | 一种无人船自主精准停靠方法及系统 |
CN112414417B (zh) * | 2020-11-17 | 2021-11-26 | 智邮开源通信研究院(北京)有限公司 | 自动驾驶地图生成方法、装置、电子设备及可读存储介质 |
TWI767590B (zh) * | 2021-03-02 | 2022-06-11 | 伊斯酷軟體科技股份有限公司 | 用於多部電子計算裝置的機器人流程自動化裝置及機器人流程自動化方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101750060A (zh) * | 2008-12-22 | 2010-06-23 | 财团法人工业技术研究院 | 利用感测元件的定位与检测的系统与方法 |
CN102109348A (zh) * | 2009-12-25 | 2011-06-29 | 财团法人工业技术研究院 | 定位载体、估测载体姿态与建地图的系统与方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9091553B2 (en) * | 2009-12-22 | 2015-07-28 | Honeywell International Inc. | Systems and methods for matching scenes using mutual relations between features |
-
2012
- 2012-12-25 CN CN201210573191.1A patent/CN103900583B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101750060A (zh) * | 2008-12-22 | 2010-06-23 | 财团法人工业技术研究院 | 利用感测元件的定位与检测的系统与方法 |
CN102109348A (zh) * | 2009-12-25 | 2011-06-29 | 财团法人工业技术研究院 | 定位载体、估测载体姿态与建地图的系统与方法 |
Non-Patent Citations (6)
Title |
---|
地图构建和移动平台定位的若干问题研究;王磊;《中国优秀博硕士学位论文全文数据库 信息科技辑》;20070115(第1期);全文 * |
基于双视点特征匹配的激光-相机系统标定方法;张勤等;《仪器仪表学报》;20121130;第33卷(第11期);第2622-2628页 * |
基于多传感器信息融合的移动机器人位姿计算方法研究;冯肖维;《中国博士学位论文全文数据库 信息科技辑》;20120215(第2期);正文第104页第3段 * |
未知环境下移动机器人即时定位与地图创建;王海军;《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》;20100515(第5期);全文 * |
移动机器人基于多传感器数据融合的定位及地图创建研究;庄严;《中国优秀博硕士学位论文全文数据库 信息科技辑》;20050715(第3期);全文 * |
移动机器人基于激光测距和单目视觉的室内同时定位和地图构建;庄严等;《自动化学报》;20051130;第31卷(第6期);正文第926页第2-3段,第928-931页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103900583A (zh) | 2014-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103900583B (zh) | 用于即时定位与地图构建的设备和方法 | |
CN103123727B (zh) | 即时定位与地图构建方法和设备 | |
EP1836859B1 (en) | Automatic conversion from monoscopic video to stereoscopic video | |
EP2597597A2 (en) | Apparatus and method for calculating three dimensional (3D) positions of feature points | |
CN104376552A (zh) | 一种3d模型与二维图像的虚实配准算法 | |
CN107545586B (zh) | 基于光场极线平面图像局部的深度获取方法及系统 | |
WO2010133007A1 (en) | Techniques for rapid stereo reconstruction from images | |
Zhou et al. | A two-step calibration method of lenslet-based light field cameras | |
KR20150080003A (ko) | 모션 패럴랙스를 이용한 2d 이미지로부터의 3d 지각 생성 | |
CN102036094B (zh) | 一种基于数字分数延时技术的立体匹配方法 | |
JP5852093B2 (ja) | 映像処理装置、映像処理方法、プログラム | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
Xu et al. | Hand-held 3-D reconstruction of large-scale scene with kinect sensors based on surfel and video sequences | |
CN102692806A (zh) | 自由视点四维空间视频序列的采集与形成方法 | |
Xu et al. | 3D Reconstruction system for collaborative scanning based on multiple RGB-D cameras | |
CN106170086A (zh) | 绘制三维图像的方法及其装置、系统 | |
Lu et al. | Stereo disparity optimization with depth change constraint based on a continuous video | |
CN103260008A (zh) | 一种影像位置到实际位置的射影转换方法 | |
Gu et al. | [Retracted] A 3D Reconstruction Method Using Multisensor Fusion in Large‐Scale Indoor Scenes | |
Iqbal et al. | Real time 3D depth estimation and measurement of un-calibrated stereo and thermal images | |
Gurrieri et al. | Efficient panoramic sampling of real-world environments for image-based stereoscopic telepresence | |
Yu et al. | Registration and fusion for ToF camera and 2D camera reading | |
Vladimir | Point clouds registration and generation from stereo images | |
Zhang et al. | Passive 3D reconstruction based on binocular vision | |
Yu et al. | Accurate line-based relative pose estimation with camera matrices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |