CN112612037B - 一种融合定位方法及移动机器人 - Google Patents
一种融合定位方法及移动机器人 Download PDFInfo
- Publication number
- CN112612037B CN112612037B CN202011382017.XA CN202011382017A CN112612037B CN 112612037 B CN112612037 B CN 112612037B CN 202011382017 A CN202011382017 A CN 202011382017A CN 112612037 B CN112612037 B CN 112612037B
- Authority
- CN
- China
- Prior art keywords
- fan
- distance sensor
- mobile robot
- shaped
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000004927 fusion Effects 0.000 title claims abstract description 26
- 230000000007 visual effect Effects 0.000 claims abstract description 50
- 239000000523 sample Substances 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims description 87
- 238000005259 measurement Methods 0.000 claims description 13
- 238000009434 installation Methods 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000013519 translation Methods 0.000 claims description 7
- 230000009469 supplementation Effects 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims 1
- 230000001502 supplementing effect Effects 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 7
- 238000005286 illumination Methods 0.000 description 6
- 230000007547 defect Effects 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000004888 barrier function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241001417527 Pempheridae Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
本发明公开一种融合定位方法及移动机器人,该融合定位方法包括:控制移动机器人的摄像头采集图像信息以进行视觉定位;控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息,然后将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合以减少定位盲区;其中,扇形距离传感器安装在移动机器人的前端,摄像头也安装在移动机器人的表面,但扇形距离传感器的探头朝向和摄像头的朝向不同。本技术方案采用不旋转的扇形距离传感器覆盖的距离信息融合传统的视觉图像定位信息,在同一地图上相互弥补定位盲区,从而描述出完整的环境信息。
Description
技术领域
本发明涉及移动机器人导航定位的技术领域,特别是一种基于扇形扫描区域的定位方法及移动机器人。
背景技术
具有自动行动的移动机器人,这几年发展迅速,例如常见的家居清洁类扫地机。目前常见的slam技术有视觉导航、激光导航、惯性导航等。其中,激光导航的用户体验较好,主要是在于它能够提前把房间轮廓扫描出来,以便呈现在用户的地图界面中进行导航定位,比较直观,但是激光雷达存在装配缺点,主要是需要一个旋转的激光机构,在机器的模具上镂空或者开设凸起,从而提高生产成本;另一方面,视觉导航受摄像头的安装位置的影响容易产生视角盲区,也受光照环境的影响比较大,应用场景较为局限。
发明内容
为了克服上述提及的激光雷达的开模成本和视觉视角盲区问题,本发明采用不旋转的扇形距离传感器,融合传统的视觉定位技术,实现精准的定位导航。具体的技术方案如下:控制移动机器人的摄像头采集图像信息以进行视觉定位,同时控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息;然后将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合,再将补充融合的定位结果标记到地图上;其中,扇形距离传感器安装在移动机器人的前端,摄像头也安装在移动机器人的表面,但扇形距离传感器的探头朝向和摄像头的朝向不同。本技术方案采用不旋转的扇形距离传感器覆盖的距离信息融合传统的视觉图像定位信息,在同一地图上相互弥补定位盲区,从而描述出完整的环境信息。
进一步地,所述控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息的方法包括:控制所述扇形距离传感器调制发射出一个球面棱锥式光信号,其中,这个球面棱锥式光信号的最大的有效测距区域为所述球面棱锥式传感区;当所述扇形距离传感器接收所述球面棱锥式传感区内的障碍物反射回的反馈光信号时,根据接收到这个反馈光信号记录的飞行时间去计算获取对应的障碍物的位置相对于所述扇形距离传感器的距离信息。该技术方案可视为控制扇形距离传感器在同一位置处发射球面棱锥式光信号和接收经障碍物反射的这个球面棱锥式光信号(反馈光信号),然后通过球面棱锥式光信号的飞行时间去计算确定障碍物相对于该位置的距离信息,进而确定障碍物的位置。
进一步地,所述球面棱锥式传感区的内部的三维点云相对于所述扇形距离传感器的距离都是处于所述扇形距离传感器的有效测距范围内;其中,所述扇形距离传感器的有效测距范围的最大值是最大有效测距距离;其中,所述球面棱锥式光信号在移动机器人的行进平面上的投影是水平扇形区域,这个水平扇形区域是以所述扇形距离传感器的安装位置为顶点、所述最大有效测距距离为半径的扇形。有利于探测机体前方一定角度范围内的障碍物。
进一步地,所述球面棱锥式光信号在移动机器人的行进平面上存在一个水平视角,所述球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个竖直视角,其中,水平视角大于竖直视角。该技术方案可以控制所述扇形距离传感器在移动机器人的行进平面上测量一个扇形的角度,例如120度,而在移动机器人的行进平面的垂直方向上测量比较窄的视角范围,例如10度,因此,移动机器人行进平面是扇形的、垂直于移动机器人行进平面上有一定高度的条状的光,相对发射面光源扫描的方式来说比较好实现小面积探测光信号的光照覆盖均匀性。从而测量类似球面四棱锥状的三维空间覆盖的区域内的窄3D的点云信息。
进一步地,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合以减少定位盲区的方法包括:当检测到摄像头当前采集的图像信息不完全覆盖局部定位区域时,使用所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的内部的三维点云的距离信息完成同一地图上的局部定位区域的位姿信息的补充;其中,局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域。该技术方案利用使用所述扇形距离传感器形成的球面棱锥式传感区内的三维点云信息去构建近距离小面积的区域位置信息,克服摄像头受光照环境和安装位置的影响而无法定位局部区域的技术缺陷。
进一步地,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合以减少定位盲区的方法包括:当检测到所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的内部的三维点云的距离信息不完全覆盖局部定位区域时,使用摄像头当前采集的图像信息完成同一地图上的局部定位区域的位姿信息的补充;其中,局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域。该技术方案通过视觉定位解决扇形距离传感器的有效测距距离不足以检测位置的问题。
进一步地,所述扇形距离传感器用于调制产生出至少一个所述球面棱锥式光信号或其他类型的调制信号,但只允许控制发射一个所述球面棱锥式光信号发射以进行测距;其中,所述扇形距离传感器是3d-tof传感器。该技术方案相对于发射面光源,减小传感器的发射功率,适用于均匀地探测小面积区域内的障碍物距离信息。
进一步地,在所述扇形距离传感器的有效测距范围之内,利用所述扇形距离传感器当前获取的一个所述球面棱锥式传感区的内部的三维点云的距离信息扫描标记出当前轮廓,然后判断当前轮廓与预先存储的历史地图库的相同区域处的历史轮廓是否符合预设重合度;若当前轮廓与历史轮廓不符合预设重合度,则根据当前轮廓与历史轮廓之间的位姿关系对当前轮廓进行旋转平移变换,以将旋转平移变换后的当前轮廓校正得与历史轮廓符合预设重合度。从而实现轮廓边界的精准匹配。
一种移动机器人,包括摄像头、扇形距离传感器和处理单元;扇形距离传感器安装在移动机器人的前端;摄像头也安装移动机器人的表面,但摄像头的朝向与扇形距离传感器的探头朝向不同,使得摄像头的视角覆盖范围与扇形距离传感器的有效测距范围不完全相同;处理单元用于执行前述的一种融合定位方法。该技术方案采用不旋转的扇形距离传感器结合朝向不同的摄像头完成融合定位,从而达到精准标记地图边界的技术效果。
进一步地,所述扇形距离传感器是3d-tof传感器,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面上的投影是一个水平视角为120度的水平扇形区域,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个10度的竖直视角。以获取类似球面四棱锥状的三维空间内的有效测距定位位置的信息。
进一步地,所述扇形距离传感器的安装位置经过移动机器人的机体中心轴,以确保所述扇形距离传感器在机体的正前方;或所述扇形距离传感器的安装位置与移动机器人的机体中心轴成一预设夹角。从而确保移动机器人的机体中心轴穿过所述扇形距离传感器发射的球面棱锥式光信号的有效测距区域。
附图说明
图1是本发明一实施例公开的一种移动机器人的结构示意图。
图2是本发明另一实施例公开的移动机器人扫描出无障碍物的水平扇形区域的栅格地图示意图。
图3是本发明又一实施例公开的移动机器人扫描出有障碍物的水平扇形区域的栅格地图示意图。
图4是本发明又一实施例公开的扇形距离传感器发射出的球面棱锥式光信号的光路示意图。
图5是本发明的又实施例公开的一种融合定位方法的流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行详细描述。以单目摄像头的应用为例,当采用单目摄像头在未知环境视觉导航建图时,移动机器人缺少所处的工作区域平面的形状与尺寸信息,如果单纯靠单目视觉计算出来的环境形状与尺寸信息可靠性较低,因为采集的图像存在大面积相同颜色区域与个别地标的颜色相似,所以单目摄像头在采集环境中墙面边界或障碍物边界时不容易区分出障碍物边界与地标或其他的采集目标物体,导致移动机器人的建图效率不高。另一方面,以激光雷达扫描房间轮廓的移动机器人导航应用为例,激光雷达能够提前把房间轮廓扫描出来,并呈现在用户显示界面中,比较直观。但是需要在移动机器人的顶面设置一个旋转的激光机构,在模具上需要镂空或者凸起,增加设计成本,且扫描一次获得的点云数据较多、扫描视角范围过大,处理数据量较大,建图效率不高。本发明实施例不使用激光雷达去获取房间轮廓,而是采用固定在机体上不旋转的扇形距离传感器,进行一定视角范围的边界的扫描标记,在移动机器人行走的过程中逐渐在地图上标记出房间轮廓和房间内的障碍物分布情况。
本发明实施例公开一种融合定位方法,如图5所示,具体包括:步骤S501、控制移动机器人的摄像头采集图像信息以进行视觉定位,同时控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区(单个球面棱锥式光信号构建形成的最大有效测距区域)的内部获取距离信息,然后进入步骤S502。该步骤S501可以根据图像信息中地标特征信息计算出机体位置或地标位置,但是基于前述视觉定位的缺陷,在部分场景的定位中的视觉定位结果仍存在视觉定位盲区。
步骤S502、将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合以减少定位盲区,再将补充融合的定位结果标记在地图上;其中,扇形距离传感器安装在移动机器人的前端,摄像头也安装在移动机器人的表面,但扇形距离传感器的探头朝向和摄像头的朝向不同。本步骤中,这个补充融合定位的结果包括移动机器人在特定位置处扇形距离传感器发出的单个球面棱锥式传感区内的有效边界的位姿信息,也包括摄像头采集的图像信息的定位结果;随着移动机器人沿着预设规划路径行走,补充融合定位的结果越来越多,扇形距离传感器发出的球面棱锥式传感区和摄像头采集的图像信息的区域范围都越来越大,足以覆盖过当前工作区域的位置信息。需要说明的是,扇形距离传感器在所述球面棱锥式传感区的内部获得的距离信息被换算为地图上的标记坐标位置,同时朝向与扇形距离传感器的探头不同的摄像头采集的图像信息也被换算为地图上的标记坐标位置,即使它们不属于因为盲区而需要补充融合定位的部分区域,从而增加地图标记的环境信息的完整性。
因此,本实施例采用不旋转的扇形距离传感器覆盖的距离信息融合传统的视觉图像定位信息,在同一地图上相互弥补定位盲区,从而描述出完整的环境信息。
值得注意的是,TOF是飞行时间(Time of Flight) 技术的缩写,即传感器发出调制光信号,遇物体后反射,传感器通过计算调制光信号的发射和反射时间差或相位差,来换算被拍摄景物的距离,以产生深度信息,即球面棱锥式光信号的最大有效测距区域内的障碍物与所述扇形距离传感器的距离。
需要说明的是,本实施例中用于视觉定位的摄像头包括但不限于单目摄像头。
所述控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息的方法包括:首先控制所述扇形距离传感器发射出一个球面棱锥式光信号,其中,这个球面棱锥式光信号的最大有效测距区域为所述球面棱锥式传感区,等效于无障碍物遮挡反射的前提下,这个球面棱锥式光信号的最大有效测距区域。当所述扇形距离传感器接收所述球面棱锥式传感区内的障碍物反射回的反馈光信号时,根据接收到这个反馈光信号记录的飞行时间,去计算获取对应的障碍物的三维点云相对于所述扇形距离传感器的距离信息,其中,这个对应的障碍物是所述扇形距离传感器出射球面棱锥式光信号后,将这个球面棱锥式光信号反射给所述扇形距离传感器的障碍物;这个球面棱锥式光信号经这个障碍物的反射信号是所述反馈光信号。本实施例的距离计算方法可视为控制扇形距离传感器在同一位置处发射球面棱锥式光信号和接收经障碍物反射的这个球面棱锥式光信号(反馈光信号),然后通过球面棱锥式光信号的飞行时间去计算确定障碍物相对于该位置的距离信息,进而确定障碍物的位置。
需要说明的是,所述球面棱锥式传感区的内部的三维点云相对于所述扇形距离传感器的距离都是处于所述扇形距离传感器的有效测距范围内;其中,所述扇形距离传感器的有效测距范围的最大值是最大有效测距距离,即图1的扇形区域104的半径d。
如图4所示,在不考虑最大有效测距区域内的障碍物遮挡反射干扰的环境条件下,所述球面棱锥式光信号覆盖形成的球面棱锥式传感区一种球面四棱锥状的三维空间,从所述扇形距离传感器103开始向远处发射的一个条状的光线。所述球面棱锥式光信号在移动机器人的行进平面上的投影是水平扇形区域,这个水平扇形区域是以所述扇形距离传感器103的安装位置为顶点、所述最大有效测距距离d为半径的扇形。在本实施例中,所述扇形距离传感器103发射出的是一个条状的光路,这个条状的光路是:移动机器人行进平面是扇形的、垂直于移动机器人行进平面上有一定垂直高度的条状的光,相对面光源扫描的方式来说比较好实现小面积探测光信号的光照覆盖均匀性。保证测距定位的精度。
所述扇形距离传感器是3d-tof传感器时,现有技术在测距的过程中可以同时发射多束所述球面棱锥式光信号,但本实施例只选择发射一束所述球面棱锥式光信号,如图4所示,所述球面棱锥式光信号在移动机器人的行进平面上存在一个水平视角,也可认为所述球面棱锥式传感区在移动机器人的行进平面上的水平扇形区域存在一个水平视角,从而控制所述扇形距离传感器在移动机器人的行进平面上测量一个扇形的角度,例如120度;所述球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个竖直视角,也可认为所述球面棱锥式传感区在移动机器人的行进平面的垂直方向上存在一定高度的视角,从而在移动机器人的行进平面的垂直方向上测量比较窄的视角范围,例如10度,其中,需要保证水平视角大于竖直视角。从而测量类似球面四棱锥状的三维空间覆盖的区域内的窄3D的点云信息。
优选地,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充以减少定位盲区的方法包括:当检测到摄像头当前采集的图像信息不完全覆盖局部定位区域时,即当前采集的图像信息换算出地标特征相匹配的实际位置不能够覆盖完整局部定位区域(留有空闲区域,但这个空闲区域本属于当前采集的图像信息的视场范围内,但由于摄像头的视角盲区而没能测量到)时,使用所述扇形距离传感器当前发射形成的单个球面棱锥式传感区的内部的三维点云的距离信息完成同一地图上的局部定位区域的边界的位姿信息补充,以实现视觉传感器和距离传感器的一种融合定位效果。具体是利用使用所述扇形距离传感器的前方当前形成的球面棱锥式传感区内的三维点云信息去构建近距离小面积的边界,补充摄像头的图像信息没能覆盖到的局部定位区域的部分区域位置,使得图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充以减少扫描位置的盲区,比如对于其中一种传感器而言是过远失效位置,或者是对于其中一种传感器而言是过近遗漏测距的位置,容易产生定位盲区。克服摄像头受光照环境和安装位置的影响而无法定位局部区域的技术缺陷。值得注意的是,值得注意的是,所述局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域。同时,若所述局部定位区域之外的区域点云信息也被所述扇形距离传感器获取,则其对应的距离信息也被换算标记到地图上。
优选地,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充以减少定位盲区的方法包括:当检测到所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的内部的三维点云的距离信息不完全覆盖局部定位区域时,即形成的一个球面棱锥式传感区的内部的三维点云的距离信息换算出的实际位置不能够覆盖完局部定位区域(留有空闲区域,但这个空闲区域本属于一个球面棱锥式传感区的一部分,但由于扇形距离传感器的有效测距距离的测量误差或距离大小不足而没能测量到)时,使用摄像头当前采集的图像信息完成同一地图上的局部定位区域的边界的位姿信息的补充,以实现视觉传感器和距离传感器的另一种融合定位效果,即通过融合视觉特征匹配出的边界位置信息或视觉图像定位出的边界位置信息,补充所述扇形距离传感器的最大有效测距距离之外的边界位置,以获得较为完整的障碍物轮廓。值得注意的是,所述局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域,使得所述扇形距离传感器当前发射形成的一个球面棱锥式传感区实际上包括这个局部定位区域,但是有部分区域的位置信息因为误差或所述扇形距离传感器的有效测距距离不足而出现在所述扇形距离传感器的有效测距范围之外,产生扫描边界的距离盲区。同时,若所述局部定位区域之外的区域图像被所述摄像头采集到,则将其对应的图像信息换算标记到同一地图上。
值得注意的是,所述球面棱锥式光信号是所述扇形距离传感器的所有调制信号的其中一种,其余的调制信号不被配置为用于测距;其中,所述扇形距离传感器是3d-tof传感器。相对于发出面光源测距扫描方案,本实施例不需较高功率,适用于均匀地探测小面积区域内的距离信息。
需要说明的是,所述扇形距离传感器一般场景下可以同时调制产生出至少一个所述球面棱锥式光信号或其他类型的调制信号,这些调制信号和多个所述球面棱锥式光信号同步射出成为一个覆盖面积较大的面光源。但是,在本实施例中只允许控制发射一个所述球面棱锥式光信号发射以进行测距,相对于发射面光源,减小3d-tof传感器的发射功率,适用于均匀地探测小面积区域内的障碍物距离信息;其中,所述扇形距离传感器是3d-tof传感器。所述球面棱锥式光信号是3d-tof传感器发射出的条状的光路,多个条状的光路组成前述的面光源,条状的光路的水平面是扇形的,条状的光路是一种在水平面的垂直方向上有一定高度的条状的光。
在移动机器人执行前述优选例中的边界位姿信息的补充融合定位之前,或执行边界位姿信息的补充融合定位之后,本实施例还需要:利用所述扇形距离传感器当前获取的一个所述球面棱锥式传感区的内部的三维点云的距离信息扫描标记出当前轮廓,然后判断当前轮廓与预先存储的历史地图库的相同区域处的历史轮廓是否符合预设重合度;若当前轮廓与历史轮廓不符合预设重合度,则根据当前轮廓与历史轮廓之间的位姿关系对当前轮廓进行旋转平移变换,再将当前轮廓进行旋转平移变换,使得旋转平移变换后的当前轮廓与历史轮廓符合预设重合度,完成扇形距离传感器扫描出的边界的校正。本实施例在所述球面棱锥式传感区内,利用扇形距离传感器扫描出来的轮廓进行位姿匹配,以补偿因移动机器人颠簸或打滑引起的失准数据。
需要说明的是,所述球面棱锥式传感区的内部的三维点云相对于所述扇形距离传感器的距离都是处于所述扇形距离传感器的有效测距范围内;其中,所述扇形距离传感器的有效测距范围的最大值是最大有效测距距离,即图1的扇形区域104的半径d。
如图4所示,在不考虑最大有效测距区域内的障碍物遮挡反射干扰的环境条件下,所述球面棱锥式光信号覆盖形成的球面棱锥式传感区一种球面四棱锥状的三维空间,从所述扇形距离传感器103开始向远处发射的一个条状的光线。所述球面棱锥式光信号在移动机器人的行进平面上的投影是水平扇形区域,这个水平扇形区域是以所述扇形距离传感器103的安装位置为顶点、所述最大有效测距距离d为半径的扇形。在本实施例中,所述扇形距离传感器103发射出的是一个条状的光路,这个条状的光路是:移动机器人行进平面是扇形的、垂直于移动机器人行进平面上有一定高度的条状的光,相对面光源扫描的方式来说比较好实现小面积探测光信号的光照覆盖均匀性。保证测距的精度。
所述扇形距离传感器是3d-tof传感器时,现有技术在测距的过程中可以同时发射多束所述球面棱锥式光信号,但本实施例只选择发射一束所述球面棱锥式光信号,如图4所示,所述球面棱锥式光信号在移动机器人的行进平面上存在一个水平视角,也可认为所述球面棱锥式传感区在移动机器人的行进平面上的水平扇形区域存在一个水平视角,从而控制所述扇形距离传感器在移动机器人的行进平面上测量一个扇形的角度,例如120度;所述球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个竖直视角,也可认为所述球面棱锥式传感区在移动机器人的行进平面的垂直方向上存在一定高度的视角,从而在移动机器人的行进平面的垂直方向上测量比较窄的视角范围,例如10度,其中,需要保证水平视角大于竖直视角。从而测量类似球面四棱锥状的三维空间覆盖的区域内的窄3D的点云信息。
作为一种实施例,本发明还公开一种融合定位方法,用于通过定位来标记地图边界信息,具体包括:在移动机器人沿着预设规划路径行走的过程中,根据扇形距离传感器接收反馈光信号的情况,在地图上标记出扇形距离传感器发射的一个球面棱锥式光信号的有效测距区域的边界,可以包括这个球面棱锥式光信号的最大有效测距区域内的障碍物的轮廓位置;其中,扇形距离传感器安装在移动机器人的前端,如图1所示,移动机器人的机体101的前端安装扇形距离传感器103;球面棱锥式光信号的最大有效测距区域是移动机器人的前方的球面棱锥状的三维空间,如图1的扇形距离传感器103所示,扇形距离传感器103的探头方向也朝向机体101的前方,发射出一个以扇形距离传感器103为顶点的扇形区域104,这个扇形区域104是球面棱锥式光信号在移动机器人行进平面上的投影平面;其中,反馈光信号是扇形距离传感器发射的球面棱锥式光信号经过球面棱锥式光信号的最大有效测距区域内的障碍物反射获得的。在本实施例中,每当移动机器人沿着预设规划路径移动至一个位置,保持控制扇形距离传感器发射一个球面棱锥式光信号去探测对应的覆盖区域的环境距离信息,扇形距离传感器实时接收到的反馈光信号经过距离计算后获得反射这个反馈信号的障碍物的相对距离信息,也是这个探测出的障碍物的形状轮廓限定这个球面棱锥式光信号的有效测距区域的边界位置范围,可以理解为:这个障碍物的存在缩小当前发射的一个球面棱锥式光信号的最大有效测距区域在移动机器人的行进平面上的占据面积。与现有技术相比,本实施例发射出球面棱锥式光信号去探测最大有效测距区域内的环境轮廓中的三维点云,并利用这些三维点云去标记出地图上的边界和描述环境,相对于激光雷达扫描轮廓,扇形距离传感器不需要旋转扫描发射,而且只发射一个球面棱锥式光信号,出射均匀性较好,保证测距的精准度,同时开模成本适中,适合大规模产业化。
作为一种实施例,在移动机器人沿着预设规划路径行走的过程中,在移动机器人沿着预设规划路径行走的过程中,若扇形距离传感器没有接收到反馈光信号,则确定移动机器人没有探测到当前行走方向的两侧的障碍物及当前位置的前方的障碍物,然后将扇形距离传感器发射的一个球面棱锥式光信号覆盖形成的球面棱锥式传感区的边界标记为移动机器人在当前位置的有效测距区域的地图边界;需要说明的是,反馈光信号是扇形距离传感器发射的一个球面棱锥式光信号的反射信号,其信号的性质没有发生变化。具体地,如图2所示,在移动机器人沿着预设规划路径201的第二预设规划方向(图2的箭头指向)直行至第一预设位置P1时,若扇形距离传感器没有接收到反馈光信号,则确定移动机器人没有探测到第二预设规划方向的两侧的障碍物及第一预设位置P1的前方的障碍物,即第一预设位置P1在箭头指向的前方扇形栅格区域204上没有探测出障碍物,然后将扇形距离传感器发射的一个球面棱锥式光信号(前述实施例提及的一个条状的光路)覆盖形成的球面棱锥式传感区的边界标记为移动机器人在第一预设位置P1的有效测距区域的地图边界,这个球面棱锥式传感区对应覆盖到图2的移动机器人行进平面的扇形栅格区域204,这个扇形栅格区域204是这个球面棱锥式传感区在移动机器人行进平面的投影区域;如图2所示,移动机器人沿着预设规划路径201的第二预设规划方向(图2的箭头指向)行走但没有到达第一预设位置P1之前,扇形距离传感器发射的一个球面棱锥式光信号扫描过图2的预设规划路径201的左右两侧的栅格区域,行走到达第一预设位置P1时,扇形距离传感器发射的一个球面棱锥式光信号已经扫描覆盖图2所示的平行四边形栅格区域203(预设规划路径201的右侧栅格区域,预设规划路径201的左侧栅格区域的扫描方式类似),此时移动机器人沿着预设规划路径201行走占据图2的斜线填充栅格区域202。其中,球面棱锥式传感区是一种球面棱锥状的三维空间,若没有探测到障碍物则直接将这个球面棱锥式传感区内的点云信息标记在地图上以描述一个球面棱锥式光信号的有效测距区域的边界特征。本实施例中,扇形距离传感器发射出的球面棱锥式光信号在无障碍物遮挡反射的前提下,构建出一个球面四棱锥状的三维有效测距空间,不需要构建过大过广的三维点云空间边界。让用户在显示界面上提前获取扫描构建地图的环境轮廓。
作为另一种实施例,在移动机器人沿着预设规划路径行走的过程中,若扇形距离传感器接收到反馈光信号,则根据这个反馈光信号对应的飞行时间计算出反射所述反馈光信号的障碍物与所述扇形距离传感器的距离信息,再基于这个距离信息在地图上标记出反射所述反馈光信号的障碍物的轮廓位置,使得这个障碍物的轮廓位置成为扇形距离传感器发射的一个球面棱锥式光信号的有效测距区域的边界、或所述球面棱锥式光信号在移动机器人的行进平面上的有效边界。需要说明的是,这个反馈光信号是由障碍物反射的,是扇形距离传感器发射的一个球面棱锥式光信号被障碍物反射得到的,反射后的球面棱锥式光信号是反馈光信号。
具体地,如图3所示,在机器人沿着预设规划路径301的第一预设规划方向(图3的箭头指向)直行至第二预设位置P2时,若扇形距离传感器接收反馈光信号,则根据接收到反馈光信号所记录的飞行时间,计算出反射所述反馈光信号的直线障碍物的边界3041与所述扇形距离传感器的距离信息,同时计算出反射所述反馈光信号的直角障碍物的边界30421与同一位置处的所述扇形距离传感器的距离信息,同时计算出反射所述反馈光信号的直角障碍物的边界30422与同一位置处的所述扇形距离传感器的距离信息,然后基于这三个距离信息在地图上标记出反射所述反馈光信号的直线障碍物和直角障碍物的轮廓位置。然后,地图上标记探测的结果如图3所示,直线障碍物占据一束球面棱锥式光信号的球面棱锥式传感区的左侧部分栅格区域,使得直线障碍物的边界3041成为位置P2处的扇形距离传感器发射的球面棱锥式光信号的左侧有效测距区域的边界。
如图3所示,直角障碍物占据一束球面棱锥式光信号的球面棱锥式传感区的右侧部分栅格区域,使得直角障碍物的边界30421成为位置P2处的扇形距离传感器发射的球面棱锥式光信号的右侧有效测距区域的障碍物边界;直角障碍物占据一束球面棱锥式光信号的球面棱锥式传感区的前侧部分栅格区域,使得直角障碍物的边界30422成为位置P2处的扇形距离传感器发射的球面棱锥式光信号的前侧有效测距区域的障碍物边界。当然,在这个球面棱锥式光信号的球面棱锥式传感区内,没有被障碍物占据的栅格区域的边界则保留同一个球面棱锥式传感区在图3的机器人行进平面上投影出的扇形栅格区域的边界,也是没有被障碍物占据的部分的扇形栅格区域的弧形边界。
如图3所示,移动机器人沿着预设规划路径301的第一预设规划方向(图3的箭头指向)行走但没有到达第二预设位置P2之前,扇形距离传感器发射的一个球面棱锥式光信号扫描出图3的预设规划路径301的左右两侧的地图栅格区域,行走到达第二预设位置P2时,扇形距离传感器发射的一个球面棱锥式光信号已经扫描覆盖图3所示的栅格区域303(预设规划路径301的右侧栅格区域,预设规划路径301的左侧栅格区域的扫描方式类似),栅格区域303由于存在障碍物,所以不会形成前述实施例中的规则图形边界。此时移动机器人沿着预设规划路径301行走占据图3的斜线填充的栅格区域302。其中,球面棱锥式传感区是一种球面棱锥状的三维空间,若没有探测到障碍物则直接将这个球面棱锥式传感区内的点云信息标记在地图上以描述一个球面棱锥式光信号的有效测距区域的边界特征。本实施例构建出一个球面四棱锥状内部的三维有效测距空间,让用户提前获取障碍物的轮廓特征,形成所述球面棱锥式光信号在移动机器人的行进平面上所能测到的最远的有效边界。
在前述实施例的基础上,通过改变所述预设规划路径的路径方向来调节移动机器人的行走方向,这样当移动机器人的行走方向每次改变时,实时发射的球面棱锥式光信号的覆盖范围都存在不同的有效测距区域,随着移动机器人的行走方向改变,其发射的球面棱锥式光信号的有效测距区域的覆盖范围变得更广。经过一段规划时间和遍历一段规划路径后,所述扇形距离传感器发射的同一个球面棱锥式光信号的有效测距区域覆盖当前工作区域的边界,或者所述扇形距离传感器发射形成的同一个球面棱锥式传感区内覆盖过当前工作区域的实际物理边界。从而能够将周围环境都扫描标记在地图上。
作为一种实施例,控制移动机器人的摄像头采集图像信息以进行视觉定位;控制移动机器人的扇形距离传感器从其前端的单个球面棱锥式传感区(单个球面棱锥式光信号构建形成的最大有效测距区域)的内部获取距离信息,然后将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合以减少扫描的边界的盲区,再将补充融合的定位结果标记到地图上;其中,补充融合定位的结果是移动机器人在特定位置处扇形距离传感器发出的单个球面棱锥式传感区内的有效边界的位姿信息,随着移动机器人沿着预设规划路径行走,补充融合定位的结果越来越多,扇形距离传感器发出的球面棱锥式传感区和摄像头采集的图像信息的区域范围都越来越大,足以覆盖过当前工作区域。
所述控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息的方法包括:首先控制所述扇形距离传感器发射出一个球面棱锥式光信号,其中,这个球面棱锥式光信号的最大有效测距区域为所述球面棱锥式传感区,等同于无障碍物遮挡反射的前提下,这个球面棱锥式光信号的最大有效测距区域。当所述扇形距离传感器接收所述球面棱锥式传感区内的障碍物反射回的反馈光信号时,根据接收到这个反馈光信号记录的飞行时间,去计算获取对应的障碍物的三维点云相对于所述扇形距离传感器的距离信息,这个对应的障碍物是所述扇形距离传感器出射球面棱锥式光信号后,将这个球面棱锥式光信号反射给所述扇形距离传感器的障碍物;其中,这个球面棱锥式光信号经这个障碍物的反射信号是所述反馈光信号。本实施例的距离计算方法可视为控制扇形距离传感器在同一位置处发射球面棱锥式光信号和接收经障碍物反射的这个球面棱锥式光信号(反馈光信号),然后通过球面棱锥式光信号的飞行时间去计算确定障碍物相对于该位置的距离信息,进而确定障碍物的边界轮廓。
如图1所示,本发明一实施例公开一种移动机器人,包括摄像头、扇形距离传感器103和处理单元;扇形距离传感器103安装在移动机器人的机体101的前端,移动机器人的机体101的左右两侧分别装配有驱动轮102,优选地,移动机器人的机体圆心为左侧驱动轮和右侧驱动轮的中心点,移动机器人的驱动方式为双轮驱动,双轮驱动分别为左侧驱动轮和右侧驱动轮驱动。摄像头也安装移动机器人的表面,但摄像头的朝向与扇形距离传感器103的探头朝向不同,使得摄像头的视角覆盖范围与扇形距离传感器103的有效测距范围不完全相同,可能存在部分重叠的采集视角范围;处理单元用于执行前述实施例的一种基于球面棱锥式传感区的边界标记方法。该移动机器人采用不旋转的扇形距离传感器取代需要旋转的激光雷达,去获取房间区域的轮廓信息,以达到同样精准的地图边界标记的技术效果。
优选地,所述扇形距离传感器是3d-tof传感器,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面上的投影是一个水平视角为120度的水平扇形区域,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个10度的竖直视角。形象的说,球面棱锥式光信号的最大有效测距区域就像是切成扇形的蛋糕,这个传感器可以测量蛋糕覆盖的区域的距离信息,是一个窄3D的点云信息。在本实施例中不需控制所述扇形距离传感器采集大范围的信息,只需要3d-tof传感器发射出一束球面棱锥式光信号即可满足测距定位要求,也降低发射功率,容易实现小面积区域的受光均匀性。也可以理解为:所述扇形距离传感器发射的球面棱锥式光信号的有效测距区域是类型扇形的蛋糕状,以便于测量这个蛋糕状覆盖的区域的距离信息,形成一个窄三维点云信息。
需要说明的是,所述扇形距离传感器属于远距离传感器,所述扇形距离传感器的有效测距范围为4米至50米,放置于移动机器人本体101的表面,并朝外照射,最优的,建议将所述扇形距离传感器放置于移动机器人本体101的正前方。但所述扇形距离传感器不是单点测距传感器。
优选地,所述扇形距离传感器的安装位置经过移动机器人的机体中心轴,以确保所述扇形距离传感器在机体的正前方;或所述扇形距离传感器的安装位置与移动机器人的机体中心轴成一预设夹角。从而确保移动机器人的机体中心轴穿过所述扇形距离传感器发射的球面棱锥式光信号的有效测距区域。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。
Claims (9)
1.一种融合定位方法,包括:
控制移动机器人的摄像头采集图像信息以进行视觉定位;
其特征在于,还包括:
控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息,然后将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合,再将补充融合的定位结果标记到地图上;
其中,扇形距离传感器安装在移动机器人的前端,摄像头也安装在移动机器人的表面,但扇形距离传感器的探头朝向和摄像头的朝向不同;
所述控制移动机器人的扇形距离传感器从其前端的球面棱锥式传感区的内部获取距离信息的方法包括:
控制所述扇形距离传感器调制发射出一个球面棱锥式光信号,其中,这个球面棱锥式光信号的最大的有效测距区域为所述球面棱锥式传感区;
当所述扇形距离传感器接收所述球面棱锥式传感区内的障碍物反射回的反馈光信号时,根据接收到这个反馈光信号记录的飞行时间去计算获取对应的障碍物的位置相对于所述扇形距离传感器的距离信息;
所述球面棱锥式光信号在移动机器人的行进平面上存在一个水平视角,所述球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个竖直视角,其中,水平视角大于竖直视角。
2.根据权利要求1所述融合定位方法,其特征在于,所述球面棱锥式传感区的内部的三维点云相对于所述扇形距离传感器的距离都是处于所述扇形距离传感器的有效测距范围内;
其中,所述扇形距离传感器的有效测距范围的最大值是最大有效测距距离;
其中,所述球面棱锥式光信号在移动机器人的行进平面上的投影是水平扇形区域,这个水平扇形区域是以所述扇形距离传感器的安装位置为顶点、所述最大有效测距距离为半径的扇形。
3.根据权利要求2所述融合定位方法,其特征在于,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合的方法包括:
当检测到摄像头当前采集的图像信息不完全覆盖局部定位区域时,使用所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的内部的三维点云的距离信息完成同一地图上的局部定位区域的位姿信息的补充;其中,局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域。
4.根据权利要求2所述融合定位方法,其特征在于,所述将摄像头采集的图像信息的视觉定位结果和扇形距离传感器获取的距离信息相互补充融合的方法包括:
当检测到所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的内部的三维点云的距离信息不完全覆盖局部定位区域时,使用摄像头当前采集的图像信息完成同一地图上的局部定位区域的位姿信息的补充;其中,局部定位区域是同时处于移动机器人的摄像头的当前视角范围和所述扇形距离传感器当前发射形成的一个球面棱锥式传感区的重合区域。
5.根据权利要求1至4任一项所述融合定位方法,其特征在于,所述扇形距离传感器用于调制产生出至少一个所述球面棱锥式光信号或其他类型的调制信号,但只允许控制发射一个所述球面棱锥式光信号发射以进行测距;
其中,所述扇形距离传感器是3d-tof传感器。
6.根据权利要求3或4所述融合定位方法,其特征在于,在所述扇形距离传感器的有效测距范围之内,利用所述扇形距离传感器当前获取的一个所述球面棱锥式传感区的内部的三维点云的距离信息扫描标记出当前轮廓,然后判断当前轮廓与预先存储的历史地图库的相同区域处的历史轮廓是否符合预设重合度;
若当前轮廓与历史轮廓不符合预设重合度,则根据当前轮廓与历史轮廓之间的位姿关系对当前轮廓进行旋转平移变换,以将旋转平移变换后的当前轮廓校正得与历史轮廓符合预设重合度。
7.一种移动机器人,其特征在于,包括摄像头、扇形距离传感器和处理单元;扇形距离传感器安装在移动机器人的前端;摄像头也安装在移动机器人的表面,但摄像头的朝向与扇形距离传感器的探头朝向不同,使得摄像头的视角覆盖范围与扇形距离传感器的有效测距范围不完全相同;
处理单元用于执行权利要求1至6任一项所述的一种融合定位方法。
8.根据权利要求7所述移动机器人,其特征在于,所述扇形距离传感器是3d-tof传感器,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面上的投影是一个水平视角为120度的水平扇形区域,这个3d-tof传感器发射出的球面棱锥式光信号在移动机器人的行进平面的垂直方向上存在一个10度的竖直视角。
9.根据权利要求7或8所述移动机器人,其特征在于,所述扇形距离传感器的安装位置经过移动机器人的机体中心轴,或所述扇形距离传感器的安装位置与移动机器人的机体中心轴成一预设夹角。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011382017.XA CN112612037B (zh) | 2020-12-01 | 2020-12-01 | 一种融合定位方法及移动机器人 |
PCT/CN2021/120080 WO2022116657A1 (zh) | 2020-12-01 | 2021-09-24 | 一种融合定位方法及移动机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011382017.XA CN112612037B (zh) | 2020-12-01 | 2020-12-01 | 一种融合定位方法及移动机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112612037A CN112612037A (zh) | 2021-04-06 |
CN112612037B true CN112612037B (zh) | 2023-10-24 |
Family
ID=75229854
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011382017.XA Active CN112612037B (zh) | 2020-12-01 | 2020-12-01 | 一种融合定位方法及移动机器人 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112612037B (zh) |
WO (1) | WO2022116657A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112612037B (zh) * | 2020-12-01 | 2023-10-24 | 珠海一微半导体股份有限公司 | 一种融合定位方法及移动机器人 |
CN115525046A (zh) * | 2021-06-24 | 2022-12-27 | 深圳乐动机器人股份有限公司 | 机器人及其沿边控制方法 |
CN113592997B (zh) * | 2021-07-30 | 2023-05-30 | 腾讯科技(深圳)有限公司 | 基于虚拟场景的物体绘制方法、装置、设备及存储介质 |
CN113741455B (zh) * | 2021-09-02 | 2023-03-28 | 重庆大学 | 一种移动机器人可视范围覆盖路径规划方法 |
CN114199235B (zh) * | 2021-11-29 | 2023-11-03 | 珠海一微半导体股份有限公司 | 一种基于扇面深度相机的定位系统及定位方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1366616A (zh) * | 2000-04-17 | 2002-08-28 | 罗伯特·博施有限公司 | 汽车间距和速度调整用传感器的辐射特性曲线的误校正测定方法和装置 |
US6653971B1 (en) * | 1999-05-14 | 2003-11-25 | David L. Guice | Airborne biota monitoring and control system |
DE102006051486A1 (de) * | 2006-10-31 | 2008-05-08 | Webasto Ag | Verfahren zum Bereitstellen eines Einklemmschutzes für bewegte Teile eines Kraftfahrzeugs, insbesondere zur Verwirklichung eines Einklemmschutzes bei einem Cabriolet-Fahrzeug |
CN106383515A (zh) * | 2016-09-21 | 2017-02-08 | 哈尔滨理工大学 | 一种基于多传感器信息融合的轮式移动机器人避障控制系统 |
CN106855411A (zh) * | 2017-01-10 | 2017-06-16 | 深圳市极思维智能科技有限公司 | 一种机器人及其以深度摄像头和避障系统构建地图的方法 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108802741A (zh) * | 2018-06-22 | 2018-11-13 | 西安电子科技大学 | 基于DSmT理论的移动机器人声纳数据融合方法 |
CN108919806A (zh) * | 2018-07-13 | 2018-11-30 | 杭州国辰机器人科技有限公司 | 一种基于多传感器数据融合的室外自主避障方法 |
CN110275179A (zh) * | 2019-04-09 | 2019-09-24 | 安徽理工大学 | 一种基于激光雷达以及视觉融合的构建地图方法 |
CN110849366A (zh) * | 2018-08-20 | 2020-02-28 | 广州弘度信息科技有限公司 | 一种基于视觉和激光雷达融合的导航方法及系统 |
CN111476286A (zh) * | 2020-04-02 | 2020-07-31 | 哈尔滨工程大学 | 一种移动机器人构建地图方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8818723B2 (en) * | 2012-08-27 | 2014-08-26 | Massachusetts Institute Of Technology | Localization and tracking system for mobile robots |
US9933264B2 (en) * | 2015-04-06 | 2018-04-03 | Hrl Laboratories, Llc | System and method for achieving fast and reliable time-to-contact estimation using vision and range sensor data for autonomous navigation |
US20170084183A1 (en) * | 2015-09-18 | 2017-03-23 | Robert M. Knox | Automatic aircraft separation assurance |
CN107462892B (zh) * | 2017-07-28 | 2021-11-30 | 深圳市远弗科技有限公司 | 基于多超声传感器的移动机器人同步定位与地图构建方法 |
CN109255302A (zh) * | 2018-08-15 | 2019-01-22 | 广州极飞科技有限公司 | 目标物识别方法及终端、移动装置控制方法及终端 |
CN112612037B (zh) * | 2020-12-01 | 2023-10-24 | 珠海一微半导体股份有限公司 | 一种融合定位方法及移动机器人 |
-
2020
- 2020-12-01 CN CN202011382017.XA patent/CN112612037B/zh active Active
-
2021
- 2021-09-24 WO PCT/CN2021/120080 patent/WO2022116657A1/zh active Application Filing
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6653971B1 (en) * | 1999-05-14 | 2003-11-25 | David L. Guice | Airborne biota monitoring and control system |
CN1366616A (zh) * | 2000-04-17 | 2002-08-28 | 罗伯特·博施有限公司 | 汽车间距和速度调整用传感器的辐射特性曲线的误校正测定方法和装置 |
DE102006051486A1 (de) * | 2006-10-31 | 2008-05-08 | Webasto Ag | Verfahren zum Bereitstellen eines Einklemmschutzes für bewegte Teile eines Kraftfahrzeugs, insbesondere zur Verwirklichung eines Einklemmschutzes bei einem Cabriolet-Fahrzeug |
CN106383515A (zh) * | 2016-09-21 | 2017-02-08 | 哈尔滨理工大学 | 一种基于多传感器信息融合的轮式移动机器人避障控制系统 |
CN106855411A (zh) * | 2017-01-10 | 2017-06-16 | 深圳市极思维智能科技有限公司 | 一种机器人及其以深度摄像头和避障系统构建地图的方法 |
CN108663681A (zh) * | 2018-05-16 | 2018-10-16 | 华南理工大学 | 基于双目摄像头与二维激光雷达的移动机器人导航方法 |
CN108802741A (zh) * | 2018-06-22 | 2018-11-13 | 西安电子科技大学 | 基于DSmT理论的移动机器人声纳数据融合方法 |
CN108919806A (zh) * | 2018-07-13 | 2018-11-30 | 杭州国辰机器人科技有限公司 | 一种基于多传感器数据融合的室外自主避障方法 |
CN110849366A (zh) * | 2018-08-20 | 2020-02-28 | 广州弘度信息科技有限公司 | 一种基于视觉和激光雷达融合的导航方法及系统 |
CN110275179A (zh) * | 2019-04-09 | 2019-09-24 | 安徽理工大学 | 一种基于激光雷达以及视觉融合的构建地图方法 |
CN111476286A (zh) * | 2020-04-02 | 2020-07-31 | 哈尔滨工程大学 | 一种移动机器人构建地图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112612037A (zh) | 2021-04-06 |
WO2022116657A1 (zh) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112612037B (zh) | 一种融合定位方法及移动机器人 | |
US9513107B2 (en) | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner | |
US9322646B2 (en) | Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning | |
US9342890B2 (en) | Registering of a scene disintegrating into clusters with visualized clusters | |
US9869755B2 (en) | Laser scanner and method of registering a scene | |
US20170138732A1 (en) | Surveying by mobile vehicles | |
CN108958250A (zh) | 多传感器移动平台及基于已知地图的导航与避障方法 | |
US9989353B2 (en) | Registering of a scene disintegrating into clusters with position tracking | |
JP2023112133A (ja) | 探測設備及びそのパラメータ調整方法 | |
CN103477185A (zh) | 用于确定对象表面的3d坐标的测量系统 | |
CN105452806A (zh) | 具有目标寻找功能的激光跟踪仪 | |
CN111624997A (zh) | 基于tof摄像模块的机器人控制方法、系统及机器人 | |
WO2014068406A2 (en) | Device for optically scanning and measuring an environment | |
CN112578392B (zh) | 一种基于远距离传感器的环境边界构建方法及移动机器人 | |
CN112612036B (zh) | 一种边界标记方法及移动机器人 | |
US20220137225A1 (en) | Three dimensional measurement device having a camera with a fisheye lens | |
CN109785431A (zh) | 一种基于激光网格的道路地面三维特征采集方法及装置 | |
CN113190007A (zh) | 一种地图轮廓修正方法、芯片和移动机器人 | |
CN112581771B (zh) | 自动驾驶车辆用的驾驶控制装置、停车用物标、驾驶控制系统 | |
CN113758480B (zh) | 一种面型激光定位系统、agv定位校准系统、以及agv定位方法 | |
CN115587603A (zh) | 机器人及其识别工作站的方法、系统、存储介质、工作站 | |
CN115718298A (zh) | Ugv和uav自动提供其激光雷达数据参照进行3d探测的系统 | |
CN210294530U (zh) | 一种自动行走装置和机器人 | |
CN116907512B (zh) | 一种室外无人清扫机器的组合打点清扫方法 | |
GB2543658A (en) | Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 519000 2706, No. 3000, Huandao East Road, Hengqin new area, Zhuhai, Guangdong Applicant after: Zhuhai Yiwei Semiconductor Co.,Ltd. Address before: 519000 room 105-514, No. 6, Baohua Road, Hengqin new area, Zhuhai City, Guangdong Province (centralized office area) Applicant before: AMICRO SEMICONDUCTOR Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |