CN108363391A - 机器人及其控制方法 - Google Patents
机器人及其控制方法 Download PDFInfo
- Publication number
- CN108363391A CN108363391A CN201810075295.7A CN201810075295A CN108363391A CN 108363391 A CN108363391 A CN 108363391A CN 201810075295 A CN201810075295 A CN 201810075295A CN 108363391 A CN108363391 A CN 108363391A
- Authority
- CN
- China
- Prior art keywords
- distance measuring
- measurement data
- robot
- measuring sensor
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 238000005259 measurement Methods 0.000 claims abstract description 110
- 238000012217 deletion Methods 0.000 claims abstract description 8
- 230000037430 deletion Effects 0.000 claims abstract description 8
- 230000033001 locomotion Effects 0.000 claims description 8
- 230000004888 barrier function Effects 0.000 abstract description 28
- 230000001360 synchronised effect Effects 0.000 description 71
- 238000010586 diagram Methods 0.000 description 19
- 238000005516 engineering process Methods 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 235000004443 Ricinus communis Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 240000000528 Ricinus communis Species 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/49—Protective device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种机器人及其控制方法,该机器人在使用OSS对机器人的自主移动进行控制的情况下,防止机器人向障碍物的碰撞。该方法是具备多个扫描测距传感器、并基于使用多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,包括以下步骤:删除多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
Description
技术领域
本发明涉及自主移动的机器人及其控制方法。
背景技术
作为在室内使用的自主移动机器人的自身位置识别技术,将事先制作的地图与从扫描测距传感器得到的数据进行对照的方法越来越常见。对于在该方法中使用的地图,一般是预先手动或自动地使自主移动机器人行驶,并使用即时定位与地图构建(SLAM,Simultaneous Localization and Maping)的方法制作的。
另一方面,近来,在各种领域中,开源软件(Open Source Software,以下称作OSS)的普及正快速地进行着。在机器人的领域中,例如机器人操作系统(ROS,Robot OperatingSystem)或RT中间件(RTM,RT-middleware)之类的OSS也开始在全世界迅速地普及。
在这些OSS之中也包含涉及机器人的自主移动的技术。通过使本公司开发的机器人与各自的OSS对应,能够简单地使该机器人在室内自主移动。这些OSS是以仅将一个扫描测距传感器设于机器人的正面的通用的机器人为前提而制作的。
但是,在实际开发机器人时,为了测量较大范围的周围环境,通常必须设置多个扫描测距传感器。例如,在人搭乘于自主移动机器人的情况下,由于人乘坐在该机器人的正面,所以通常在机器人的左右安装扫描测距传感器。在该情况下,在利用OSS制作地图时,需要将由左右的扫描测距传感器得到的各数据合并,使其像从设于机器人的正面的一个虚拟的扫描测距传感器(以下,称为虚拟传感器)得到的数据那样。
以往提出了下面的方法作为对由左右的扫描测距传感器得到的各数据进行合并的方法:将由各扫描测距传感器得到的各数据转换为以一个虚拟传感器的坐标为基准的数据,并对由各扫描测距传感器得到的各数据直接进行合并的方法(例如,参照专利文献1)。
这里,使用图12对专利文献1的地图的制作方法进行说明。图12是表示专利文献1的移动机器人具备多个扫描测距传感器且以由各位置传感器得到的数据为基础进行地图的生成的情况下的概要的图。
如图12所示,在移动机器人20中,作为扫描测距传感器,在不同的高度具备超声波传感器21a、21b、21c。
图12所示的周边地图22a、22b、22c分别是基于由超声波传感器21a、21b、21c得到的数据制作的地图。周边地图22a~22c的世界坐标与被融合的融合地图23的世界坐标相同。因此,能够通过直接合并周边地图22a、22b、22c的坐标并将它们重叠来制作融合地图23。
现有技术文献
专利文献
专利文献1:日本专利第4256812号公报
发明内容
发明要解决的问题
但是,在上述专利文献1中未设想使用OSS的情况。因此,在使用OSS对机器人的自主移动进行控制的情况下,存在生成错误的地图、基于该地图进行移动的机器人与障碍物碰撞的问题。
本发明的目的在于,使得能够在使用OSS对机器人的自主移动进行控制的情况下,防止机器人与障碍物碰撞。
解决问题的方案
本发明的机器人的控制方法是具备多个扫描测距传感器、并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,其包括以下步骤:删除所述多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
本发明的机器人是具备多个扫描测距传感器、并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人,其具备控制部,该控制部删除所述多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
发明效果
根据本发明,能够在使用OSS对机器人的自主移动进行控制的情况下,防止机器人与障碍物碰撞。
附图说明
图1是表示本发明的实施方式的移动机器人的外观、以及该移动机器人具备的控制部的结构的图。
图2是表示自主移动软件中使用的占据栅格地图的概要图。
图3A是将激光扫描测距传感器在规定的时刻时对障碍物测量出的测量数据以激光扫描测距传感器的原点为中心描绘出的概要图。
图3B是表示根据激光扫描测距传感器测量出的测量数据制作的占据栅格地图的概要图。
图4是表示移动机器人在移动时的动作流程的流程图。
图5是表示各激光扫描测距传感器的原点、障碍物、以及移动机器人主体的位置关系的概要图。
图6是表示多个测量数据的合并方法的流程的流程图。
图7是表示虚拟的激光扫描测距传感器的测定范围的分割示例的概要图。
图8是表示测定区域中包含的激光扫描测距传感器的测量点的一例的概要图。
图9A是将在规定的时刻时对障碍物进行了测量的激光扫描测距传感器的测量数据以激光扫描测距传感器的原点为中心描绘出的概要图。
图9B是表示基于激光扫描测距传感器测量出的激光扫描测距传感器的测量点、和线段数据制作的占据栅格地图的概要图。
图10A是表示假定在规定的时刻时对障碍物进行了测量的激光扫描测距传感器的激光扫描测距传感器的测量点的全部与从虚拟的激光扫描测距传感器的原点得到的激光扫描测距传感器的测量点相同的情况下的概要图。
图10B是表示直接包含矛盾地制作的占据栅格地图的概要图。
图11A是表示将使矛盾产生的激光扫描测距传感器的测量点删除后的、虚拟的激光扫描测距传感器测量出的激光扫描测距传感器的测量点、和线段数据的概要图。
图11B是表示基于激光扫描测距传感器的测量点和线段数据制作的占据栅格地图的概要图。
图12是表示专利文献1的地图制作方法的概要图。
附图标记说明
1 驱动轮
2 脚轮
3 移动机器人主体
4R、4L 激光扫描测距传感器
4Ra、4La、10a 激光扫描测距传感器的原点
4Rb、4Lb、10b 激光扫描测距传感器的测量点
4Rc、4Lc、10c 线段数据
5a 虚拟的激光扫描测距传感器的原点
5b 虚拟的激光扫描测距传感器的测量点
5c 虚拟的扫描测距传感器的线段数据
5d 测定区域
6 未知区域
7 障碍物区域
8 可移动区域
9 障碍物
11 传感器合并部
12 地图部
13 目的地设定部
14 自身位置估计部
15 智能部
16 驱动轮控制部
17 控制部
20、100 移动机器人
21a、21b、21c 超声波传感器
22a、22b、22c 周边地图
23 融合地图
具体实施方式
以下,参照附图对本发明的实施方式进行说明。
首先,使用图1对本发明的实施方式的移动机器人100的结构进行说明。图1是表示本实施方式的移动机器人100的外观、以及该移动机器人100具备的控制部17的结构的图。
如图1所示,移动机器人100具有:移动机器人主体3、设于移动机器人主体3的一对驱动轮1(图1中仅示出了单侧的驱动轮1)、设于移动机器人主体3的一个脚轮2、设于移动机器人主体3的激光扫描测距传感器4R、4L、以及控制部17。
另外,如图1所示,控制部17具有:传感器合并部11、地图部12、目的地设定部13、自身位置估计部14、智能部15、和驱动轮控制部16。
传感器合并部11对由激光扫描测距传感器4R测量出的测量数据、和由激光扫描测距传感器4L测量出的测量数据进行合并。下面将合并后的测量数据称作“合并测量数据”。
地图部12制作并存储(以下也称作管理)移动机器人100移动的区域(空间)的地图。
目的地设定部13将地图中的特定的位置的坐标设定为移动机器人100的移动去处(目的地)。下面将所设定的移动去处的坐标称作“目标坐标”。
自身位置估计部14基于合并测量数据和地图,估计移动机器人100的当前位置(自身位置)。将估计出的位置的坐标在以下称作“当前位置坐标”。
智能部15基于合并测量数据、目标坐标、和当前位置坐标,进行移动机器人移动的路径的生成、以及对路径上的障碍物的识别。
驱动轮控制部16控制驱动轮1,以使移动机器人100在由智能部15生成的路径上移动(行驶)。
移动机器人100通过使一对驱动轮1向图1的箭头a的方向旋转,来向图1的箭头b的方向行驶(前进)。将该箭头b所示的方向设为移动机器人100的行进方向(前进方向)。
另外,移动机器人100还能够通过使一对驱动轮1向与箭头a相反方向旋转,来向与箭头b的方向相反方向行驶(后退)。
另外,一对驱动轮1构成为能够单独地进行旋转。由此,能够通过使一对驱动轮1相互反向旋转,来使移动机器人100自旋转。
激光扫描测距传感器4R设于移动机器人100的、相对于行进方向的右侧,激光扫描测距传感器4L设于移动机器人100的、相对于行进方向的左侧。优选激光扫描测距传感器4R、4L如图1所示那样都设于移动机器人主体3的最前方。
以上,对移动机器人100的结构进行了说明。
接着,使用图2,对地图部12制作并存储的地图的一例进行说明。图2是ROS或RTM等OSS(自主移动软件)中使用的占据栅格地图200的概要图。图2的(a)是将占据栅格地图200的一部分放大后的图。
如图2的(a)所示,占据栅格地图200中,移动机器人100移动的区域被划分为栅格状。占据栅格地图200中包含的各栅格属于以下区域中的某一种:未被激光扫描测距传感器4R、4L检测的未知区域6、包含障碍物的障碍物区域7、或者移动机器人100能够移动的可移动区域8。
接着,使用图3,对图2所示的占据栅格地图200的制作方法进行说明。图3是表示规定的时刻t时的占据栅格地图的制作方法的概要图。
图3A是将激光扫描测距传感器(省略图示)在规定的时刻t时对障碍物9测量出的测量数据,以激光扫描测距传感器的原点10a为中心描绘出的图。
在图3A中,将从激光扫描测距传感器发出的激光与障碍物9相交的点设为激光扫描测距传感器的测量点10b。
另外,在图3A中,将连结各激光扫描测距传感器的测量点10b、与原点10a的线段(图中的虚线)设为线段数据10c。
此外,当从激光扫描测距传感器10发出的激光未在某一定的距离内与障碍物9相交的情况下,将激光扫描测距传感器测量点10b及线段数据10c视为不存在。
图3B是表示根据激光扫描测距传感器测量出的测量数据制作的占据栅格地图200的图。
占据栅格地图200中包含的全部的栅格在最初属于未知区域6。然后,地图部12将线段数据10c通过的栅格变更为可移动区域8,将包含激光扫描测距传感器测量点10b的栅格变更为障碍物区域7。地图部12在如t、t+Δt、t+Δt+1那样的连续时间上进行该处理。由此,逐步制作占据栅格地图200。
接着,使用图4对移动机器人100的移动时的动作流程进行说明。图4是表示移动机器人100的移动时的动作流程的流程图。
在步骤S1中,目的地设定部13在地图部12管理的占据栅格地图200中,对移动机器人100的目的地(目标坐标)进行设定。
具体而言,目的地设定部13将构成占据栅格地图200的栅格中的某一个设定为目的地。这时设定的栅格一定是属于可移动区域8的栅格。
在步骤S2中,智能部15在地图部12管理的占据栅格地图200中确定由自身位置估计部14估计出的移动机器人100的当前位置(当前位置坐标),并计算出从移动机器人100的当前位置到步骤S1中所设定的移动机器人100的目的地的路径。
具体而言,智能部15从构成占据栅格地图200的栅格之中检索与当前位置相符的栅格,将检索到的栅格设定为当前位置。然后,智能部15计算占据栅格地图200上从被设定为当前位置的栅格到被设定为目的地的栅格的路径。在该路径的计算(生成)中,例如使用了公知的A*(A-star,A星)算法,但不限于此,也可以使用其他的公知技术。
在步骤S3中,驱动轮控制部16以使移动机器人100沿着所生成的路径移动(行驶)的方式,控制驱动轮1。由此,移动机器人100向目的地移动。
在该移动中,自身位置估计部14随时估计移动机器人100的当前位置,智能部15随时计算该当前位置与所设定的目的地之间的距离,并对该距离是否为已预先设定的一定距离以下进行判定。
在步骤S4中,智能部15在当前位置与目的地之间的距离为一定距离以下的情况下,判断为到达目的地。然后,驱动轮控制部16停止对驱动轮1的驱动,使移动机器人100的移动停止。
接着,传感器合并部11将由激光扫描测距传感器4R得到的测量数据和由激光扫描测距传感器4L得到的测量数据,以使比实际设置的激光扫描测距传感器的数量(例如两个)少的数量(例如一个)的虚拟传感器得到上述测量数据的方式对上述测量数据进行合并,使用图5对该合并方法进行说明。
图5是表示各激光扫描测距传感器的原点、障碍物9、以及移动机器人主体3之间的位置关系的概要图。
在图5中,4Ra是图1所示的激光扫描测距传感器4R的原点,4La是图1所示的激光扫描测距传感器4L的原点。另外,5a是虚拟的激光扫描测距传感器(省略图示)的原点。在该情况下,将虚拟的激光扫描测距传感器的原点5a设为处于连结激光扫描测距传感器4R的原点4Ra与激光扫描测距传感器4L的原点4La的线段上。此外,只要在该线段上,虚拟的激光扫描测距传感器的原点5a可以处于任意位置。
接着,使用图6,对测量数据的合并方法的流程进行说明。图6是表示测量数据的合并方法的流程的流程图。
在步骤S11中,传感器合并部11将分别从激光扫描测距传感器4R、4L得到的激光扫描测距传感器的测量点4Rb、4Lb全部标示为二维坐标。该二维坐标是虚拟的激光扫描测距传感器的二维坐标。
在步骤S12中,传感器合并部11将二维坐标上的虚拟的激光扫描测距传感器的扫描范围分割为多个扇形。使用图7、图8,对该具体例进行说明。
在图7中,虚拟的激光扫描测距传感器的扫描范围300是以原点5a为中心、半径为L的圆。传感器合并部11将该扫描范围300分割为形状相同的扇形。图7的(a)是分割后的一个扇形的放大图。如图7的(a)所示,一个扇形是以原点5a为中心、中心角为Δθ、半径为L的扇形。将该一个扇形设为测定区域5d。
如图8所示,在测定区域5d中有时会包含激光扫描测距传感器的测量点4Rb、4Lb。
在步骤S13中,传感器合并部11当在一个扇形(测定区域5d)中包含多个激光扫描测距传感器的测量点的情况下,从多个测量点之中选定一个测量点。
例如,如图8的(a)所示,在一个测定区域5d中包含多个激光扫描测距传感器的测量点4Rb或4Lb的情况下,传感器合并部11分别计算出从原点5a到各测量点4Rb、4Lb的距离。
然后,传感器合并部11将距原点5a的距离最短的测量点选定为合并用处理数据(作为合并的对象的测量数据)。这时,将所选定的测量点以外的测量点删除。其理由是,若在一个测定区域中存在多个测量点而以此状态进行测量数据的合并,则会产生以下矛盾:除了被选定的测量点以外,在测量数据的合并后存在本来无法从虚拟的激光扫描测距传感器的位置测量到的测量点。
仅当在一个测定区域5d中包含多个激光扫描测距传感器的测量点的情况下进行上述的步骤S13的处理。
在步骤S14中,传感器合并部11将每个测定区域5d中包含的激光扫描测距传感器的测量点(步骤S13中所选定的测量点)变更(决定)为虚拟的激光扫描测距传感器的测量点。
之后,基于变更后的虚拟的激光扫描测距传感器的测量点,制作占据栅格地图,基于该占据栅格地图进行移动机器人100的自主移动的控制。
接着,使用图9及图10对比较例进行说明,之后,使用图11对本实施方式的作用效果进行说明。
图9是表示在规定的时刻t时,不合并激光扫描测距传感器4R、4L的测量数据而制作占据栅格地图200的情况下的概要图。
图9A是将在规定的时刻t时对障碍物9进行了测量的激光扫描测距传感器4R、4L的测量数据,以激光扫描测距传感器的原点4Ra、4La为中心描绘出的图。图9A中,4Rb、4Lb分别表示激光扫描测距传感器4R、4L的测量点。另外,图9A中,4Rc、4Lc分别表示将原点4Ra与测量点4Rb连结的线段数据、和将原点4La与测量点4Lb连结的线段数据。
图9B是表示基于激光扫描测距传感器4R、4L测量出的激光扫描测距传感器的测量点4Rb、4Lb、线段数据4Rc、4Lc制作的占据栅格地图200的图。在激光扫描测距传感器4R、4L和障碍物9之间例如是图5所说明的位置关系的情况下,准确的占据栅格地图为图9B所示的占据栅格地图200。
另一方面,图10是表示在规定的时刻t时,对激光扫描测距传感器4R、4L的测量数据不进行特别的处理而直接合并,并制作占据栅格地图200的情况下的概要图。
图10A是表示假定了在规定的时刻t时对障碍物9进行了测量的激光扫描测距传感器4R、4L的激光扫描测距传感器的测量点4Rb、4Lb全部与从虚拟的激光扫描测距传感器的原点5a得到的激光扫描测距传感器的测量点5b相同的情况下的概要的图。
图10A中,各激光扫描测距传感器的测量点5b的坐标与图9A所示的全部的激光扫描测距传感器的测量点4Rb、4Lb的坐标相同。线段数据5c是将激光扫描测距传感器的测量点5b与虚拟的激光扫描测距传感器的原点5a连接而成的线段。
如图10A所示,一部分的线段数据5c与障碍物9交叉。由此可知,在激光扫描测距传感器的测量点5b之中,存在若干个使矛盾产生的激光扫描测距传感器的测量点5b。
图10B是表示直接包含上述的矛盾地制作的占据栅格地图200的图。可知,在图10B中,由框边界a包围的区域与图9B所示的占据栅格地图200不同。
移动机器人本来无法进入障碍物9的内侧,但在图10B所示的占据栅格地图200中,在框边界a内(障碍物9内に相当)存在可移动区域8,所以移动机器人变得可以进入障碍物9内。由此,在使用该图10B所示的占据栅格地图来实际地进行移动机器人的自主移动的情况下,会产生移动机器人与障碍物9碰撞的问题。
图11是表示按照图6的步骤S13所说明的那样,在选定了一个测量点5b(删除了其他测量点5b)之后,制作占据栅格地图200的情况下的概要图。如上所述,若在一个测定区域中存在多个测量点而以此状态进行测量数据的合并,则会产生以下矛盾:除了被选定的测量点以外,在测量数据的合并后存在本来无法从虚拟的激光扫描测距传感器的位置测量到的测量点,因此将该被选定的测量点以外的测量点删除。
图11A是表示将使上述矛盾产生的激光扫描测距传感器的测量点5b删除之后的、虚拟的激光扫描测距传感器测量出的激光扫描测距传感器的测量点5b、和线段数据5c的概要的图。
图11B是表示基于激光扫描测距传感器的测量点5b和线段数据5c制作的占据栅格地图200的图。
在图11B所示的占据栅格地图200中,不存在如图10B所示的占据栅格地图200那样位于障碍物9的内部的可移动区域8(即,未产生上述矛盾)。虽然图11B所示的占据栅格地图200中的未知区域6比图9B所示的占据栅格地图200中的未知区域6多,但随着移动机器人100的移动,而不断地获得测量数据并更新地图,最终成为没有矛盾且精度高的地图。
此外,在上述的实施方式中,列举使用激光扫描测距传感器(激光测距仪)作为扫描测距传感器的情况为例进行了说明,但扫描测距传感器也可以是超声波传感器、光学式传感器、或摄像头传感器。由此,移动机器人的自主移动的性能得到提高。
另外,不仅在进行自主移动机器人用的地图的生成的情况下,在自身位置估计部14估计移动机器人100的当前位置时也能够活用上述的图6的合并方法。
如以上详述的那样,本实施方式的特征在于,使用设于移动机器人的多个激光扫描测距传感器的测量数据以制作地图,并基于该地图进行自主移动的情况下,将多个扫描测距传感器的测量数据的一部分删除,将删除后剩余的测量数据合并,将合并后的测量数据决定(变更)为比多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
由此,在使用OSS控制移动机器人的自主移动的情况下,也能够生成准确的地图,能够防止移动机器人错误地与障碍物碰撞的情况。
本发明不限于上述实施方式的说明,能够在不脱离其要点的范围内进行各种变形。
工业实用性
本发明能够在移动体的自主移动或自动运行的领域中活用。
Claims (8)
1.一种机器人的控制方法,是具备多个扫描测距传感器,并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人的控制方法,其特征在于,包括以下步骤:
删除所述多个扫描测距传感器的测量数据的一部分,
将删除后剩余的测量数据合并,
将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
2.如权利要求1所述的机器人的控制方法,其特征在于,
所述测量数据的一部分是在所述虚拟扫描测距传感器的位置无法测量到的数据。
3.如权利要求1所述的机器人的控制方法,其特征在于,
将所述虚拟扫描测距传感器的扫描范围以所述虚拟扫描测距传感器的位置为基准分割为多个测定区域,
所述测量数据的一部分是分割出的一个测定区域中包含的多个测量数据中的、除了距所述虚拟扫描测距传感器的位置的距离最短的测量数据以外的测量数据。
4.如权利要求3所述的机器人的控制方法,其特征在于,
所述虚拟扫描测距传感器的扫描范围是圆形,并以所述虚拟扫描测距传感器的位置为中心,按规定的角度等分。
5.如权利要求4所述的机器人的控制方法,其特征在于,
所述测定区域的形状是中心角度为所述规定的角度的扇形。
6.如权利要求1所述的机器人的控制方法,其特征在于,
使用所述虚拟扫描测距传感器的测量数据,生成在所述机器人的移动中使用的地图。
7.如权利要求1所述的机器人的控制方法,其特征在于,
使用所述虚拟扫描测距传感器的测量数据,估计所述机器人的当前位置。
8.一种机器人,是具备多个扫描测距传感器,并基于使用该多个扫描测距传感器的测量数据制作的地图进行自主移动的机器人,其特征在于,
具备控制部,该控制部删除所述多个扫描测距传感器的测量数据的一部分,将删除后剩余的测量数据合并,将合并后的测量数据决定为比所述多个扫描测距传感器的数量少的数量的虚拟扫描测距传感器的测量数据。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-012439 | 2017-01-26 | ||
JP2017012439A JP6809913B2 (ja) | 2017-01-26 | 2017-01-26 | ロボット、ロボットの制御方法、および地図の生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108363391A true CN108363391A (zh) | 2018-08-03 |
CN108363391B CN108363391B (zh) | 2022-04-15 |
Family
ID=62905869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810075295.7A Active CN108363391B (zh) | 2017-01-26 | 2018-01-25 | 机器人及其控制方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10976749B2 (zh) |
JP (1) | JP6809913B2 (zh) |
CN (1) | CN108363391B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102324099B1 (ko) * | 2019-12-26 | 2021-11-10 | 주식회사 트위니 | 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램 |
JP2022069057A (ja) * | 2020-10-23 | 2022-05-11 | パナソニックホールディングス株式会社 | 位置推定システム |
JP7511504B2 (ja) | 2021-02-16 | 2024-07-05 | 三菱重工業株式会社 | 移動体、移動制御システム、移動体の制御方法及びプログラム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000507A (zh) * | 2006-09-29 | 2007-07-18 | 浙江大学 | 移动机器人在未知环境中同时定位与地图构建的方法 |
CN101842823A (zh) * | 2007-11-06 | 2010-09-22 | 电子地图北美公司 | 用于使用来自多个车辆的探头数据来检测供在更新地图中使用的真实世界改变的方法及系统 |
CN102062587A (zh) * | 2010-12-13 | 2011-05-18 | 上海大学 | 基于激光传感器的多移动机器人位姿测定方法 |
US20110282622A1 (en) * | 2010-02-05 | 2011-11-17 | Peter Canter | Systems and methods for processing mapping and modeling data |
CN102449568A (zh) * | 2009-06-01 | 2012-05-09 | 株式会社日立制作所 | 机器人管理系统、机器人管理终端、机器人管理方法和程序 |
CN103198751A (zh) * | 2013-03-06 | 2013-07-10 | 南京邮电大学 | 一种移动机器人基于激光测距仪的线特征地图创建方法 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000234908A (ja) * | 1999-02-16 | 2000-08-29 | Toshiba Corp | 距離計 |
US7398481B2 (en) * | 2002-12-10 | 2008-07-08 | Science Applications International Corporation (Saic) | Virtual environment capture |
JP4256812B2 (ja) | 2004-04-26 | 2009-04-22 | 三菱重工業株式会社 | 移動体の障害物回避方法及び該移動体 |
JP4464893B2 (ja) * | 2004-09-13 | 2010-05-19 | パナソニック株式会社 | 移動ロボット |
US7826969B2 (en) * | 2006-12-21 | 2010-11-02 | Deere & Company | Determining position of a vehicle with reference to a landmark |
US20090018712A1 (en) * | 2007-07-13 | 2009-01-15 | Jerry Richard Duncan | Method and system for remotely monitoring and controlling a vehicle via a virtual environment |
KR101271114B1 (ko) * | 2008-10-01 | 2013-06-04 | 무라다기카이가부시끼가이샤 | 자율 이동 장치 |
JP2011128899A (ja) * | 2009-12-17 | 2011-06-30 | Murata Machinery Ltd | 自律移動装置 |
US8863256B1 (en) * | 2011-01-14 | 2014-10-14 | Cisco Technology, Inc. | System and method for enabling secure transactions using flexible identity management in a vehicular environment |
US9020637B2 (en) * | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
JP6132659B2 (ja) * | 2013-02-27 | 2017-05-24 | シャープ株式会社 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
JP2015055606A (ja) * | 2013-09-13 | 2015-03-23 | 株式会社オートネットワーク技術研究所 | 距離計測システム及び3次元画像生成システム |
JP6450273B2 (ja) * | 2015-07-08 | 2019-01-09 | 本田技研工業株式会社 | 移動ロボットの動作環境情報生成装置 |
-
2017
- 2017-01-26 JP JP2017012439A patent/JP6809913B2/ja active Active
-
2018
- 2018-01-24 US US15/878,968 patent/US10976749B2/en active Active
- 2018-01-25 CN CN201810075295.7A patent/CN108363391B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000507A (zh) * | 2006-09-29 | 2007-07-18 | 浙江大学 | 移动机器人在未知环境中同时定位与地图构建的方法 |
CN101842823A (zh) * | 2007-11-06 | 2010-09-22 | 电子地图北美公司 | 用于使用来自多个车辆的探头数据来检测供在更新地图中使用的真实世界改变的方法及系统 |
CN102449568A (zh) * | 2009-06-01 | 2012-05-09 | 株式会社日立制作所 | 机器人管理系统、机器人管理终端、机器人管理方法和程序 |
US20110282622A1 (en) * | 2010-02-05 | 2011-11-17 | Peter Canter | Systems and methods for processing mapping and modeling data |
CN102062587A (zh) * | 2010-12-13 | 2011-05-18 | 上海大学 | 基于激光传感器的多移动机器人位姿测定方法 |
CN103198751A (zh) * | 2013-03-06 | 2013-07-10 | 南京邮电大学 | 一种移动机器人基于激光测距仪的线特征地图创建方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2018120482A (ja) | 2018-08-02 |
CN108363391B (zh) | 2022-04-15 |
JP6809913B2 (ja) | 2021-01-06 |
US10976749B2 (en) | 2021-04-13 |
US20180210455A1 (en) | 2018-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200301443A1 (en) | Discovery and monitoring of an environment using a plurality of robots | |
US9625912B2 (en) | Methods and systems for mobile-agent navigation | |
Madhavan et al. | Distributed cooperative outdoor multirobot localization and mapping | |
JP7502409B2 (ja) | 中間ウェイポイント生成器 | |
US9625908B2 (en) | Methods and systems for mobile-agent navigation | |
Mautz et al. | Survey of optical indoor positioning systems | |
CN106227212B (zh) | 基于栅格地图和动态校准的精度可控室内导航系统及方法 | |
Kümmerle et al. | A navigation system for robots operating in crowded urban environments | |
CN110967711A (zh) | 数据采集方法和系统 | |
US11846949B2 (en) | Systems and methods for calibration of a pose of a sensor relative to a materials handling vehicle | |
CN109541535A (zh) | 一种基于uwb和视觉slam的agv室内定位及导航的方法 | |
JP2009169845A (ja) | 自律移動ロボット及び地図更新方法 | |
CN108363391A (zh) | 机器人及其控制方法 | |
US20190331496A1 (en) | Locating a vehicle | |
CN109506652A (zh) | 一种基于地毯偏移的光流数据融合方法及清洁机器人 | |
Teixeira et al. | Autonomous aerial inspection using visual-inertial robust localization and mapping | |
JP2022530246A (ja) | 自己位置推定及び環境地図作成の同時実行 | |
JP2020095339A (ja) | 移動体、移動体の制御方法及びプログラム | |
JPWO2015141445A1 (ja) | 移動体 | |
CN111609853A (zh) | 三维地图构建方法、扫地机器人及电子设备 | |
JP2018005709A (ja) | 自律移動装置 | |
CN110945510A (zh) | 借助于测量车辆进行空间测量的方法 | |
CN108180913A (zh) | 一种基于3d摄像头的二维码定位系统 | |
Pereira et al. | Backward motion for estimation enhancement in sparse visual odometry | |
WO2023196216A1 (en) | Methods and systems of navigational state detection for unobservable regions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder |
Address after: Osaka, Japan Patentee after: Panasonic Holding Co.,Ltd. Address before: Osaka, Japan Patentee before: Matsushita Electric Industrial Co.,Ltd. |
|
CP01 | Change in the name or title of a patent holder |