CN106339001B - 地图生成方法、移动机器人以及地图生成系统 - Google Patents
地图生成方法、移动机器人以及地图生成系统 Download PDFInfo
- Publication number
- CN106339001B CN106339001B CN201610488378.XA CN201610488378A CN106339001B CN 106339001 B CN106339001 B CN 106339001B CN 201610488378 A CN201610488378 A CN 201610488378A CN 106339001 B CN106339001 B CN 106339001B
- Authority
- CN
- China
- Prior art keywords
- information
- area
- sensor
- mobile robot
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 94
- 238000001514 detection method Methods 0.000 claims abstract description 98
- 230000007613 environmental effect Effects 0.000 description 75
- 238000012545 processing Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 230000001965 increasing effect Effects 0.000 description 6
- 238000009434 installation Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/08—Control of attitude, i.e. control of roll, pitch, or yaw
- G05D1/0808—Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Instructional Devices (AREA)
- Traffic Control Systems (AREA)
- Manipulator (AREA)
Abstract
本公开涉及地图生成方法、移动机器人以及地图生成系统。在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行地图生成方法,从所述第1传感器取得第1信息,从所述第2传感器取得第2信息,从设置于所述第1区域的第3传感器取得第3信息,取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,在基于所述第4信息和所述第5信息判断为存在所述第2区域与所述第3区域重叠的区域即第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新所述第1区域的地图信息。
Description
技术领域
本公开涉及地图生成方法、移动机器人以及地图生成系统。
背景技术
机器人技术是以人不能进入的环境中的探查或替代人来工作的自动化为目的而发展起来的。近年来,正在销售一边在家庭内移动一边进行打扫的移动机器人等,移动机器人进入了人类生活中能切身感受到的领域。在这样的移动机器人中,为了决定移动路线,移动机器人自身需要正确地识别自身的位置以及姿势、周边环境。
作为推定自身位置以及制作地图的技术,已知有SLAM(Simultaneous LocationAnd Mapping,即时定位与地图构建)技术。在SLAM技术中,使用移动机器人所具备的检测位置以及姿势的变化量的内部传感器和移动机器人所具备的获得相对于周边环境的相对信息的外部传感器。在SLAM技术中,通过使用这些传感器,即使不预先向移动机器人提供地图信息,也能够结合自身的位置以及姿势的推定来制作周边的地图。
SLAM技术主要反复进行两个处理。第1处理是如下处理:根据由内部传感器取得的信息来预测移动机器人当前的位置以及姿势,基于预测出的位置以及姿势和过去制作的地图信息,预测移动机器人相对于周边环境的相对信息。第2处理是如下处理:基于通过第1处理预测出的相对信息和由外部传感器得到的实际的相对于周边环境的相对信息来计算似然度。根据计算出的似然度来决定内部传感器和外部传感器的可靠度的权重,更新移动机器人当前的自身位置及姿势和地图信息。
另外,作为实现存在地图变化的环境中的自主移动的方法,公开了专利文献1。专利文献1所公开的自主行驶车,通过使用激光束或摄像头等传感器来推定相对于对象物的自身位置及姿势,算出自主行驶车自身是否能够行驶。并且,专利文献1所公开的自主行驶车,基于算出的自主行驶车自身是否能够行驶和通过飞行器取得的是否能够行驶,进行自主行驶车是否能够行驶的判断。
现有技术文献
专利文献1:日本特开2011-108084号公报
发明内容
发明要解决的技术问题
在进行探查或替代人来工作的移动机器人中,除了判断是否能够行驶之外,还希望生成精度更高的地图。然而,在专利文献1所公开的自主行驶车中,对于生成精度更高的地图这一点并没有进行研究。
本公开提供一种能够生成精度更高的地图的地图生成方法、移动机器人以及地图生成系统。
用于解决问题的技术方案
本公开涉及的第1技术方案的地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息;从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域;在判断为存在所述第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息。
本公开涉及的第2技术方案的地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息;从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中;在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
发明的效果
根据本公开,能够生成精度更高的地图。
附图说明
图1是本公开的实施方式1涉及的地图生成系统的概略构成图。
图2是表示本公开的实施方式1涉及的移动机器人的构成的框图。
图3是方差的定义的说明图。
图4是表示本公开的实施方式1中的环境传感器的构成的框图。
图5是表示本公开的实施方式1涉及的移动机器人以及环境传感器的工作的一例的图。
图6是表示本公开的实施方式1涉及的地图生成方法的流程图。
图7A是表示本公开的实施方式1涉及的移动机器人以及环境传感器的工作的一例的图。
图7B是表示本公开的实施方式1涉及的移动机器人以及环境传感器的工作的一例的图。
图8是表示本公开的实施方式1涉及的另一地图生成方法的流程图。
标号说明
100 地图生成系统
110 网络
200 移动机器人
201 检测区域
210 机器人侧通信部
220 内部传感器
230 外部传感器
240 坐标转换部
250 自身位置及姿势推定部
260 似然度计算部
270 地图信息更新部
280 地图信息记录部
301、302、303 环境传感器
311、312、313 检测区域
321 环境信息取得部
331 环境传感器通信部
400 对象物
401 区域
500 壁面
具体实施方式
(1)本公开涉及的第1技术方案的地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息;从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域;在判断为存在所述第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息。
通过如此构成,在移动机器人的外部传感器的检测区域与环境传感器的检测区域重叠的区域中,能够更新移动机器人的地图信息。因此,能够生成精度更高的地图。
(2)在上述技术方案中,所述地图生成方法还可以包括:基于所述第1信息和所述第2信息,推定表示所述第1移动机器人的当前位置和姿势的第6信息,所述第4信息基于所述第6信息来计算。
通过如此构成,能够提高与移动机器人的外部传感器的检测区域和环境传感器的检测区域重叠的区域相关的地图信息的可靠度。因此,能够生成精度更高的地图。
(3)在上述技术方案中,可以通过更新表示所述第1物体的位置的第1位置信息的可靠度,更新所述第1区域的地图信息。
通过如此构成,能够提高与移动机器人的外部传感器的检测区域和环境传感器的检测区域重叠的区域相关的地图信息的可靠度。因此,能够生成精度更高的地图。
(4)在上述技术方案中,可以通过将所述第1位置信息的第1方差值更新为比所述第1方差值小的第2方差值,更新所述第1位置信息的可靠度。
通过如此构成,能够提高与移动机器人的外部传感器的检测区域和环境传感器的检测区域重叠的区域相关的地图信息的可靠度。因此,能够生成精度更高的地图。
(5)在上述技术方案中,所述第3传感器配置在所述第1区域,所述第1区域的地图信息通过第1坐标系来表现,所述第5信息通过第2坐标系来表现,所述地图生成方法还可以包括:将所述第2坐标系转换成所述第1坐标系。
通过如此构成,能够使配置于周边环境的环境传感器的检测区域的坐标与所述移动机器人的地图信息的坐标一致,因此能够生成精度更高的地图。
(6)在上述技术方案中,所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,所述第1区域的地图信息通过第1坐标系来表现,所述第5信息通过所述第2移动机器人的第2坐标系来表现,所述地图生成方法还可以包括:将所述第2坐标系转换成所述第1坐标系。
通过如此构成,能够使用第2移动机器人的第2外部传感器作为环境传感器来生成地图信息,因此能够在短时间生成高精度的地图。
(7)本公开涉及的第2技术方案的地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息;从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中;在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
通过如此构成,能够基于由环境传感器取得的环境信息,检测外部传感器的检测区域外的环境变化。因此,移动机器人能够使用环境传感器的信息来更新与检测到环境变化的区域相关的地图信息。其结果是,即使在发生了环境变化的情况下,也能够生成精度更高的地图。
(8)在上述技术方案中,所述地图生成方法还可以包括:基于所述第1信息和所述第2信息,推定表示所述第1移动机器人的当前位置和姿势的第6信息,所述第4信息基于所述第6信息来计算。
通过如此构成,移动机器人能够稳健地推定自身位置及姿势,能够生成精度更高的地图。
(9)在上述技术方案中,可以通过更新表示所述第2物体的位置的第1位置信息的可靠度,更新所述第4区域的地图信息。
通过如此构成,移动机器人能够使用环境传感器的信息来更新与检测到环境变化的区域相关的地图信息。其结果是,即使在发生了环境变化的情况下,也能够生成精度更高的地图。
(10)在上述技术方案中,可以通过将所述第1位置信息的第1方差值更新为比所述第1方差值大的第2方差值,更新所述第1位置信息的可靠度。
通过如此构成,能够降低与检测到环境变化的区域相关的地图信息的可靠度。由此,移动机器人能够不依靠可靠度低的部分的地图信息而基于可靠度高的部分的地图信息来推定自身位置及姿势。其结果是,能够生成精度更高的地图。
(11)在上述技术方案中,可以与从所述第1位置向所述第2位置的变化量相应地,使所述第2方差值比所述第1方差值大。
通过如此构成,通过使方差的值对应于环境的变化的量而增大,能够更准确地推定移动机器人的自身位置及姿势。由此,能够生成精度更高的地图信息。
(12)在上述技术方案中,在所述第1移动机器人的当前位置不位于所述第3区域、且所述第2区域与所述第3区域不重叠的情况下,可以针对所述第4区域,更新所述第1区域的地图信息。
通过如此构成,即使在移动机器人的死角发生了环境变化的情况下,也能够使用由环境传感器取得的信息,更新与检测到环境变化的区域相关的地图信息的可靠度。因此,即使在移动机器人的死角发生了环境变化的情况下,也能够在短时间修正发生了变化的区域的地图信息,生成高精度的地图。
(13)在上述技术方案中,所述第3传感器配置在所述第1区域,所述第1区域的地图信息通过第1坐标系来表现,所述第5信息通过第2坐标系来表现,所述地图生成方法还可以包括:将所述第2坐标系转换成所述第1坐标系。
通过如此构成,能够使配置于周边环境的环境传感器的检测区域的坐标与所述移动机器人的地图信息的坐标一致,由此能够生成精度更高的地图。
(14)在上述技术方案中,所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,所述第1区域的地图信息通过第1坐标系来表现,所述第5信息通过所述第2移动机器人的第2坐标系来表现,所述地图生成方法还可以包括:将所述第2坐标系转换成所述第1坐标系。
通过如此构成,能够使用第2移动机器人的第2外部传感器作为环境传感器来生成地图信息,因此能够在短时间生成高精度的地图。
(15)在上述技术方案中,所述地图生成方法还可以包括:针对从所述第2传感器在预定时间未进行所述第2信息的取得的第5区域,对于所述地图信息,将所述第5区域的第3方差值更新为比所述第3方差值大的第4方差值。
通过如此构成,能够降低与在预定的时间未从外部传感器进行外部信息的取得的区域相关的地图信息的可靠度。由此,能够不依靠可靠度低的部分的地图信息而基于可靠度高的部分的地图信息来推定自身位置及姿势。其结果是,能够生成精度更高的地图。
(16)本公开涉及的第3技术方案的移动机器人,是在第1区域移动的移动机器人,具备:第1传感器;和第2传感器,从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域,在判断为存在所述第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息。
通过如此构成,在移动机器人的外部传感器的检测区域与环境传感器的检测区域重叠的区域,能够使用由环境传感器取得的信息来更新移动机器人的地图信息。因此,能够生成精度更高的地图。
(17)本公开涉及的第4技术方案的移动机器人,是在第1区域移动的移动机器人,具备:第1传感器;和第2传感器,从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中,在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
通过如此构成,能够基于由环境传感器取得的环境信息,检测外部传感器的检测区域外的环境的变化。因此,移动机器人能够使用环境传感器的信息来更新与检测到环境变化的区域相关的地图信息。其结果是,即使在发生了环境变化的情况下,也能够生成精度更高的地图。
(18)本公开涉及的第5技术方案的地图生成系统,具备:移动机器人,其具备第1传感器和第2传感器,在第1区域移动;第3传感器,其设置于所述第1区域;以及服务器,其与所述移动机器人和所述第3传感器连接,所述服务器,从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域,在判断为存在所述第4区域的情况下,针对所述第4区域中的包括所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息。
通过如此构成,能够使用由环境传感器取得的信息来更新移动机器人的外部传感器的检测区域与环境传感器的检测区域重叠的区域中的地图信息。因此,能够生成精度更高的地图。
(19)本公开涉及的第6技术方案的地图生成系统,具备:移动机器人,其具备第1传感器和第2传感器,在第1区域移动;第3传感器,其设置于所述第1区域;以及服务器,其与所述移动机器人和所述第3传感器连接,所述服务器,从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中,在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
通过如此构成,能够基于由环境传感器取得的环境信息来检测外部传感器的检测区域外的环境的变化。因此,服务器能够使用环境传感器的信息来更新与检测到环境变化的区域相关的地图信息。其结果是,即使在发生了环境变化的情况下,也能够生成精度更高的地图。
(得到本公开涉及的一个方式的经过)
在SLAM技术中,一旦制作出可靠度高的地图信息,则在已制作出地图信息的区域,主要基于外部传感器的信息和制作完的地图信息,推定移动机器人的自身位置及姿势。
在专利文献1所公开的自主行驶车中,在飞行器和自主行驶车自身生成了地图信息之后,基于生成的地图信息和由自主行驶车的传感器得到的信息,推定自身相对于对象物的位置以及姿势。
在专利文献1中,记载了使用通过自主行驶车取得的信息和来自飞行器的信息来算出自主行驶车是否能够行驶。然而,在专利文献1所公开的自主行驶车中,对于使用环境传感器等外部的传感器信息来提高地图生成的精度这一方面没有进行研究。
另外,在专利文献1所公开的自主行驶车中,在因外部干扰而导致周边环境发生了变化的情况下,实际的地图和自主行驶车的地图信息不再对应,不再能基于自主行驶车的地图信息和传感器的信息来推定自身位置及姿势。进而,在专利文献1所公开的自主行驶车中,将与发生了环境变化的区域相关的地图信息更新成与实际的地图对应会花费时间。这是发明人新发现的问题。
于是,发明人进行了深度研究,发现:通过基于由环境传感器取得的环境信息来更新移动机器人的地图信息的可靠度,能够生成高精度的地图信息。
以下,参照附图对本公开的实施方式进行说明。另外,在各图中,为了使说明易于理解而夸张地示出了各要素。
(实施方式1)
[系统构成]
图1是表示实施方式1涉及的地图生成系统的概略构成图。如图1所示,地图生成系统100具备网络110、移动机器人200和环境传感器301、302、303。
在地图生成系统100中,移动机器人200经由网络110与多个环境传感器301、302、303连接。环境传感器301、302、303预先以预定的间隔配置在周边环境。环境传感器301、302、303从移动机器人200的上方分别取得检测区域311、312、313内的环境信息。检测区域311、312、313示出了各个环境传感器301、302、303能够观测周边环境的区域。移动机器人200通过后述的外部传感器取得检测区域201内的外部信息。
[移动机器人]
接着,对移动机器人200进行说明。
移动机器人200具有与通常的自走式机器人同等的结构。具体而言,具备根据移动控制信息进行移动的驱动装置。另外,移动机器人200具有能够进行自身位置及姿势的推定、与环境传感器的通信、以及地图信息的生成的结构。
在本说明书中,“位置”是指地图信息中的场所。另外,“姿势”是指移动机器人200的朝向,例如以相对于预定的基准方向的旋转角来表现。朝向不仅包括水平方向的朝向也包括三维方向的朝向。
图2是表示移动机器人200的构成的框图。如图2所示,移动机器人200具备机器人侧通信部210、内部传感器220、外部传感器230、坐标转换部240、自身位置及姿势推定部250、似然度计算部260、地图信息更新部270以及地图信息记录部280。另外,移动机器人200具备控制这些要素的控制部,但在图2中为了简化说明而省略。
<机器人侧通信部>
机器人侧通信部210是与环境传感器301、302、303进行通信的通信装置。机器人侧通信部210经由网络110与环境传感器301、302、303通信,取得环境传感器301、302、303的检测区域311、312、313内的环境信息。机器人侧通信部210通过无线通信来访问网络110。由机器人侧通信部210取得的环境传感器301、302、303的环境信息被发送到坐标转换部240。
<内部传感器>
内部传感器220取得移动机器人200的内部信息。内部信息是用于预测移动机器人200当前的自身位置及姿势的信息,例如是与移动机器人200的移动量等相关的信息。作为内部传感器220,可以利用加速度传感器、角速度传感器、测定车轮的旋转量的旋转编码器等。由内部传感器220取得的内部信息被发送到自身位置及姿势推定部250。
<外部传感器>
外部传感器230取得移动机器人200的外部信息。外部信息是存在于外部传感器230的观测区域的实际的周边环境的信息,例如是配置在周边环境的对象物与移动机器人200之间的距离等信息。作为外部传感器230,可以利用摄像头或者以TOF(Time Of Flight)方式测定距离的光学式测距传感器等。由外部传感器230取得的外部信息被发送到似然度计算部260。
<坐标转换部>
坐标转换部240从机器人侧通信部210接收环境信息。坐标转换部240将环境信息的坐标转换成与移动机器人200的地图信息的坐标一致。使环境信息的坐标与移动机器人200的地图信息的坐标一致的转换,通过预先向坐标转换部240提供环境传感器301、302、303的设置位置的坐标来进行。由坐标转换部240进行了坐标转换后的环境信息被发送到地图信息更新部270。
<自身位置及姿势推定部>
自身位置及姿势推定部250基于由内部传感器220取得的内部信息,预测移动机器人200当前的自身位置及姿势。具体而言,自身位置及姿势推定部250使用由内部传感器220得到的与移动量相关的信息,根据记录在地图信息记录部280中的移动机器人200过去的位置以及姿势的信息来计算当前的预测的自身位置及姿势。计算出的自身位置及姿势的信息被发送到似然度计算部260,被用于计算根据由自身位置及姿势推定部250预测出的自身位置及姿势获得的预料的预测外部信息。另外,自身位置及姿势推定部250从似然度计算部260接收似然度信息。自身位置及姿势推定部250基于似然度信息和预测出的自身位置及姿势的信息来计算自身位置及姿势的偏离,推定移动机器人200当前的自身位置及姿势。由自身位置及姿势推定部250推定出的自身位置及姿势的信息被发送到地图信息记录部280。
<似然度计算部>
似然度计算部260计算由外部传感器230得到的外部信息与根据由自身位置及姿势推定部250预测出的自身位置及姿势而计算出的预测外部信息的对应度,计算似然度。似然度计算部260使用利用图像特征量进行计算的方法或作为点群使用ICP(ITERATIVECLOSEST POINT,迭代最近点)法来进行似然度的计算。由似然度计算部260计算出的似然度的信息被发送到自身位置及姿势推定部250和地图信息记录部280。
<地图信息更新部>
地图信息更新部270判断环境传感器301、302、303的检测区域311、312、313和外部传感器230的检测区域201是否有重叠的区域。在判断为有重叠的区域的情况下,地图信息更新部270基于由环境传感器301、302、303取得的环境信息,更新重叠的区域的地图信息的可靠度。具体而言,地图信息更新部270通过使重叠的区域的方差值减小,提高与重叠的区域相关的地图信息的可靠度。
使用图3对“方差”进行说明。
图3是说明方差的定义的图。如图3所示,在测定出搭载于移动机器人200的外部传感器230到对象物400的距离的情况下,测定出的距离会因传感器的分辨率导致的精度的问题和/或噪声的问题而产生误差。在本说明书中,“方差”是指该误差的大小。在本说明书中,方差的值大表示误差大、地图信息的可靠度低,方差的值小表示误差小、地图信息的可靠度高。
另外,地图信息更新部270具备变化检测部,该变化检测部从坐标转换部240接收坐标转换后的环境信息,基于接收到的环境信息来检测外部传感器230的检测区域201外侧的区域中的环境变化。在变化检测部中检测到环境变化的情况下,地图信息更新部270更新与检测到环境变化的区域相关的地图信息的可靠度。具体而言,地图信息更新部270在移动机器人200的地图信息中追加环境传感器301、302、303的环境信息,使与检测到环境变化的区域相关的方差的值增大。由此,地图信息更新部270降低与检测到环境变化的区域相关的地图信息的可靠度。
地图信息更新部270基于从外部传感器230得到的外部信息,计算外部传感器230的检测区域201。另外,地图信息更新部270基于从环境传感器301、302、303得到的环境信息,计算环境传感器301、302、303的检测区域311、312、313。
由地图信息更新部270更新后的地图信息被发送到地图信息记录部280。
<地图信息记录部>
地图信息记录部280记录由自身位置及姿势推定部250推定出的自身位置及姿势的信息、由似然度计算部260算出的似然度信息、和由地图信息更新部270更新后的地图信息。另外,地图信息记录部280基于似然度信息、由外部传感器230取得的外部信息、和由自身位置及姿势推定部250推定出的自身位置及姿势的信息,进行地图信息的生成,记录生成的地图信息。
[环境传感器]
接着,对环境传感器301、302、303进行说明。
图4是表示环境传感器301的构成的框图。如图4所示,环境传感器301具备环境信息取得部321和环境传感器通信部331。
<环境信息取得部>
环境信息取得部321取得检测区域311内的环境信息。由环境信息取得部321得到的环境信息被发送到环境传感器通信部331。作为环境信息取得部321,例如使用光学式测距摄像头。环境信息例如是由摄像头取得的影像信息以及深度等信息。
<环境传感器通信部>
环境传感器通信部331与移动机器人200进行通信,将由环境信息取得部321得到的环境信息发送到移动机器人200。具体而言,环境传感器通信部331将由环境信息取得部321得到的环境信息经由网络110发送到移动机器人200的机器人侧通信部210。
[地图信息生成方法]
对使用实施方式1的移动机器人200生成地图的方法进行说明。
<地图信息的高精度化处理>
首先,使用图5以及图6对使地图信息高精度化的处理进行说明。
图5示出从上方观察使移动机器人200的地图信息高精度化的工作的一例的图。在图5中,在壁面500配置有环境传感器301,环境传感器301取得壁面500的内侧区域的环境信息。环境传感器301取得检测区域311内的环境信息。移动机器人200在壁面500的内侧区域移动,通过外部传感器230取得外部信息。
如图5所示,在移动机器人200的外部传感器230的检测区域201与环境传感器301的检测区域311重叠的区域,将会通过两个传感器检测同一区域。在实施方式1中,为了使地图信息高精度化,基于由外部传感器230得到的信息和由环境传感器301得到的信息来更新与重叠的区域相关的地图信息的可靠度。具体而言,通过在根据由移动机器人200的外部传感器230取得的外部信息生成的地图信息中追加环境传感器301的信息,提高与重叠的区域相关的地图信息的可靠度。
图6是表示使地图信息高精度化的处理的流程图。以下,使用图6来说明使地图信息高精度化的处理。此外,在实施方式1的处理中,对移动机器人200的自身位置及姿势的推定、地图制作使用EKF(Extended Kalman Filter,扩展卡尔曼滤波器)。另外,作为可靠度,利用与地图信息的坐标相当的区域的界标所具有的协方差值的倒数。
如图6所示,在步骤ST101中,使用由内部传感器220得到的与移动量相关的信息,预测移动机器人200的自身位置及姿势。具体而言,自身位置及姿势推定部250根据与移动量相关的信息和记录在地图信息记录部280中的过去的自身位置及姿势来计算当前的自身位置及姿势。
在步骤ST102中,基于根据由自身位置及姿势推定部250预测出的自身位置及姿势的信息得到的预测外部信息和从外部传感器230得到的外部信息来计算似然度。具体而言,似然度计算部260计算根据通过步骤ST101预测出的自身位置及姿势而得到的预料的预测外部信息。然后,似然度计算部260通过计算预测外部信息与实际上从外部传感器230得到的外部信息的对应度来计算似然度。
在步骤ST103中,基于通过步骤ST102得到的似然度的信息和通过步骤ST101预测出的自身位置及姿势的信息,推定移动机器人200当前的自身位置及姿势。具体而言,自身位置及姿势推定部250基于似然度的信息和通过步骤ST101预测出的自身位置及姿势的信息来计算自身位置及姿势的偏离,推定当前的自身位置及姿势。
在步骤ST104中,根据通过步骤ST103得到的移动机器人200当前的自身位置及姿势的信息和外部信息来生成地图信息。生成的地图信息被记录于地图信息记录部280。
在步骤ST105中,根据通过步骤ST103得到的移动机器人200当前的自身位置及姿势的信息,计算移动机器人200的外部传感器230的检测区域201。
在步骤ST106中,判断在通过步骤ST105得到的外部传感器230的检测区域201和环境传感器301的检测区域311之间是否有重叠的区域。在步骤ST106中,通过坐标转换部240将由环境传感器301得到的环境信息的坐标转换成与移动机器人200的地图信息的坐标一致。然后,根据坐标转换后的环境信息来计算环境传感器301的检测区域311。
在步骤ST106中判断为有重叠的区域的情况下,处理转移到步骤ST107。在步骤ST106中判断为没有重叠的区域的情况下,处理结束。
在步骤ST107中,使用环境传感器301的信息,更新移动机器人200的地图信息的可靠度。具体而言,地图信息更新部270通过追加环境传感器301的环境信息,使与重叠的区域相关的地图信息的方差值减小,提高地图信息的可靠度。更新后的地图信息被记录于地图信息记录部280。
在实施方式1涉及的地图生成方法中,通过进行上述的处理,实现了地图信息的高精度化。此外,在上述的说明中,对一个环境传感器301的检测区域311与移动机器人200的外部传感器230的检测区域201重叠的情况进行了说明。在多个环境传感器的检测区域与移动机器人200的外部传感器230的检测区域201重叠的情况下,对判断为有重叠的检测区域的所有的环境传感器,执行步骤ST107。
[产生了外部干扰的情况下的地图信息的更新处理]
接着,使用图7A、图7B以及图8对在周边环境中在移动机器人200的外部传感器230的检测区域201外因外部干扰而发生了环境变化的情况下的地图信息的更新处理进行说明。
图7A以及图7B示出从上方观察在发生了环境变化的情况下更新移动机器人200的地图信息的工作的一例的图。在图7A以及图7B中,在壁面500配置有环境传感器301,环境传感器301取得壁面500的内侧区域的环境信息。环境传感器301取得检测区域311内的环境信息。移动机器人200在壁面500的内侧区域移动,通过外部传感器230取得外部信息。
如图7A所示,在移动机器人200的外部传感器230的检测区域201外对象物400朝白箭头的方向进行了移动的情况下,地图信息更新部270的变化检测部将对象物400发生了移动的区域检测为发生了环境变化的区域401。在检测到发生了环境变化的区域401,记录在移动机器人200中的地图信息变得与实际的地图不同,不再对应。因此,移动机器人200即使要基于自身记录的地图信息和由外部传感器230得到的信息来推定自身位置及姿势,也不再能正确地推定自身位置及姿势。因此,在实施方式1中,进行如下处理:使与检测到环境变化的区域401相关的地图信息的方差值增大,降低地图信息的可靠度。
如图7B所示,在移动机器人200的外部传感器230取得检测到环境变化的区域401的外部信息时,降低区域401的地图信息的可靠度。因此,移动机器人200基于检测到环境变化的区域401以外的可靠度高的部分的地图信息,推定自身位置及姿势。另外,关于检测到环境变化的区域401,通过上述的地图信息的高精度化处理,能够更新为可靠度高的地图信息。
图8是表示在因外部干扰而发生了环境变化的情况下的地图信息的更新处理的流程图。以下,使用图8来说明在移动机器人200的外部传感器230的检测区域201外因外部干扰而发生了环境变化的情况下的地图信息的更新处理。
如图8所示,在步骤ST201中,读出移动机器人200当前的自身位置及姿势。具体而言,读出记录在地图信息记录部280中的移动机器人200当前的自身位置及姿势的信息。步骤ST201中的移动机器人200当前的自身位置及姿势是通过前述的图6所示的步骤ST103推定出的自身位置及姿势。此外,步骤ST201也可以替换为前述的图6的步骤ST101~ST104。
在步骤ST202中,根据通过步骤ST201读出的移动机器人200当前的自身位置及姿势的信息,计算移动机器人200的外部传感器230的检测区域201。
在步骤ST203中,地图信息更新部270的变化检测部基于环境传感器301的环境信息来检测环境的变化。具体而言,变化检测部基于环境信息和过去的地图信息,检测在环境传感器301的检测区域311内是否因对象物400移动等外部干扰而导致周边环境发生了变化。另外,在步骤ST203中,对检测到环境变化的区域401进行检测。在步骤ST203中检测到环境变化的情况下,处理转移到步骤ST204,在未检测到环境变化的情况下,处理结束。
在步骤ST204中,检测在环境传感器301的检测区域311内是否存在移动机器人200。具体而言,从地图信息记录部280中读出移动机器人200当前的自身位置的信息,判断移动机器人200是否位于环境传感器301的检测区域311内。在步骤ST204中,在环境传感器301的检测区域311内不存在移动机器人200的情况下,处理转移到步骤ST205。在环境传感器301的检测区域311内存在移动机器人200的情况下,处理结束。
在步骤ST205中,判断在通过步骤ST202得到的外部传感器230的检测区域201和环境传感器301的检测区域311之间是否有重叠的区域。在步骤ST205中判断为没有重叠的区域的情况下,处理转移到步骤ST206,在判断为有重叠的区域的情况下,处理结束。
在步骤ST206中,判断是否存在与检测到环境变化的区域401相关的地图信息。具体而言,判断在地图信息记录部280中是否记录有与检测到环境变化的区域401相关的地图信息。在步骤ST206中,在存在与检测到环境变化的区域401相关的地图信息的情况下,处理转移到步骤ST207。在不存在与检测到环境变化的区域401相关的地图信息的情况下,处理结束。
在步骤ST207中,使用环境传感器301的信息来更新与检测到环境变化的区域401相关的地图信息的可靠度。具体而言,地图信息更新部270使与检测到环境变化的区域401相关的地图信息的方差的值增大,降低与检测到环境变化的区域401相关的地图信息的可靠度。地图信息更新部270根据环境传感器301检测到的环境的变化的量来增大方差的值。
在实施方式1涉及的地图生成方法中,通过进行上述处理,也能够将因在无法通过移动机器人200的外部传感器230直接观测的区域所产生的外部干扰引起的环境的变化反映于地图信息。
[其他的地图更新处理]
实施方式1涉及的地图生成方法,在一旦生成的地图信息中,使与移动机器人200的外部传感器230在预定的时间未进行外部信息的取得的区域相关的地图信息的方差的值增大。在生成了地图信息之后,在预定的时间未进行外部信息的取得的区域中,有可能会发生环境变化。因此,在实施方式1涉及的地图生成方法中,对于一旦生成的地图信息,在预定的时间未通过外部传感器230取得外部信息的情况下,增大与该区域相关的地图信息的方差的值,降低地图信息的可靠度。此外,预定的时间能够根据生成地图信息的区域的大小、移动机器人200的移动速度等条件而任意决定。
[效果]
根据实施方式1涉及的地图生成方法以及移动机器人200,能够起到以下的效果。
实施方式1涉及的地图生成方法以及移动机器人200,通过使与移动机器人200的外部传感器230的检测区域201和环境传感器301的检测区域311重叠的区域相关的地图信息的方差的值减小,提高地图信息的可靠度。如此,在实施方式1中,通过按照由移动机器人200的外部传感器230取得的信息和由环境传感器301取得的信息来制作地图信息,能够高精度地生成地图信息。
根据实施方式1,在移动机器人200的外部传感器230的检测区域201外,通过使与检测到环境变化的区域401相关的地图信息的方差的值增大,降低与区域401相关的地图信息的可靠度。因此,移动机器人200能够不使用发生了环境变化的可靠度低的部分的地图信息而使用可靠度高的部分的地图信息来推定自身位置及姿势。如此,实施方式1的地图生成方法以及移动机器人200在发生了因外部干扰引起的环境变化的情况下,也能够稳健地推定移动机器人200的自身位置及姿势。因此,实施方式1的地图生成方法以及移动机器人200,即使因外部干扰而发生了环境变化,也能够修正发生了环境变化的区域的地图信息,高精度地生成地图信息。另外,在检测到环境变化的区域401,通过移动机器人200的外部传感器230和环境传感器301,能够在短时间再次构建高精度的地图信息。
另外,通过根据环境的变化的量使与检测到环境变化的区域401相关的地图信息的方差的值增大,能够更准确地推定移动机器人200的自身位置及姿势。
根据实施方式1,在检测到环境变化时,在移动机器人200的外部传感器230的检测区域201和环境传感器301的检测区域311不重叠的情况下,更新与检测到环境变化的区域401相关的地图信息的可靠度。因此,能够检测在移动机器人200的死角所发生的环境变化,将发生了环境变化的区域反映于移动机器人200的地图信息
根据实施方式1,一旦生成了地图信息之后,对于在预定的时间未通过外部传感器230进行外部信息的取得的区域,考虑发生了环境变化的可能性,增大方差的值,降低与该区域相关的地图信息的可靠度。因此,在实施方式1的地图生成方法以及移动机器人200中,能够进一步稳健地推定移动机器人200的自身位置及姿势。
此外,在实施方式1中,对移动机器人200和环境传感器301、302、303经由网络110进行通信的构成进行了说明,但并不限定于此。例如,也可以是具备经由网络110与移动机器人200和环境传感器301、302、303进行通信的服务器的系统的构成。在这样的系统的构成中,图6以及图8所示的各步骤的处理可以在服务器侧执行。即,服务器可以具备自身位置及姿势推定部250和地图信息更新部270。例如,服务器经由网络取得从环境传感器301、302、303得到的环境信息和从移动机器人200取得的外部信息以及内部信息。然后,服务器可以基于取得的信息,进行地图信息的高精度化处理或者产生了外部干扰的情况下的地图信息的更新处理。
在实施方式1中,对地图信息更新部270的变化检测部基于环境传感器301的环境信息来检测环境变化的例子进行了说明,但并不限定于此。例如,对于环境变化的检测,也可以由环境传感器301、302、303来进行。
在实施方式1中,基于从环境传感器301、302、303得到的环境信息实施了地图信息的精度提高,但并不限定于此。例如,在利用测距传感器作为环境传感器301、302、303的情况下,通过对自身位置及姿势的信息进行似然度计算的处理,能够提高移动机器人200的自身位置及姿势信息的精度。
在实施方式1中,坐标转换部240通过预先取得环境传感器301、302、303的设置位置来将环境信息的坐标转换成移动机器人200的地图信息的坐标,但并不限定于此。例如,可以在环境传感器301、302、303中捕捉移动机器人200,此时,基于自身位置及姿势推定部250推定出的位置信息和在环境传感器301、302、303中捕捉到的坐标来推定转换参数。例如,在二维平面进行移动的移动机器人200的情况下,坐标转换部240能够通过将环境信息进行射影变换而转换成移动机器人200的地图信息的坐标。
在实施方式1中,对环境传感器301、302、303以预定的间隔固定配置在周边环境的例子进行了说明,但并不限定于此。例如,环境传感器也可以如随着时间变更设置角度的摇头式的传感器等那样是能够变更检测区域的传感器。能够变更检测区域的环境传感器能够取得更宽范围的环境信息。另外,在吊挂式的传感器的情况下,通过将环境信息取得时的设置角度通知给坐标转换部240,能够将环境信息的坐标转换成移动机器人200的地图信息的坐标。
在实施方式1中,对内部传感器220和外部传感器230各具备一个的构成进行了说明,但并不限定于此。内部传感器220和外部传感器230各自至少具备一个即可。通过使用多个内部传感器220和多个外部传感器230,能够取得更多的内部信息和外部信息,因此,能够更高精度地推定移动机器人200的自身位置及姿势。
在实施方式1中,作为内部传感器220说明了加速度传感器、角速度传感器,但并不限定于此。作为内部传感器220,例如也可以是磁场传感器、使用了摄像头的视觉里程计(Visual Odometry)等。
在实施方式1中,对使用了3个环境传感器301、302、303的构成进行了说明,但环境传感器至少具备一个以上即可。环境传感器的数量也可以根据生成地图信息的区域和/或周边环境的复杂度等各种各样的条件来决定。通过使用多个环境传感器,能够取得更多的环境信息,因此,能够生成更高精度的地图信息。
在实施方式1中,生成的地图信息即可以是二维的地图信息,也可以是三维的地图信息。地图信息意味着一并具有障碍物位置的坐标和各轴方向的方差量的信息。地图信息例如能够通过网格图、线图、点图等以视觉方式来表示。
在实施方式1中,对由一个移动机器人200生成地图的例子进行了说明,但移动机器人至少具备一个以上即可。在使用多个移动机器人的情况下,能够在短时间生成高精度的地图信息。
另外,在使用多个移动机器人的情况下,也可以将搭载于各个移动机器人的外部传感器230用作环境传感器。因此,由各个移动机器人的外部传感器230取得的外部信息,能够为了推定自身位置及姿势而使用,并且能够作为周边环境的环境信息而使用。通过这样的构成,能够进一步在短时间生成高精度的地图信息。
由多个机器人共用并处理地图信息,能够高频度地更新大范围的地图。因此,在使用多个机器人的情况下,例如对于监视业务等是有用的。另外,对于无法由固定了位置的环境传感器观测的区域,能够进行图6所示的地图信息的高精度化处理以及图8所示的产生了外部干扰的情况下的地图信息的更新处理。因此,在使用多个机器人的情况下,能够实现环境传感器的死角区域的地图信息的高精度化。
此外,对在实施方式1的地图生成方法中不预先向移动机器人200提供地图信息的处理进行了说明,但并不限定于此。例如,也可以是预先向移动机器人200提供地图信息并更新地图信息的处理。
在实施方式1中,详细说明了图6以及图8所示的各处理,但本公开并不限定于这些处理。图6以及图8所示的处理是一例,也可以省略几个处理,还可以追加公知的处理。
在实施方式1中,对在步骤ST205中判断为有重叠的区域的情况下结束处理的例子进行了说明,但并不限定于此。例如,在步骤ST205中,对于重叠的区域,也可以进行上述的地图信息的高精度化处理。
本公开参照附图联系优选的实施方式进行了充分记载,但对于熟悉本技术的人而言显然可以进行各种变形和/或修正。这样的变形和/或修正只要不脱离由权利要求书表示的本公开的范围,就应该理解为包含在本公开的范围内。例如,移动机器人也可以是车辆,环境传感器也可以是监视摄像头。另外,外部传感器以及环境传感器也可以是LRF(LaserRange Finder,激光测距机)、LIDAR(Laser Imaging Detection and Ranging,激光成像探测与测距)、摄像头、深度摄像头、立体摄像头、雷达(RADAR)、TOF(Time of Flight,飞行时间)传感器。
Claims (18)
1.一种地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息:
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;
基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域;
在判断为存在所述第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息,
所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过所述第2移动机器人的第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
2.根据权利要求1所述的地图生成方法,
所述地图生成方法还包括:基于所述第1信息和所述第2信息,推定表示所述第1移动机器人的当前位置和姿势的第6信息,
所述第4信息基于所述第6信息来计算。
3.根据权利要求1所述的地图生成方法,
通过更新表示所述第1物体的位置的第1位置信息的可靠度,更新所述第1区域的地图信息。
4.根据权利要求3所述的地图生成方法,
通过将所述第1位置信息的第1方差值更新为比所述第1方差值小的第2方差值,更新所述第1位置信息的可靠度。
5.根据权利要求1所述的地图生成方法,
所述第3传感器配置在所述第1区域,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
6.一种地图生成方法,是在第1区域移动并具备第1传感器以及第2传感器的第1移动机器人进行的地图生成方法,所述地图生成方法包括:
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息;
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息;
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息;
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息;
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息;
基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中;
在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
7.根据权利要求6所述的地图生成方法,
所述地图生成方法还包括:基于所述第1信息和所述第2信息,推定表示所述第1移动机器人的当前位置和姿势的第6信息,
所述第4信息基于所述第6信息来计算。
8.根据权利要求6所述的地图生成方法,
通过更新表示所述第2物体的位置的第1位置信息的可靠度,更新所述第4区域的地图信息。
9.根据权利要求8所述的地图生成方法,
通过将所述第1位置信息的第1方差值更新为比所述第1方差值大的第2方差值,更新所述第1位置信息的可靠度。
10.根据权利要求9所述的地图生成方法,
与从所述第1位置向所述第2位置的变化量相应地,使所述第2方差值比所述第1方差值大。
11.根据权利要求7所述的地图生成方法,
在所述第1移动机器人的当前位置不位于所述第3区域、且所述第2区域与所述第3区域不重叠的情况下,针对所述第4区域,更新所述第1区域的地图信息。
12.根据权利要求6所述的地图生成方法,
所述第3传感器配置在所述第1区域,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
13.根据权利要求6所述的地图生成方法,
所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过所述第2移动机器人的第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
14.根据权利要求9所述的地图生成方法,
所述地图生成方法还包括:针对从所述第2传感器在预定时间未进行所述第2信息的取得的第5区域,对于所述地图信息,将所述第5区域的第3方差值更新为比所述第3方差值大的第4方差值。
15.一种移动机器人,是在第1区域移动的第1移动机器人,具备:
第1传感器;和
第2传感器,
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,
基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域,
在判断为存在所述第4区域的情况下,针对所述第4区域中的包含所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息,
所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过所述第2移动机器人的第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
16.一种移动机器人,是在第1区域移动的第1移动机器人,具备:
第1传感器;和
第2传感器,
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,
基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中,
在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
17.一种地图生成系统,具备:
第1移动机器人,其具备第1传感器和第2传感器,在第1区域移动;
第3传感器,其设置于所述第1区域;以及
服务器,其与所述第1移动机器人和所述第3传感器连接,
所述服务器,
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,
基于所述第4信息和所述第5信息,判断是否存在所述第2区域与所述第3区域重叠的区域即第4区域,
在判断为存在所述第4区域的情况下,针对所述第4区域中的包括所述第1物体的第5区域,更新预先保存在所述第1移动机器人中的所述第1区域的地图信息,
所述第3传感器设置于与所述第1移动机器人不同的第2移动机器人,
所述第1区域的地图信息通过第1坐标系来表现,
所述第5信息通过所述第2移动机器人的第2坐标系来表现,
所述地图生成方法还包括:将所述第2坐标系转换成所述第1坐标系。
18.一种地图生成系统,具备:
第1移动机器人,其具备第1传感器和第2传感器,在第1区域移动;
第3传感器,其设置于所述第1区域;以及
服务器,其与所述第1移动机器人和所述第3传感器连接,
所述服务器,
从所述第1传感器取得第1信息,所述第1信息包括表示所述第1移动机器人的移动量的信息,
从所述第2传感器取得第2信息,所述第2信息包括表示从位于所述第1移动机器人的观测区域的第1物体到所述第1移动机器人的距离的信息,
从设置于所述第1区域的第3传感器取得第3信息,所述第3信息包括所述第3传感器的观测区域中的影像信息,
取得基于所述第1信息和所述第2信息计算出的表示所述第2传感器的检测区域即第2区域的第4信息,
取得基于所述第3信息计算出的表示所述第3传感器的检测区域即第3区域的第5信息,
基于所述第4信息、所述第5信息和预先保存在所述第1移动机器人中的所述第1区域的地图信息,判断位于第4区域的第2物体是否从第1位置变化到第2位置,所述第4区域处于所述第2区域外且包含在所述第3区域中,
在判断为所述第2物体从所述第1位置变化到所述第2位置的情况下,针对所述第4区域,更新所述第1区域的地图信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015137931 | 2015-07-09 | ||
JP2015-137931 | 2015-07-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106339001A CN106339001A (zh) | 2017-01-18 |
CN106339001B true CN106339001B (zh) | 2021-01-08 |
Family
ID=56853443
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610488378.XA Active CN106339001B (zh) | 2015-07-09 | 2016-06-28 | 地图生成方法、移动机器人以及地图生成系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10006772B2 (zh) |
EP (1) | EP3118705B1 (zh) |
JP (1) | JP6762148B2 (zh) |
CN (1) | CN106339001B (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016101552A1 (de) * | 2016-01-28 | 2017-08-03 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Erstellen einer Umgebungskarte für ein selbsttätig verfahrbares Bearbeitungsgerät |
US10180689B2 (en) * | 2016-08-19 | 2019-01-15 | Omega Patents, L.L.C. | Vehicle system including security unit providing degradation commands via a vehicle data bus and related methods |
KR102012550B1 (ko) * | 2017-02-20 | 2019-08-20 | 엘지전자 주식회사 | 돌발 장애물을 식별하는 방법 및 이를 구현하는 로봇 |
WO2019039733A1 (ko) * | 2017-08-21 | 2019-02-28 | (주)유진로봇 | 카메라와 라이다를 이용한 융합 센서 및 이동체 |
JP6825712B2 (ja) * | 2017-09-04 | 2021-02-03 | 日本電産株式会社 | 移動体、位置推定装置、およびコンピュータプログラム |
CN111033426A (zh) * | 2017-09-04 | 2020-04-17 | 日本电产株式会社 | 移动体、位置推断装置以及计算机程序 |
JP6740988B2 (ja) * | 2017-09-26 | 2020-08-19 | カシオ計算機株式会社 | 地図情報提供装置、携帯型地図送信装置、地図情報提供システム、地図情報提供方法及びプログラム |
JP7051045B2 (ja) * | 2017-11-08 | 2022-04-11 | オムロン株式会社 | 移動式マニピュレータ、移動式マニピュレータの制御方法及びプログラム |
JP6402266B1 (ja) * | 2018-02-09 | 2018-10-10 | ユニティガードシステム株式会社 | ロボットの移動制御システム及び移動制御方法 |
CN108469826B (zh) * | 2018-04-23 | 2021-06-08 | 宁波Gqy视讯股份有限公司 | 一种基于机器人的地图生成方法及系统 |
JP7075822B2 (ja) * | 2018-06-04 | 2022-05-26 | パナソニックホールディングス株式会社 | マップ情報更新システム |
US11309947B2 (en) * | 2018-11-19 | 2022-04-19 | Facebook Technologies, Llc | Systems and methods for maintaining directional wireless links of motile devices |
KR102198187B1 (ko) * | 2018-12-28 | 2021-01-04 | 엘지전자 주식회사 | 이동 로봇 |
DE102019111315A1 (de) * | 2019-05-02 | 2020-11-05 | Horsch Leeb Application Systems Gmbh | Autonome landwirtschaftliche Arbeitsmaschine und Verfahren zu deren Betrieb |
US11478936B2 (en) * | 2019-10-09 | 2022-10-25 | Canon Kabushiki Kaisha | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor |
CN112988767A (zh) * | 2019-12-16 | 2021-06-18 | 上海航空电器有限公司 | 一种基于飞行位置的机载地形数据的动态调度处理方法 |
CN111240322B (zh) * | 2020-01-09 | 2020-12-29 | 珠海市一微半导体有限公司 | 机器人移动限制框的工作起点确定方法及运动控制方法 |
JP2021128207A (ja) * | 2020-02-12 | 2021-09-02 | 本田技研工業株式会社 | 地図作成装置、地図作成システム、地図作成方法、およびプログラム |
CN113449054B (zh) * | 2020-03-27 | 2023-08-04 | 杭州海康机器人股份有限公司 | 一种地图切换的方法和移动机器人 |
DE102020210515A1 (de) * | 2020-08-19 | 2022-03-24 | Volkswagen Aktiengesellschaft | Verfahren zur Überprüfung von detektierten Veränderungen für ein Umfeldmodell einer digitalen Umgebungskarte |
EP3958086A1 (en) * | 2020-08-19 | 2022-02-23 | Carnegie Robotics, LLC | A method and a system of improving a map for a robot |
JP7366373B2 (ja) * | 2020-10-02 | 2023-10-23 | 本田技研工業株式会社 | 移動体制御装置、移動体、移動体制御方法、およびプログラム |
JP2022189605A (ja) * | 2021-06-11 | 2022-12-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、コンピュータプログラム |
CN113783945B (zh) * | 2021-08-25 | 2024-09-06 | 深圳拓邦股份有限公司 | 移动机器人的地图同步方法、装置以及移动机器人 |
CN113907645A (zh) * | 2021-09-23 | 2022-01-11 | 追觅创新科技(苏州)有限公司 | 移动机器人的定位方法及装置、存储介质及电子装置 |
WO2024154351A1 (ja) * | 2023-01-20 | 2024-07-25 | 日本電気株式会社 | 信頼度決定システム、信頼度決定方法、及び信頼度決定装置 |
CN116594408B (zh) * | 2023-07-17 | 2023-10-13 | 深圳墨影科技有限公司 | 一种移动协作机器人路径规划系统及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033971A (zh) * | 2007-02-09 | 2007-09-12 | 中国科学院合肥物质科学研究院 | 一种移动机器人地图创建系统及地图创建方法 |
CN102831446A (zh) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | 单目视觉slam中基于图像外观的闭环检测方法 |
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
KR20130134986A (ko) * | 2012-05-30 | 2013-12-10 | 서울대학교산학협력단 | 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 slam 시스템 및 방법 |
CN103885443A (zh) * | 2012-12-20 | 2014-06-25 | 联想(北京)有限公司 | 用于即时定位与地图构建单元的设备、系统和方法 |
CN103901884A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 信息处理方法和信息处理设备 |
CN103955221A (zh) * | 2014-05-05 | 2014-07-30 | 北京理工大学 | 带任务时效性的多平台协作路径规划系统和方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
KR101323597B1 (ko) * | 2005-09-02 | 2013-11-01 | 니토 로보틱스 인코퍼레이티드 | 다기능 로봇 장치 |
US8965578B2 (en) * | 2006-07-05 | 2015-02-24 | Battelle Energy Alliance, Llc | Real time explosive hazard information sensing, processing, and communication for autonomous operation |
US8073564B2 (en) * | 2006-07-05 | 2011-12-06 | Battelle Energy Alliance, Llc | Multi-robot control interface |
WO2009038772A2 (en) * | 2007-09-20 | 2009-03-26 | Evolution Robotics | Transferable intelligent control device |
KR100955483B1 (ko) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | 3차원 격자 지도 작성 방법 및 이를 이용한 자동 주행 장치의 제어 방법 |
DK2343615T3 (en) * | 2008-10-01 | 2019-02-18 | Murata Machinery Ltd | Independent movement device |
JP6162955B2 (ja) * | 2009-11-06 | 2017-07-12 | アイロボット コーポレイション | 自律ロボットにより表面を完全にカバーする方法およびシステム |
JP5393413B2 (ja) | 2009-11-19 | 2014-01-22 | 三菱重工業株式会社 | 自律走行車および自律走行方法 |
KR101906329B1 (ko) * | 2010-12-15 | 2018-12-07 | 한국전자통신연구원 | 카메라 기반의 실내 위치 인식 장치 및 방법 |
US9056754B2 (en) * | 2011-09-07 | 2015-06-16 | Crown Equipment Limited | Method and apparatus for using pre-positioned objects to localize an industrial vehicle |
US20140031980A1 (en) * | 2011-11-11 | 2014-01-30 | Jens-Steffen Gutmann | Systems and methods for extending slam to multiple regions |
US9953618B2 (en) * | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
JP6233706B2 (ja) * | 2013-04-02 | 2017-11-22 | パナソニックIpマネジメント株式会社 | 自律移動装置及び自律移動装置の自己位置推定方法 |
KR101448786B1 (ko) * | 2013-05-22 | 2014-10-13 | 현대자동차 주식회사 | 주차 보조 시스템 및 주차 정렬 제어 방법 |
CN103901891A (zh) * | 2014-04-12 | 2014-07-02 | 复旦大学 | 一种基于层次结构的动态粒子树slam算法 |
-
2016
- 2016-06-22 JP JP2016123721A patent/JP6762148B2/ja active Active
- 2016-06-27 EP EP16176389.1A patent/EP3118705B1/en active Active
- 2016-06-27 US US15/193,930 patent/US10006772B2/en active Active
- 2016-06-28 CN CN201610488378.XA patent/CN106339001B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101033971A (zh) * | 2007-02-09 | 2007-09-12 | 中国科学院合肥物质科学研究院 | 一种移动机器人地图创建系统及地图创建方法 |
JP2013109325A (ja) * | 2011-11-22 | 2013-06-06 | Korea Electronics Telecommun | 群集の知能ロボットを用いた地図構築方法及びその装置 |
KR20130134986A (ko) * | 2012-05-30 | 2013-12-10 | 서울대학교산학협력단 | 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 slam 시스템 및 방법 |
CN102831446A (zh) * | 2012-08-20 | 2012-12-19 | 南京邮电大学 | 单目视觉slam中基于图像外观的闭环检测方法 |
CN103885443A (zh) * | 2012-12-20 | 2014-06-25 | 联想(北京)有限公司 | 用于即时定位与地图构建单元的设备、系统和方法 |
CN103901884A (zh) * | 2012-12-25 | 2014-07-02 | 联想(北京)有限公司 | 信息处理方法和信息处理设备 |
CN103955221A (zh) * | 2014-05-05 | 2014-07-30 | 北京理工大学 | 带任务时效性的多平台协作路径规划系统和方法 |
Non-Patent Citations (3)
Title |
---|
Improved Techniques for Grid Mapping With Rao-Blackwellized Particle Filters;Giorgio Grisetti;《IEEE TRANSACTIONS ON ROBOTICS》;20070228;第23卷(第1期);第34-46页 * |
动态环境下自主车同时定位与建图研究;邹智荣;《中国优秀硕士学位论文全文数据库-信息科技辑》;20130228(第02期);第I140-610页 * |
基于层次化SLAM的未知环境级联地图创建方法;钱堃;《机器人》;20111130;第33卷(第6期);第736-741页 * |
Also Published As
Publication number | Publication date |
---|---|
CN106339001A (zh) | 2017-01-18 |
EP3118705A3 (en) | 2017-02-08 |
EP3118705A2 (en) | 2017-01-18 |
JP2017021791A (ja) | 2017-01-26 |
US10006772B2 (en) | 2018-06-26 |
US20170010100A1 (en) | 2017-01-12 |
EP3118705B1 (en) | 2020-04-08 |
JP6762148B2 (ja) | 2020-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106339001B (zh) | 地图生成方法、移动机器人以及地图生成系统 | |
KR101948728B1 (ko) | 데이터 수집 방법 및 시스템 | |
WO2018003406A1 (ja) | 車載処理装置 | |
WO2020258721A1 (zh) | 智能巡航车导航方法及系统 | |
US9274526B2 (en) | Autonomous vehicle and method of estimating self position of autonomous vehicle | |
KR101439921B1 (ko) | 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템 | |
KR100779510B1 (ko) | 정찰 로봇 및 정찰 로봇 운행 제어시스템 | |
US20180154901A1 (en) | Method and system for localizing a vehicle | |
CN112204348B (zh) | 信息处理装置 | |
KR101775114B1 (ko) | 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 | |
CN113454487B (zh) | 信息处理装置以及移动机器人 | |
WO2017199333A1 (ja) | 情報出力装置、端末装置、制御方法、プログラム及び記憶媒体 | |
CN109425346B (zh) | 用于自动化车辆的导航系统 | |
RU2740229C1 (ru) | Способ локализации и построения навигационных карт мобильного сервисного робота | |
WO2016059904A1 (ja) | 移動体 | |
JPWO2015177865A1 (ja) | 物標検出装置及び物標検出方法 | |
Hoang et al. | Multi-sensor perceptual system for mobile robot and sensor fusion-based localization | |
KR101167627B1 (ko) | 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법 | |
CN111308415A (zh) | 一种基于时间延迟的在线估计位姿的方法和设备 | |
KR102481615B1 (ko) | 데이터 수집 방법 및 시스템 | |
KR100784125B1 (ko) | 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법 | |
CN111007518A (zh) | 基于声纳图像处理的水下机器人水下定位和路径规划方法 | |
JP7235691B2 (ja) | 自動検査装置 | |
CN113841068B (zh) | 信息处理装置、信息处理方法及存储介质 | |
KR102081093B1 (ko) | 모바일 로봇 네비게이션 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |