CN106796434B - 地图生成方法、自身位置推定方法、机器人系统和机器人 - Google Patents

地图生成方法、自身位置推定方法、机器人系统和机器人 Download PDF

Info

Publication number
CN106796434B
CN106796434B CN201680003184.4A CN201680003184A CN106796434B CN 106796434 B CN106796434 B CN 106796434B CN 201680003184 A CN201680003184 A CN 201680003184A CN 106796434 B CN106796434 B CN 106796434B
Authority
CN
China
Prior art keywords
information
map information
map
mobile robot
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680003184.4A
Other languages
English (en)
Other versions
CN106796434A (zh
Inventor
中田洋平
竹内一真
齐藤雅彦
原田尚幸
松井修平
若杉健介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2015169412 priority Critical
Priority to JP2015-169412 priority
Priority to JP2016134284A priority patent/JP6849330B2/ja
Priority to JP2016-134284 priority
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to PCT/JP2016/003634 priority patent/WO2017038012A1/ja
Publication of CN106796434A publication Critical patent/CN106796434A/zh
Application granted granted Critical
Publication of CN106796434B publication Critical patent/CN106796434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation

Abstract

提供一种地图生成方法、自身位置推定方法、机器人系统和机器人。地图生成方法包括:取得预先制作的包含移动机器人周边的信息的第1地图信息,通过移动机器人的传感器取得包含移动机器人周边的信息的第2地图信息,从环境传感器节点接收包含移动机器人周边的信息的第3地图信息,(i)在第3地图信息中存在时间性变化量为预定阈值以上的场所的情况下,将与该场所对应的第1地图信息和第2地图信息各自的场所的信息除去;或者使与该场所对应的第1地图信息和第2地图信息各自的场所的信息的方差增加,(ii)使用进行了除去或方差增加的第1地图信息和第2地图信息来制作地图信息。

Description

地图生成方法、自身位置推定方法、机器人系统和机器人
技术领域
本公开涉及进行移动机器人的自身位置推定和/或环境地图制作的技术,尤其涉及设置于环境的环境传感器和与该环境传感器协作的移动机器人的系统。
背景技术
为了使移动机器人在人和其他机器所在的环境空间中自主地移动,移动机器人自身需要正确地识别自身的位置、姿势、周边环境。以往,作为用于进行这样的识别的方法,已知一边制作环境的地图、一边同时进行自身位置的推定的SLAM(SimultaneousLocalization And Mapping,同时定位与地图构建)技术。
SLAM技术中的移动机器人具备用于获知移动机器人内部的状态的传感器即内部传感器和用于获知外界的状态的传感器即外界传感器。
在SLAM技术中,首先根据内部传感器的信息来推定当前的位置、姿势。接着,根据在所推定出的位置、姿势下已经保持的周边环境的地图信息,进行移动机器人的(i)位置、(ii)姿势、(iii)位置的不可靠性、(iv)姿势的不可靠性的预测。接着,对由外界传感器获得的观测信息和根据内部传感器的信息预测出的信息进行比较。接着,根据通过比较而算出的各个信息的似然度,决定内部传感器和外界传感器的信息的权重。并且,使用内部传感器和外界传感器的数据的权重的信息,进行对当前的位置、姿势和地图信息进行更新的处理。
在专利文献1中公开了如下的机器人系统:基于多个不同的传感器的输出来评价进行自身位置推定的多个推定器的可信度,根据可信度对由多个推定器得到的自身位置推定信息进行整合。
在专利文献2中公开了如下的移动机器人:与环境传感器进行协作,不妨碍人行动地一边避免与人或障碍物的碰撞、一边进行移动。环境传感器配置有多个以检测位于环境内的所有人的位置。
现有技术文献
专利文献1:日本特开2012-248032号公报
专利文献2:日本特许5617562号公报
发明内容
根据本公开的一个技术方案,提供一种地图生成方法,是使用至少一个以上的环境传感器节点进行地图生成的移动机器人的地图生成方法,包括:取得预先制作的包含所述移动机器人周边的信息的第1地图信息,通过搭载于所述移动机器人的外界传感器取得包含所述移动机器人周边的信息的第2地图信息,从所述环境传感器节点接收包含所述移动机器人周边的信息的第3地图信息,(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,(iii)将所述第1地图信息更新为基于匹配结果生成的地图信息。
此外,这些总括性或具体的技术方案即可以通过系统、方法、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,也可以通过系统、方法、集成电路、计算机程序和记录介质的任意组合来实现。
根据本公开,即使在环境变化大的空间中,也能够高精度且稳健地进行地图生成和自身位置推定。
附图说明
图1是表示实施方式1的机器人系统的构成的一例的框图。
图2是表示环境传感器节点和移动机器人所在的环境的一例的概略图。
图3A是表示机器人系统的处理的一例的流程图。
图3B是表示活动物体移动·环境变化信息整合部的处理的一例的流程图。
图4A是表示时刻T的包含移动机器人的环境的一例的图。
图4B是表示时刻(T+α)的包含移动机器人的环境的一例的图解图。
图4C是表示在时刻T移动机器人取得的传感器数据的一例的图。
图4D是表示在时刻(T+α)移动机器人取得的传感器数据的一例的图。
图5A是表示地图生成·自身位置推定处理时的数据匹配的一例的图解图。
图5B是表示匹配结果例的图。
图5C是表示匹配评价值例的图。
图6A是表示数据的除去处理的一例的图。
图6B是表示除去处理后的数据的匹配结果例的图。
图6C是表示除去处理后的数据的匹配评价值例的图。
图7A是表示数据的方差增加处理的一例的图。
图7B是表示方差增加处理后的数据的匹配结果例的图。
图7C是表示方差增加处理后的数据的匹配评价值例的图。
图8是表示时刻T的地图数据的图。
图9是用于说明方差增加处理的一例的图。
图10是表示方差增加处理的结果的一例的图。
图11是表示实施方式2涉及的机器人系统的处理的一例的流程图。
标号的说明
100移动机器人;101外界传感器;102内部传感器;103活动物体·环境变化信息整合部;104地图生成·自身位置推定部;105地图信息数据库;106路线规划部;107控制部;108致动器;109通信部;120、312、313、314、315、316、317、318、319环境传感器节点;121环境传感器;122活动物体移动·环境变化信息提取部;123环境传感器信息时间序列数据库;124活动物体移动·环境变化信息数据库;125通信部。
具体实施方式
(成为本发明的基础的见解)
在SLAM技术中,存在如下问题:在地图生成或自身位置推定时该移动机器人的外界传感器的检测范围内的场所发生了环境变化的情况下,在地图生成·自身位置推定中会发生错误,无法正确地进行推定。在办公室或家庭内等因人或其他活动物体引起的环境变化大的空间、车站或购物商场等很多人往来的空间中,由于频繁发生大的外部干扰即大的环境变化,因此难以通过SLAM技术进行地图生成,结果是难以通过SLAM技术来规划避开人或障碍物的路线。
进而,在如上述那样环境变化大的空间中,在地图生成·自身位置推定的处理中对由外界传感器得到的信息与预测出的信息进行比较的处理部分的通过最小二乘法得到的推定值的收敛性变差,计算量增加。
在专利文献1、专利文献2等的以往的方法中,对于在环境变化大的空间中也高精度且稳健地进行地图生成和自身位置推定,并没有进行研究。因此无法抑制所需计算量的增加。
本公开提供一种即使在环境变化大的空间中也能够高精度且稳健地进行地图生成和自身位置推定的自身位置推定方法、机器人系统以及移动机器人。
本公开涉及的自身位置推定方法是使用至少一个以上的环境传感器节点进行地图生成的移动机器人的地图生成方法,包括:取得预先制作的包含所述移动机器人周边的信息的第1地图信息,通过搭载于所述移动机器人的外界传感器取得包含所述移动机器人周边的信息的第2地图信息,从所述环境传感器节点接收包含所述移动机器人周边的信息的第3地图信息,(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,(iii)将所述第1地图信息更新为基于匹配结果生成的地图信息。
另外,也可以为:在所述第3地图信息中存在在第1定时与第2定时之间所述时间性变化量为所述预定阈值以上的场所的信息的情况下,在所述第1定时与所述第2定时之间的时间差处于第1时间与比所述第1时间长的第2时间之间的范围内的情况下,进行所述除去处理,在所述第1定时与所述第2定时之间的时间差为所述第2时间以上的情况下,进行所述方差增加处理。
另外,也可以为:在所述第3地图信息中存在在所述第1定时与所述第2定时之间所述时间性变化量为所述预定阈值以上的场所的信息的情况下,在所述第1定时与所述第2定时之间的时间差为所述第1时间以下的情况下,不进行所述除去处理以及所述方差增加处理,而对所述第1地图信息与所述第2地图信息进行匹配,基于该匹配结果生成地图信息。
另外,也可以为:在所述第3地图信息中不存在所述时间性变化量为所述预定阈值以上的场所的信息的情况下,对所述第1地图信息与所述第2地图信息进行匹配,基于该匹配结果生成地图信息。
另外,也可以为:所述方差增加处理是使所述第1地图信息的对应场所和所述第2地图信息的对应场所各自的信息的不确定性增加的处理。
另外,也可以为:所述第3地图信息包含所述环境传感器节点周边的物体的存在概率的信息,所述时间性变化量是所述存在概率的变化量。
另外,也可以为:所述第1地图信息、所述第2地图信息和所述第3地图信息是二维坐标系中的坐标信息或三维坐标系中的坐标信息,在进行所述匹配之前,进行将所述第1地图信息、所述第2地图信息和所述第3地图信息各自的坐标系变换成共同的坐标系的坐标变换处理。
本公开的一个技术方案涉及的自身位置推定方法,是使用至少一个传感器节点进行自身位置推定的移动机器人的自身位置推定方法,包括:取得预先制作的包含所述移动机器人周边的信息的第1地图信息,通过搭载于所述移动机器人的外界传感器取得包含所述移动机器人周边的信息的第2地图信息,从环境传感器节点接收包含所述移动机器人周边的信息的第3地图信息,(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,(iii)将所述第1地图信息更新为基于匹配结果生成的地图信息,(iv)基于更新完的第1地图信息和对所述移动机器人的位置和姿势的至少一方进行检测的内部传感器的检测结果,推定所述移动机器人在所述更新完的第1地图信息上的自身位置。
另外,也可以为:基于所述更新完的第1地图信息和所推定出的自身位置来算出移动路线,使所述移动机器人沿着所述移动路线移动。
本公开的一个技术方案涉及的机器人系统包括至少一个环境传感器节点和移动机器人,所述环境传感器节点取得包含所述移动机器人周边的信息的第3地图信息,所述移动机器人具备:数据库,其记录有预先制作的包含所述移动机器人周边的信息的第1地图信息;外界传感器,其取得包含所述移动机器人周边的信息的第2地图信息;通信部,其与所述环境传感器节点进行通信来取得所述第3地图信息;以及信息处理部,其进行如下处理:(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,(iii)将所述预先记录的第1地图信息更新为基于匹配结果生成的地图信息。
本公开的一个技术方案涉及的移动机器人具备:数据库,其记录有预先制作的包含所述移动机器人周边的信息的第1地图信息;外界传感器,其取得包含所述移动机器人周边的信息的第2地图信息;通信部,其与至少一个环境传感器节点进行通信来取得包含所述移动机器人周边的信息的第3地图信息,所述至少一个环境传感器节点位于所述移动机器人的外部、并且取得所述第3地图信息;以及信息处理部,其进行如下处理:(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,(iii)将所述预先记录的第1地图信息更新为基于匹配结果生成的地图信息。
此外,这些总括性或具体的技术方案既可以通过系统、方法、集成电路、计算机程序或者计算机可读取的CD-ROM等记录介质来实现,也可以通过系统、方法、集成电路、计算机程序和记录介质的任意组合来实现。
以下说明的实施方式都表示本公开的一例。以下的实施方式中示出的数值、形状、构成要素、步骤、步骤的顺序等是一例,并非限定本公开的意思。另外,关于以下的实施方式中的构成要素中的未记载在表示最上位概念的独立权利要求中的构成要素,是作为任意的构成要素而说明的。另外,也可以在所有的实施方式中组合各自的内容。
以下,参照附图对实施方式进行说明。
(实施方式1)
图1是表示本实施方式1的机器人系统的构成的一例的框图。本机器人系统包括移动机器人100和环境传感器节点120。
移动机器人100包括外界传感器101、内部传感器102、信息处理部(活动物体·环境变化信息整合部103、地图生成·自身位置推定部104、地图信息数据库105以及路线规划部106)、控制部107、致动器108和通信部109。
另外,移动机器人100例如包括2个或4个车轮、或者2条以上的腿来作为使移动机器人100移动的单元。这些车轮或腿通过来自致动器108的动力进行动作,由此能够使移动机器人100移动。前述的移动机器人100的腿优选具备一个以上的关节。进一步,作为使移动机器人100移动的单元,优选包括用于安装或把持传感器或任意物体的一条以上的臂。前述的移动机器人100的臂优选具备一个以上的关节。
另外,移动机器人100具备一个以上的CPU、一个以上的主存储和一个以上的辅助存储(未图示)。
前述的移动机器人100的CPU进行以下说明的活动物体·环境变化信息整合部103、地图生成·自身位置推定部104、路线规划部106、控制部107等所进行的各种运算处理。
前述的移动机器人100的主存储是能够供前述的CPU直接访问的存储装置,可以通过DRAM、SRAM、闪速存储器、ReRAM、FeRAM、MRAM、STT-RAM、PCRAM等存储器来构成。
前述的移动机器人100的辅助存储是对前述的主存储的内容进行长期保存、复制或备份的存储装置,可以通过HDD、闪速存储器、光盘、磁盘等来构成。
外界传感器101是对与移动机器人100的周边环境有关的信息进行检测的传感器,检测周边环境的二维形状或三维形状以及颜色和/或材质。外界传感器101例如可以通过LRF(Laser Range Finder,激光测距仪)、LIDAR(Laser Imaging Detection and Ranging,激光成像探测与测量)、摄像头、深度摄像头、立体摄像头、声纳、RADAR(雷达)等传感器或它们彼此的全部组合来构成。在此,在外界传感器101取得的周边环境的信息中包含关于坐标的信息(坐标信息)。
内部传感器102是对移动机器人100的位置和/或姿势进行检测的传感器。内部传感器102能够检测移动机器人100的移动距离、速度、加速度、角速度、姿势各自的3个方向的分量(例如,X-Y-Z正交坐标系的X轴方向分量、Y轴方向分量、Z轴方向分量)的绝对值的至少一方。另外,也可以是,对于移动机器人100的腿、臂的各关节,能够检测速度、加速度、角速度、姿势、转矩的绝对值。内部传感器102例如可以通过加速度传感器、角速度传感器、编码器、地磁传感器、气压·水压传感器、转矩传感器等传感器或它们彼此的组合来构成。
活动物体·环境变化信息整合部103取得搭载于移动机器人100的外界传感器101检测到的信息(第2地图信息)。另外,经由通信部109取得在环境传感器节点120中提取出的活动物体移动·环境变化信息(第3地图信息)。另外,使用由环境传感器节点120提取出的活动物体移动·环境变化信息,进行将外界传感器101检测到的信息中的与以时间序列动态地发生变化的场所有关的信息除去的处理(除去处理)、或者将与该场所有关的信息的信用度降低的处理(方差增加处理)。关于除去处理和方差增加处理的具体内容,将在后面叙述。
地图生成·自身位置推定部104取得由内部传感器102得到的移动机器人100的移动距离、速度、加速度、角速度、姿势各自的3个方向的分量的绝对值的至少一方。另外,地图生成·自身位置推定部104取得由活动物体·环境变化信息整合部103处理后的(除去处理完或方差增加处理完的)与由外界传感器101得到的移动机器人100的周边环境有关的信息。并且,地图生成·自身位置推定部104根据所取得的信息,通过滤波处理来同时进行移动机器人100的自身位置的推定和地图信息的生成。此外,自身位置的推定和地图信息的生成也可以不同时进行。滤波处理可以通过卡尔曼滤波器、扩展卡尔曼滤波器、无迹卡尔曼滤波器、粒子滤波器、Rao-Blackwellized粒子滤波器的各方法来构成。另外,将地图生成·自身位置推定部104生成的地图保存于地图信息数据库105。在已经存在相应的环境的地图的情况下,一并使用地图信息数据库105所保存的地图信息来进行地图信息的更新,并进行向地图信息数据库105的保存。
地图信息数据库105对通过地图生成·自身位置推定部104进行了生成、更新的地图信息(第1地图信息)进行保存。所保存的地图信息被地图生成·自身位置推定部104、路线规划部106分别使用。地图信息数据库105配置于移动机器人100的主存储或副存储。
路线规划部106使用地图信息数据库105所保存的地图信息和由地图生成·自身位置推定部104推定出的移动机器人100的自身位置的信息,对在地图上从当前的自身位置进行移动的路线进行规划。要规划的路线是使路线的成本最小化的路线。路线的成本可以通过总移动时间、总移动距离、移动所使用的总能量、路线的拥挤度的总和或它们彼此的全部组合来表现。
控制部107在移动机器人实际工作的环境中,针对由路线规划部106规划出的路线,进行用于执行移动机器人100的移动动作的控制。
致动器108基于来自控制部107的控制命令,例如对车轮等进行驱动,由此使移动机器人100实际进行移动。
通信部109具备通过有线方式或无线方式进行一对多型、多对多型的通信的功能。通信部109向环境传感器节点120询问是否存在所指定的场所的活动物体移动和/或环境变化信息。
环境传感器节点120包括环境传感器121、活动物体移动·环境变化信息提取部122、环境传感器信息时间序列数据库123、活动物体移动·环境变化信息数据库124和通信部125。
环境传感器121是对与环境传感器节点120的周边环境有关的信息进行检测的传感器。在周边环境的信息中包含与周边环境的二维形状或三维形状以及颜色和/或材质有关的信息。
图2是表示环境传感器节点120、与环境传感器节点120同样的多个环境传感器节点312~319、以及移动机器人100所在的环境的一例的概略图。
此外,如果在图1和图2所示的构成中标号不同但名称相同,则设为是相同的构成。
环境传感器节点120、312~319分别具备环境传感器121、322~329。环境传感器节点120、312的检测范围分别是331、332。环境传感器节点313~319的检测范围为了图的简化而未图示,但是以能够通过各环境传感器节点检测移动机器人能够移动的全部空间的方式设置环境传感器节点以及环境传感器。
另外,环境传感器节点120、312~319的环境传感器121、322~329例如可以通过LRF(Laser Range Finder)、LIDAR(Laser Imaging Detection and Ranging)、摄像头、深度摄像头、立体摄像头、声纳、RADAR、焦电型红外线传感器、红外线ToF(Time of Flight,飞行时间)传感器等传感器或它们彼此的全部组合来构成。
如图2所示,移动机器人100具备外界传感器101,沿移动方向303进行移动。
在图2所示的定时,外界传感器101的检测范围是304。
另外,在图2中示出了人/活动物体的当前的位置341、人/活动物体的过去的位置342、人/活动物体的当前的移动方向343。因人/活动物体从位置342移动到位置341而产生的时间序列的环境变化,通过环境传感器节点120、312、313、314提取为活动物体移动·环境变化信息,后面叙述详细情况。
在该环境传感器121取得的周边环境的信息中包含关于坐标的信息(坐标信息)。
活动物体移动·环境变化信息提取部122将环境传感器121检测出的时间序列的周边环境的信息以检测信息与检测定时的组的形式保存于环境传感器信息时间序列数据库123。例如,检测定时由时刻来表示。另外,活动物体移动·环境变化信息提取部122基于沿着环境传感器信息时间序列数据库123所保存的时间序列的检测定时与检测信息的多个组,算出周边环境的变化场所、变化形状、变化的大小以及变化所花费的时间。并且,活动物体移动·环境变化信息提取部122将周边环境的变化场所、该变化形状、该变化的大小、该变化所花费的时间作为活动物体移动·环境变化信息保存于活动物体移动·环境变化信息数据库124。此外,活动物体移动·环境变化信息也可以不是将周边环境的变化场所、变化形状、变化的大小、变化所花费的时间全部包含在内。可以仅包含这些信息中的一部分信息,也可以包含其他信息。
环境传感器信息时间序列数据库123将由活动物体移动·环境变化信息提取部122取得的、环境传感器121检测到的时间序列的周边环境的信息以检测信息与检测定时的组的形式进行保存。所保存的信息被活动物体移动·环境变化信息提取部122用于提取活动物体移动·环境变化信息。
活动物体移动·环境变化信息数据库124对活动物体移动·环境变化信息提取部122算出的活动物体移动·环境变化信息进行保存。所保存的活动物体移动·环境变化信息通过接受来自移动机器人100的通信部109的询问的通信部125发送给移动机器人100。
通信部125接受来自移动机器人100的通信部109的是否存在活动物体移动·环境变化信息的询问,进行活动物体移动·环境变化信息数据库124内的检索,通过无线或有线通信向移动机器人100发送活动物体移动·环境变化信息。
接着,参照图2、图3A以及图3B,对机器人系统的处理的流程进行说明。图3A是表示机器人系统的处理的一例的流程图。T201表示移动机器人100的处理流程,T221A、T221B表示环境传感器节点120的处理流程。
首先,在图3A中的步骤S201中,内部传感器102取得信息。在此,要取得的信息是移动机器人100的移动距离、速度、加速度、角速度、姿势各自的3个方向的分量的绝对值。
接着,在步骤S202中,外界传感器101取得与移动机器人100的周边环境有关的信息。图2所示的定时的周边环境的信息是由外界传感器101对检测范围304进行检测而得到的信息。在此,在要取得的信息中包含与周边环境的二维或三维的形状以及颜色和/或材质有关的信息。
接着,在步骤S203中,移动机器人100经由通信部109对环境传感器节点120、312~319询问在具有所指定的二维或三维的任意大小的场所内在所指定的时间段是否存在活动物体移动·环境变化信息,在预定的时间内等待对该询问的回答。在此,场所和/或时间也可以预先通过管理移动机器人100的用户指定为任意的(固定的)大小的场所和/或任意长度的时间。另外,也可以是移动机器人根据状态来变更并指定场所的大小和/或时间的长度。
另外,也可以从移动机器人100对能够通信的其他移动机器人、其他环境传感器节点全部进行询问。移动机器人100能够接收来自全部的移动机器人、环境传感器节点的回答以及活动物体移动·环境变化信息。另外,从移动机器人100对多个环境传感器节点(多个其他移动机器人)的询问,既可以同时进行,也可以依次进行。
接着,在步骤S204中,通信部109判定是否存在来自环境传感器节点120、312~319的对步骤S203中的询问的回答。在存在一个以上的回答的情况下进入步骤S205,在没有回答的情况下进入步骤S208。
接着,在步骤S205中,通信部109从环境传感器节点120、312~319以及其他的全部环境传感器节点和其他的全部移动机器人接收活动物体移动·环境变化信息。此外,也可以仅从环境传感器节点120、312~319中的某个特定的环境传感器节点接收活动物体移动·环境变化信息。关于在步骤S203中指定的场所,也可以仅从具有环境变化信息的环境传感器节点取得信息。
在步骤S206中,活动物体·环境变化信息整合部103从地图信息数据库105取得在下面的步骤S207中使用的、包含与存在通过步骤S205接收到的活动物体移动·环境变化信息的场所对应的场所的信息在内的地图信息(第1地图信息)。
在此,图3B是表示机器人系统的处理的一例的流程图,具体而言,是表示步骤S207的处理的一例的流程图。参照图3B对步骤S207的具体内容、即作为其详细内容的步骤S20701~步骤S20706进行说明。
在步骤S207中,活动物体·环境变化信息整合部103进行将在步骤S202中外界传感器101取得的信息和在环境传感器节点120、312~319中对通过步骤S206取得的地图信息提取出的一个以上的活动物体移动·环境变化信息进行整合的处理。
首先,在步骤S20701中,活动物体·环境变化信息整合部103进行将在步骤S202中外界传感器101取得的周边环境的信息的坐标系和从环境传感器节点120、312~319发送来的活动物体移动·环境变化信息的坐标系变换成通过步骤S206取得的地图信息的坐标系的坐标变换。将各自的坐标系设为共同的坐标系。
接着,在步骤S20702中,活动物体·环境变化信息整合部103判定是否存在活动物体移动·环境变化信息的与形状有关的不同定时之间的时间性变化量的大小比阈值Th_ch大的场所。
在本实施方式的情况下,“时间性变化量”例如与在二维空间上或三维空间上的各点是否存在物体的概率即各点的存在概率(Exiatence Probability)有关。具体而言,是对于各点求出第1定时的存在概率和在时间上比第1定时靠后的第2定时的存在概率之间的差分的绝对值,并对该各点各自的差分的绝对值进行合计而得到的值(Sum of AbsoluteDifference)。即,是在第1定时和第2定时之间的时间发生了变化的存在概率的变化量。另外,第1定时以及第2定时既可以是时刻,也可以是从机器人系统开始工作起的经过时间。
另外,与形状有关的时间性变化量例如可以是对各点的SSD(Sum of SquaredDifference,差值的平方和)、SATD(Sum of Absolute Transformed Difference,变换后再绝对值求和)、MAD(Mean Absolute Difference,平均绝对差)、MSD(Mean SquaredDifference,平均平方差)或作为图像特征量的SIFT、SURF、HoG等的特征向量的差分。另外,与形状有关的时间性变化量例如也可以是使用这些特征向量生成的BoF(Bag of Feature,特征包)特征向量的差分。
对于阈值Th_ch的具体值的设定,根据所使用的变化量的基准和/或状况而不同。作为一例,考虑将在10m×10m×10m的空间中100mm×100mm×100mm的物体移动了20mm时的变化量设定为阈值Th_ch。但是,阈值Th_ch的具体值的设定并不限定于上述例子。
在存不同定时之间的时间性变化量的大小比阈值Th_ch大的场所的情况下进入步骤S20703。否则进入步骤S20707。
接着,在步骤S20703中,活动物体·环境变化信息整合部103判定活动物体移动·环境变化信息的与形状有关的时间性变化量比阈值Th_ch大的定时之间的时间差是否大于阈值Th_tu(第1时间)。在大于阈值Th_tu的情况下,进入步骤S20707。这意味着:在时间差大于预定阈值Th_tu的情况下,相应的活动物体移动·环境变化信息不是因外部干扰引起的暂时性的环境变化,而视为因静止物体的移动等引起的半持久或持久的环境变化,将环境发生了变化的部分作为新的地图来进行处理。例如,在室内移动了家具等时的布局变更相当于此,对于布局变更这样的时间差大的变化,作为新的地图进行处理。在时间差小于或等于阈值Th_tu的情况下,进入步骤S20704。
接着,在步骤S20704中,活动物体·环境变化信息整合部103判定活动物体移动·环境变化信息的与形状有关的时间性变化量比阈值Th_ch大的定时之间的时间差是否小于阈值Th_tb(第2时间)。
在小于阈值Th_tb的情况下,在步骤S20705中,活动物体·环境变化信息整合部103执行如下的除去处理:将与活动物体移动·环境变化信息(第3地图信息)中的时间性变化量比阈值Th_ch大的场所对应的、移动机器人100的外界传感器101取得的周边环境的信息(第2地图信息)中的场所的信息和通过步骤S206取得的地图信息(第1地图信息)中的场所的信息除去。关于该信息的除去处理的详细情况,将在后面叙述。
另一方面,在大于或等于阈值Th_tb的情况下,在步骤S20706中,活动物体·环境变化信息整合部103进行如下的方差增加处理:对与活动物体移动·环境变化信息(第3地图信息)中的时间性变化量比阈值Th_ch大的场所对应的、移动机器人100的外界传感器101取得的周边环境的信息(第2地图信息)中的场所的信息和通过步骤S206取得的地图信息(第1地图信息)中的场所的信息各自的方差进行增加变更。此外,阈值Th_tb是比阈值Th_tu大的值。例如,对于方差的增加变更,以对方差V乘以大于1的常数a的方式(a×V)来计算。
在此所说“信息的方差”是指表示信息的离散、不确定性的指标。对于周边环境的信息来说,在方差小的情况下意味着在周边环境的空间上在期待值(期望值)周边存在检测对象的概率高。另一方面,在方差大的情况下意味着在期待值周边存在检测对象的概率低,可能存在检测对象的概率的分布在空间上大范围地扩展。
另外,信息的“方差增加处理”是指使信息的离散、不确定性增加,即,是指使信息的信用度降低。关于该信息的方差增加处理的详细情况,将在后面叙述。
此外,在步骤S20704中,判定了活动物体移动·环境变化信息的与形状有关的时间性变化量比阈值Th_ch大的定时之间的时间差是否小于阈值Th_tb,但不限于此。例如,也可以判定活动物体移动·环境变化信息的与形状有关的时间性变化量的大小是否比与阈值Th_ch不同的新的阈值大。即,在活动物体移动·环境变化信息的与形状有关的时间性变化量的大小比新的阈值大的情况下(是),进入步骤S20705,否则(否),进入步骤S20706。在此,新的阈值是比阈值Th_ch高的值。即,由于是在步骤S20704中判定为“是”时的变化量比不判定为“是”时的变化量大的情况,因此将活动物体移动·环境变化信息从外界传感器信息·地图信息中除去的处理变为有效。
接着,在步骤S20707中,活动物体·环境变化信息整合部103针对接收到的与一个以上的场所有关的活动物体移动·环境变化信息,判定是否存在活动物体·环境变化信息整合部未进行处理的、即未处理的活动物体移动·环境变化信息。在存在未处理的活动物体移动·环境变化信息的情况下,返回到步骤S20701,继续进行处理,直到再没有未处理的活动物体移动·环境变化信息为止。在不存在未处理的活动物体移动·环境变化信息的情况下,进入步骤S208。
返回到图3A,在步骤S208中,进行地图信息的生成和移动机器人100的自身位置的推定(包含匹配处理)。在步骤S204中存在来自环境传感器节点120的回答的情况下,使用通过步骤S207对活动物体移动·环境变化信息进行了整合的外界传感器101取得的信息和内部传感器102通过步骤S201取得的信息,地图生成·自身位置推定部104进行地图信息的生成和移动机器人100的自身位置的推定。在此,在自身位置的推定时,对地图信息和外界传感器取得的传感器数据进行对照(匹配处理),搜索相似度高的变换,以相似度最高的变换来推定移动机器人100的移动距离以及移动方向、即当前的自身位置。在步骤S204中没有来自环境传感器节点120的回答的情况下,使用外界传感器101通过步骤S202取得的信息和内部传感器102通过步骤S201取得的信息,地图生成·自身位置推定部104进行地图信息的生成和移动机器人100的自身位置的推定。地图信息的生成和自身位置的推定,通过地图生成·自身位置推定部104的滤波处理来同时进行。
接着,在步骤S209中,路线规划部106使用地图信息数据库105所保存的通过步骤S208生成的地图信息,规划从当前的自身位置进行移动的路线。关于路线规划的方法,如上所述。
接着,在步骤S210中,控制部107针对在步骤S209中规划出的路线,生成用于进行移动机器人100的移动动作的控制命令。
接着,在步骤S211中,致动器108接收通过步骤S210生成的控制命令,使移动机器人100实际进行移动。
从此开始对作为环境传感器节点120中的处理的、步骤S221~S227进行说明。
在处理流程T221A的步骤S221中,环境传感器节点120的通信部125受理来自移动机器人100的询问。
在步骤S223中,使用活动物体移动·环境变化信息数据库124来确认来自移动机器人100的询问内容、即是否存在符合所指定的场所、所指定的时间段这一条件的活动物体移动·环境变化信息。在确认的结果是存在符合条件的活动物体移动·环境变化信息的情况下,进入步骤S225的处理。在不存在符合条件的活动物体移动·环境变化信息的情况下,返回到步骤S221。
接着,在步骤S225中,通信部125向移动机器人100发送针对步骤S203中的在所指定的场所、时间段是否存在活动物体移动·环境变化信息的询问的回答(所指定的场所是否存在活动物体移动和/或环境变化信息的信息)。
接着,在步骤S226中,通信部125向进行了通过步骤S221受理的询问的移动机器人100,发送活动物体移动·环境变化信息。在进行了发送之后返回到步骤S221。
在处理流程221B的步骤S222中,活动物体移动·环境变化信息提取部122取得环境传感器121检测到的环境传感器节点120的周边的信息,以检测时间与检测信息的组的形式按时间序列的顺序保存于环境传感器信息时间序列数据库12。
在步骤S224中,活动物体移动·环境变化信息提取部122沿时间序列参照环境传感器信息时间序列数据库123所保存的与环境传感器节点120的周边有关的检测时间与检测信息的多个组,判定环境传感器节点120的周边的环境是否正在发生变化。
在步骤S227中,活动物体移动·环境变化信息提取部122基于环境传感器信息时间序列数据库123所保存的检测时间与检测信息的沿时间序列的多个组,算出周边环境的变化场所、变化形状、变化的大小以及变化所花费的时间。将所述的变化场所、变化的大小、变化所花费的时间作为活动物体移动·环境变化信息保存于活动物体移动·环境变化信息数据库124。
如图2所示,所提取出的活动物体移动·环境变化信息,通过搭载于环境传感器节点的通信单元351和搭载于移动机器人100的通信单元352经由通信路线353从环境传感器节点发送到移动机器人。发送到了移动机器人的活动物体移动·环境变化信息,被活动物体移动·环境变化信息整合部用于将与存在因人/活动物体引起的环境变化信息的场所对应的、移动机器人100的外界传感器101检测到的信息(第2地图信息)中的场所的信息除去。由此,能够将作为外部干扰的动态的环境变化从移动机器人100的外界传感器101检测到的信息中除去。
图4A表示例如在任意的时刻T移动机器人100位于环境400的情况。图4C中示出在时刻T移动机器人100的外界传感器101取得的信息(传感器数据)430。图4B中示出在从时刻T经过了任意的时间间隔α后的时刻(T+α)移动机器人100位于环境400的情况。图4D中示出从时刻T经过了任意的时间间隔α后的时刻(T+α)的移动机器人100的外界传感器101取得的信息(传感器数据)431。
如图4A所示,在环境400中,存在移动机器人100、位于位置401的静止物体A、位于位置402的活动物体H、和环境传感器节点120。移动机器人100朝向行进方向405移动。活动物体H从位置402朝向行进方向404移动。
如图4B所示,在环境400中,存在移动机器人100、位于位置401的静止物体A、位于位置403的活动物体H、和环境传感器节点120。
对图4A和图4B进行比较,移动机器人100的位置发生变化。另外,活动物体H的位置也从位置402变化到位置403。
搭载于移动机器人100的外界传感器101取得环境400中的移动机器人100的周边的信息。
图4C示出了在时刻T外界传感器101对环境400取得的传感器数据430(粗实线)。在传感器数据430中包含环境400中的位于位置401的静止物体A、位于位置402的活动物体H、和墙壁W各自的形状以及距外界传感器101的距离。
图4D示出了在从时刻T经过了任意的时间间隔α后的时刻(T+α)外界传感器101对环境400取得的传感器数据431(粗虚线)。在传感器数据431中包含环境400中的位于位置401的静止物体A、位于位置403的活动物体H、和墙壁W各自的形状以及距外界传感器101的距离。
传感器数据430和传感器数据431可以包含二维的距离数据、三维的距离数据、二维的形状数据、三维的形状数据、图像特征点等的数据形式或它们彼此的组合。即,在外界传感器101取得的信息中包含坐标信息。环境传感器节点120通过环境传感器121将因活动物体H在时刻T~时刻(T+α)之间从位置402移动到位置403而引起的环境变化提取为活动物体移动·环境变化信息。图5A~图5C中示出时刻T的地图数据与时刻(T+α)的传感器数据的匹配处理及其结果例。
传感器数据的匹配处理,在上述的步骤S208中通过地图生成·自身位置推定部104来执行。在匹配处理中,对地图信息(数据)和外界传感器取得的传感器数据进行对照,搜索相似度高的变换,以相似度最高的变换来推定移动机器人100的移动距离以及移动方向、即当前的自身位置。
作为一例,对基于传感器数据430制作出的时刻T的地图数据501(即地图信息数据库105内的地图信息)和在时刻(T+α)通过移动机器人100的外界传感器101取得的传感器数据431之间的匹配处理进行说明。
匹配处理是对多个数据进行对照,并搜索差异度低即相似度高的多个数据间的变换的处理。在匹配处理中,计算差异度的斜率,搜索差异度成为极小的变换。
但是,在要搜索的对象的形状发生了变形或因外部干扰产生的噪声进入了数据的情况下,会发生如下问题:不会低于预先确定的差异度的阈值,搜索不会收敛。进而,在这样的情况下,会发生如下问题:将与原本正确的数据间的对应不同的错误的对应判定为最佳的对应,变换的搜索的精度会降低。
通过匹配处理得到的地图数据501与传感器数据431的匹配结果,可能成为图5B所示的结果例503、结果例504那样。
结果例504示出了与作为地图数据501和传感器数据431的对应的正解(Groundtruth,正确结果)非常相近的例子。
结果例504中,由未从位置401移动的静止物体A和墙壁的形状得到的数据的部分(左侧部分)以高精度进行对应,以高精度与正解对应。另一方面,因活动物体H从位置402移动到位置403引起的传感器数据的形状发生了变化的部分(右侧部分)未能很好地得到对应,作为其结果,传感器数据整体的相似度降低。
因此,根据搜索方法和/或阈值的不同,会产生如下问题:到收敛到作为正解的结果例504为止,匹配运算的反复次数会增加。
图5C中示出匹配中的评价值例505。作为评价值例505,示出横轴为进行匹配的两个数据501、431间的X轴方向的距离、纵轴为评价值而进行了描绘所得到的例子。评价值表示数据间的差异度,数据的形状越一致就成为越低的值。
在此,为了易于理解,评价值例505示出了相对于地图数据501使传感器数据431仅在X轴方向上平移的情况下的例子。此外,实际上,为了对变换进行搜索,进行数据相对于各轴的平移、旋转。平移表示单向地进行平行移动的运动。
如图5C所示,在匹配的评价值例505中,示出了对结果例504的匹配运算的评价值507。在评价值507的附近,评价值的变化是平缓的,在使用斜率法等方法求取结果的情况下,到收敛到结果为止,匹配运算的反复次数会需要多次。
另外,图5B所示的结果例503示出了与作为地图数据501和传感器数据431的对应的正解(Ground truth)之间的对应度低的例子。如图5C所示,在匹配中的评价值例505中,示出了对结果例503的匹配运算的评价值506。评价值506在评价值例505中成为极小值。因此,在使用斜率法等方法求取结果的情况下,将结果收敛到评价值506、与正解的对应度低的对应即结果例503错误地判定为最佳的结果。如此,可能也会产生如下问题:将收敛为结果例503、与正解的对应度低的对应错误地判定为最佳。
由此,数据间的变换的搜索精度降低,作为结果,地图的生成精度和基于该地图推定移动机器人100的自身位置的推定精度会降低。
如此,若发生因活动物体的移动引起的传感器数据的形状的变化,则会产生如下问题:匹配运算的反复次数增加,将与正解的对应度低的对应误判断为最佳,由此地图的生成精度和移动机器人100的自身位置的推定精度会降低。以下,参照图6A-图6C、图7A-图7C对应对该问题的两个处理进行说明。
图6A是表示数据的除去处理的一例的图。在图6A中,示出了通过第一个处理、即将以活动物体H的移动为原因而存在活动物体·环境变化信息的场所(区域C)的数据除去这一处理进行了除去对象场所的数据的处理之后的时刻T的地图数据601和时刻(T+α)的传感器数据602。
此外,图6A所示的处理是与步骤S20705相同的处理。即,图6A所示的区域C与时间性变化量比阈值Th_ch大的场所对应。
图6B和图6C示出地图数据601与传感器数据602的匹配结果例和匹配评价值例。在此,为了易于理解,匹配评价值例示出了相对于地图数据601使传感器数据602仅在X轴方向上平移的情况下的例子。在即图6C的坐标图中,横轴表示两个数据601、602间的X轴方向的距离,纵轴表示评价值(两个数据601、602的差异度)。
如图6C所示,根据图6A所示的除去处理,因以活动物体的移动作为原因的传感器数据的形状的变化而产生的影响被除去,因此评价值的变化变得陡峭。由此,在使用斜率法等方法求取结果的情况下,与图5C所示的评价值例505相比,在图6C所示的评价值例中,不存在与评价值506的点对应的极小值。即,在图6C所示的评价值例中,仅存在与评价值607的点对应的最小值作为极小值。根据该评价值例,能够避免误判断,并实现高精度的向正解的对应。进而,评价值607的周边的评价值的变化,与图5C所示的评价值507相比变得急剧,由此,匹配运算的反复次数被削减为比使用图5C所示的评价值例505的情况下的反复次数少。
根据以上所述,在地图生成·自身位置推定中的数据间的匹配处理中,通过在匹配处理执行前将匹配对象的两个数据各自的存在活动物体的区域(图6A所示的区域C)的信息除去,能实现匹配处理的高精度化和/或运算量的减少。
接着,对第2个处理进行说明。图7A是表示数据的方差增加处理的一例的图。在图7A中,示出了进行通过使以活动物体H的移动作为原因而存在活动物体·环境变化信息的场所(区域C)的数据的方差增加的处理进行了使对象场所的数据的方差增加的处理之后的时刻T的地图数据603和时刻(T+α)的传感器数据604。
在此,参照图8~图10对信息的方差的增加进行补充。
图8示出了时刻T的地图数据501。如图8所示,在地图数据501中,包含由移动机器人100的外界传感器101实际检测的实测点(实测坐标)。
该地图数据501的信息的方差能够视为实测点的方差,表示该实测点的不确定性(该坐标信息的信用度)。如图9所示,具体而言,实测点的方差能够通过以实测点为峰值的存在概率的分布的宽度来定义。因此,信息的方差的增加意味着以实测点为峰值的存在概率的分布的宽度的增加。
作为一例,在图10中,示出了在地图数据501的一部分(右侧部分)执行了信息的方差的增加之后的、即实测点的存在概率的分布的宽度增加之后的情形。
此外,图7A所示的处理是与步骤S20706相同的处理。即,图7A所示的区域C与时间性变化量比阈值Th_ch大的场所对应。
图7B和图7C中示出地图数据603与传感器数据604的匹配结果例和匹配评价值例。在此,为了易于理解,匹配评价值例示出了相对于地图数据603使传感器数据604仅在X轴方向上平移的情况下的例子。
如图7C所示,根据图7A所示的方差增加处理,缓和了因以活动物体的移动为原因的传感器数据的形状的变化而产生的影响,评价值的变化变得陡峭(剧烈)。由此,在使用斜率法等方法求取结果的情况下,与图5C所示的评价值例505的评价值506的点对应的极小值为与评价值608的点相比足够大的值,因此与图5C的评价值例505相比,容易向评价值608收敛。根据该评价例,变得容易避免误判断,能够实现高精度的向正解的对应。进而,评价值608的周边的评价值的变化与图5C所示的评价值507相比变得急剧,由此,匹配运算的反复次数被削减为比使用图5C所示的评价值例505的情况下的反复次数少。
根据以上所述,在地图生成·自身位置推定中的数据间的匹配处理中,通过在匹配处理执行前对匹配对象的两个数据各自的存在活动物体的区域(例如图7A所示的区域C)的信息进行方差增加,能实现匹配处理的高精度化和/或运算量的减少。
图6A所示的信息的除去处理和图7A所示的信息的方差增加处理,如图3B所示那样根据条件来分开使用。具体而言,在存在第1定时与第2定时之间的时间性变化量比阈值Th_ch大的场所(存在这样的活动物体移动·环境变化信息的场所)、且该第1定时与第2定时之间的时间差比阈值Th_tb(第2时间)小的情况下,即在判断为因活动物体的移动·环境的变化产生的影响相对较大的情况下,在步骤S20705中执行除去处理。另一方面,在第1定时与第2定时之间的时间差比阈值Th_tb大的情况下,即在判断为因活动物体的移动·环境的变化产生的影响相对较小的情况下,在步骤S20706中执行方差增加处理。
除去处理是相比于方差增加处理而将因活动物体的移动·环境的变化产生的影响抑制为更小的处理。如此,在本实施方式中,根据因活动物体的移动·环境的变化产生的影响的程度来分开使用除去处理和方差增加处理,由此,能实现使用了最佳方法的数据间的匹配处理。
根据本实施方式1,即使在环境变化大的空间中,也能够高精度且稳健地进行地图生成和使用该地图进行移动的移动机器人的自身位置推定。
(实施方式2)
上述的实施方式1涉及的机器人系统包括一个移动机器人和至少一个环境传感器节点。与此相对,本实施方式2涉及的机器人系统包括多个移动机器人和至少一个环境传感器节点。并且,该多个移动机器人分别具备与上述的实施方式1中的环境传感器节点同样的功能。即,相对于进行地图生成和/或自身位置推定的一个移动机器人,其余的移动机器人能够作为环境传感器节点发挥功能。
具体而言,本实施方式2的移动机器人分别构成为:与使用环境传感器最终取得活动物体移动·环境变化信息的上述的实施方式1的环境传感器节点同样地,使用外界传感器最终取得活动物体移动·环境变化信息。另外,移动机器人包括与图1所示的环境传感器节点的活动物体移动·环境变化信息提取部、环境传感器信息时间序列数据库以及活动物体移动·环境变化信息数据库实质上相同的构成要素。
图11是表示本实施方式2涉及的机器人系统中的多个移动机器人的处理的一例的流程图。
如图11所示,本实施方式2涉及的移动机器人构成为按照主处理流程T701、副处理流程T702A、T702B进行工作。另外,图11示出了执行主处理流程的机器人(与上述的实施方式1的移动机器人100对应)和执行副处理流程T702A、T702B的至少一个其他的移动机器人(作为上述的实施方式1的环境传感器节点120发挥功能的机器人)之间的信息的授受(交换)。
进行图11所示的处理流程的本实施方式2涉及的机器人系统和图3A、图3B所示的上述的实施方式1涉及的机器人系统的不同在于:活动物体移动·环境变化信息由执行处理流程T702A、T702B并发挥环境传感器节点的作用的移动机器人来提取、并被从该机器人发送到执行主处理流程而进行地图生成以及自身位置推定的移动机器人;发挥环境传感器节点的作用的移动机器人使用外界传感器来取得其周边的信息。
根据本实施方式2,与上述的实施方式1同样地,即使在环境变化大的空间中,也能够高精度且稳健地进行地图生成和使用该地图进行移动的移动机器人的自身位置推定。另外,通过使能够移动的移动机器人发挥环境传感器节点的作用,能够检测活动物体移动·环境变化的区域扩大,随之活动物体移动·环境变化信息的信息量增加(与固定的环境传感器节点的机器人系统相比)。作为其结果,能进一步实现地图生成·自身位置推定的处理中的推定值的精度劣化的抑制和因外部干扰引起的计算量的增加的抑制。
此外,在本实施方式2的情况下,因为多个移动机器人的某一个发挥环境传感器节点的作用,所以也能够将至少一个环境传感器节点自身从机器人系统中排除。即,在该情况下,机器人系统不包括环境传感器节点而包括能够发挥环境传感器节点的作用的至少两个移动机器人。
此外,上述技术方案中说明的技术例如可以在以下的机器人系统的类型中实现。但是,可实现上述技术方案中说明的技术的机器人系统的类型并不限于此。
以上,通过实施方式对本公开的处理进行了说明,但对于实施各处理的主体和/或装置没有特别限定。也可以通过组装到在本地配置的特定的装置内的处理器等(以下进行说明)来处理。另外,也可以通过在与本地的装置不同的场所配置的云服务器等来处理。另外,也可以通过在本地的装置与云服务器之间进行信息的协作来分担本公开中说明的各处理。以下说明本公开的实施方式。
(1)上述的装置具体而言是由微处理器、ROM、RAM、硬盘单元、显示单元、键盘、鼠标等构成的计算机系统。在所述RAM或硬盘单元中存储有计算机程序。通过所述微处理器按照所述计算机程序进行工作,各装置实现其功能。在此,计算机程序是为了实现预定的功能而组合多个表示对计算机的指令的命令代码而构成的。
(2)构成上述装置的构成要素的一部分或全部也可以由1个系统LSI(Large ScaleIntegration:大规模集成电路)构成。系统LSI是将多个构成部集成到1个芯片上而制造出的超多功能LSI,具体而言,是包含微处理器、ROM、RAM等而构成的计算机系统。在所述RAM中存储有计算机程序。通过所述微处理器按照所述计算机程序进行工作,系统LSI实现其功能。
(3)构成上述装置的构成要素的一部分或全部也可以由能够装卸于各装置的IC卡或者单体模块构成。所述IC卡或者所述模块是由微处理器、ROM、RAM等构成的计算机系统。所述IC卡或者所述模块也可以包含上述的超多功能LSI。通过微处理器按照计算机程序进行工作,所述IC卡或者所述模块实现其功能。该IC卡或者该模块也可以具有抗篡改性。
(4)本公开也可以是上述所示的方法。另外,也可以是将这些方法通过计算机来实现的计算机程序,还可以是通过所述计算机程序形成的数字信号。
(5)另外,本公开也可以将所述计算机程序或者所述数字信号记录于计算机可读取的记录介质例如软盘、硬盘、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray(注册商标)Disc)、半导体存储器等。另外,也可以是记录在这些记录介质中的所述数字信号。
另外,本公开也可以将所述计算机程序或所述数字信号经由电通信线路、无线或有线通信线路、以因特网为代表的网络、数据广播等进行传输。
另外,本公开也可以是具有微处理器和存储器的计算机系统,所述存储器记录有上述计算机程序,所述微处理器按照所述计算机程序进行工作。
另外,也可以通过将所述程序或所述数字信号记录在所述记录介质中进行转移、或经由所述网络等将所述程序或所述数字信号进行转移,由此通过独立的其他的计算机系统来实施。
(6)也可以将上述实施方式及其变形例分别进行组合。
最后,移动机器人以及环境传感器节点可以存在各种形式。例如,图2所示的移动机器人100和环境传感器节点120(312-319)在室内使用,但不限于此。例如,也可以是移动机器人在屋外的道路等进行自动行驶的车辆的形式。该情况下,环境传感器节点如道路标识那样沿着道路配置、或者设置于道路附近的建筑物。
产业上的可利用性
本公开能够适用于地图生成方法、自身位置推定方法、机器人系统以及机器人。

Claims (11)

1.一种地图生成方法,是使用至少一个以上的环境传感器节点进行地图生成的移动机器人的地图生成方法,包括:
取得预先制作的包含所述移动机器人周边的信息的第1地图信息,
通过搭载于所述移动机器人的外界传感器取得包含所述移动机器人周边的信息的第2地图信息,
从所述环境传感器节点接收包含所述移动机器人周边的信息的第3地图信息,
(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,
进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者
进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,
(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,
(iii)将所述第1地图信息更新为基于匹配结果生成的地图信息。
2.根据权利要求1所述的地图生成方法,
在所述第3地图信息中存在在第1定时与第2定时之间所述时间性变化量为所述预定阈值以上的场所的信息的情况下,
在所述第1定时与所述第2定时之间的时间差处于第1时间与比所述第1时间长的第2时间之间的范围内的情况下,进行所述除去处理,
在所述第1定时与所述第2定时之间的时间差为所述第2时间以上的情况下,进行所述方差增加处理。
3.根据权利要求2所述的地图生成方法,
在所述第3地图信息中存在在所述第1定时与所述第2定时之间所述时间性变化量为所述预定阈值以上的场所的信息的情况下,
在所述第1定时与所述第2定时之间的时间差为所述第1时间以下的情况下,不进行所述除去处理以及所述方差增加处理,而对所述第1地图信息与所述第2地图信息进行匹配,基于该匹配结果生成地图信息。
4.根据权利要求1~3中任一项所述的地图生成方法,
在所述第3地图信息中不存在所述时间性变化量为所述预定阈值以上的场所的信息的情况下,对所述第1地图信息与所述第2地图信息进行匹配,基于该匹配结果生成地图信息。
5.根据权利要求1~3中任一项所述的地图生成方法,
所述方差增加处理是使所述第1地图信息的对应场所和所述第2地图信息的对应场所各自的信息的不确定性增加的处理。
6.根据权利要求1~3中任一项所述的地图生成方法,
所述第3地图信息包含所述环境传感器节点周边的物体的存在概率的信息,
所述时间性变化量是所述存在概率的变化量。
7.根据权利要求1~3中任一项所述的地图生成方法,
所述第1地图信息、所述第2地图信息和所述第3地图信息是二维坐标系中的坐标信息或三维坐标系中的坐标信息,
在进行所述匹配之前,进行将所述第1地图信息、所述第2地图信息和所述第3地图信息各自的坐标系变换成共同的坐标系的坐标变换处理。
8.一种自身位置推定方法,是使用至少一个传感器节点进行自身位置推定的移动机器人的自身位置推定方法,包括:
取得预先制作的包含所述移动机器人周边的信息的第1地图信息,
通过搭载于所述移动机器人的外界传感器取得包含所述移动机器人周边的信息的第2地图信息,
从环境传感器节点接收包含所述移动机器人周边的信息的第3地图信息,
(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,
进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者
进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,
(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,
(iii)将所述第1地图信息更新为基于匹配结果生成的地图信息,
(iv)基于更新完的第1地图信息和对所述移动机器人的位置和姿势的至少一方进行检测的内部传感器的检测结果,推定所述移动机器人在所述更新完的第1地图信息上的自身位置。
9.根据权利要求8所述的自身位置推定方法,
基于所述更新完的第1地图信息和所推定出的自身位置来算出移动路线,
使所述移动机器人沿着所述移动路线移动。
10.一种机器人系统,包括至少一个环境传感器节点和移动机器人,
所述环境传感器节点取得包含所述移动机器人周边的信息的第3地图信息,
所述移动机器人具备:
数据库,其记录有预先制作的包含所述移动机器人周边的信息的第1地图信息;
外界传感器,其取得包含所述移动机器人周边的信息的第2地图信息;
通信部,其与所述环境传感器节点进行通信来取得所述第3地图信息;以及
信息处理部,其进行如下处理:
(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,
进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者
进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,
(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,
(iii)将所述预先记录的第1地图信息更新为基于匹配结果生成的地图信息。
11.一种移动机器人,具备:
数据库,其记录有预先制作的包含所述移动机器人周边的信息的第1地图信息;
外界传感器,其取得包含所述移动机器人周边的信息的第2地图信息;
通信部,其与至少一个环境传感器节点进行通信来取得包含所述移动机器人周边的信息的第3地图信息,所述至少一个环境传感器节点位于所述移动机器人的外部、并且取得所述第3地图信息;以及
信息处理部,其进行如下处理:
(i)在所述第3地图信息中存在时间性变化量为预定阈值以上的场所的信息的情况下,
进行如下的除去处理:将与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息除去;或者
进行如下的方差增加处理:使与所述第3地图信息中的时间性变化量为所述预定阈值以上的场所对应的、所述第1地图信息中的场所的信息和所述第2地图信息中的场所的信息各自的方差增加,
(ii)对进行了所述除去处理或所述方差增加处理之后的第1地图信息和第2地图信息进行匹配,基于该匹配结果生成地图信息,
(iii)将所述预先记录的第1地图信息更新为基于匹配结果生成的地图信息。
CN201680003184.4A 2015-08-28 2016-08-08 地图生成方法、自身位置推定方法、机器人系统和机器人 Active CN106796434B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015169412 2015-08-28
JP2015-169412 2015-08-28
JP2016134284A JP6849330B2 (ja) 2015-08-28 2016-07-06 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP2016-134284 2016-07-06
PCT/JP2016/003634 WO2017038012A1 (ja) 2015-08-28 2016-08-08 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット

Publications (2)

Publication Number Publication Date
CN106796434A CN106796434A (zh) 2017-05-31
CN106796434B true CN106796434B (zh) 2020-12-25

Family

ID=58210356

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680003184.4A Active CN106796434B (zh) 2015-08-28 2016-08-08 地图生成方法、自身位置推定方法、机器人系统和机器人

Country Status (4)

Country Link
US (1) US10549430B2 (zh)
EP (1) EP3343307B1 (zh)
JP (1) JP6849330B2 (zh)
CN (1) CN106796434B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3428885A4 (en) * 2016-03-09 2019-08-14 Guangzhou Airob Robot Technology Co., Ltd. CARD CONSTRUCTION METHOD, AND CORRECTION METHOD AND APPARATUS
JP6508114B2 (ja) * 2016-04-20 2019-05-08 トヨタ自動車株式会社 移動体の自動運転制御システム
US10120386B2 (en) * 2016-11-18 2018-11-06 Robert Bosch Start-Up Platform North America, LLC, Series 1 Robotic creature and method of operation
JPWO2018123970A1 (ja) * 2016-12-27 2019-10-31 株式会社村田製作所 位置推定システム及び位置推定方法
CN107727104B (zh) * 2017-08-16 2019-04-30 北京极智嘉科技有限公司 结合标识的同时定位和地图创建导航方法、装置及系统
WO2019054209A1 (ja) * 2017-09-13 2019-03-21 日本電産シンポ株式会社 地図作成システムおよび地図作成装置
CN107632285B (zh) * 2017-09-19 2021-05-04 北京小米移动软件有限公司 地图创建及修改方法与装置
JP6581162B2 (ja) * 2017-09-29 2019-09-25 ファナック株式会社 加工システム及び加工機の制御方法
WO2019194079A1 (ja) * 2018-04-02 2019-10-10 日本電産株式会社 位置推定システム、当該位置推定システムを備える移動体、およびコンピュータプログラム
CN108469826A (zh) * 2018-04-23 2018-08-31 宁波Gqy视讯股份有限公司 一种基于机器人的地图生成方法及系统
WO2019245320A1 (ko) * 2018-06-22 2019-12-26 삼성전자주식회사 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
DE102018219602A1 (de) 2018-11-15 2020-05-20 Robert Bosch Gmbh Verfahren zum Erkennen von Kartenfehlern
WO2020183659A1 (ja) * 2019-03-13 2020-09-17 学校法人 千葉工業大学 情報処理装置および移動ロボット
CN110222205A (zh) * 2019-04-30 2019-09-10 北京云迹科技有限公司 机器人的图像数据处理方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101033971A (zh) * 2007-02-09 2007-09-12 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
WO2013002067A1 (ja) * 2011-06-29 2013-01-03 株式会社日立産機システム 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム
CN103228040A (zh) * 2012-01-31 2013-07-31 国际商业机器公司 室内电子地图生成方法与系统及室内目标定位方法与系统
CN103914068A (zh) * 2013-01-07 2014-07-09 中国人民解放军第二炮兵工程大学 一种基于栅格地图的服务机器人自主导航方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6836701B2 (en) * 2002-05-10 2004-12-28 Royal Appliance Mfg. Co. Autonomous multi-platform robotic system
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
CN104699099B (zh) * 2009-08-31 2018-03-23 Neato机器人技术公司 移动机器人环境的同时定位和地图绘制的方法和设备
JP5490911B2 (ja) * 2009-10-30 2014-05-14 ユージン ロボット シーオー., エルティーディー.Yujin Robot Co., Ltd. 移動ロボットの位置認識のための地図生成および更新方法
JP5617562B2 (ja) 2010-11-26 2014-11-05 株式会社国際電気通信基礎技術研究所 移動ロボット
JP5776332B2 (ja) 2011-05-27 2015-09-09 富士通株式会社 地図処理方法及びプログラム、並びにロボットシステム
KR20130068249A (ko) * 2011-12-15 2013-06-26 한국전자통신연구원 이동체의 위치 추정 장치 및 방법
US9377310B2 (en) * 2013-05-02 2016-06-28 The Johns Hopkins University Mapping and positioning system
US10022867B2 (en) * 2014-11-11 2018-07-17 X Development Llc Dynamically maintaining a map of a fleet of robotic devices in an environment to facilitate robotic action

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
CN101033971A (zh) * 2007-02-09 2007-09-12 中国科学院合肥物质科学研究院 一种移动机器人地图创建系统及地图创建方法
WO2013002067A1 (ja) * 2011-06-29 2013-01-03 株式会社日立産機システム 移動ロボット、及び移動体に搭載される自己位置姿勢推定システム
CN103228040A (zh) * 2012-01-31 2013-07-31 国际商业机器公司 室内电子地图生成方法与系统及室内目标定位方法与系统
CN103914068A (zh) * 2013-01-07 2014-07-09 中国人民解放军第二炮兵工程大学 一种基于栅格地图的服务机器人自主导航方法

Also Published As

Publication number Publication date
EP3343307A1 (en) 2018-07-04
EP3343307B1 (en) 2019-05-01
CN106796434A (zh) 2017-05-31
JP2017045447A (ja) 2017-03-02
JP6849330B2 (ja) 2021-03-24
US10549430B2 (en) 2020-02-04
US20180079085A1 (en) 2018-03-22
EP3343307A4 (en) 2018-10-17

Similar Documents

Publication Publication Date Title
US10962376B2 (en) Adaptive mapping with spatial summaries of sensor data
US9329598B2 (en) Simultaneous localization and mapping for a mobile robot
US9274526B2 (en) Autonomous vehicle and method of estimating self position of autonomous vehicle
US10328575B2 (en) Method for building a map of probability of one of absence and presence of obstacles for an autonomous robot
EP2948927B1 (en) A method of detecting structural parts of a scene
Kim et al. Dynamic ultrasonic hybrid localization system for indoor mobile robots
Chen Kalman filter for robot vision: a survey
US6496755B2 (en) Autonomous multi-platform robot system
KR101202695B1 (ko) 자율 이동 장치
Fox Markov localization-a probabilistic framework for mobile robot localization and navigation.
JP5830533B2 (ja) 自律移動システム
Thompson et al. A probabilistic model of human motion and navigation intent for mobile robot path planning
Fox et al. Markov localization for mobile robots in dynamic environments
Hahnel et al. Mapping and localization with RFID technology
US10422648B2 (en) Methods for finding the perimeter of a place using observed coordinates
KR100926783B1 (ko) 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
EP3367199B1 (en) Moving robot and method of controlling the same
Lingemann et al. High-speed laser localization for mobile robots
KR101572851B1 (ko) 동적 환경에서 모바일 플랫폼의 지도 작성방법
Wijk et al. Triangulation-based fusion of sonar data with application in robot pose tracking
Wei et al. Camera/laser/GPS fusion method for vehicle positioning under extended NIS-based sensor validation
US20130093852A1 (en) Portable robotic device
Wang et al. Simultaneous localization, mapping and moving object tracking
Gutmann et al. An experimental comparison of localization methods
Lin et al. Stereo-based simultaneous localization, mapping and moving object tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant