CN105091885B - 机器人及自身位置推定方法 - Google Patents

机器人及自身位置推定方法 Download PDF

Info

Publication number
CN105091885B
CN105091885B CN201510212751.4A CN201510212751A CN105091885B CN 105091885 B CN105091885 B CN 105091885B CN 201510212751 A CN201510212751 A CN 201510212751A CN 105091885 B CN105091885 B CN 105091885B
Authority
CN
China
Prior art keywords
mentioned
robot
self
classification
category
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201510212751.4A
Other languages
English (en)
Other versions
CN105091885A (zh
Inventor
藤本敬介
木村宣隆
守屋俊夫
藤大树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of CN105091885A publication Critical patent/CN105091885A/zh
Application granted granted Critical
Publication of CN105091885B publication Critical patent/CN105091885B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

机器人具备:计测部,对空间内的存在物进行计测;存储部,存储表示预先设定的上述空间内的存在物信息的地图数据;自身位置推定部,将由上述计测部取得的计测数据与上述地图数据进行对照,计算在上述空间内移动的移动体的自身位置;分类部,取得将上述计测数据分类为规定的两个以上的类别而得到的分类别计测数据;分类别自身位置推定部,将记录了各个上述类别的存在物的位置的分类别地图与上述分类别计测数据进行对照,按上述两个以上的类别的每个类别推定上述移动体的自身位置;合并部,将按上述两个以上的类别的每个类别推定的自身位置进行合并;以及控制部,基于来自上述合并部的信息,执行上述移动体的控制。

Description

机器人及自身位置推定方法
技术领域
本发明涉及机器人及用于机器人的自身位置推定方法。
背景技术
机器人为了自主地在空间内移动并进行某种特定的作业,需要推定相对于周围环境的自身位置。作为其方法之一,已知有将使用机器人所搭载的距离传感器计测出的周围环境的形状与预先准备的环境地图进行对照的方法。
此外,日本特许第5452442号中公开了以下方法:为了在存在空间内的物体的配置及形状随着时间而变化的区域的情况下也使机器人的动作继续,机器人基于所设定的要更新的区域自动更新环境地图。
日本特许第5452442号所记载的地图更新方法以机器人能够频繁地计测存在于没有更新的区域中的完全静止物体的情况为前提。在要更新的区域较大、距离传感器的计测范围相对于该区域小的情况下,较长期间中会在没有计测完全静止物体的状态下更新地图,导致在该区域内制作出畸变的地图。于是,当机器人从可动物体为支配性的区域向完全静止物体为支配性的区域脱出时,发生自身位置推定结果瞬间大幅跳跃的现象,机器人有可能不正常地动作成为问题。
发明内容
因而,希望有即使机器人在可动物体为支配性的区域和完全静止物体为支配性的区域之间往来时也能够得到不间断的自身位置推定结果的机器人。
简单说明本申请中公开的发明中的代表性的技术方案的概要如下。
机器人具备:计测部,对空间内的存在物进行计测;存储部,存储表示预先设定的上述空间内的存在物信息的地图数据;自身位置推定部,将由上述计测部取得的计测数据与上述地图数据进行对照,计算在上述空间内移动的移动体的自身位置;分类部,取得将上述计测数据分类为规定的两个以上的类别而得到的分类别计测数据;分类别自身位置推定部,将记录了每个上述类别的存在物的位置的分类别地图与上述分类别计测数据进行对照,按每个上述两个以上的类别的每个类别推定上述移动体的自身位置;合并部,将按上述两个以上的类别的每个类别推定的自身位置进行合并;以及控制部,基于来自上述合并部的信息,执行上述移动体的控制。
发明效果
根据本发明的一技术方案,将根据如可动物体或完全静止物体等那样被划分类别的计测数据得到的分类别的自身位置推定结果,通过与其存在比率相应的加权等适当地合并,从而在机器人在可动物体为支配性的区域与完全静止物体为支配性的区域之间往来时也能够得到不间断的自身位置推定结果。
附图说明
图1表示整体图。
图2表示机器人的计测事例。
图3表示计测结果例。
图4表示分类部。
图5表示计测数据的分类例。
图6表示地图数据。
图7表示针对地图数据的对照。
图8表示合并部。
图9表示基于移动模式的自身位置识别。
图10表示带有移动模式的合并部。
图11表示搁架附近的自身位置推定。
图12表示较大的空间内的自身位置推定。
图13表示地图更新。
图14表示移动前、移动后的计测。
图15表示移动前、移动后的计测结果。
图16表示两计测数据间的对照。
图17表示搁架下的自身位置推定。
图18表示较大的区域中的自身位置推定。
图19表示被其他机器人包围时的移动。
图20表示基于计测结果的移动模式决定。
具体实施方式
[实施例1]
以下,使用附图说明本发明的实施例。在本实施例中,以承载机械手(manipulator)的移动机器人进行动作的顺序为对象。
图1是表示有关本实施例的机器人的概念图。首先,本发明的机器人具备计测周围的存在物的计测部100及推定机器人的自身位置的自身位置推定部10。对于由上述计测部100计测出的计测数据,由分类部101分类为预先定义的两个以上的类别,作为分类别计测数据102。
进而,机器人具备分类别自身位置推定部104,该分类别自身位置推定部104针对各类别预先准备表示存在物的位置信息的分类别地图103,将上述分类别计测数据102与对应于该类别的地图103在几何上进行对照,从而推定自身位置。
进而,机器人具备合并部107,该合并部107对推定出的分类别自身位置105加上根据各地图间的相对的位置关系得到的坐标变换量106,从而变换为规定的共通坐标系,并将上述各分类别自身位置进行合并,由此决定机器人的自身位置。
在将由上述合并部107得到的自身位置存储到自身位置存储部108中之后,控制部109从分类别地图存储部读取周围的存在物的位置,并控制移动体110以使机器人不与空间内的存在物碰撞,由此使机器人自主移动。
计测部100能够计测空间内的存在物的规定的属性。图2是计测部100计测与存在于周围的存在物200的距离的情况下的概念图。这里,为了说明,作为计测部100的计测装置而采用使用激光201的距离传感器。
计测部100将照射的激光201照在周围的存在物200上,并且计测部100接受其反射光,从而根据从照射到受光的时间而计测与存在物200的距离。通过对周围全部方向进行该动作,能够计测周围的存在物的形状。此外,也可以通过测量从对象物返回来的激光的强度来得到对象物的反射强度。
另外,只要是计测周围的存在物的结构,则并不限于基于激光的距离传感器,也可以使用相机或声纳。在使用相机的情况下,通过进行标记识别或图像特征点提取等,能够测量存在物的形状及计测部100相对于存在物的相对姿势。此外,计测部也可以具备两个以上的传感器。
在图3中表示由计测部100计测了周边的存在物的形状的情况下的例子。在本实施例中,计测部100对周围照射红外线激光,接受照在各方向上存在的物体上的激光的反射光,根据从照射到受光的时间差,计测与物体的距离。
计测部100一边使计测方向φ每次变化规定的角度分辨率一边将n个数据同时计测。设第i个计测数据的计测方向为φi,计测出的距离为ri。此时的距离与方向的组合(ri,)为以计测部100为中心,在极坐标下表示了计测对象物体的位置。
另外,用虚线箭头表示的计测数据表示计测时的激光201的轨跡,箭头的末端为计测点位置300。细实线表示空间上的存在物200,与该物体碰上的虚线箭头是计测成功的数据。没有与细实线碰上的激光表示未能计测出任何物体。粗实线表示最终计测出的形状301。从在极坐标系下表示的位置(ri,)向以计测部100为原点的正交坐标系(sxi,syi)的变换通过数式1进行。
数式1
分类部101按照计测部100所测定出的存在物的属性进行类别划分。在图4中表示上述分类部101中的处理例。分类部101具备形状对照部400和亮度值判定部401,并具备使用它们的结果将上述计测数据分离的分离部402。形状对照部400搜索由上述计测部100计测出的存在物中的与规定的形状一致的存在物。
在搜索直线形状的情况下,将直线重合到计测得到的存在物的形状上,在搭在直线上的区域存在一定以上的情况下,将其作为直线输出。此外,如果在计测出的点周围不存在其他形状,则能够通过提取该区域来得到搁架的腿等的较小的柱。
进而,分类部101在亮度值判定部401中,使用通过上述计测部100得到的计测对象的存在物的反射强度,根据上述反射强度值是否是阈值以上,将计测数据进行分类。分类部101将通过这些处理得到的分类结果用分离部402作为分别不同的数据即分类别计测数据102输出。另外,分类部101也可以仅具备形状对照部400和亮度值判定部401中的某一方。
在图5中表示由上述分类部101进行分类的结果的例子。假设在环境内有反射强度较高的杆(pole)500、墙壁501、较细的柱502。分类部101通过计测部100对这些进行计测,分类为上述杆500、直线形状501、柱502。
如上述那样,分类部101首先仅将计测数据中的反射强度高的计测结果提取,将杆分离,作为有关杆的分类别计测数据503。接着,分类部101通过从剩余的计测数据中搜索直线成分,将其分离而提取墙壁,作为有关墙壁的分类别计测数据504。最后,分类部101通过搜索在计测点周边没有其他形状的物体而提取较细的柱,作为有关柱的分类别计测数据505。
图6是分类别地图103的表现方法的概念图。作为地图的表现形式,假设如栅格地图600那样分割为较细的栅格。但是,如果将空间整体的形状图示为栅格,则栅格的标记变得过小,所以在使用栅格的说明时将一部分放大表示。设地图的坐标系以(0,0)为中心,以右方向为x轴的正向、上方向为y轴的正向。
另外,地图的坐标系并不限定于此。将存在于空间内的形状作为黑线而如存在物601那样表现。这里表现的存在物是在过去的时间点计测并记录在地图上的存在物。接着,对栅格中的表现的例子进行说明。空栅格602表示在空间内在对应的区域中不存在任何物体。此外,占有栅格603表示栅格内存在物体。关于是否存在物体,作为以下所述的多值概率的形式而表现物体的存在概率。
在本实施例中,将空间内的物体的形状作为物体的存在概率表现在地图上。在地图的内部,通过投票值记录物体的信息,在读出时变换为存在概率。首先,对于地图坐标系的坐标(x,y)处的栅格单元格的值m(x,y),设存在物体的概率为p(m(x,y))。这里,假设通过基于投票值的值的Sigmoid函数如数式2那样定义p(m)。
数式2
这里,根据p(m(x,y))的值,例如根据与参数的比较结果,判定是否存在物体。此外,各栅格保持着投票值m(x,y),根据投票值m(x,y)的值计算概率p(m(x,y))。这些地图的表现方法并不限定于上述方法,只要是能够将计测出的形状进行记录的形式就可以。假设本实施例的地图是预先给出的,可以使用地图生成技术(Simultaneous Localization andMapping)等制作。
在图7中表示上述分类别自身位置推定部104通过将周围的存在物形状与上述分类别地图103进行对照来推定计测地点的位置姿势的例子。在本处理中,通过搜索由计测部100计测出的计测数据的各计测点700与地图701在几何上一致的旋转及平移变换量,能够推定计测部100的地图上的位置姿势。设地图701的坐标系中的计测地点的位置姿势为(x,y,θ)。这里,如果将在数式1的传感器坐标系下表示的计测结果的坐标变换为地图的坐标系(txi,tyi),则为数式3。
数式3
txi=sxicosθ-syisinθ+x i∈{1...n}
tyi=sxisinθ+syicosθ+y
对地图的坐标系而言,作为从计测部100的坐标系的线性变换来求出。将变换为上述地图的坐标系后的结果在几何学上嵌入到地图中时的最优的位置(x*,y*,θ*)如数式4那样求出。数式4的解可以预先赋予接近于最优解的初始值,通过最速下降法等搜索方法求解。
数式4
图8表示上述合并部107将由上述分类别自身位置推定部104得到的上述分类别自身位置105合并的处理。在上述分类别地图103被分别用不同的坐标系记录的情况下,与各地图相应地推定出的分类别自身位置105也被用各地图的坐标系表示。所以,为了将各个自身位置推定结果合并,需要变换为一个坐标系。所以,合并部107根据地图间的相对的位置关系预先求出向规定的坐标的坐标变换量106(px,py,pθ),如数式5所示对各个自身位置推定结果进行变换。
数式5
x=x*+px
y=x*+py
θ=θ*+pθ
进而,合并部107对于变换为一个坐标系后的各自身位置推定值,使用记录在权重表800中的权重通过自身位置计算部801取加权平均,由此求出自身位置,并存储在自身位置存储部108中。
机器人也可以基于按每个类别设定的规定的优先级,使用根据优先级高的类别而推定出的自身位置。优选的是,当机器人在环境内移动时,能够根据场所或状况,变更在推定自身位置时优先要使用的存在物。图9表示基于移动模式的自身位置识别的顺序。假设自身位置存储部108存储有根据刚刚计测出的计测结果得到的自身位置。移动模式判定映射表900针对空间内的各地点将规定的模式建立对应,移动模式判定部901计算与机器人的位置对应的模式,将该模式通知给上述合并部107。上述合并部107按照被通知的模式将分类别自身位置进行合并。
在图10中表示上述合并部107按照规定的移动模式计算自身位置时的顺序。移动模式按照模式表示将哪个类别优先利用于自身位置推定,按每个模式准备不同的权重表800。图10图示了3种模式,但并不限于3种。合并部107按照各模式分别存储权重表800,使用与由移动模式判定部901判定的模式对应的权重表800计算自身位置。
在图11中针对搁架1100附近的关节型机器人1101表示上述移动模式的判定例及自身位置推定处理。当关节型机器人抓取搁架内的物品时,需要知道搁架的详细的位置。另一方面,难以事先连环境内的全部搁架的正确的位置都记录到地图中,相对于实际的配置,在地图中带有误差。因此,如果想要仅通过参照空间整体的地图来拿持搁架内的物品,则会发生因误差的影响而不能把持搁架内的物品的问题。
因此,在如图11那样在搁架附近,不与搁架碰撞地抓取搁架内的物品的情况下,当场能够计测的搁架位置与机器人位置的相对关系变得重要。因此,在此情况下,关于上述权重表使搁架腿的权重增大变得重要。因此,准备使搁架腿的权重增大的权重表,在设置有搁架的区域中,将与该权重表对应的移动模式登记到上述模式判定映射表中。
进而,在机器人将搁架内的物品把持的情况下,需要把持对象的详细的位置。由于把持对象的正确的位置是未知的,所以仅根据机器人的自身位置和关节角度信息,难以抓取对象的物品。所以,在机器人的手前部搭载距离传感器,进行搁架内的计测。在抓取搁架内的物品时的移动模式中,使与根据搁架内的形状得到的与把持对象物品的相对姿势有关的自身位置的权重增大,使根据机器人的自身位置及关节角度信息得到的权重减小。由此,能够正确地把持对象物品。
图12表示较大的场所中的移动模式的判定例及自身位置推定例。在此情况下,机器人只要以不与墙壁1200或搁架1100碰撞的方式移动就可以,不需要利用搁架的详细的位置。另一方面,根据墙壁的配置等得到的处于空间整体的大约哪个位置的信息变得重要。所以,通过作为上述权重而使墙壁的权重增加、使搁架腿的权重减小,能够进行基于墙壁和搁架两者的位置的自身位置推定。即,在如图12所示的较大的区域中,选择移动模式以使得选择基于墙壁的权重表。
[实施例2]
在本实施例中,对将搁架抬起而搬运的低地板型机器人的移动顺序进行说明。在图13中表示将上述地图按照计测数据更新的顺序。在机器人搬运搁架的情况下,搁架的位置随着时间而变化。因此,环境的形状变化,所以需要更新在地图中记载的存在物的位置信息。在地图的更新中,根据上述坐标变换量106和存储在自身位置存储部108中的已推定的自身位置,对分类别自身位置105进行修正,使用修正后的自身位置和上述分类别计测数据102,更新对应的类别的分类别地图103。
在更新中,使与被计测出存在物的位置对应的坐标所保存的投票值m(x,y)增减。由此,能够使该位置处的物体的存在概率增减。栅格地图的位置(tx,ty),根据计测出的形状和计测时间点的计测部100的位置,通过数式6及数式7来求出。关于与此时的更新程度有关的参数α及β,假设按每个类别将规定的值预先输入到更新程度表1300中。
数式6
m(tx,ty)←m(tx,ty)+α
数式7
m(tx,ty)←m(tx,ty)-β
在图14到图16中,说明上述分类部将移动中的其他机器人等移动物体从计测数据中分离的顺序。在图14中分别表示两次连续计测时的第1次的环境形状、第2次的环境形状。这里,假设在进行了第2次计测的时间点处于以下状况:右侧的圆及长方形为不运动的静止物体1400,左侧的正方形的物体为向左移动的移动物体1401,进而机器人自身也移动到右上方。
在图15中表示该状况下的两个计测结果。如图15所示,能够确认由于机器人移动,因此计测数据的原点发生了变化,计测出的移动物体1500的存在物的配置发生了变化。在图16中表示将这些计测数据彼此变换以使其在几何上一致的结果。如图16所示,使形状数据间在几何上一致之后提取作为数据间的差分的部位,从而能够得到提取出的移动物体1600。通过对图4所示的上述分类部追加本处理,除了基于形状对照提取的类别和基于亮度提取的类别以外,还能够分离出表示移动中的物体的类别。
在图17中说明低地板型机器人1700在搁架下方判定移动模式并进行自身位置推定时的顺序。在低地板型机器人1700处于搁架1701的下方的情况下,需要高精度地移动以便不与搁架腿1702接触。在此情况下,通过与图11所示的情况同样使搁架腿1702的权重变大,能够作为相对于搁架腿1702的相对姿势而求出自身位置,能够正确地进行不与搁架腿接触的移动。
此外,在使用相机而不是距离传感器的情况下,也可以在搁架的下表面上粘贴标记(marker)并观测标记来识别低地板型机器人的位置与搁架位置的相对关系。在机器人进入到搁架的下方的区域中,通过选择由相机得到的与搁架的相对关系的权重设定得高、将由距离传感器得到的自身位置推定结果的权重设定得低的权重表,低地板型机器人能够进行搁架的正下方中的正确的自身位置推定。
在图18中,说明在较大的区域中进行了自身位置推定时的状况。当在较大的空间内移动时,与在图12中叙述的例子同样,优选的是以墙壁1800的位置为优先来进行自身位置推定。在此情况下,通过使用使墙壁的权重变大的权重表来进行自身位置推定。
图19是在存在许多其他机器人1900的环境下进行自身位置推定的状况。由于移动物体没有被记载在地图中,所以即使使用移动物体的信息也不能决定自身在空间整体中的位置。在此情况下,通过使由上述分类部分类的移动物体的类别的权重变小并求出相对于环境的静止物的位置姿势,能够进行正确的动作。
进而,在进行其他机器人1900的跟随的情况下,通过使跟随对象的机器人的权重变大、并对移动体施加使其跟随该机器人1900的控制,能够进行对象机器人1900的跟随。
[实施例3]
在图20中说明基于计测结果的移动模式的决定顺序。在本实施例中,使用周围的计测结果来判定移动模式。在本实施例中,使用分类别计测数据102选择重视计测数据量最多的类别的权重表,由此合并部107决定进行自身位置推定时的权重。
具体的合并处理与图9同样,在使用分类别自身位置105和坐标变换量106变换为规定的坐标系下的自身位置后,按照由移动模式判定部901决定的权重表800,将上述自身位置进行合并。例如,在作为计测结果而计测出较多的反射强度强的存在物的情况下,使该类别的自身位置的权重变强。
另外,本发明并不限定于上述实施例,包含各种变形例。例如,上述实施例是为了将本发明容易理解地说明而详细说明的,并不限定于一定具备所说明的全部结构。此外,能够将某个实施例的结构的一部分替换为其他实施例的结构,此外,还可以对某个实施例的结构添加其他实施例的结构。此外,关于各实施例的结构的一部分,能够进行其他结构的追加、删除、替换。
此外,上述各结构、功能、处理部等也可以将它们的一部分或全部例如通过用集成电路设计等而用硬件实现。此外,上述的各结构、功能等也可以通过由处理器对实现各个功能的程序进行解释、执行而用软件实现。实现各功能的程序、表、文件等的信息可以放置到存储器或硬盘、SSD(Solid State Drive)等记录装置、或者IC卡、SD卡等记录介质中。此外,关于控制线及信息线,示出了在说明上认为需要的线,在产品上不一定示出了全部的控制线及信息线。实际上,也可以认为几乎全部的结构被相互连接。

Claims (14)

1.一种机器人,其特征在于,具备:
计测部,对空间内的存在物进行计测;
存储部,存储表示预先设定的上述空间内的存在物信息的地图数据;以及
自身位置推定部,将由上述计测部取得的计测数据与上述地图数据进行对照,计算在上述空间内移动的上述机器人的自身位置;
上述自身位置推定部具备:
分类部,取得将上述计测数据分类为规定的两个以上的类别而得到的分类别计测数据;
分类别自身位置推定部,将记录了每个上述类别的存在物的位置的分类别地图与上述分类别计测数据进行对照,按上述两个以上的类别的每个类别推定上述机器人的自身位置;以及
合并部,将按上述两个以上的类别的每个类别推定的自身位置进行合并;
上述机器人还具备控制部,该控制部基于来自上述合并部的信息,执行上述机器人的控制;
上述合并部具备按照预先设定的移动模式使按每个上述类别推定的自身位置的合并方法变化的机构。
2.如权利要求1所述的机器人,其特征在于,
上述分类别地图是在按每个上述类别预先设定的坐标系下记录的地图,将对上述分类别地图定义的坐标系间的相对的位置关系作为坐标变换量;
上述合并部基于上述坐标变换量,将上述两个以上的类别中推定的各个自身位置进行合并。
3.如权利要求1所述的机器人,其特征在于,
上述机构按照上述移动模式,使按每个上述类别设定的权重变化,
上述合并部按照上述移动模式,基于对应的上述权重将按每个类别推定的自身位置进行合并。
4.如权利要求1所述的机器人,其特征在于,
上述机构按照上述移动模式,使按每个上述类别设定的优先级变化,
上述合并部按照上述移动模式,使用通过在该移动模式下优先级高的类别推定的自身位置。
5.如权利要求1所述的机器人,其特征在于,
上述机器人具备选择上述移动模式的移动模式判定部和存储由上述自身位置推定部得到的上述机器人的自身位置的自身位置存储部,并且具备按上述空间内的每个地点预先设定了规定的移动模式的移动模式判定映射表;
上述移动模式判定部从上述移动模式判定映射表中选择与上述自身位置存储部中存储的之前由上述自身位置推定部刚刚得到的上述机器人的自身位置对应的上述移动模式。
6.如权利要求1所述的机器人,其特征在于,
上述机器人具备选择上述移动模式的移动模式判定部,
上述移动模式判定部基于得到了上述分类别计测数据中的最多的计测数据的类别,选择上述移动模式。
7.如权利要求1所述的机器人,其特征在于,
搭载有一个或多个关节型机器人;
基于由上述自身位置推定部得到的上述机器人的自身位置对上述关节型机器人进行控制。
8.如权利要求1所述的机器人,其特征在于,
具备更新部,该更新部基于由上述分类部对由上述计测部新计测的存在物的信息进行计算而得到的类别,将记录有被分类为该类别的存在物的地图进行更新。
9.如权利要求8所述的机器人,其特征在于,
上述更新部根据上述类别预先给出更新程度,在更新上述地图时基于上述更新程度进行更新。
10.如权利要求1所述的机器人,其特征在于,
上述计测部能够计测上述空间内的存在物的规定的属性;
上述类别是基于上述计测部所计测的上述属性而被分类的,上述分类部按照上述属性进行类别划分。
11.如权利要求1所述的机器人,其特征在于,
上述分类部根据上述计测数据进行与规定的形状的几何对照,提取与规定的形状类似的部位,从而进行类别划分。
12.如权利要求10所述的机器人,其特征在于,
上述分类部从上述计测数据提取与角及端点有关的特征点,根据存在于特征点彼此之间的形状的大小及平面性进行分类。
13.如权利要求1所述的机器人,其特征在于,
上述类别被划分为固定在上述空间内的直线形状的墙壁及在上述计测数据中的计测点的周边没有其他形状的柱状物体;
上述分类部将上述计测数据的各部位与上述墙壁及柱状物体分别在几何上进行比较而决定类别。
14.如权利要求1所述的机器人,其特征在于,
上述类别被分类为移动中的移动物体,上述分类部将刚刚计测出的上述计测数据与在其以前计测出的计测数据进行比较,将有差异的部位作为上述移动物体。
CN201510212751.4A 2014-05-08 2015-04-29 机器人及自身位置推定方法 Expired - Fee Related CN105091885B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014096462A JP2015215651A (ja) 2014-05-08 2014-05-08 ロボットおよび自己位置推定方法
JP2014-096462 2014-05-08

Publications (2)

Publication Number Publication Date
CN105091885A CN105091885A (zh) 2015-11-25
CN105091885B true CN105091885B (zh) 2018-12-07

Family

ID=53015527

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510212751.4A Expired - Fee Related CN105091885B (zh) 2014-05-08 2015-04-29 机器人及自身位置推定方法

Country Status (4)

Country Link
US (1) US9802310B2 (zh)
EP (1) EP2947533A3 (zh)
JP (1) JP2015215651A (zh)
CN (1) CN105091885B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6734728B2 (ja) * 2016-08-05 2020-08-05 株式会社日立製作所 ロボットシステム及びピッキング方法
JP6659599B2 (ja) * 2017-01-10 2020-03-04 株式会社東芝 自己位置推定装置、および自己位置推定方法
US20200363212A1 (en) * 2017-09-04 2020-11-19 Nidec Corporation Mobile body, location estimation device, and computer program
JPWO2019064913A1 (ja) * 2017-09-27 2020-10-15 日本電産株式会社 移動体及び生産システム
JP7077691B2 (ja) * 2018-03-16 2022-05-31 トヨタ自動車株式会社 自己位置検出装置
US11097897B1 (en) * 2018-07-13 2021-08-24 Vecna Robotics, Inc. System and method of providing delivery of items from one container to another container via robot movement control to indicate recipient container
DE102019204837B4 (de) * 2019-04-04 2024-04-18 BSH Hausgeräte GmbH 3D Umfeldabtastung
CN111267103A (zh) * 2020-03-09 2020-06-12 深圳拓邦股份有限公司 机器人初始位置的获取方法、装置、机器人以及存储介质
WO2023068542A1 (ko) * 2021-10-21 2023-04-27 한국전자통신연구원 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101509781A (zh) * 2009-03-20 2009-08-19 同济大学 基于单目摄像头的步行机器人定位系统
CN102538779A (zh) * 2010-10-25 2012-07-04 株式会社日立制作所 机器人系统以及地图更新方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7774158B2 (en) * 2002-12-17 2010-08-10 Evolution Robotics, Inc. Systems and methods for landmark generation for visual simultaneous localization and mapping
JP2004298977A (ja) * 2003-03-28 2004-10-28 Sony Corp 行動制御装置、行動制御方法及び行動制御プログラム、並びに移動型ロボット装置
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
KR100561863B1 (ko) * 2004-02-19 2006-03-16 삼성전자주식회사 가상 센서를 이용한 로봇의 네비게이션 방법 및 장치
JP4261466B2 (ja) * 2004-11-17 2009-04-30 株式会社日立製作所 自律移動装置、並びに物体及び自己位置検出システム
JP4375320B2 (ja) * 2005-10-27 2009-12-02 株式会社日立製作所 移動ロボット
WO2008013568A2 (en) * 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
JP4811128B2 (ja) * 2006-05-25 2011-11-09 トヨタ自動車株式会社 自律移動装置
JP4788722B2 (ja) * 2008-02-26 2011-10-05 トヨタ自動車株式会社 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
JP5215740B2 (ja) * 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
US8855819B2 (en) * 2008-10-09 2014-10-07 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
JP5776324B2 (ja) * 2011-05-17 2015-09-09 富士通株式会社 地図処理方法及びプログラム、並びにロボットシステム
JP5776332B2 (ja) * 2011-05-27 2015-09-09 富士通株式会社 地図処理方法及びプログラム、並びにロボットシステム
WO2013011543A1 (ja) * 2011-07-15 2013-01-24 株式会社日立製作所 自律移動装置およびその制御方法
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
JP6000579B2 (ja) * 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP2014056506A (ja) * 2012-09-13 2014-03-27 Toyota Central R&D Labs Inc 障害物検出装置及びそれを備えた移動体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101000507A (zh) * 2006-09-29 2007-07-18 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
CN101509781A (zh) * 2009-03-20 2009-08-19 同济大学 基于单目摄像头的步行机器人定位系统
CN102538779A (zh) * 2010-10-25 2012-07-04 株式会社日立制作所 机器人系统以及地图更新方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"RoboCup中型组机器人全景视觉系统设计与实现";刘伟;《中国优秀博硕士学位论文全文数据库 (硕士) 信息科技辑》;20060315(第3期);33-47页 *

Also Published As

Publication number Publication date
EP2947533A2 (en) 2015-11-25
EP2947533A3 (en) 2016-01-13
JP2015215651A (ja) 2015-12-03
US9802310B2 (en) 2017-10-31
US20150321346A1 (en) 2015-11-12
CN105091885A (zh) 2015-11-25

Similar Documents

Publication Publication Date Title
CN105091885B (zh) 机器人及自身位置推定方法
Calandra et al. The feeling of success: Does touch sensing help predict grasp outcomes?
US10894324B2 (en) Information processing apparatus, measuring apparatus, system, interference determination method, and article manufacturing method
CN106826809B (zh) 位置姿势测量装置以及机器人系统
Le et al. Learning to grasp objects with multiple contact points
US11227434B2 (en) Map constructing apparatus and map constructing method
US9704248B2 (en) Position and orientation measuring apparatus, information processing apparatus and information processing method
US20120163723A1 (en) Classification of posture states
US8634595B2 (en) Method for dynamically setting environmental boundary in image and method for instantly determining human activity
JP2016181183A (ja) 情報処理装置、情報処理方法、プログラム
JP6853156B2 (ja) 姿勢推定システム、姿勢推定装置、及び距離画像カメラ
JP6320016B2 (ja) 対象物検出装置、対象物検出方法およびプログラム
JP7261306B2 (ja) 情報処理装置、設定装置、画像認識システム、ロボットシステム、設定方法、学習装置、及び学習済みモデルの生成方法
Song et al. Human activity recognition using a mobile camera
Kapuściński et al. Hand gesture recognition using time-of-flight camera and viewpoint feature histogram
JP2022160363A (ja) ロボットシステム、制御方法、画像処理装置、画像処理方法、物品の製造方法、プログラム、及び記録媒体
Guo et al. Transmissive optical pretouch sensing for robotic grasping
Lakshan et al. Identifying Objects with Related Angles Using Vision-Based System Integrated with Service Robots
KR102601141B1 (ko) 이미지 센서와 복수의 지자기 센서를 융합하여 위치 보정하는 이동 로봇 장치 및 제어 방법
JP2015085434A (ja) ロボット、画像処理方法及びロボットシステム
JP6041710B2 (ja) 画像認識方法
CN105955272A (zh) 服务机器人多飞行时间传感器的融合方法
Phung et al. Edge identification of a small object through a low-resolution tactile sensor array
Wang et al. Research and Design of Human Behavior Recognition Method in Industrial Production Based on Depth Image
CN111742349A (zh) 信息处理装置、信息处理方法以及程序

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20181207

Termination date: 20210429