CN102896630A - 机器人装置及其控制方法、计算机程序以及机器人系统 - Google Patents

机器人装置及其控制方法、计算机程序以及机器人系统 Download PDF

Info

Publication number
CN102896630A
CN102896630A CN2012102498370A CN201210249837A CN102896630A CN 102896630 A CN102896630 A CN 102896630A CN 2012102498370 A CN2012102498370 A CN 2012102498370A CN 201210249837 A CN201210249837 A CN 201210249837A CN 102896630 A CN102896630 A CN 102896630A
Authority
CN
China
Prior art keywords
attitude
gestures
unit
optimum
detecting unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012102498370A
Other languages
English (en)
Other versions
CN102896630B (zh
Inventor
清水悟
河本献太
岩井嘉昭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102896630A publication Critical patent/CN102896630A/zh
Application granted granted Critical
Publication of CN102896630B publication Critical patent/CN102896630B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37618Observe, monitor position, posture of tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39478Control force and posture of hand
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39517Control orientation and position of object in hand, roll between plates
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Abstract

本申请涉及一种机器人装置及其控制方法以及一种机器人系统。根据本申请的机器人装置包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从输入图像中检测物体;物体位置检测单元,用于检测物体的位置;环境信息获取单元,用于获取物体的位置的周围环境信息;最优姿态获取单元,用于获取关于物体的与周围环境信息对应的最优姿态;物体姿态检测单元,用于从输入图像中检测物体的当前姿态;物体姿态比较单元,用于将物体的当前姿态与物体的最优姿态进行比较;以及物体姿态校正单元,用于当物体姿态比较单元确定在当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。

Description

机器人装置及其控制方法、计算机程序以及机器人系统
技术领域
本说明书中公开的技术涉及一种进行工作以自动地为用户布置舒适的环境的机器人装置及其控制方法、一种计算机程序以及一种机器人系统,更具体地,涉及一种自动地布置频繁使用的物体的放置位置和姿态使得用户能够无困难地使用这些物体的机器人装置及其控制方法、一种计算机程序以及一种机器人系统。 
背景技术
近来,已实现了用于执行各种任务的机器人装置。然而,许多机器人装置难于根据其操作内容或周围环境以最优姿态操作用作操作目标的物体。 
频繁使用的物体通常放置在亲自确定的位置,使得残疾人、残障人或者丧失能力的老年人能够无困难地使用这些物体。由于这些物体的放置位置和姿态对于这些用户而言极为重要,因此需要能够自动地为用户布置舒适的环境的机器人装置。 
此外,在将机器人握持的物体转交给用户时,需要能够以其中用户能够容易地握持或使用物体的姿态将物体转交给用户的机器人。 
例如,已提出一种用于保管日用品并且根据来自用户的指令或者自动地将日用品放到空的空间中的整理机器人(例如,参见日本专利申请公开第2007-152443号)。然而,该整理机器人在将物体放到空的空间中时没有考虑物体的最优位置或姿态。 
此外,已提出一种用于基于相机拍摄的图像生成环境地图的信息处理设备(例如,参见日本专利申请公开第2008-304268号)。该信息处理设备使用本体图来限制待识别的目标物体的搜索区域(例如,用户的脸很可能在沙发上方或者在电视机(TV)前方)。该信息处理设备可以应用于诸如配备有相机的机器人的代理(可移动体)。然而,未考虑目标物体的姿态。 
此外,已提出一种物品管理系统,其具有目标物体的形状数据库,基于数据库的信息确定在抓握/搬送目标物体之后的安装等时的姿态,并且使得机器人能够移动或搬送目标物体(例如,日本专利第373854号)。然而,物品管理系统仅抓握、搬送和安装物体。未考虑自动地为用户布置舒适的环境以及与用户交换物体的处理。此外,未考虑在复杂环境中的物体的正确姿态。 
发明内容
期望提供一种出色的机器人装置及其控制方法,一种计算机程序以及一种机器人系统,它们能够自动地布置频繁使用的物体的放置位置和姿态,使得用户能够无困难地使用这些物体。 
再者,期望提供一种出色的机器人装置及其控制方法,一种计算机程序以及一种机器人系统,它们以其中用户能够容易地使用物体的姿态使机器人握持的物体能够由用户容易地握持或者转交给用户。 
根据本技术的第一实施例,提供了一种机器人装置,包括: 
环境地图,包括周围环境信息; 
图像输入单元,用于输入周围的图像; 
目标物体检测单元,用于从图像输入单元的输入图像中检测物体; 
物体位置检测单元,用于检测由目标物体检测单元检测到的物体的位置; 
环境信息获取单元,用于从环境地图获取由物体位置检测单元检测到的物体的位置的周围环境信息; 
最优姿态获取单元,用于获取关于由目标物体检测单元检测到的物体的、与环境信息获取单元获取的周围环境信息对应的最优姿态; 
物体姿态数据库,用于保存关于每个环境的每个物体的最优姿态; 
物体姿态检测单元,用于从图像输入单元的输入图像中检测物体的当前姿态; 
物体姿态比较单元,用于将由物体姿态检测单元检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及 
物体姿态校正单元,用于当物体姿态比较单元确定在物体的当前姿态 和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
根据基于第一实施例的机器人装置的本技术的第二实施例,机器人装置进一步包括:任务执行单元,用于基于用户的指令执行任务。当任务执行单元未在执行任务时,物体姿态检测单元对物体的当前姿态的检测、物体姿态比较单元进行的与最优姿态的比较、以及物体姿态校正单元进行的物体的姿态校正,被配置成被自动执行。 
根据基于第一实施例的机器人装置的本技术的第三实施例,机器人装置进一步包括:移动单元,用于移动机器人装置的位置。物体姿态检测单元被配置成在移动单元移动机器人装置的当前位置时检测物体的当前姿态。 
根据基于第一实施例的机器人装置的本技术的第四实施例,最优姿态获取单元被配置成通过学习获取每个物体的最优姿态并且将所获取的最优姿态保存在物体姿态数据库中。 
根据基于第四实施例的机器人装置的本技术的第五实施例,物体姿态数据库被配置成进一步保存从用户教导的每个物体的最优姿态。 
根据基于第一实施例的机器人装置的本技术的第六实施例,机器人装置进一步包括:环境地图更新单元,用于基于图像输入单元的输入图像来更新环境地图。 
根据基于第一实施例的机器人装置的本技术的第七实施例,最优姿态获取单元被配置成,获取当为用户布置舒适环境时的用于放置物体的最优姿态,并且获取当向用户转交物体时的物体的最优姿态。 
根据基于第一实施例的机器人装置的本技术的第八实施例,环境信息获取单元被配置成从包括周围环境信息的环境地图中获取由物体位置检测单元检测到的物体的位置的周围环境信息。 
根据基于第一实施例的机器人装置的本技术的第九实施例,物体姿态比较单元被配置成将物体姿态检测单元检测到的物体的当前姿态与用于保存关于每个环境的每个物体的最优姿态的物体姿态数据库中所保存的物体的最优姿态进行比较。 
根据本技术的第十实施例,提供了一种控制机器人装置的方法,包括: 
输入周围的图像; 
从在输入步骤中输入的图像中检测物体; 
检测在检测物体的步骤中检测到的物体的位置; 
从包括周围环境信息的环境地图获取在检测步骤中检测到的物体的位置的周围环境信息; 
获取关于在检测物体的步骤中检测到的物体的、与在获取周围环境信息的步骤中获取的周围环境信息对应的最优姿态; 
在物体姿态数据库中保存关于每个环境的每个物体的最优姿态; 
从输入步骤中输入的图像中检测物体的当前姿态; 
将在检测当前姿态的步骤中检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及 
当在比较步骤中确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
根据本技术的第十一实施例,提供了一种计算机程序,其以计算机可读格式编写,用于控制机器人装置并且使计算机用作: 
环境地图,包括周围环境信息; 
图像输入单元,用于输入周围的图像; 
目标物体检测单元,用于从图像输入单元的输入图像中检测物体; 
物体位置检测单元,用于检测由目标物体检测单元检测到的物体的位置; 
环境信息获取单元,用于从环境地图获取由物体位置检测单元检测到的物体的位置的周围环境信息; 
最优姿态获取单元,用于获取关于由目标物体检测单元检测到的物体的、与环境信息获取单元获取的周围环境信息对应的最优姿态; 
物体姿态数据库,用于保存关于每个环境的每个物体的最优姿态; 
物体姿态检测单元,用于从图像输入单元的输入图像中检测物体的当前姿态; 
物体姿态比较单元,用于将由物体姿态检测单元检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及 
物体姿态校正单元,用于当物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
根据本技术的第十一实施例的计算机程序被限定为用于在计算机上实现预定处理的、以计算机可读格式编写的计算机程序。换言之,通过将根据本技术的第十一实施例的计算机程序安装在计算机中,可以在计算机上呈现协作功能并且获得与根据本技术的第一实施例的机器人装置相同的功能效果。 
根据本技术的第十二实施例,提供了一种机器人系统,包括: 
环境地图,在外部装置上构造并且包括周围环境信息; 
物体姿态数据库,在外部装置上构造,用于保存关于每个环境的每个物体的最优姿态;以及 
机器人装置,包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从图像输入单元的输入图像中检测物体;物体位置检测单元,用于检测由目标物体检测单元检测到的物体的位置;环境信息获取单元,用于从环境地图获取由物体位置检测单元检测到的物体的位置的周围环境信息;最优姿态获取单元,用于获取关于由目标物体检测单元检测到的物体的、与环境信息获取单元获取的周围环境信息对应的最优姿态;物体姿态检测单元,用于从图像输入单元的输入图像中检测物体的当前姿态;物体姿态比较单元,用于将由物体姿态检测单元检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及物体姿态校正单元,用于当物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
这里使用的“系统”指的是通过在逻辑上组装多个装置(或者实现特定功能的功能模块)而获得的组件,与装置或功能模块是否在单个壳体中无关。 
根据以上描述的本公开的各实施例,可以提供一种出色的机器人装置及其控制方法,一种计算机程序以及一种机器人系统,它们能够自动地布置频繁使用的物体的放置位置和姿态,使得用户能够无困难地使用这些物体。 
此外,根据本说明书中公开的本技术的各实施例,可以提供一种出色的机器人装置及其控制方法,一种计算机程序以及一种机器人系统,它们以其中用户能够容易地使用物体的姿态使机器人握持的物体能够由用户容易地握持或者转交给用户。 
本说明书中公开的本技术的其他目的、特征和优点将根据下面结合附 图进行的本技术的各实施例的更详细的描述而变得更加明显。 
附图说明
图1是图示可应用本说明书中公开的本技术的机器人装置100的外观的示图; 
图2是示意性图示可应用本说明书中公开的本技术的机器人装置100的关节自由度配置的示图; 
图3是示意性图示用于控制图1中图示的机器人装置100的功能配置的示图; 
图4是示意性图示用于使机器人装置100能够实现与环境对应的操作的功能配置的示图; 
图5是图示作为与机器人装置100的环境对应的操作的、其中为用户布置舒适环境的状态的示图; 
图6是图示作为与机器人装置100的环境对应的操作的、其中为用户布置舒适环境的状态的示图; 
图7是图示作为与机器人装置100的环境对应的操作的、其中以正确的姿态(其中用户容易地握持目标物体)转交目标物体的状态的示图; 
图8A是图示其中针对圆柱形物体(或者近似圆柱形物体)设定统一坐标系的状态的示图; 
图8B是图示其中物体坐标x’、y’和z’相对于世界坐标x、y和z三维旋转的状态的示图; 
图9是图示物体姿态数据库409的配置示例的示图; 
图10是图示在线生成并更新物体姿态数据库409的处理过程的流程图; 
图11是图示生成并更新物体姿态数据库409的处理过程的流程图; 
图12是图示每个物体/环境的姿态数据的数据库903的修改示例的示图; 
图13是图示由机器人装置100执行的操作的状态转移图;以及 
图14是图示在“物体姿态校正”模式下由机器人装置100执行的处 理过程的流程图。 
具体实施方式
在下文中,将参照附图详细描述本公开的优选实施例。注意,在本说明书和附图中,具有基本上相同的功能和结构的结构元件由相同的附图标记表示,并且省略了这些结构元件的重复说明。 
根据本发明的一个实施例,提供了一种机器人装置,其包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从图像输入单元的输入图像中检测物体;物体位置检测单元,用于检测由目标物体检测单元检测到的物体的位置;环境信息获取单元,用于获取由物体位置检测单元检测到的物体的位置的周围环境信息;最优姿态获取单元,用于获取关于由目标物体检测单元检测到的物体的、与环境信息获取单元获取的周围环境信息对应的最优姿态;物体姿态检测单元,用于从图像输入单元的输入图像中检测物体的当前姿态;物体姿态比较单元,用于将由物体姿态检测单元检测到的物体的当前姿态与物体的最优姿态进行比较;以及物体姿态校正单元,用于当物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
根据本发明的另一实施例,提供了一种控制机器人装置的方法,其包括:输入周围的图像;从在输入步骤中输入的图像中检测物体;检测在检测物体的步骤中检测到的物体的位置;从包括周围环境信息的环境地图获取在检测步骤中检测到的物体的位置的周围环境信息;获取关于在检测物体的步骤中检测到的物体的、与在获取周围环境信息的步骤中获取的周围环境信息对应的最优姿态;在物体姿态数据库中保存关于每个环境的每个物体的最优姿态;从输入步骤中输入的图像中检测物体的当前姿态;将在检测当前姿态的步骤中检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及当在比较步骤中确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
根据本发明的又一实施例,提供了一种机器人系统,其包括:环境地图,在外部装置上构造并且包括周围环境信息;物体姿态数据库,在外部装置上构造,用于保存关于每个环境的每个物体的最优姿态;以及机器人装置,包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从图像输入单元的输入图像中检测物体;物体位置检测单元,用于检 测由目标物体检测单元检测到的物体的位置;环境信息获取单元,用于从环境地图获取由物体位置检测单元检测到的物体的位置的周围环境信息;最优姿态获取单元,用于获取关于由目标物体检测单元检测到的物体的、与环境信息获取单元获取的周围环境信息对应的最优姿态;物体姿态检测单元,用于从图像输入单元的输入图像中检测物体的当前姿态;物体姿态比较单元,用于将由物体姿态检测单元检测到的物体的当前姿态与物体姿态数据库中保存的物体的最优姿态进行比较;以及物体姿态校正单元,用于当物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
在图1中,图示了适用本说明书中公开的本技术的机器人装置100的外观。机器人装置100是其中多个链接通过关节连接的链接构造体,每个关节由致动器操作。在图2中,示意性地图示了机器人装置100的关节自由度配置。尽管主要安装在家庭环境中的图示的机器人装置100执行家务杂事或看护,但是机器人装置100可用于诸如工业使用的各种用途。 
图示机器人装置100配备有作为移动部件面向基单元的两个驱动轮101R和101L。驱动轮101R和101L由驱动轮致动器102R和102L驱动,每个驱动轮致动器102R和102L绕俯仰轴旋转。在图2中,附图标记151、152和153表示实际不存在的非驱动关节。151、152和153分别对应于针对机器人装置100的地板表面的X方向(前后方向)的平动自由度、Y方向(左右方向)的平动自由度和绕偏航轴的旋转自由度。关节151、152和153是使机器人装置100在虚拟世界中来回移动的表示。 
移动部件经由髋关节连接到上体。髋关节由绕俯仰轴旋转的髋关节俯仰轴致动器103驱动。上体由两肢构成,两肢包括左臂部分和右臂部分以及经由颈关节连接的头部。左臂部分和右臂部分均具有总共七个自由度,包括肩关节的三个自由度、肘关节的两个自由度和腕关节的两个自由度。肩关节的三个自由度由肩关节俯仰轴致动器104R/L、肩关节翻滚轴致动器105R/L和肩关节偏航轴致动器106R/L驱动。肘关节的两个自由度由肘关节俯仰轴致动器107R/L和肘关节偏航轴致动器108R/L驱动。腕关节的两个自由度由腕关节翻滚轴致动器109R/L和腕关节俯仰轴致动器110R/L驱动。此外,颈关节的两个自由度由颈关节俯仰轴致动器111和颈关节偏航轴致动器112驱动。此外,手关节的一个自由度由手关节翻滚轴致动器113R/L驱动。 
尽管图示的机器人装置100具有两个面对的轮的移动部件,但是本说 明书中公开的本技术不限于两个面对的轮的移动部件。例如,本说明书中公开的本技术还可以应用于具有腿型移动部件的机器人装置100。 
每个轴致动器附接到用于获得充分的生成力的减速器以及用于测量关节角度的编码器、用于生成扭矩的电机和用于驱动电机的电流控制电机驱动器。此外,控制致动器的驱动的微计算机附接到致动器(尽管图2中未示出)。 
在主机计算机上执行机器人装置100的动态算术运算,并且生成每个关节致动器的扭矩或关节角度的控制目标值。控制目标值被传送到附接到致动器的控制微计算机,并且用于在控制微计算机上执行致动器的控制。此外,每个关节致动器由力控制方案或位置控制方案控制。 
图3示意性图示了用于控制图1中图示的机器人装置100的功能配置。机器人装置100包括执行整体操作的完整控制或者处理数据的控制单元310、输入/输出(I/O)单元320和驱动单元330。在下文中,将描述这些单元。 
I/O单元320包括作为输入单元的、与机器人装置100的眼睛对应的相机321、检测到人或障碍物的距离的距离传感器322、与机器人100的耳朵对应的麦克风323等。此外,I/O单元320包括作为输出单元的、与机器人装置100的嘴对应的扬声器324等。这里,距离传感器322由例如空间传感器,诸如激光机测距仪等构成。机器人装置100可以通过例如来自麦克风323的用户的音频输入来接收任务指令。然而,机器人装置100可以具有经由有线链路、无线链路、记录介质等的另一任务指令输入部件(未示出)。 
驱动器单元330是用于实现机器人装置100的每个关节中的自由度的功能模块,并且由针对每个关节中的每个翻滚轴、俯仰轴或偏航轴设置的多个驱动单元构成。每个驱动单元由执行绕预定轴的旋转操作的电机331、检测电机331的旋转位置的编码器332以及基于编码器332的输出自适应地控制电机331的旋转位置或旋转速度的驱动器333的组合构成。 
控制单元310包括识别单元311、驱动控制单元312和环境地图313。 
识别单元311基于从诸如I/O单元320内的相机312或距离传感器322的输入单元获得的信息来识别周围环境。例如,识别单元311基于输入信息预先构造或更新环境地图313。 
驱动控制单元312控制I/O单元320的输出单元或者驱动单元330的 驱动。例如,驱动控制单元312控制驱动单元330以使得机器人装置100能够实现任务。这里,待由机器人装置100实现的任务包括与指令对应的家务杂事或看护、与环境对应的操作等。此外,与环境对应的操作可以是如下操作:使得能够自动地布置频繁使用的物体的放置位置和姿态,由此用户能够无困难地使用这些物体;或者使得以其中用户能够容易地使用物体的姿态,使机器人握持的物体能够由用户容易地握持或转交给用户。 
在图4中,示意性图示用于使机器人装置100能够实现与环境对应的操作的功能配置。 
环境地图313是数据库,其包括机器人装置100在其中操作的工作区域(诸如其中用户所在的房间)中的物体(诸如桌子、沙发、书架和电视机(TV))的形状、位置和姿态数据。 
作为由环境地图313中的数据库管理的物体和机器人装置100自动地布置其位置和姿态的物体之间的差别,前者可以是不能由机器人装置100的臂等操作或移动的大的物体,而后者可以是能够由机器人装置100抓握并移动的小的物体。在环境地图中管理诸如桌子、沙发、书架和电视机的物体,而聚酯瓶、遥控器等是由机器人装置100自动地布置其位置和姿态的目标物体或者被转交给用户的目标物体。 
自身位置检测单元401基于相机321或距离传感器322的测量结果检测或估计机器人装置100的自身位置。此外,环境地图更新单元403构造并更新环境地图313。 
目标物体检测单元402从相机321拍摄的图像中检测目标物体。目标物体检测单元402可以例如通过诸如轮廓、边缘、角、亮度改变或颜色的特征量、物体的三维(3D)形状、或者诸如附着到物体的条形码的人工几何图案的图像处理,来检测目标物体。替选地,可以通过从附着到目标物体的无线标签读取诸如标识符(ID)的信息来检测目标物体。 
机器人装置100自动地学习检测到的目标物体的最优姿态。在学习期间,物体位置检测单元404根据由自身位置检测单元401估计的自身位置和目标物体检测单元402从相机321拍摄的图像中检测到的目标物体的位置,计算目标物体的3D位置。 
此外,环境信息获取单元406从环境地图更新单元403更新的环境地图获取检测到的物体的位置的周围环境信息。可以从目标物体的3D位置和环境地图获取目标物体的周围环境信息。例如,该信息可以指示如下状 态:“聚酯瓶应在桌子上”和“遥控器当前应在沙发上并且电视机应与遥控器相对”。 
当获取与周围环境信息对应的、用于在为用户布置舒适环境时放置目标物体的正确(或最优)姿态,或者与周围环境信息对应的、将目标物体转交给用户时的目标物体的正确(或最优)姿态作为词典数据时,最优姿态获取单元407将获取的姿态登记在物体姿态数据库409中。例如,可以多次获取目标物体的姿态并且基于姿态的投票结果来确定正确姿态(如后面将描述的)。 
表1示出了用于在为用户布置舒适环境时放置目标物体的正确姿态的词典数据的示例。此外,表2示出了其中将目标物体转交给用户的正确姿态的词典数据的示例。 
[表1] 
Figure BDA00001904217400111
[表2] 
Figure BDA00001904217400112
然而,在表1中,可以组合周围环境的指定。例如,拖鞋在地板上并且在床边。 
机器人装置100学习每个目标物体的最优姿态并且将最优姿态作为词典数据登记在物体姿态数据库409中。替选地,用户可以使机器人装置100的词典数据被记住或者经由用户接口(UI)教导机器人装置100。 
当正常来回走动时,机器人装置100观察并且学习放置物体的通常姿态。例如,通过观察聚酯瓶来学习瓶盖通常放在上面的事实。如上述表1中所示,可以针对其中放置目标物体的每个环境来学习通常姿态。例如,“桌子上的聚酯瓶通常直立”以及“地板上的聚酯瓶通常躺倒(因为喝光)”。 
此外,机器人装置100基于学习结果为用户布置舒适环境。例如,即使当用户使物体处于不正常的姿态时,机器人装置100适当地校正其姿态。 
物体姿态检测单元405从相机321拍摄的图像中检测目标物体检测单元402检测到的目标物体的当前3D姿态。 
最优姿态获取单元407通过基于目标物体检测单元402从相机321拍摄的图像中检测到的目标物体以及由环境信息获取单元406获取的最新的环境地图来检索物体姿态数据库409,来估计目标物体的正确姿态。此外,最优姿态获取单元407使用当从环境检测目标物体时使用的信息(特征量、无线标签等)来检查物体姿态数据库409,并且获得目标物体的最优姿态。 
物体姿态比较单元408将物体姿态检测单元405检测到的3D姿态与基于物体姿态数据库409中登记的词典数据估计的最优姿态进行比较。如果存在两个姿态之间的差别,则物体姿态确定单元410确定用于操作或校正目标物体的位置/姿态使得目标物体处于正确姿态的控制量。 
如上文所述,机器人装置100基于在物体姿态数据库409中登记的词典数据来将目标物体操作或校正到正确姿态。在操作或校正目标物体的位置姿态之前,可以向用户发送查询。此外,当机器人装置100所操作或校正的目标物体的位置姿态错误时,用户可以执行教导。用户可以通过示出正确姿态来向机器人教导物体的正确姿态。例如,用户在以直立姿态示出聚酯瓶时通过音频指示“这样放”。替选地,用户可以通过音频教导物体的正确姿态。例如,进行指示“聚酯瓶直立”的指示。 
在根据该实施例的机器人装置100中,最优姿态获取单元407可以在线生成物体姿态数据库409。在物体姿态数据库409的构造中,获取目标物体检测单元402检测到的目标物体的位置和姿态的处理是必不可少的。 
可以作为诸如计算机辅助设计(CAD)数据的现有知识来获取物体的形状或者在由立体相机执行3D测量之后通过多边形化来获取物体的形状。当获取物体的形状作为词典数据时,针对多边形化的形状设定物体特定坐标系。例如,对于如图8A中所示的圆柱形物体(或者近似圆柱形物体),中心是原点,主轴被设定为轴z’,并且轴x’和y’被适当地设定为关于轴z’旋转对称。 
此外,对于物体的姿态,当如图8A中所示的圆柱形物体(或者近似圆柱形物体)被置于真实世界中时,可以根据物体坐标x’,y’和z’相对于真实世界坐标x,y和z的3D旋转来实现物体的姿态(参见图8B)。通过诸如欧拉角或翻滚-俯仰-偏航角(当绕三个轴中的特定轴连续执行旋转时的每个旋转角)的三个参数,可以实现任意的3D旋转。在下面的描述中,物体姿态的三个参数被称为α、β和γ。 
除了当根据来自用户的指令执行任务的时刻,根据该实施例的机器人装置100通过基于相机321拍摄的图像自动地观察周围环境来获取每个目标物体的姿态。连续地获取目标物体的姿态。对于每个目标物体,通过诸如投票的技术来计算通常的姿态。 
具体地,作为投票空间提供表示参数空间(α,β,γ)的3D阵列,并且还对参数进行适当的离散化和处置。由于这些参数是角度,即连续量,因此参数由其步长宽度中的其步长宽度的中值来表示,例如,按每5度表示成0至5度、5至10度、10至15度、…。由于360÷5=72,因此如果360度除以5度,则上述参数空间(α,β,γ)变成72×72×72的3D阵列。每当观察物体的姿态(α,β,γ)时,使阵列的相应元素的值递增1。如果物体的总观察次数(总投票数)达到任意设定的规定次数,则最优姿态获取单元407找到其中获取的投票数变为最大值的参数α、β和γ,并且将找到的参数α、β和γ设定成物体的最优姿态。 
尽管上文描述了其中对于一次观察通过使与3D阵列对应的元素递增1来针对观察次数直接进行投票的配置示例,但是可以实现通过加权进行投票的配置。例如,可以包括其中在通过估计/考虑其中物体处于该姿态的时间段来对一次观察加权之后进行投票的配置示例。 
此外,即使对于同一物体,当周围环境不同时,对于每个环境执行如上文所述的学习。例如,当同一聚酯瓶如上述表1中所示在桌子上或地板上时,对于每个放置位置获得最优姿态。基于物体位置检测单元404估计的物体的当前位置和(更新的)环境地图来获得物体的周围环境信息(指示物体被放置在桌子等上)。 
如上文所述,最优姿态获取单元407将其中当自动地为用户布置舒适环境时放置目标物体的正确姿态或者当向用户转交目标物体时的目标物体的正确姿态登记在物体姿态数据库409中。图9中图示了物体姿态数据库409的配置示例。在图示示例中,物体姿态数据库409由三种类型的数据库构成,包括存储物体数据的数据库901、存储关于每个物体的姿态数据的数据库902和存储关于每个物体/环境的姿态数据的数据库903。 
存储物体数据的数据库901具有用于识别各种物体的ID和关于物体相关姿态数据库的指针。存储关于每个物体的姿态数据的数据库902具有关于其中放置物体的周围环境的信息以及该物体和环境中的关于姿态数据库的指针。存储关于每个物体的姿态数据的数据库902可以被配置成具有用于在线生成数据库的、诸如形状、质量和材料的物体特定信息以及姿态,尽管这因为不与本说明书中公开的技术直接相关而未示出。存储关于每个物体/环境的姿态数据的数据库903具有姿态学习标志,其指示是否能够通过充分观察环境中的物体来计算最优姿态,并且在完成学习的情况下,具有姿态(α,β,γ)。此外,学习处理中的中间结果,即存储每个投票数的参数空间(α,β,γ)的3D阵列和物体的总观察次数,也包括在数据库903中,并且配置成使得可以在学习期间参照数据。然而,可以配置成通过将中间结果布置在数据库903外部而不参照这些中间结果。 
当然,上述三个数据库901至903可以被手动创建。例如,对于其姿态预先已知的物体,关于每个物体/环境的数据库903的“姿态学习标志”可以被设定成“已学习”并且其姿态数据可以被设定成“最优姿态”。 
接下来,将描述在线生成物体姿态数据库409的处理。 
在图10中,以流程图的形式图示了在线生成并更新物体姿态数据库409的处理过程。假设最优姿态获取单元407定期地重复该处理。 
目标物体检测单元402基于相机321拍摄的图像识别各种周围物体(步骤S1001)。 
此外,同时地,通过立体相机进行的3D测量来计算物体姿态检测单 元405识别的物体的形状和姿态(步骤S1002),并且计算物体位置检测单元404识别的物体的位置。 
随后,最优姿态获取单元407根据计算的物体的3D位置和环境信息获取单元406获取的环境地图来(例如,在表格等上)获取物体的周围环境信息(步骤S1004)。 
最优姿态获取单元407基于如上文所述获得的物体身份ID、物体的姿态和环境信息来生成物体姿态数据库409并且进一步对其进行更新(步骤S1005)。 
在图11中,以流程图的形式图示了在上述步骤S1005中执行的、生成并更新物体姿态数据库409的处理过程。 
最优姿态获取单元407首先检查所识别的物体的ID是否已登记在保存物体数据的数据库901中(步骤S1101)。 
这里,当所识别的物体的ID未登记在数据库901中时(步骤S1101中的“否”),最优姿态获取单元407将物体的ID登记在数据库901中,并且还创建与数据库902中的物体ID对应的姿态数据(步骤S1104)。 
当所识别的物体的ID已登记在数据库901中时并且在数据库902中创建了与物体ID对应的姿态数据之后,最优姿态获取单元407检查物体的周围环境信息是否已登记在保存每个物体的姿态数据的数据库902中(步骤S1102)。 
这里,当物体的周围环境信息未登记在数据库902中时(步骤S1102中的“否”),则最优姿态获取单元407将物体的周围环境信息登记在关于每个物体的姿态数据库902中并且将与其环境对应的姿态数据登记在数据库903中(步骤S1105)。 
当物体的周围环境信息已登记在数据库902中时并且在与环境对应的姿态数据被登记在数据库903中之后,最优姿态获取单元407检查是否学习了物体的最优姿态(步骤S1103)。 
这里,当未学习物体的最优姿态时,最优姿态获取单元407对物体姿态检测单元405计算的物体的姿态(α,β,γ)进行投票(步骤S1106)。当物体姿态的总观察次数未达到规定次数时(步骤S1107中的“否”),则该处理例程结束。此外,当物体姿态的总观察次数达到规定次数时(步骤S1107中的“是”),则最优姿态获取单元407将与数据库903中的投票结果的最大值对应的姿态(α,β,γ)确定为物体的最优姿态,并且设定学习标志(步 骤S1108),使得该处理例程结束。 
当学习了物体的最优姿态时(步骤S1103中的“是”),物体姿态比较单元408将物体的当前姿态与物体的学习的最优姿态比较并且检查是否存在两个姿态之间的差别(步骤S1109)。 
如果在物体的当前姿态和物体的学习的最优姿态之间不存在差别(步骤S1109中的“否”),则处理例程结束。另一方面,当在物体的当前姿态和物体的学习的最优姿态之间存在差别时(步骤S1109中的“是”),物体姿态确定单元410启动校正物体的姿态的处理。后面将描述校正物体的姿态的处理的细节。 
尽管描述了其中在图11中所示的处理过程中在总观察次数(即总投票数)大于或等于规定次数时的时间点确定最优姿态的示例,但是也可以包括其他实现方法。例如,作为如上文所述的投票结果,可以获得投票空间(α,β,γ)中的姿态频率分布。根据频率分布,在当前姿态“罕见”时(就是说,频率较之其他姿态为低),在物体姿态校正模式(如将描述的)中使姿态变为如下姿态:该姿态的频率比该姿态的邻近区域中的其他姿态的频率高。 
可以使用通过投票获得的姿态频率分布来处置多个“最优姿态”。例如,当在搜索模式(如后面将描述的)下获得物体的当前姿态时,优选的是,在物体姿态校正模式中使姿态变为如下姿态:该姿态的频率比该姿态的邻近区域中的其他姿态的频率高。 
此外,即使当投票数小时仍可以使用姿态频率分布。然而,当投票数小时,罕见的是改变实际姿态,因为特定姿态不太可能被确定为较之其他姿态是罕见的。然而,没有必要确定“规定投票数”(不同地,有必要限定其中姿态被确定为“罕见”的频率)。该方法具有另一优点,其在于没有必要适当地限定“规定投票数”,这是用于确定是否进行姿态改变的参数。即使在其中仅获得小投票数的初始状态中,仍可以确定较之特定姿态像素的邻居,姿态如何相对“罕见”。 
此外,可以实现根据投票分布来动态地改变投票空间的箱尺寸的处理。可以使用在直方图密度估计中确定直方图宽度的各种方法来确定箱尺寸。此外,不同于直方图密度估计,可以使用样本点直接执行核密度估计。如果可以使用样本数据适当地估计目标物体的概率密度函数p(姿态|物体,位置),则可以通过使物体的姿态变为姿态x_opt来适当地校正物体的姿 态,在姿态x_opt中当某个姿态数据x周围的概率密度小于或等于阈值时,概率密度函数p(姿态|物体,位置)在外围处变得最大。 
这里,将描述图11中图示的生成并更新物体姿态数据库409的处理,作为其中检测作为物体的聚酯瓶的示例。然而,在下文中,通过<>来区分数据库名称,通过‘’来区分数据库内的键,并且通过“”来区分与数据库内的键对应的值。 
首先,最优姿态获取单元407检查聚酯瓶是否登记在保存物体数据的数据库901中(步骤S1101)。如果聚酯瓶未登记在数据库901中(步骤S1101中的“否”),则将其ID“PET Bottle 001”登记在数据库901中,在数据库902中创建与该ID对应的每个物体的姿态数据<PetBottle001>,并且同时将其指针登记在数据库901中(步骤S1105)。此时,数据库902的每个物体的姿态数据<PetBottle001>的环境和姿态数据处于空状态。 
随后,最优姿态获取单元407检查指示作为其中聚酯瓶放在桌子上的情况的“在桌子上”的环境信息是否登记在数据库902的姿态数据<PetBottle001>中(步骤S1102)。此外,如果环境信息未登记(步骤S1102中的“否”),则最优姿态获取单元407将“在桌子上”作为‘环境信息’登记在数据库902中,在数据库903中创建与其对应的每个物体/环境的姿态数据<PetBottle001_OnTable>,并且同时将其指针登记在数据库902中(步骤S1105)。此时,登记在数据库903中的每个物体/环境的姿态数据<PetBottle001_OnTable>的‘姿态学习标志’是“学习中”。 
随后,最优姿态获取单元407通过参照数据库903的<PetBottle001_OnTable>的‘姿态学习标志’来检查是否已完成关于聚酯瓶在桌子上的姿态的学习(步骤S1103)。如果学习未完成(步骤S1103中的“否”),则最优姿态获取单元407在参数空间(α,β,γ)的3D阵列中对物体姿态检测单元405计算的物体的姿态进行投票(步骤S1106)。如果总观察次数(总投票数)已达到关于物体的规定次数(步骤S1107中的“是”),则最优姿态获取单元407找到其中所获取的投票数变为最大的参数α、β和γ,将找到的参数α、β和γ设定成物体的‘最优姿态’,并且将‘姿态学习标志’设定为“已学习”(步骤S1108)。此外,如果总观察次数未达到规定次数(步骤S1107中的“否”),则使‘姿态观察次数’递增1并且继续上述处理直至总观察次数达到规定次数。 
尽管在上述示例中一旦学习结束,则在获得物体的最优姿态之后停止学习,但是最优姿态获取单元407可以被配置成在继续观察时更新‘最优 姿态’。 
此外,尽管在上述示例中机器人装置100重复地观察物体并且在数据库903中没有<PetBottle001_OnTable>的情况下生成每个物体/环境的姿态数据,但是可以手动创建与<PetBottle001_OnTable>相关的任何数据作为现有信息并且可以通过观察/学习来更新姿态数据。 
在图12中,图示了图9中图示的每个物体/环境的姿态数据的数据库903的修改示例。作为与图9的差别,被称为“用户教导标志”的键被添加到每个物体/环境的姿态数据<PetBottle001_OnTable>。‘用户教导标志’是指示用户是否已教导在将聚酯瓶放在桌子上时的姿态的信息。例如,当用户通过将聚酯瓶放在桌子上来使机器人装置100看到桌子上的聚酯瓶并且生成指示期望以上文所述的姿态放置聚酯瓶的指令时,机器人装置100使‘用户教导标志’从“未教导”变为“教导”并且使‘最优姿态’变为此时观察到的物体的姿态。这可以通过将如下处理添加到图11的步骤S1103的处理而容易地实现:其中如果‘用户教导标志’是“教导”,则当存在来自用户的教导并且未学习姿态时优选地使用教导的姿态。当期望以固定姿态放置对用户而言特别重要的物体时或者当用户因机器人的错误学习而校正姿态时,这是有效的技术。 
在图13中,以状态转移图的形式图示了将由机器人装置100执行的操作。在图示示例中,机器人装置100具有三个操作模式“任务执行”、“搜索”和“物体姿态校正”。 
在“任务执行”模式下,机器人装置100执行来自用户的指令的任务。除了通过音频输入等的显性指令之外,来自用户的任务指令包括将由预先调度的定时器定期执行的任务(当达到某个规定时间时的清洁任务)以及将根据预定事件的生成而执行的任务(根据突然中断的高优先级任务,诸如看到并且拾起从桌子滚下的球的操作)。 
当没有来自用户的执行任务的指令时,机器人装置100移至“搜索”模式。此外,如果在“搜索”模式下存在来自用户的执行任务的指令,则机器人装置100通过停止搜索返回到“任务执行”模式。 
在“搜索”模式下,机器人装置100执行在房间中来回移动时自动地观察房间并且根据图10和11中所示的处理过程生成/更新物体姿态数据库409的处理。此外,如果在“搜索”模式中发现当前观察的物体姿态不是物体的学习的最优姿态,则处理移至“物体姿态校正”模式。 
在“搜索”模式下,机器人装置100更新物体姿态数据库409并且同时将物体的当前姿态与登记在物体姿态数据库409中的最优姿态比较(图11的步骤S1109)。具体地,物体姿态检测单元405获得物体的当前姿态(α’,β’,γ’)。当在已学习的物体姿态数据库409中存在物体的当前姿态(α,β,γ)时,如果满足下式(1),则物体姿态比较单元408可以确定物体的当前姿态基本上与最优姿态一致。在下式(1)中,Δαth、Δβth和Δγth是预设的阈值。 
| &alpha; - &alpha; &prime; | < &Delta; &alpha; th , | &beta; - &beta; &prime; | < &Delta; &beta; th , and | &gamma; - &gamma; &prime; | < &Delta; &gamma; th &CenterDot; &CenterDot; &CenterDot; ( 1 )
另一方面,如果不满足式(1),则处理前往步骤S1109的分支“是”,使得机器人装置100移至“物体姿态校正”模式。 
在图14中,以流程图的形式图示了在“物体姿态校正”模式下将由机器人装置100执行的处理过程。 
首先,物体姿态确定单元410根据物体的当前姿态(α’,β’,γ’)计算用于抓握物体的臂/手的轨迹(步骤S1401)。 
随后,物体姿态确定单元410通过利用驱动控制单元312沿计算的轨迹控制臂/手来抓握物体(步骤1402)。 
随后,物体姿态确定单元410计算用于操作物体使得抓握的物体变为从物体姿态数据库409获取的最优姿态(α,β,γ)的臂/手的轨迹(步骤S1403)。 
物体姿态确定单元410通过利用驱动控制单元312沿计算的轨迹控制臂/手来放置姿态变为最优姿态(α,β,γ)的物体(步骤S1404)。 
上文描述了其中当没有来自用户的执行任务的指令时机器人装置100通过移至“搜索”模式来生成/更新物体姿态数据库409的处理。然而,作为修改示例,在其中执行中的任务即使任务正在执行时也不受影响的范围中,执行用于观察环境的相机321的视线控制,并且可以进行配置以生成/更新物体姿态数据库409。 
图5和6图示了作为与机器人装置100的环境对应的操作的、其中自动地为用户布置舒适环境的状态。 
机器人装置100通常在自动地来回移动时观察周围的目标物体。在图5和6中所示的示例中,构造其中电视机、桌子和沙发以该顺序布置的起居室的环境地图,并且机器人装置100通常基于环境地图自动地来回移 动。图5是起居室的透视图,并且图6是起居室的顶视图。 
机器人装置100检测放在桌子上的遥控器(用于电视机)作为目标物体,并且每当机器人装置100自动地来回移动时观察遥控器。将检测到的目标物体的正确姿态与登记在物体姿态数据库409中的词典数据对照。这里,当实际观察到的目标物体的姿态与物体姿态数据库409的对照结果不同时,机器人装置100操作目标物体或者校正姿态。 
参照上述表1,作为物体姿态数据库409的对照结果,可以获取当遥控器接近电视机时的、其中当遥控器在桌子上、沙发上或地板上时按钮面向上并且发射器指向电视机的状态,作为遥控器的正确姿态。参照图6,作为目标物体检测到的遥控器被按钮面向上地放在桌子上。此外,遥控器被接近电视机地放在桌子上,但是发射器被放置成相对电视机的方向偏斜。如果观察到的遥控器的姿态被检测成与指示“当遥控器接近电视机时发射器指向电视机”的对照结果不一致,则机器人装置100如图6的箭头所指示的校正遥控器的姿态。 
当机器人装置100的目标物体的姿态的校正结果错误时,用户可以校正姿态或者教导机器人装置100。 
此外,如果从用户接收到操作目标物体的指令,则机器人装置100以正确(稳定)姿态放置目标物体。在该情况下,将当放置目标物体时的正确姿态与物体姿态数据库409内的词典数据对照。以该姿态操作并放置目标物体。 
例如,如图5和6中所示的示例中的那样,如果从用户接收到将遥控器接近电视机地放在桌子上的指令,则机器人装置100通过操作遥控器来将遥控器放在桌子上,使得按钮面向上并且发射器指向电视机。替选地,当从用户接收到将杯子放在桌子上的指令时,机器人装置100通过在其中杯子直立的稳定状态下操作杯子来将杯子放在桌子上。 
当根据来自用户的指令的机器人装置100的目标物体的操作结果错误时,用户可以校正姿态或教导机器人装置100。 
在图7中,图示了作为与机器人装置100的环境对应的操作的、其中以正确的姿态(其中用户容易地握持目标物体)转交目标物体的状态。 
如果从用户接收到拿来目标物体的指令,则机器人装置100将转交目标物体时的正确姿态与物体姿态数据库409内的词典数据对照。在针对词典数据中描述的正确姿态操作目标物体之后,机器人装置100将目标物体 转交给用户。 
在图7中,图示了拿来拐杖的指令的示例。参照上述表2,由于可以获取作为拐杖的正确姿态的、其中把手部分朝向用户的状态,作为物体姿态数据库409的对照结果,机器人装置100通过操作拐杖使得把手部分朝向用户来将拐杖转交给用户。 
当根据来自用户的指令的机器人装置100的目标物体的操作结果错误时,用户可以校正姿态或教导机器人装置100。 
如图5和6中可见,根据该实施例的机器人装置100估计与环境对应的目标物体的正确姿态并且操作并校正目标物体使得目标物体处于正确姿态,从而自动地为用户布置舒适环境。 
此外,如图7中可见,当从根据该实施例的机器人装置100将目标物体转交给用户时,可以通过估计用于转交的目标物体的最优姿态并且操作目标物体使得目标物体处于该最优姿态,来实现与用户的自然的交互。 
如上文所述,机器人装置100学习其中频繁放置某个物体的姿态作为关于该物体的最优姿态。由于机器人装置100针对通常被放置以备用户使用的周围物体,自动地学习最优姿态,因此机器人装置100可以通过适当地校正物体的姿态来自动地为用户布置舒适环境,即使用户以不正常的姿态放置物体。这些物体姿态校正功能对于通常将频繁使用的物体放置在亲自确定的位置的诸如残疾人、残障人或者丧失能力的老年人的用户是特别有效的,使得能够无困难地使用这些物体以及用户能够准确地布置物品。 
此外,本说明书中公开的技术也可以被如下配置。 
(1)一种机器人装置,包括: 
环境地图,包括周围环境信息; 
图像输入单元,用于输入周围的图像; 
目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体; 
物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置; 
环境信息获取单元,用于从所述环境地图获取由所述物体位置检测单元检测到的物体的位置的周围环境信息; 
最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态; 
物体姿态数据库,用于保存关于每个环境的每个物体的最优姿态; 
物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;
物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及 
物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
(2)根据权利要求1所述的机器人装置,进一步包括: 
任务执行单元,用于基于用户的指令执行任务, 
其中,当所述任务执行单元未执行任务时,自动地执行所述物体姿态检测单元对物体的当前姿态的检测、所述物体姿态比较单元进行的与最优姿态的比较、以及所述物体姿态校正单元进行的物体的姿态校正。 
(3)根据(1)或(2)所述的机器人装置,进一步包括: 
移动单元,用于移动所述机器人装置的位置, 
其中所述物体姿态检测单元在所述移动单元移动所述机器人装置的当前位置时检测物体的当前姿态。 
(4)根据(1)至(3)中任一项所述的机器人装置,其中所述最优姿态获取单元通过学习获取每个物体的最优姿态并且将所获取的最优姿态保存在物体姿态数据库中。 
(5)根据(4)所述的机器人装置,其中所述物体姿态数据库进一步保存从用户教导的每个物体的最优姿态。 
(6)根据(1)至(5)中任一项所述的机器人装置,进一步包括: 
环境地图更新单元,用于基于所述图像输入单元的输入图像来更新环境地图。 
(7)根据(1)至(6)中任一项所述的机器人装置,其中所述最优姿态获取单元获取在为用户布置舒适环境时的用于放置物体的最优姿态,并且获取在向用户转交物体时的物体的最优姿态。 
(8)根据(1)至(7)中任一项所述的机器人装置,其中所述环境 信息获取单元从包括周围环境信息的环境地图中获取由所述物体位置检测单元检测到的物体的位置的周围环境信息。 
(9)根据(1)至(8)中任一项所述的机器人装置,其中所述物体姿态比较单元将所述物体姿态检测单元检测到的物体的当前姿态与用于保存关于每个环境的每个物体的最优姿态的物体姿态数据库中所保存的物体的最优姿态进行比较。 
(10)一种控制机器人装置的方法,包括: 
输入周围的图像; 
从在所述的输入步骤中输入的图像中检测物体; 
检测在所述的检测物体的步骤中检测到的物体的位置; 
从包括周围环境信息的环境地图获取在所述的检测步骤中检测到的物体的位置的周围环境信息; 
获取关于在所述的检测物体的步骤中检测到的物体的、与在所述的获取周围环境信息的步骤中获取的周围环境信息对应的最优姿态; 
在物体姿态数据库中保存关于每个环境的每个物体的最优姿态; 
从所述的输入步骤中输入的图像中检测物体的当前姿态; 
将在所述的检测当前姿态的步骤中检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及 
当在所述的比较步骤中确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
(11)一种计算机程序,其以计算机可读格式编写,用于控制机器人装置并且使计算机用作: 
环境地图,包括周围环境信息; 
图像输入单元,用于输入周围的图像; 
目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体; 
物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置; 
环境信息获取单元,用于从所述环境地图获取由所述物体位置检测单 元检测到的物体的位置的周围环境信息; 
最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态; 
物体姿态数据库,用于保存关于每个环境的每个物体的最优姿态; 
物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;
物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及 
物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
(12)一种机器人系统,包括: 
环境地图,在外部装置上构造并且包括周围环境信息; 
物体姿态数据库,在外部装置上构造,用于保存关于每个环境的每个物体的最优姿态;以及 
机器人装置,包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体;物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置;环境信息获取单元,用于从所述环境地图获取由所述物体位置检测单元检测到的物体的位置的周围环境信息;最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态;物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。 
本领域技术人员应理解,在所附权利要求或其等同物的范围内,可以根据设计需要和其他因素进行各种修改、组合、子组合和变更。 
尽管在本说明书中主要描述了被应用于具有双腿的人型机器人装置的实施例,但是本说明书中公开的技术的主题内容不限于此。本技术还可以同样应用于具有其他移动部件或者不具有移动部件的机器人装置。 
此外,主要描述了与家用机器人相关的实施例。当然,本技术还可以同样应用于包括工业机器人的用于各种用途的机器人装置。 
就是说,本公开仅是示例,并且绝不应被解释为限于本说明书中公开的内容。应考虑权利要求来判断本公开的主题内容。 
本公开包含与在2011年7月25日提交日本专利局的日本在先专利申请JP2011-161550中公开的主题内容相关的主题内容,该专利申请的整体内容通过引用合并于此。 
图9和12中使用的参考标记的含义的列表 
Pet Bottle:聚酯瓶 
Remote controller:遥控器 
Cell Phone:蜂窝电话 
On Table:在桌子上 
On Floor:在地板上 
On Shelf:在架子上 。

Claims (12)

1.一种机器人装置,包括:
图像输入单元,用于输入周围的图像;
目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体;
物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置;
环境信息获取单元,用于获取由所述物体位置检测单元检测到的物体的位置的周围环境信息;
最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态;
物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;
物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与物体的最优姿态进行比较;以及
物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。
2.根据权利要求1所述的机器人装置,进一步包括:
任务执行单元,用于基于用户的指令执行任务,
其中,当所述任务执行单元未执行任务时,自动地执行所述物体姿态检测单元对物体的当前姿态的检测、所述物体姿态比较单元进行的与最优姿态的比较、以及所述物体姿态校正单元进行的物体的姿态校正。
3.根据权利要求1所述的机器人装置,进一步包括:
移动单元,用于移动所述机器人装置的位置,
其中所述物体姿态检测单元在所述移动单元移动所述机器人装置的当前位置时检测物体的当前姿态。
4.根据权利要求1所述的机器人装置,其中所述最优姿态获取单元通过学习获取每个物体的最优姿态并且将所获取的最优姿态保存在物体姿态数据库中。
5.根据权利要求4所述的机器人装置,其中所述物体姿态数据库进一步保存从用户教导的每个物体的最优姿态。
6.根据权利要求1所述的机器人装置,进一步包括:
环境地图更新单元,用于基于所述图像输入单元的输入图像来更新环境地图。
7.根据权利要求1所述的机器人装置,其中所述最优姿态获取单元获取在为用户布置舒适环境时的用于放置物体的最优姿态,并且获取在向用户转交物体时的物体的最优姿态。
8.根据权利要求1所述的机器人装置,其中所述环境信息获取单元从包括周围环境信息的环境地图中获取由所述物体位置检测单元检测到的物体的位置的周围环境信息。
9.根据权利要求1所述的机器人装置,其中所述物体姿态比较单元将所述物体姿态检测单元检测到的物体的当前姿态与用于保存关于每个环境的每个物体的最优姿态的物体姿态数据库中所保存的物体的最优姿态进行比较。
10.一种控制机器人装置的方法,包括:
输入周围的图像;
从在所述的输入步骤中输入的图像中检测物体;
检测在所述的检测物体的步骤中检测到的物体的位置;
从包括周围环境信息的环境地图获取在所述的检测步骤中检测到的物体的位置的周围环境信息;
获取关于在所述的检测物体的步骤中检测到的物体的、与在所述的获取周围环境信息的步骤中获取的周围环境信息对应的最优姿态;
在物体姿态数据库中保存关于每个环境的每个物体的最优姿态;
从所述的输入步骤中输入的图像中检测物体的当前姿态;
将在所述的检测当前姿态的步骤中检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及
当在所述的比较步骤中确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。
11.一种计算机程序,其以计算机可读格式编写,用于控制机器人装置并且使计算机用作:
环境地图,包括周围环境信息;
图像输入单元,用于输入周围的图像;
目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体;
物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置;
环境信息获取单元,用于从所述环境地图获取由所述物体位置检测单元检测到的物体的位置的周围环境信息;
最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态;
物体姿态数据库,用于保存关于每个环境的每个物体的最优姿态;
物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;
物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及
物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。
12.一种机器人系统,包括:
环境地图,在外部装置上构造并且包括周围环境信息;
物体姿态数据库,在外部装置上构造,用于保存关于每个环境的每个物体的最优姿态;以及
机器人装置,包括:图像输入单元,用于输入周围的图像;目标物体检测单元,用于从所述图像输入单元的输入图像中检测物体;物体位置检测单元,用于检测由所述目标物体检测单元检测到的物体的位置;环境信息获取单元,用于从所述环境地图获取由所述物体位置检测单元检测到的物体的位置的周围环境信息;最优姿态获取单元,用于获取关于由所述目标物体检测单元检测到的物体的、与所述环境信息获取单元获取的周围环境信息对应的最优姿态;物体姿态检测单元,用于从所述图像输入单元的输入图像中检测物体的当前姿态;物体姿态比较单元,用于将由所述物体姿态检测单元检测到的物体的当前姿态与所述物体姿态数据库中保存的物体的最优姿态进行比较;以及物体姿态校正单元,用于当所述物体姿态比较单元确定在物体的当前姿态和最优姿态之间存在预定的差别或更多差别时,校正物体的姿态。
CN201210249837.0A 2011-07-25 2012-07-18 机器人装置及其控制方法、计算机程序以及机器人系统 Active CN102896630B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-161550 2011-07-25
JP2011161550A JP2013022705A (ja) 2011-07-25 2011-07-25 ロボット装置及びロボット装置の制御方法、コンピューター・プログラム、並びにロボット・システム

Publications (2)

Publication Number Publication Date
CN102896630A true CN102896630A (zh) 2013-01-30
CN102896630B CN102896630B (zh) 2016-06-01

Family

ID=47569267

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210249837.0A Active CN102896630B (zh) 2011-07-25 2012-07-18 机器人装置及其控制方法、计算机程序以及机器人系统

Country Status (3)

Country Link
US (5) US8751048B2 (zh)
JP (1) JP2013022705A (zh)
CN (1) CN102896630B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105858188A (zh) * 2015-02-06 2016-08-17 发那科株式会社 具备三维传感器的搬运机器人系统
CN107767760A (zh) * 2016-08-23 2018-03-06 发那科株式会社 机械学习器、机器人系统以及机械学习方法
CN109313417A (zh) * 2015-11-16 2019-02-05 Abb瑞士股份有限公司 帮助机器人定位
CN109531586A (zh) * 2017-09-21 2019-03-29 松下电器产业株式会社 移动体
CN110879994A (zh) * 2019-12-02 2020-03-13 中国科学院自动化研究所 基于形状注意力机制的三维目测检测方法、系统、装置
CN112533739A (zh) * 2018-11-09 2021-03-19 欧姆龙株式会社 机器人控制装置、机器人控制方法以及机器人控制程序
WO2022105933A1 (zh) * 2020-11-23 2022-05-27 深圳怪虫机器人有限公司 一种基于识别阵列边界的移动机器人定位方法
JP7380556B2 (ja) 2018-06-18 2023-11-15 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7506295B1 (en) 2002-12-31 2009-03-17 Cadence Design Systems, Inc. Non manhattan floor plan architecture for integrated circuits
US8843236B2 (en) * 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9881203B2 (en) * 2013-08-29 2018-01-30 Nec Corporation Image processing device, image processing method, and program
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
US9469028B2 (en) * 2014-09-30 2016-10-18 Toyota Jidosha Kabushiki Kaisha Robotic handover system natural for humans
US9569693B2 (en) * 2014-12-31 2017-02-14 Here Global B.V. Method and apparatus for object identification and location correlation based on received images
US20180361584A1 (en) * 2015-01-06 2018-12-20 Discovery Robotics Robotic platform with long-term learning
DE102015001741A1 (de) * 2015-02-11 2016-08-11 Kuka Roboter Gmbh Verfahren und System zum Betreiben einer mehrachsigen Maschine, insbesondere eines Roboters
US9492922B1 (en) * 2015-03-30 2016-11-15 Amazon Technologies, Inc. Techniques for mobile device charging using robotic devices
JP6117853B2 (ja) * 2015-05-13 2017-04-19 ファナック株式会社 バラ積みされた物品を取り出すための物品取出システム、および方法
US9682476B1 (en) 2015-05-28 2017-06-20 X Development Llc Selecting robot poses to account for cost
US9724826B1 (en) 2015-05-28 2017-08-08 X Development Llc Selecting physical arrangements for objects to be acted upon by a robot
US10668623B2 (en) * 2015-05-29 2020-06-02 Abb Schweiz Ag Method and system for robotic adaptive production
US10268188B2 (en) 2015-12-02 2019-04-23 Qualcomm Incorporated Active camera movement determination for object position and extent in three-dimensional space
US9975241B2 (en) * 2015-12-03 2018-05-22 Intel Corporation Machine object determination based on human interaction
FR3047250B1 (fr) * 2016-01-28 2018-02-16 Manufacture Francaise De Bougies Installation de redressage automatise d’une meche de bougie et procede de redressage automatise associe
US10471595B2 (en) * 2016-05-31 2019-11-12 Ge Global Sourcing Llc Systems and methods for control of robotic manipulation
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
US9751212B1 (en) * 2016-05-05 2017-09-05 Toyota Jidosha Kabushiki Kaisha Adapting object handover from robot to human using perceptual affordances
CN109997108A (zh) 2016-07-18 2019-07-09 L·奥德纳 训练机器人操作臂
JP6534126B2 (ja) * 2016-11-22 2019-06-26 パナソニックIpマネジメント株式会社 ピッキングシステム及びその制御方法
JP6707485B2 (ja) 2017-03-22 2020-06-10 株式会社東芝 物体ハンドリング装置およびその較正方法
CN107181976B (zh) * 2017-04-28 2021-01-29 华为技术有限公司 一种弹幕显示方法及电子设备
US20200139545A1 (en) * 2017-07-05 2020-05-07 Omron Corporation Route Outputting Method, Route Outputting System and Route Outputting Program
CN109278049A (zh) * 2017-07-19 2019-01-29 深圳市硕洲电子有限公司 一种新型的多功能机器人
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
US10719085B2 (en) * 2018-02-22 2020-07-21 Boston Dynamics, Inc. Mobile robot sitting and standing
CN110340880A (zh) * 2018-04-02 2019-10-18 新世代机器人暨人工智慧股份有限公司 可变姿态机器人及其姿态调整方法
EP3566824B1 (en) * 2018-05-11 2023-06-28 Siemens Aktiengesellschaft Method, apparatus, computer-readable storage media and a computer program for robotic programming
JP7057214B2 (ja) * 2018-05-18 2022-04-19 トヨタ自動車株式会社 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
JP2021177582A (ja) * 2018-07-31 2021-11-11 ソニーグループ株式会社 制御装置、制御方法、およびプログラム
JP7225659B2 (ja) * 2018-10-11 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7047726B2 (ja) * 2018-11-27 2022-04-05 トヨタ自動車株式会社 把持ロボットおよび把持ロボットの制御プログラム
JP7124888B2 (ja) * 2018-12-13 2022-08-24 富士通株式会社 推定方法、推定プログラムおよび推定装置
US11433545B2 (en) * 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
JP7263920B2 (ja) * 2019-05-23 2023-04-25 トヨタ自動車株式会社 演算装置、制御プログラム、機械学習器及び把持装置
DE102019117117A1 (de) * 2019-06-25 2020-12-31 Fresenius Medical Care Deutschland Gmbh Verfahren zum automatisierten Prüfen eines Medizingeräts sowie automatisiertes Testsystem für ein Medizingerät
US11580724B2 (en) * 2019-07-23 2023-02-14 Toyota Research Institute, Inc. Virtual teach and repeat mobile manipulation system
CN111310617B (zh) * 2020-02-03 2023-07-14 杭州飞步科技有限公司 分神驾驶检测方法、装置及存储介质
CN111347438A (zh) * 2020-02-24 2020-06-30 五邑大学 一种学习式机器人及基于其的学习矫正方法
JP6921448B1 (ja) * 2020-05-20 2021-08-18 株式会社ルークシステム 新規物体操作ロボットの制御プログラムおよび制御方法、ならびに、新規物体操作システム
US20230364803A1 (en) * 2020-09-16 2023-11-16 Sony Group Corporation Control apparatus, control system, control method, and robot
CN112631277B (zh) * 2020-12-08 2022-01-18 中山大学 一种四足机器人站姿转换的平衡控制方法及系统
JP2022136756A (ja) * 2021-03-08 2022-09-21 本田技研工業株式会社 自律走行システム
USD971981S1 (en) * 2021-05-04 2022-12-06 Clutterbot, Inc. Robot
USD971983S1 (en) * 2021-05-04 2022-12-06 Clutterbot, Inc. Robot
USD971982S1 (en) * 2021-05-04 2022-12-06 Clutterbot, Inc. Robot
US20220382282A1 (en) * 2021-05-25 2022-12-01 Ubtech North America Research And Development Center Corp Mobility aid robot navigating method and mobility aid robot using the same
CN113894794B (zh) * 2021-11-12 2023-08-25 长春理工大学 面向机器人自标定的机器人闭环运动链建立方法
USD1023094S1 (en) * 2021-12-01 2024-04-16 Clutterbot, Inc. Clutter-clearing robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1293752A (zh) * 1999-03-19 2001-05-02 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取系统
CN1617170A (zh) * 2003-09-19 2005-05-18 索尼株式会社 环境识别设备及方法,路径规划设备及方法以及机器人
CN1799786A (zh) * 2006-01-06 2006-07-12 华南理工大学 家政服务机器人
CN1947960A (zh) * 2006-10-26 2007-04-18 华南理工大学 用于识别环境和进行作业的仿人机器人
CN101733755A (zh) * 2008-11-07 2010-06-16 精工爱普生株式会社 机械手系统、机械手控制装置以及机械手控制方法
US20100222924A1 (en) * 2009-02-27 2010-09-02 Honda Research Institute Europe Gmbh Robot with automatic selection of task-specific representations for imitation learning
JP2010221381A (ja) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd 部品組立方法および部品組立装置

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6269692B1 (en) * 1999-02-01 2001-08-07 Dxl Usa Inc. Mass flow measuring assembly having low pressure drop and fast response time
US6526373B1 (en) * 1999-10-08 2003-02-25 Dassault Systemes Optimization tool for robot placement
US6470301B1 (en) * 1999-10-08 2002-10-22 Dassault Systemes Optimization tool for assembly workcell layout
US6922632B2 (en) * 2002-08-09 2005-07-26 Intersense, Inc. Tracking, auto-calibration, and map-building system
US7054718B2 (en) * 2002-10-11 2006-05-30 Sony Corporation Motion editing apparatus and method for legged mobile robot and computer program
US7177737B2 (en) * 2002-12-17 2007-02-13 Evolution Robotics, Inc. Systems and methods for correction of drift via global localization with a visual landmark
JP3738254B2 (ja) 2003-02-19 2006-01-25 松下電器産業株式会社 物品管理システム
WO2004106009A1 (ja) * 2003-06-02 2004-12-09 Matsushita Electric Industrial Co., Ltd. 物品操作システムおよび方法、並びに物品管理システムおよび方法
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
FR2872728B1 (fr) * 2004-07-06 2006-09-15 Commissariat Energie Atomique Procede de saisie d'un objet par un bras de robot muni d'une camera
JP2007015037A (ja) * 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
US8583282B2 (en) * 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
JP2007152443A (ja) 2005-11-30 2007-06-21 Mitsubishi Heavy Ind Ltd 片付けロボット
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
JP4456560B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 脚式移動ロボット制御装置および脚式移動ロボット、並びに、脚式移動ロボット制御方法
JP4148276B2 (ja) * 2006-05-09 2008-09-10 ソニー株式会社 位置推定装置、位置推定方法及びプログラム記録媒体
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US7801644B2 (en) * 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
JP5380789B2 (ja) 2007-06-06 2014-01-08 ソニー株式会社 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20110040427A1 (en) * 2007-10-31 2011-02-17 Pinhas Ben-Tzvi Hybrid mobile robot
JP5215740B2 (ja) * 2008-06-09 2013-06-19 株式会社日立製作所 移動ロボットシステム
JP2010052067A (ja) * 2008-08-27 2010-03-11 Kawasaki Heavy Ind Ltd 自動仕上げ装置とその制御方法
TWI397671B (zh) * 2009-12-16 2013-06-01 Ind Tech Res Inst 定位載體、估測載體姿態與建地圖之系統與方法
BR112012020766A2 (pt) * 2010-02-18 2016-05-03 Toshiba Kk aparelho de soldagem e método de soldagem.
US9002535B2 (en) * 2010-05-11 2015-04-07 Irobot Corporation Navigation portals for a remote vehicle control user interface
US9104202B2 (en) * 2010-05-11 2015-08-11 Irobot Corporation Remote vehicle missions and systems for supporting remote vehicle missions
US9286810B2 (en) * 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
JP2012236244A (ja) * 2011-05-10 2012-12-06 Sony Corp ロボット装置、ロボット装置の制御方法、並びにロボット装置制御用プログラム
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
US9122950B2 (en) * 2013-03-01 2015-09-01 Impac Medical Systems, Inc. Method and apparatus for learning-enhanced atlas-based auto-segmentation

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1293752A (zh) * 1999-03-19 2001-05-02 松下电工株式会社 三维物体识别方法及使用该方法的零件抓取系统
CN1617170A (zh) * 2003-09-19 2005-05-18 索尼株式会社 环境识别设备及方法,路径规划设备及方法以及机器人
CN1799786A (zh) * 2006-01-06 2006-07-12 华南理工大学 家政服务机器人
CN1947960A (zh) * 2006-10-26 2007-04-18 华南理工大学 用于识别环境和进行作业的仿人机器人
CN101733755A (zh) * 2008-11-07 2010-06-16 精工爱普生株式会社 机械手系统、机械手控制装置以及机械手控制方法
US20100222924A1 (en) * 2009-02-27 2010-09-02 Honda Research Institute Europe Gmbh Robot with automatic selection of task-specific representations for imitation learning
JP2010221381A (ja) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd 部品組立方法および部品組立装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105858188A (zh) * 2015-02-06 2016-08-17 发那科株式会社 具备三维传感器的搬运机器人系统
CN105858188B (zh) * 2015-02-06 2018-07-27 发那科株式会社 具备三维传感器的搬运机器人系统
CN109313417A (zh) * 2015-11-16 2019-02-05 Abb瑞士股份有限公司 帮助机器人定位
CN107767760A (zh) * 2016-08-23 2018-03-06 发那科株式会社 机械学习器、机器人系统以及机械学习方法
CN107767760B (zh) * 2016-08-23 2020-01-07 发那科株式会社 机械学习器、机器人系统以及机械学习方法
US10603797B2 (en) 2016-08-23 2020-03-31 Fanuc Corporation Machine learning device, robot system, and machine learning method for learning motion of robot engaged in task performed by human and robot in cooperate with each other
CN109531586A (zh) * 2017-09-21 2019-03-29 松下电器产业株式会社 移动体
CN109531586B (zh) * 2017-09-21 2023-03-10 松下控股株式会社 移动体
JP7380556B2 (ja) 2018-06-18 2023-11-15 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
CN112533739A (zh) * 2018-11-09 2021-03-19 欧姆龙株式会社 机器人控制装置、机器人控制方法以及机器人控制程序
CN110879994A (zh) * 2019-12-02 2020-03-13 中国科学院自动化研究所 基于形状注意力机制的三维目测检测方法、系统、装置
WO2022105933A1 (zh) * 2020-11-23 2022-05-27 深圳怪虫机器人有限公司 一种基于识别阵列边界的移动机器人定位方法

Also Published As

Publication number Publication date
US20130030570A1 (en) 2013-01-31
US20140214208A1 (en) 2014-07-31
US20190248017A1 (en) 2019-08-15
US20180133899A1 (en) 2018-05-17
CN102896630B (zh) 2016-06-01
US9908241B2 (en) 2018-03-06
US10293487B2 (en) 2019-05-21
JP2013022705A (ja) 2013-02-04
US9463575B2 (en) 2016-10-11
US8751048B2 (en) 2014-06-10
US20160375585A1 (en) 2016-12-29
US11345041B2 (en) 2022-05-31

Similar Documents

Publication Publication Date Title
CN102896630B (zh) 机器人装置及其控制方法、计算机程序以及机器人系统
US20230021778A1 (en) Systems and methods for training a robot to autonomously travel a route
US9962839B2 (en) Robot apparatus, method for controlling the same, and computer program
CN103128736B (zh) 机器人装置、其控制方法和计算机程序
US20170320210A1 (en) Systems, devices, articles, and methods for using trained robots
CN106938470B (zh) 一种机器人力控示教模仿学习的装置及方法
CN110023866A (zh) 用于自主导航中的动态路线规划的系统和方法
US20170269607A1 (en) Systems, devices, articles, and methods for robots in workplaces
CN103128729B (zh) 机器人装置和控制该机器人装置的方法
US20120072023A1 (en) Human-Robot Interface Apparatuses and Methods of Controlling Robots
CN109219785A (zh) 简单的多传感器校准
US11642780B2 (en) Monitoring of surface touch points for precision cleaning
CN108548267B (zh) 空调控制方法及用户终端
US20190302791A1 (en) Systems and methods for robust robotic mapping
CN106239511A (zh) 一种基于头部运动的机器人移动控制方式
JP2007130691A (ja) コミュニケーションロボット
Stückler et al. Nimbro@ home: Winning team of the robocup@ home competition 2012
Falck et al. Human-centered manipulation and navigation with Robot DE NIRO
CN109101012A (zh) 一种基于slam算法的机器人导航系统及导航方法
Hamilton A novel augmented laser pointer interface and shared autonomy paradigm to enable object retrieval via an assistive robot
CN115225682A (zh) 管理服务器、远程操作系统、远程操作方法以及存储介质
Miyashita et al. Methods for Environment Recognition based on Active Behaviour Selection and Simple Sensor History

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant