CN1748958A - 机器人设备和控制其行为的方法 - Google Patents

机器人设备和控制其行为的方法 Download PDF

Info

Publication number
CN1748958A
CN1748958A CN200510099524.1A CN200510099524A CN1748958A CN 1748958 A CN1748958 A CN 1748958A CN 200510099524 A CN200510099524 A CN 200510099524A CN 1748958 A CN1748958 A CN 1748958A
Authority
CN
China
Prior art keywords
data
main body
behavior
condition
robot device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200510099524.1A
Other languages
English (en)
Other versions
CN100351054C (zh
Inventor
田中文英
小川浩明
铃木洋贵
花形理
泽田务
伊藤真人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1748958A publication Critical patent/CN1748958A/zh
Application granted granted Critical
Publication of CN100351054C publication Critical patent/CN100351054C/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Robotics (AREA)
  • Manipulator (AREA)

Abstract

本发明提供一种按照周围条件来执行适当行为的机器人设备和用于控制机器人设备的行为的方法。该机器人设备包括:数据获取单元,用于从外部和/或内部获取数据;主体识别单元,用于通过使用从外部获取的数据来识别执行行为的主体;条件识别单元,用于通过使用从外部获取的数据和/或从内部获取的数据来识别外部条件和/或内部条件;行为模式获取单元,用于通过使用从外部获取的数据来获取主体的行为模式;存储单元,用于与条件数据和主体标识数据相关联地存储行为数据;以及行为执行单元,用于执行行为,其中,当主体识别单元识别出主体时,行为执行单元按照标识数据和外部和/或内部条件数据来执行由在存储单元中存储的行为数据所表示的行为。

Description

机器人设备和控制其行为的方法
技术领域
本发明涉及一种机器人设备,它模仿例如人的行为,学习人的行为模式,并且按照所述行为模式来执行动作。本发明也涉及一种控制机器人设备的行为的方法。
背景技术
迄今开发的机器人设备可以根据使用从传感器输入的数据的识别技术来模仿主体的行为。模仿或模拟看(monkey-see)、模拟做(monkey-do)的行为被当作学习行为模式的基础或实现交流的基础。由此,已经进行了研究以向机器人设备提供模仿主体(例如人)的行为的能力,以便实现在机器人设备和主体的行为之间的流畅交流和交互。(参见Christopher Lee,Yangsheng Xu,Online,Interactive Learning of Gestures for Human/Robot Interfaces,1996 IEEEInternational Conference on Robotics and Automation,Vol 4,pp.2982-2987(Christopher Lee,Yangsheng Xu,人/机器人接口的姿态的在线、交互学习,1996年IEEE机器人和自动化的国际会议,第4卷第2982-2987页);Gordon Cheng,Akihiko Nagakubo and Yasuo Kuniyoshi,Continuous HumanoidInteraction:An Integrated Perspective Gaining Adaptivity,Redundancy,Flexibility-In One Robotics and Autonomous Systems,Vol.37,No.2-3,pp.161-183,November 2001(Gordon Cheng,Akihiko Nagakubo和YasuoKuniyoshi,连续的具有人类特点的交互:集成的远景增益适应性、冗余、灵活性——在一个机器人和独立的系统中,第37卷,第2-3号,第161-183页,2001年11月);和Tetsuhari Inamura,Iwaki Toshima,Yoshihiko Nakamura,Acquisition of Humanoid Behavior and Creation of Primitive Symbols,Based onMimesis,16th Annual Conference of Janese Society for Artificial Intelligence,2002,Proc.No.1D1-02(Tetsuhari Inamura,Iwaki Toshima,Yoshihiko Nakamura,基于模仿获得具有人类特点的行为和建立原始符号,日本人工智能第16次年会,2002年,会刊第1D1-02号))。
这些技术使得机器人设备如果它们模仿主体动作则能够存储行为模式。如果行为模式被存储,则它们可以容易地被读取,并且机器人可以执行所述行为,其中每个行为模式都具有分配给它的行为ID。
发明内容
但是,没有人曾经提出过机器人设备何时执行它所学到的行为以及它在什么条件下执行该行为。
考虑到上述情况而作出本发明。期望提供一种机器人设备,它可以按照周围条件来执行适当的行为,并且也期望提供一种控制机器人设备的方法。
为了实现上述的目的,按照本发明的一种机器人设备包括:数据获取部件,用于从外部和/或内部获取数据;主体识别部件,用于通过使用从外部获取的数据来识别执行行为的主体;条件识别部件,用于通过使用从外部获取的数据和/或从内部获取的数据来识别外部条件和/或内部条件;行为模式获取部件,用于通过使用从外部获取的数据来获取主体的行为模式;存储部件,用于与条件数据和主体标识数据相关联地存储行为数据,所述行为数据表示主体的行为,所述条件数据表示机器人设备的外部和/或内部条件,所述主体标识数据用于标识主体;以及行为执行部件,用于执行行为。当主体识别部件识别出主体时,行为执行部件按照标识数据以及外部和/或内部条件数据来执行由在存储部件中存储的行为数据所表示的行为。
按照本发明的一种用于控制机器人设备的方法包括步骤:从机器人设备的外部和/或内部获取数据的步骤;通过使用从外部获取的数据来识别执行行为的主体的步骤;通过使用从外部获取的数据和/或内部获取的数据来识别外部条件和/或内部条件的步骤;通过使用从外部获取的数据来获取主体的行为模式的步骤;与条件数据和主体标识数据相关联地在存储部件中存储表示主体的行为的行为数据的步骤,所述条件数据表示机器人设备的外部和/或内部条件,所述主体标识数据用于标识主体;以及当识别出主体时,按照主体的标识数据和机器人设备的外部和/或内部条件来执行由在存储部件中存储的行为数据所表示的行为的步骤。
在均按照本发明的所述机器人设备和用于控制其行为的方法中,与主体和机器人设备的内部和外部的条件两者都相关联地存储表示主体的行为的数据。所述机器人设备根据所述数据来识别主体,并且在特定的内部或外部条件中执行与在那个特定条件中主体将进行的相同的行为。因此,主体可以感觉到该机器人设备比其它机器人设备更为友好。
附图说明
图1是图解按照本发明的一个实施例的机器人设备的外观的透视图;
图2是示意性地表示机器人设备执行的功能的方框图;
图3是详细示出被并入机器人设备内的控制单元的方框图;
图4是机器人设备具有的行为控制系统的方框图;
图5是说明行为控制系统的存储机制的流程图;以及
图6是说明行为控制系统如何使得机器人设备执行行为的流程图。
具体实施方式
将参照附图来说明本发明的一个实施例。所述实施例是具有两条腿的、行走的机器人设备,它通过模仿行为而学习主体的行为。这是一种在人的生活环境和人的日常生活中支持和辅助人的实用有益机器人。它也是可以执行人的基本行为的娱乐机器人。将首先说明这种机器人设备的配置,并且然后详细说明用于控制机器人设备的行为的方法。
(1)机器人设备的配置
首先,将说明机器人设备的配置。如图1所示,按照这个实施例的机器人设备1具有主干单元2、头单元3、两个臂单元4L和4R、两个腿单元5L和5R。头单元3、两个臂单元4L和4R以及两个腿单元5L和5R都连接到主干单元2。(在图1中和一些其它附图中,“L”表示左,“R”表示右)
机器人设备1具有相对于其关节的几个自由度,这被示意性地示出在图2中。支持头单元3的颈部关节具有三个自由度。如图2所示,通过颈关节侧转轴(yaw axis)101、颈关节俯仰轴(pitch axis)102和颈关节横摇轴(rollaxis)103来实现三个自由度。
构成上肢的臂单元4L和4R的每个都由肩关节俯仰轴107、肩关节横摇轴108、上臂侧转轴109、肘关节俯仰轴110、前臂侧转轴111、腕关节俯仰轴112、腕关节横摇轴113和手部114构成。手部114实际上是多关节、多自由度的结构。尽管如此,在此将手部114的运动当作具有零自由度。这是因为它对于控制机器人设备1的位置或行走没有什么作用。因此,臂单元4L和4R的每个都具有7个自由度。
主干单元2具有三个自由度,这是通过主干俯仰轴104、主干横摇轴105和主干侧转轴106来实现的。
构成下肢的腿单元5L和5R的每个都包括臀关节侧转轴115、臀关节俯仰轴116、臀关节横摇轴117、膝关节俯仰轴118、踝关节俯仰轴119、踝关节横摇轴120和脚部121。在本说明书中,在臀关节俯仰轴116和臀关节横摇轴117之间的交点限定了机器人设备1的臀关节的位置。人的脚部是具有许多关节的结构,因此有许多自由度。尽管如此,机器人设备1的脚部121也被假定为具有零自由度。因此,腿单元5L和5R具有六个自由度。
总之,机器人设备1总共具有32个自由度(=3+7×2+3+6×2)。尽管如此,作为娱乐机器人的机器人设备1不限于具有32个自由度的机器人设备。不必说,设备1可以根据限制设计和制造的条件或规格要求而具有更多或更少的自由度。
机器人设备1所具有的每个自由度是通过一个传动器来实现的。期望所述传动器小和轻。否则,机器人设备1不能满足它看起来像人的要求,没有显著的膨胀,并且应当在适当的位置被控制来走动,虽然它是双腿的不稳定结构。
图3是机器人设备1的控制系统配置的示意图。如图3所示,所述控制系统包括思维控制模块200和运动控制模块300。思维控制模块200动态地响应于用户已经做出的输入。根据所述输入等,模块200确定设备1应当表达的情感,并且使得设备1表达那个情感。运动控制模块300控制传动器350等,它们合作来移动机器人设备1的不同身体部分。
思维控制模块200包括中央处理单元(CPU)211、随机存取存储器(RAM)212、只读存储器(ROM)213和外部存储器(例如硬盘驱动器)214。模块200是独立驱动的、数据处理器,它可以自己处理数据。CPU211响应于用户输入等而执行操作,以确定设备1应当表达的情感,并且使得设备1表达这个情感。
思维控制模块200接收来自视频数据输入装置251的视频数据和来自音频数据输入装置252的音频数据。根据这些外部刺激,模块200确定机器人设备1应当示出的情感和意愿。视频数据输入装置251具有两个电荷耦合器件(CCD)摄像机,即左侧摄像机和右侧摄像机。音频数据输入装置252具有例如多个麦克风。思维控制模块200可以通过具有扬声器的音频输出装置253来输出语音。
思维控制模块200向运动控制模块300发出指令,以便执行运动序列或行为序列,即,根据所确定的意愿来移动机器人设备1的肢体。
运动控制模块300包括CPU311、RAM312、ROM313和外部存储装置(例如硬盘驱动器)314。模块300是独立驱动的、数据处理器,它可以自己处理数据。如上所述,CPU311控制机器人设备1的坐标移动。外部存储装置314可以存储例如走动模式和目标ZMP轨道——两者均在离线模式下计算——以及其它的一些行为程序项。ZMP是在地板上的点,在此移动是零,这是由设备1在走动时从地板接收的反作用力导致的。ZMP轨道是当机器人设备1走动时ZMP所限定的轨迹。ZMP和ZMP轨道如何被应用来确定行走的机器人的稳定性被描述在Miomir Vukobratovic,Legged LocomotionRobots(有腿的运动机器人)(由Ichiro Katoh等翻译,Walking Robots andArtificial Legs(行走机器人和人造腿),Nikkan Kogyo Shimbun有限公司)。
运动控制模块300包括总线接口(I/F)301。总线接口301连接各种装置,诸如传动器350、位置传感器351、地板接触传感器352和353以及电源控制装置354。注意传动器350实现了图2所示的机器人设备1具有的关节的自由度。位置传感器351检测主干单元2的位置和倾角。地板接触传感器352和353检测机器人设备1的左右脚接触或离开地板。电源控制装置354控制诸如电池的电源。位置传感器351是例如加速度传感器和回转传感器(gyrosensor)的组合。地板接触传感器352和353是近程传感器(proximity sensor)或微型开关。
思维控制模块200和运动控制模块300被提供在同一平台上。总线接口201和202连接模块200和300。
运动控制模块300控制传动器350,以便设备1的身体的多个部分可以协调地移动。更精确而言,CPU311从外部存储装置314获取由思维控制模块200选择的行为模式或者内部产生行为模式。按照行为模式,CPU311设置脚部移动、ZMP轨道、主干移动、上肢移动、臀部水平位置、臀部高度等。CPU311然后向传动器350传送命令值。命令值控制传动器350,由此机器人设备1按照CPU311已经设置的数据项来执行行为。
CPU311从由位置传感器351输出的信号检测机器人设备1的主干单元2的位置和倾角。CPU311从由地板接触传感器352和353输出的信号来确定腿单元5L和5R是离开还是位于地板上。于是,CPU311可以实现自适应控制,使得机器人设备1的身体的多个部分协调地移动。
而且,CPU311以下述方式控制机器人设备1的位置和行为:使得ZMP保持接近ZMP稳定区域的中心。
运动控制模块300向思维控制模块200提供用于示出机器人设备1已经如何忠实地如思维控制模块200指令的那样行动的数据。换句话说,运动控制模块300向思维控制模块200通知它已经获得的结果。
于是,机器人设备1可以根据控制程序来确定内部条件和外部条件,并且可以执行自主的行为。
(2)机器人设备的行为控制方法
将说明用于控制机器人设备1的行为的方法。图4是描述机器人设备1具有的行为控制系统40的方框图。行为控制系统40包括CCD摄像机41、麦克风42、条件识别器43、人识别器44、行为模式获取装置45、存储装置46、行为执行装置47和传动器48。CCD摄像机41等同于图3所示的视频数据输入装置251,麦克风42等同于音频数据输入装置252。条件识别器43识别机器人设备1周围的条件。人识别器44识别主体,即人。行为模式获取装置45当机器人设备1模仿人所做的行为时获取行为模式。存储装置46相关联地存储所获取的行为数据、关于主体的标识数据以及条件数据。行为执行装置47按照主体的标识数据和条件数据来执行由在存储装置46中存储的行为数据所表示的行为。传动器48由行为执行装置47控制。
条件识别器43从CCD摄像机41和麦克风42的输出识别机器人设备1周围的条件。它产生表示它已经识别的条件的条件数据。条件数据包括诸如桌子、椅子之类的物体的标识数据以及关于在机器人设备1周围存在的任何东西的视频数据和音频数据。它也包括示出在机器人设备1中提供的电池的剩余电量的数据和诸如与关节角度相关的一组向量的其他数据。
人识别器44使用诸如CCD摄像机41和麦克风42的传感器来通过面部识别和语音识别而识别主体(人)。在识别人时,人识别器44产生人的ID数据。
如上所述,行为模式获取装置45当机器人设备1模仿人的行为时获取行为模式。所获取的行为模式被用于使得机器人设备1执行所述行为。装置45以在上述的非专利文件中公开的方式来映射所获取的行为模式,然后分别向行为数据项分配行为ID。所述行为数据项——每个被分配了一个行为ID——被输出到存储装置46。
存储装置46从行为模式获取装置45接收行为数据项。它与当获取行为数据项时获得的条件数据项和人ID数据项相关联地存储每个行为数据项。按照例如保存行为ID和人ID之间的关系的规则库,将所述行为数据项与人ID数据项相关联。
行为执行装置47接收来自条件识别器43的条件数据和来自人识别器44的人ID。它从存储装置46读取与行为ID相关的条件数据和人ID。它然后按照被分配了行为ID的行为数据来控制传动器48。
将参照图5和6的流程图来说明行为控制系统40如何控制机器人设备1的行为。图5是说明行为控制系统40如何存储数据的流程图。图6是说明系统40如何使得机器人设备执行行为的流程图。
首先,将说明行为控制系统40如何存储数据。人可以在机器人设备1的CCD摄像机41之前执行行为。在这种情况下,人识别器44识别人,条件识别器43识别人执行行为的条件(步骤S51)。条件识别器43通过使用CCD摄像机41、麦克风42等来识别例如当人正在执行行为时在人周围存在的物体。
当条件识别器43正在识别条件时,行为模式获取装置45获取当机器人设备1模仿人正在执行的行为时的人的行为模式(步骤S52)。只要人的图像处在由CCD摄像机41拍摄的图像中,则记录人的行为。人或操作员可以指定装置45开始获取行为模式的时间和装置45结束获取行为模式的时间。行为模式获取装置45当人例如说“开始获取行为模式”时开始获取模式,而当人说“停止获取行为模式”时停止获取模式。装置45于是获取行为模式。装置45可以当操作员进行相同的口头指令时获取模式。或者,装置45可以当人的手或脚移动的加速度在绝对值上超过预定的门限值时开始或停止获取模式。
当人的图像不再位于由CCD摄像机41拍摄的图像中时,存储装置46存储已经从行为模式获取装置45输出的关于人的行为数据。更准确地说,存储装置46与表示在给定点的条件的数据相关联地以及与人的人ID相关联地存储行为数据。
假定A先生在看到绿色胡椒时在他的面前挥动右手,因为他当看见他不喜欢的任何东西时习惯性地如此。于是,人识别器44从A先生的脸的图像和A先生发出的声音产生A先生的人ID。同时,条件识别器43在使用已经存储的图像识别出绿色胡椒的图像时产生绿色胡椒的物体ID。而且,行为模式获取装置45在获取了A先生的在他面前挥动右手的行为模式时产生行为ID。组合地存储A先生的人ID、作为条件数据的绿色胡椒的物体ID和右手挥动的行为ID。
将说明行为控制系统40如何使得机器人设备1执行行为。假定在机器人设备1的CCD摄像机41拍摄的图像中出现人的图像。则,人识别器44识别出该人,并且条件识别器43识别出该人周围的当前条件(步骤S61)。条件识别器43从例如由CCD摄像机41提供的、在人周围存在的一些物体的图像和由麦克风42检测的这些物体发出的声音来识别条件。
行为执行装置47接收来自条件识别器43的条件数据和来自人识别器44的人ID。按照所述条件数据和人ID,装置47从存储装置46搜索人已经执行的行为(步骤S62)。即,根据人的人ID和表示人已经执行了所述行为的条件的数据来搜索所述行为。
确定是否存储装置46存储了对应于条件数据和人ID的行为ID(步骤S63)。如果在步骤S63中为否,则操作返回步骤S61,其中,条件识别器43识别当前的条件。如果在存储装置46中的规则库包含对应于该条件数据和人ID的行为ID,则行为执行装置47输出行为ID(步骤S64)。装置47按照对应于行为ID的行为数据来控制传动器48。结果,机器人设备1模仿该人而执行所述行为。
假定如上所述A先生在看见绿色胡椒时在他的面前挥动右手,因为他当看见他不喜欢的任何东西时习惯性地如此。那么条件识别器43和人识别器44向行为执行装置47输出绿色胡椒的物体ID和A先生的人ID,行为执行装置47输出右手挥动的行为ID,它仅仅与绿色胡椒的物体ID和A先生的人ID相关联。因此,装置47从存储装置46获取以行为ID标识的行为数据。
如上所述,在按照本发明的机器人设备和控制所述设备的方法中,相关联地存储行为数据和条件数据,其中所述行为数据示出了主体的行为,所述条件数据表示主体执行行为的条件。因此,机器人设备1可以当机器人设备面对相同条件时模仿主体而行动。因为机器人设备1相关联地存储了行为数据和条件数据,因此它具有与主体相同的习惯。机器人设备1看起来对于主体友好。
在本实施例中,条件数据是诸如物体ID的外部数据。相反,条件数据可以是内部数据,诸如在电池中的剩余电量或一组与关节角度相关联的向量。如果是这样,则机器人设备1可以执行更复杂的行为。
条件数据可以是表示例如背景的实况视频数据。在这种情况下,首先获得图像颜色的直方图(histogram),并且将直方图的各个分量的值编译成向量。
可以更新在存储装置46中的规则库。除了诸如人ID的标识符之外的所有的数据项都随着时间改变。由此,每次更新规则库时可以计算每个数据项的平均值。
为了输出行为ID,与行为ID相关联的人ID和数据项不必彼此一致。足够的是,根据包括所有元素的向量来找到在存储装置中存储的向量和在当前时刻的向量之间的蜂鸣音距离(humming distance),并且改变输出行为的概率。
而且,可以从在存储装置46中存储的条件数据项和行为数据项提取一般规则。假定A先生、B先生和C先生每当他们看见绿色胡椒时可以习惯地在面前挥动右手。那么可以编程使得机器人设备当它看见绿色胡椒时在其面前挥动右手,而不论是否主体是A先生、B先生或C先生。
本实施例使用与对应的条件数据相关联地保存每个行为ID的规则库。相反,行为ID和条件数据可以在神经网络中耦接。在分层的神经网络中,可以向输入层输入人ID和条件数据,并且可以从输出层输出行为ID。
按照上述的实施例的机器人设备按照由行为模式获取装置45获取的模式来模仿人行动。尽管如此,机器人设备也可以从诸如狗和猫之类的动物或从其他的机器人设备获取行为模式,并且可以模仿动物或其他机器人设备。
本领域的技术人员应当明白,可以根据设计要求和其他因素来进行各种修改、组合、子组合和替代,只要它们在所附的权利要求书或其等同内容的范围内。
本发明包含与2004年9月14日在日本专利局提交的日本专利申请JP2004-267401有关的主题,其整体内容通过引用被整体并入在此作为参考。

Claims (9)

1.一种机器人设备,包括:
数据获取部件,用于从外部和/或内部获取数据;
主体识别部件,用于通过使用从外部获取的数据来识别执行行为的主体;
条件识别部件,用于通过使用从外部获取的数据和/或从内部获取的数据来识别外部条件和/或内部条件;
行为模式获取部件,用于通过使用从外部获取的数据来获取主体的行为模式;
存储部件,用于与条件数据和主体标识数据相关联地存储行为数据,所述行为数据表示主体的行为,所述条件数据表示机器人设备的外部和/或内部条件,所述主体标识数据用于标识主体;以及
行为执行部件,用于执行行为,
其中,当主体识别部件识别出主体时,行为执行部件按照标识数据以及外部和/或内部条件数据来执行由在存储部件中存储的行为数据所表示的行为。
2.按照权利要求1的机器人设备,其中,所述数据获取部件具有用于拾取图像的成像部件和用于收集声音的声音收集部件。
3.按照权利要求2的机器人设备,其中,所述行为模式获取部件在主体的图像位于由数据获取部件所获取的图像中时或在被口头指令指示如此进行时保持获取行为模式。
4.按照权利要求1的机器人设备,其中,当所述主体正在执行行为时,所述存储部件记录表示在任意给定时间存在于所述机器人设备的外部和/或内部的条件的条件数据。
5.一种控制机器人设备的行为的方法,包括步骤:
从机器人设备的外部和/或内部获取数据;
通过使用从外部获取的数据来识别执行行为的主体;
通过使用从外部获取的数据和/或从内部获取的数据来识别外部条件和/或内部条件;
通过使用从外部获取的数据来获取主体的行为模式;
与条件数据和主体标识数据相关联地在存储部件中存储表示主体的行为的行为数据,所述条件数据表示机器人设备的外部和/或内部条件,所述主体标识数据用于标识主体;以及
当识别出主体时,按照主体的标识数据和机器人设备的外部和/或内部条件来执行由在存储部件中存储的行为数据所表示的行为。
6.按照权利要求5的用于控制机器人设备的行为的方法,其中,获取数据的步骤具有拾取图像的步骤和收集声音的步骤。
7.按照权利要求6的用于控制机器人设备的行为的方法,其中,在获取行为模式的步骤中,在主体的图像位于由数据获取部件所获取的图像中时或在口头指令保持指示获取数据时连续地获取行为模式。
8.按照权利要求5的用于控制机器人设备的行为的方法,其中,在存储行为数据的步骤中,用于表示当主体正在执行行为时在任何给定时间存在于机器人设备的外部和/或内部的条件的条件数据被存储在存储部件中。
9.一种机器人设备,包括:
数据获取单元,用于从外部和/或内部获取数据;
主体识别单元,用于通过使用从外部获取的数据来识别执行行为的主体;
条件识别单元,用于通过使用从外部获取的数据和/或从内部获取的数据来识别外部条件和/或内部条件;
行为模式获取单元,用于通过使用从外部获取的数据来获取主体的行为模式;
存储单元,用于与条件数据和主体标识数据相关联地存储行为数据,所述行为数据表示主体的行为,所述条件数据表示机器人设备的外部和/或内部条件,所述主体标识数据用于标识主体;以及
行为执行单元,用于执行行为,
其中,当主体识别单元识别出主体时,行为执行单元按照标识数据以及外部和/或内部条件数据来执行由在存储单元中存储的行为数据所表示的行为。
CNB2005100995241A 2004-09-14 2005-09-13 机器人设备和控制其行为的方法 Expired - Fee Related CN100351054C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004267401A JP4086024B2 (ja) 2004-09-14 2004-09-14 ロボット装置及びその行動制御方法
JP267401/04 2004-09-14

Publications (2)

Publication Number Publication Date
CN1748958A true CN1748958A (zh) 2006-03-22
CN100351054C CN100351054C (zh) 2007-11-28

Family

ID=35431135

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB2005100995241A Expired - Fee Related CN100351054C (zh) 2004-09-14 2005-09-13 机器人设备和控制其行为的方法

Country Status (4)

Country Link
US (1) US8315454B2 (zh)
EP (1) EP1653397A3 (zh)
JP (1) JP4086024B2 (zh)
CN (1) CN100351054C (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102047684A (zh) * 2008-05-29 2011-05-04 夏普株式会社 数据处理装置、数据处理系统、数据处理装置的控制方法、控制程序及记录该程序的计算机可读取的记录介质
CN102147985A (zh) * 2010-02-09 2011-08-10 鑫承科技股份有限公司 自动闪卡机器人及闪卡教学方法
US8654176B2 (en) 2007-06-14 2014-02-18 Sharp Kabushiki Kaisha Operating system that includes an image data receiving device and an operation device for processing image data sets
CN106037591A (zh) * 2015-04-09 2016-10-26 美国iRobot公司 限制移动机器人的运动
CN109521927A (zh) * 2017-09-20 2019-03-26 阿里巴巴集团控股有限公司 机器人互动方法和设备
CN111002303A (zh) * 2018-10-04 2020-04-14 卡西欧计算机株式会社 识别装置、机器人、识别方法和存储介质

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4649944B2 (ja) * 2004-10-20 2011-03-16 富士ゼロックス株式会社 動画像処理装置、動画像処理方法およびプログラム
JP4798581B2 (ja) * 2006-09-27 2011-10-19 株式会社国際電気通信基礎技術研究所 ロボットシステム
US8068935B2 (en) * 2006-10-18 2011-11-29 Yutaka Kanayama Human-guided mapping method for mobile robot
US20090132088A1 (en) * 2007-04-24 2009-05-21 Tairob Ltd. Transfer of knowledge from a human skilled worker to an expert machine - the learning process
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
CN101493903A (zh) * 2008-01-24 2009-07-29 鸿富锦精密工业(深圳)有限公司 有性格特征的类生物装置及其展现方法
US9052710B1 (en) * 2009-03-20 2015-06-09 Exelis Inc. Manipulation control based upon mimic of human gestures
US8244402B2 (en) * 2009-09-22 2012-08-14 GM Global Technology Operations LLC Visual perception system and method for a humanoid robot
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
KR101429962B1 (ko) * 2010-11-22 2014-08-14 한국전자통신연구원 기억 회상용 데이터 처리 시스템 및 그 방법
US9079113B2 (en) * 2012-01-06 2015-07-14 J. T. Labs Limited Interactive personal robotic apparatus
EP2685403A3 (en) 2012-07-09 2017-03-01 Technion Research & Development Foundation Limited Natural machine interface system
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
CN105182757B (zh) * 2015-06-05 2019-03-05 普天智能照明研究院有限公司 一种移动式智能管家机器人控制方法
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
CN105752195B (zh) * 2016-03-31 2018-09-21 重庆交通大学 桥梁检测用机器人
JP6660242B2 (ja) * 2016-04-25 2020-03-11 本田技研工業株式会社 ロボットの制御信号を伝送するための光ファイバ配線構造
TW201805598A (zh) * 2016-08-04 2018-02-16 鴻海精密工業股份有限公司 自主移動設備及建立導航路徑的方法
CN106625670B (zh) * 2016-12-26 2019-05-24 迈赫机器人自动化股份有限公司 一种多功能人机交互仿人教育机器人的控制系统和方法
JP6812325B2 (ja) * 2017-10-26 2021-01-13 株式会社日立ビルシステム ロボット管理システム
CN108127664A (zh) * 2017-12-27 2018-06-08 重庆柚瓣家科技有限公司 互动型游戏npc机器人
WO2019226033A2 (ko) * 2019-08-28 2019-11-28 엘지전자 주식회사 모방대상체의 모방 학습을 통해 자율주행이 가능한 로봇 및 로봇의 자율주행 방법
US20210162593A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. Robot and method for controlling thereof

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4366617B2 (ja) * 1999-01-25 2009-11-18 ソニー株式会社 ロボット装置
JP2001105363A (ja) * 1999-08-04 2001-04-17 Yamaha Motor Co Ltd ロボットにおける自律的行動表現システム
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP2001246580A (ja) 2000-03-03 2001-09-11 Sony Corp 情報通信ロボット装置、情報通信方法および情報通信ロボットシステム
JP2002160185A (ja) * 2000-03-31 2002-06-04 Sony Corp ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
KR20020008848A (ko) * 2000-03-31 2002-01-31 이데이 노부유끼 로봇 장치, 로봇 장치의 행동 제어 방법, 외력 검출 장치및 외력 검출 방법
DE60140747D1 (de) * 2000-07-01 2010-01-21 Alexander V Smirnov Interaktives spielzeug
EP1375084A4 (en) * 2001-03-09 2009-10-21 Japan Science & Tech Agency AUDIOVISUAL ROBOT SYSTEM
EP1262844A1 (en) 2001-06-01 2002-12-04 Sony International (Europe) GmbH Method for controlling a man-machine-interface unit
JP2003039362A (ja) 2001-07-27 2003-02-13 Matsushita Electric Ind Co Ltd ペット型ロボット
JP3824608B2 (ja) * 2001-08-01 2006-09-20 ソニー株式会社 脚式移動ロボット及びその動作制御方法
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
AU2003234995A1 (en) * 2002-04-25 2003-11-10 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004066367A (ja) 2002-08-05 2004-03-04 Mitsubishi Heavy Ind Ltd 行動パターン生成装置、行動パターン生成方法、及び行動パターン生成プログラム
JP2004090109A (ja) 2002-08-29 2004-03-25 Sony Corp ロボット装置およびロボット装置の対話方法
KR100485696B1 (ko) * 2003-02-07 2005-04-28 삼성광주전자 주식회사 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기
JP2005078376A (ja) * 2003-08-29 2005-03-24 Sony Corp 対象物検出装置、対象物方法、及びロボット装置
JP2005103679A (ja) 2003-09-29 2005-04-21 Toshiba Corp ロボット装置
JP2005193331A (ja) * 2004-01-06 2005-07-21 Sony Corp ロボット装置及びその情動表出方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8654176B2 (en) 2007-06-14 2014-02-18 Sharp Kabushiki Kaisha Operating system that includes an image data receiving device and an operation device for processing image data sets
CN102047684A (zh) * 2008-05-29 2011-05-04 夏普株式会社 数据处理装置、数据处理系统、数据处理装置的控制方法、控制程序及记录该程序的计算机可读取的记录介质
CN102147985A (zh) * 2010-02-09 2011-08-10 鑫承科技股份有限公司 自动闪卡机器人及闪卡教学方法
CN106037591A (zh) * 2015-04-09 2016-10-26 美国iRobot公司 限制移动机器人的运动
US10639793B2 (en) 2015-04-09 2020-05-05 Irobot Corporation Restricting movement of a mobile robot
US11465284B2 (en) 2015-04-09 2022-10-11 Irobot Corporation Restricting movement of a mobile robot
CN109521927A (zh) * 2017-09-20 2019-03-26 阿里巴巴集团控股有限公司 机器人互动方法和设备
CN109521927B (zh) * 2017-09-20 2022-07-01 阿里巴巴集团控股有限公司 机器人互动方法和设备
CN111002303A (zh) * 2018-10-04 2020-04-14 卡西欧计算机株式会社 识别装置、机器人、识别方法和存储介质
CN111002303B (zh) * 2018-10-04 2023-03-28 卡西欧计算机株式会社 识别装置、机器人、识别方法和存储介质

Also Published As

Publication number Publication date
EP1653397A2 (en) 2006-05-03
EP1653397A3 (en) 2009-02-11
CN100351054C (zh) 2007-11-28
JP4086024B2 (ja) 2008-05-14
US20060056678A1 (en) 2006-03-16
JP2006082150A (ja) 2006-03-30
US8315454B2 (en) 2012-11-20

Similar Documents

Publication Publication Date Title
CN100351054C (zh) 机器人设备和控制其行为的方法
CN1304177C (zh) 机器人装置及其控制方法
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
US7103447B2 (en) Robot apparatus, and behavior controlling method for robot apparatus
US6904334B2 (en) Robot apparatus and method for controlling the operation thereof
JP3855812B2 (ja) 距離計測方法、その装置、そのプログラム、その記録媒体及び距離計測装置搭載型ロボット装置
KR20040028660A (ko) 로봇 장치, 얼굴 인식 방법 및 얼굴 인식 장치
KR20010052699A (ko) 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
JP2003266345A (ja) 経路計画装置、経路計画方法及び経路計画プログラム並びに移動型ロボット装置
JP2003271975A (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP2003266349A (ja) 位置認識方法、その装置、そのプログラム、その記録媒体及び位置認識装置搭載型ロボット装置
JP2002307350A (ja) ロボット装置、ロボット装置の動作制御方法、ロボット装置の制御システム、プログラム及び記録媒体
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2005111654A (ja) ロボット装置及びロボット装置の歩行制御方法
JP2002059384A (ja) ロボットのための学習システム及び学習方法
JP2004114285A (ja) ロボット装置及びその行動制御方法
JP2006285898A (ja) 制御装置および方法、並びにプログラム
CN115840455A (zh) 用于足式机器人的运动控制方法和装置及足式机器人
JP2002326176A (ja) ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体
Sabe Development of entertainment robot and its future
Lee et al. Study on Performance Motion Generation of Humanoid Robot
JP4539291B2 (ja) ロボット装置及びその動作制御方法
JP2002205290A (ja) 脚式移動ロボットの制御装置及び制御方法
CN116842068A (zh) 动捕数据的调整方法、装置、设备、存储介质及程序产品

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20071128

Termination date: 20210913

CF01 Termination of patent right due to non-payment of annual fee