CN100534732C - 脚式移动机器人的控制装置 - Google Patents
脚式移动机器人的控制装置 Download PDFInfo
- Publication number
- CN100534732C CN100534732C CNB2006101656687A CN200610165668A CN100534732C CN 100534732 C CN100534732 C CN 100534732C CN B2006101656687 A CNB2006101656687 A CN B2006101656687A CN 200610165668 A CN200610165668 A CN 200610165668A CN 100534732 C CN100534732 C CN 100534732C
- Authority
- CN
- China
- Prior art keywords
- people
- footwork
- hand
- foot
- mobile robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D57/00—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track
- B62D57/02—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members
- B62D57/032—Vehicles characterised by having other propulsion or other ground- engaging means than wheels or endless track, alone or in addition to wheels or endless track with ground-engaging propulsion means, e.g. walking members with alternately or sequentially lifted supporting base and legs; with alternately or sequentially lifted feet or skid
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1641—Programme controls characterised by the control loop compensation for backlash, friction, compliance, elasticity in the joints
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种脚式移动机器人的控制装置,使得可以和人牵手步行等与人进行接触而提高交流能力,并且稳定地保持此时的姿势。当经由手而与人接触时,检测从人作用的外力(S26、S34、S36),根据检测出的外力估计人的行进方向,根据估计出的行进方向生成步法(S44),根据所生成的步法至少控制脚部致动器的动作(S50、S52)。此外,也执行牵着人的手步行的引导动作。
Description
技术领域
本发明涉及脚式移动机器人的控制装置,更加详细地说,涉及与人牵手步行的脚式移动机器人的控制装置。
背景技术
以往,为了提高与人的交流功能,提出了可以和人握手的机器人(例如参照专利文献1)。专利文献1中记载的机器人在手部嵌入了压力传感器片,从而检测握手时的人的把持力,根据检测出的把持力,改变发话内容(具体而言,当把持力适度时,发声“请多关照”,当把持力强时,发声“疼”),并且使臂部动作(具体而言,当把持力强时,动作为缩回臂部),从而提高交流能力。此外,专利文献1中记载的机器人是驱动车轮而移动的机器人。
专利文献1:日本特开2004-283975号公报(段落0062至0066、图8和图9)
作为交流功能的提高,不仅仅停留于握手,可以考虑与人牵手,即被人牵着手或者牵着人的手步行,但在以这样的形式和人接触的情况下,也和握手同样地,在机器人的臂部作用相当的外力。在上述专利文献1中记载的机器人中,构成为通过车轮来移动,因此作用在臂部的外力在稳定地保持姿势的方面不会特别成为问题,但在驱动脚部而移动的脚式移动机器人中,特别是双足的脚式移动机器人中,可能成为足以打乱其姿势的干扰。即,在以往的脚式移动机器人中,存在由于与人接触而导致姿势不稳定的可能。
发明内容
因此,本发明的目的在于解决上述问题,提供可以与人接触而提高交流能力,并且稳定地保持此时的姿势的脚式机器人的控制装置。
为了解决上述问题,本发明的第一方面提供了一种控制脚式移动机器人的动作的脚式移动机器人控制装置,该脚式移动机器人至少具有:基体;与所述基体连结的多个脚部;与所述基体连结并且在其前端分别连结有手的多个臂部;驱动所述脚部的脚部致动器;以及驱动所述臂部的臂部致动器,该控制装置构成为具有:外力检测单元,其在经由所述手与人接触时,检测从所述人作用的外力;步法生成单元,其根据所述检测出的外力生成步法;以及脚部致动器控制单元,其根据所述生成的步法至少控制所述脚部致动器的动作。
本发明的第二方面的脚式移动机器人控制装置构成为,所述步法生成单元根据所述检测出的外力估计所述人的行进方向,并根据所述估计出的行进方向生成步法。
本发明的第三方面的脚式移动机器人控制装置构成为,所述生成的步法是牵着所述人的手步行的步法或者是被所述人牵着手步行的步法。
本发明的第四方面的脚式移动机器人控制装置构成为,其在执行所述臂部致动器的驱动控制时,执行吸收所述外力的干扰成分的柔顺控制(compliance control)。
本发明的第五方面的脚式移动机器人控制装置构成为,在所述生成的步法中,根据所述外力改变步幅。
本发明的第六方面的脚式移动机器人控制装置构成为具有:手位置计算单元,其识别所述人的身高来计算所述手在重力方向上的位置;以及臂部致动器控制单元,其控制所述臂部致动器的动作,以在所述确定的手的位置处与所述人接触。
在本发明的第一方面的脚式移动机器人控制装置中,构成为:当经由手与人接触时,检测从人作用的外力,根据检测出的外力生成步法,并且根据所生成的步法至少控制脚部致动器的动作,因此可以与人接触,可以提高交流功能,而不会导致姿势的不稳定化。
在本发明的第二方面的脚式移动机器人控制装置中,构成为:根据检测出的外力估计人的行进方向,根据估计出的行进方向生成步法,因此可以与人接触,可以提高交流功能,而不会导致姿势的不稳定化。
本发明的第三方面的脚式移动机器人控制装置构成为所生成的步法是牵着人的手步行的步法或者是被人牵着手步行的步法,因此除上述效果之外,在不仅仅停留于接触这一点上,可更加提高交流功能。
本发明的第四方面的脚式移动机器人控制装置构成为,其执行吸收所述外力的干扰成分的柔顺(compliance)控制,因此,除上述效果之外,可更好地避免姿势的不稳定化。
本发明的第五方面的脚式移动机器人控制装置构成为,在所生成的步法中,根据外力改变步幅,因此,除上述效果之外,可改变步幅而吸收外力,可更好地避免姿势的不稳定化。
本发明的第六方面的脚式移动机器人控制装置构成为:识别人的身高来计算手在重力方向上的位置,控制臂部致动器的动作,以在计算出的手的位置处与人接触,因此,除上述效果之外,牵着人的手时或者被人牵着手时的动作变得更加顺畅,可更加提高交流功能。
附图说明
图1是应用了本发明的第一实施例的脚式移动机器人控制装置的机器人的主视图。
图2是图1所示的机器人的侧视图。
图3是用骨架表示图1所示的机器人的说明图。
图4是以电子控制单元(ECU)的输入输出关系为中心表示控制装置的结构的方框图。
图5是表示由图4所示的ECU进行的处理的框图。
图6是表示由图5所示的ECU进行的处理的流程图。
图7是表示图5的ECU行动决定部的结构的框图。
图8是表示图6的臂部致动器的指令值计算处理的子程序流程图。
图9是表示本发明的第二实施例的脚式移动机器人的控制装置的动作的流程图的前半部分。
图10是图9的流程图的后半部分。
图11是表示作为图9的流程图的动作的、牵着人的手步行的机器人的立体图。
具体实施方式
以下,参照附图对用于实施本发明的脚式移动机器人控制装置的最佳实施方式进行说明。
[实施例1]
图1是安装了第一实施例的脚式移动机器人控制装置的机器人的主视图,图2是图1所示的机器人的侧视图。
如图1所示,脚式移动机器人(以下简称为“机器人”)10具有多个、即左右两个的脚部12L、12R(设左侧为L,右侧为R。以下相同)。脚部12L、12R连结在基体(上体)14的下部。在基体14的上部连结有头部16,并且侧方连结有多个即左右两个的臂部20L、20R。在左右的臂部20L、20R的前端分别连结有手(末端执行器,end effector)22L、22R。此外,在本实施例中,作为脚式移动机器人,以具有两个脚部和两个臂部的身高为1.3m左右的人型的机器人为例。
如图2所示,在基体14的背部设有收纳部24,在其内部收纳有电子控制单元(以下称为“ECU”)26和电池(未图示)等。
图3是用骨架表示图1所示的机器人10的说明图。以下,参照图3,以关节为中心对机器人10的内部结构进行说明。此外,图示的机器人10左右对称,因此省略下面的L、R的标号。
左右的脚部12分别具有大腿连杆30和小腿连杆32以及足部34。大腿连杆30经由股关节与基体14连结。在图3中,把基体14作为基体连杆36简略地示出,但基体连杆36(基体14)构成为可以经由关节38使上半部36a和下半部36b相对变位,更加具体而言,可自由旋转或者转动。
大腿连杆30和小腿连杆32经由膝关节而连结,并且小腿连杆32和足部34经由足关节而连结。股关节由绕Z轴(偏转(yaw)轴。具体而言,机器人10的高度方向)的旋转轴40、绕Y轴(俯仰(pitch)轴。具体而言,机器人10的左右方向)的旋转轴42和绕X轴(摆动(roll)轴。具体而言,机器人10的前后方向)的旋转轴44构成。即,股关节具有3自由度。
膝关节由绕Y轴的旋转轴46构成,具有1自由度。此外,足关节由绕Y轴的旋转轴48和绕X轴的旋转轴50构成,具有2自由度。这样,对左右脚部12分别赋予了构成3个关节的6个旋转轴(自由度),作为脚部整体赋予了总计12个旋转轴。
脚部12被致动器(未图示)驱动。以下,把驱动脚部12的致动器称为“脚部致动器”。具体而言,脚部致动器由配置在基体14和脚部12的适当位置的12个电机组成,分别驱动上述的12个旋转轴。通过控制脚部致动器的动作,以适当的角度驱动各旋转轴,从而可对脚部12施加所期望的动作。
此外,左右的臂部20分别具有上臂连杆52和下臂连杆54。上臂连杆52经由肩关节与基体14连结。上臂连杆52和下臂连杆54经由肘关节而连结,并且下臂连杆54和手22经由腕关节而连结。
肩关节由绕Y轴的旋转轴56、绕X轴的旋转轴58和绕Z轴的旋转轴60构成,具有3自由度。肘关节由绕Y轴的旋转轴62构成,具有1自由度。腕关节由绕Z轴的旋转轴64、绕Y轴的旋转轴66和绕X轴的旋转轴68构成,具有3自由度。这样,对左右臂部20分别赋予了构成3个关节的7个旋转轴(自由度),作为臂部整体赋予了总计14个旋转轴。
臂部20也与脚部12同样,被未图示的致动器驱动。以下,把驱动臂部20的致动器称为“臂部致动器”。具体而言,臂部致动器由配置在基体14和臂部20的适当位置的14个电机组成,分别驱动上述的14个旋转轴。通过控制臂部致动器的动作,以适当的角度驱动各旋转轴,从而可对臂部20施加所期望的动作。
在手22上设有5个手指部70。手指部70通过未图示的致动器(以下称为“手致动器”)而可自由动作,可与臂部20的动作连动而执行把持物品、或者指向适当的方向等的动作。
头部16经由颈关节与基体14连结。颈关节由绕Z轴的旋转轴72和绕Y轴的旋转轴74构成,具有2自由度。旋转轴72、74也被未图示的致动器(以下称为“头部致动器”)单独驱动。通过控制头部致动器的动作,以适当的角度驱动旋转轴72、74,从而可使头部16朝向所期望的方向。基体连杆36(基体14)也由配置在关节38上的致动器(未图示)驱动,从而上半部36a和下半部36b可相对旋转。
在左右的脚部12(具体而言,足部34和足关节之间)上分别安装有力传感器(6轴力传感器)76。力传感器76输出表示从地面向脚部12作用的地反作用力(更详细地说,经由脚部12作用于机器人10的地反作用力)的3方向分量Fx、Fy、Fz以及力矩的3方向分量Mx、My和Mz的信号。
在左右的臂部20上也分别在手22和腕关节之间安装有相同类型的力传感器78。力传感器78输出表示作用在臂部20上的、更加具体地说,是经由臂部20作用于机器人10的外力的3方向分量Fx、Fy、Fz以及力矩的3方向分量Mx、My和Mz的信号。
在基体14上设有倾斜传感器80,输出基体14相对于铅垂轴的倾斜度,即,表示倾斜角度和其角速度等的状态量的信号。在头部16上设有两个(左右)CCD摄像机82,输出立体地拍摄机器人10的周围环境得到的图像。此外,在头部16上设有由麦克风84a和扬声器84b构成的声音输入输出装置84。
向ECU 26(图2中示出)输入上述的传感器等的输出。ECU 26由微计算机构成,具有未图示的CPU和输入输出电路、ROM、RAM等。
图4是以ECU 26的输入输出关系为中心表示机器人10的结构的框图。
如图所示,机器人10除上述的传感器等之外,还具有:配置在各个旋转轴40等处的旋转编码器组86、陀螺传感器88、GPS接收器90以及IC标签信号接收器(读取器)94,该IC标签信号接收器94通过无线系统与人携带的IC标签92连接,接收从IC标签92发送的IC标签信息。
旋转编码器组86分别输出旋转轴40等的旋转角度,即、与关节角度相对应的信号。陀螺传感器88输出与机器人10的移动方向和距离相对应的信号。GPS接收器90接收从卫星发送的电波,取得机器人10的位置信息(经度和纬度)并输出到ECU 26。IC标签信号接收器94通过无线系统,接收存储在IC标签92中且由此发出的识别信息(RFID(RadioFrequency ID),具体而言是识别作为IC标签92的携带者的人的识别信息),并输出到ECU 26。
ECU 26根据力传感器76、倾斜传感器80以及旋转编码器组86的输出来生成步法,进行步行控制。具体而言,控制所述脚部致动器(用标号100示出)的动作,驱动脚部12,而使得机器人10移动(步行)。
此外,ECU 26随着步行控制等,控制臂部致动器(用标号102表示)和手致动器(用标号104表示)的动作,驱动臂部20和手22,并且控制头部致动器(用标号106表示)的动作,调整头部16的朝向。此外,作为机器人10的步行控制,例如采用在本申请人先前提出的再公表特许WO 2002/040224号公报中记载的技术等,因为与本申请的主旨没有直接关系,因此在此省略说明。
ECU 26还根据CCD摄像机82和IC标签信号接收器94等的输出,执行被人牵着手步行的动作。
图5是表示ECU执行的该动作的处理的方框图。
如图5所示,ECU 26具有:声音识别部108、图像处理部110、自己位置估计部112、人确定部114、人信息D/B(数据库)116、地图D/B(数据库)118、声音/发话D/B(数据库)120、步法D/B(数据库)121、行动决定部122、发话生成部124以及动作控制部126。
声音识别部108输入从声音输入输出装置84的麦克风84a采集到的声音,根据存储在声音/发话D/B 120中的词汇来识别人的指示或者意图。
图像处理部110具有人位置识别部110a。人位置识别部110a输入由CCD摄像机82同时拍摄的图像,根据它们的视差生成距离图像。此外,从一方的CCD摄像机输入摄影时刻不同的图像,根据其差分生成提取出了存在运动的区域的差分图像。然后,根据生成的距离图像和差分图像,识别人的位置和到该位置的距离。此外,根据图像识别人的方法,例如在本申请人以前提出的日本特开2004-302905号公报等中有详细记载,因此省略详细说明。
自己位置估计部112根据从GPS接收器90输入的位置信息,来估计机器人10的当前位置。此外,当不能通过GPS接收器90接收到从卫星发送的电波时,根据通过陀螺传感器88检测出的移动方向和距离,估计当前位置。
人确定部114根据经由IC标签信号接收器94输入的IC标签92的识别信息,来识别人、具体地说是通过人位置识别部110a识别出的人。IC标签92由存储了识别信息的IC 92a和以无线方式向IC标签信号接收器94发送识别信息的天线92b构成,人携带该IC标签92。此外,当然在IC标签92中存储有因人而异的识别信息。
在人信息D/B 116中存储有携带IC标签92的人,即、人的固有信息。在固有信息中,包含身高、性别、人脸图像、所属单位等的包含社会属性的信息。在地图D/B 118中存储有机器人10的移动环境、例如配置了机器人10的公司的公司建筑物等的地图信息,并且在声音/发话D/B 120中存储有上述的词汇。
在步法D/B 121中存储有由机器人10的作为目标的运动模式和地反作用力的模式,更加具体地说是基体14作为目标的位置姿势的轨道和足部34作为目标的位置姿势的轨道所构成的运动模式,以及作用在脚部12L、12R上的目标总地面反作用力的轨道及其中心点的轨道所构成的地反作用力的模式构成的步法数据。总地面反作用力的中心点与ZMP(ZeroMoment Point)是相同意思。
如后所述,行动决定部122根据存储在步法D/B 121中的步法,生成被人牵着手或者牵着人的手步行时的步法,并且决定动作,经由动作控制部126控制脚部致动器100、臂部致动器102、手致动器104以及头部致动器106的动作。此外,行动决定部122通过发话生成部124,根据存储在声音/发话D/B 120中的信息,合成要发话的声音信号,驱动声音输入输出装置84的扬声器84b。
接着,以行动决定部122所执行的处理为焦点,说明本装置的动作。图6是表示该处理的流程图。图6表示被人牵着手步行时的动作。
如以下说明,在S10中判断是否存在人,即、牵着机器人的手进行引导的对象。这根据图像处理部110的输出进行判断,但如上所述因为人携带着IC标签92,因此也可根据IC标签信号接收器94的输出来判断,还可以根据两者来判断。此外,在S10的处理中,也可从外部输入命令来进行。
在S10中为否定时,反复进行处理而待机,另一方面,当为肯定时,进入S12,移动而接近该对象,并进入S14,判断是否已接近到规定距离以内。这也根据图像处理部110的输出或者IC标签信号接收器94的输出中的任意一方(或者双方)来判断。此外,规定距离设为几m。在S14中为否定时,反复进行处理,而当为肯定时,进入S16,且进一步移动而接近对象,具体地说,接近至1m左右。
接着,进入S18,判断是否已识别对象的身高。如上所述,在人信息D/B 116中存储有IC标签92的携带者的身高等的数据,并且根据图像处理部110的输出也某种程度上可以概算,因此S18的判断通常为肯定而进入S20,计算(算出)手22的位置,更加具体地说,被牵着的一方的手、例如右侧的手22R在重力方向上的目标位置,换言之,与对象的身高相对应的高度。此外,当S18中为否定时进入S22,采用初始值。
接着进入S24,控制臂部致动器102和手致动器104的动作,驱动臂部20和手22,以在计算出的位置(或者初始值)处被对象握住(与对象接触)。
接着,进入S26,判断从配置在右侧臂部20R上的力传感器78R输出的外力的力分量F是否在绝对值上超过了阈值Fgrasp,或者从力传感器78R输出的外力的力矩分量M是否在绝对值上超过了阈值Mgrasp。换言之,S26的处理意味着判断对象是否用一定程度的力握着了手22R。此外,这里的外力的力分量和力矩分量如上所述意味着X、Y、Z方向的三个分量。
当在S26中为否定时,反复进行处理而待机,而当为肯定时,进入S28,根据通过力传感器78检测出的外力的力分量F和力矩分量M,具体地说是对应Fx、Fy、Fz、Mx、My、Mz,来握住对象的手。即,控制手致动器104的动作,以用检测出的外力握住对象的手。
接着,进入S30,计算荷重中心点。即,在该实施例中,预定右手22R被对象握住,但对象握住两个手22R、22L的可能性也不能否定,因此计算荷重中心点,确认对象是否仅握住右手22R。
接着进入S32,进行力传感器78R的输出(外力F、M)的滤波处理。具体而言,通过去除高频成分,来去除噪声成分。
接着进入S34,判断从力传感器78R输出的外力的力分量F是否在绝对值上超过了阈值Fwalk,或者从力传感器78R输出的外力的力矩分量M是否在绝对值上超过了阈值Mwalk。这里的外力的力分量和力矩分量也意味着X、Y、Z方向的三个分量。
阈值Fwalk和Mwalk意味着比所述阈值Fgrasp和Mgrasp大的值。换言之,S34的处理意味着判断是否在机器人10上作用了由对象牵着手步行的程度的力。
当在S34中为肯定时进入S36,判断从力传感器78R输出的外力的力分量F是否在绝对值上超过了阈值Fchest,或者从力传感器78R输出的外力的力矩分量M是否在绝对值上超过了阈值Mchest。这里的外力的力分量和力矩分量也意味着X、Y、Z方向的三个分量。
阈值Fchest和Mchest意味着比所述阈值Fwalk和Mwalk大的值。换言之,S36的处理意味着判断是否在机器人10上作用了过度的力,即超过对象牵着手步行所需的力而被其以上的力牵着。
当在S36中为肯定时进入S38,计算腰的旋转量。即、计算由于被过度的力拉着,在与该力相同的方向(逃逸方向)上,经由基体连杆36的关节38使上半部36a相对于下半部36b相对转动的旋转量,并驱动相应的致动器来驱动关节38。此外,当在S36中为否定时,跳过S38的处理。
接着进入S40,计算根据力传感器78的输出得到的外力的力分量F和力矩分量M的向量方向和大小。
接着进入S44,根据计算出的外力F、M的向量方向和大小,计算步法(X,Y,THZ)。即,检测从对象(人)作用的外力,根据检测出的外力估计人(对象)的行进方向,根据估计出的行进方向计算(生成)步法。在此,THZ意味着绕Z轴的角度,具体而言意味着在S38中所述的腰的旋转量。此外,根据外力,如果必要,则以改变步幅的方式计算(生成)步法。
图7是详细表示图5所示的行动决定部122的框图。如图所示,行动决定部122具有臂姿势决定单元200和人反作用力平衡控制装置202等。即,臂姿势决定单元200计算被牵着手步行时的臂姿势,具体地说计算目标手位置姿势、目标基体位置姿势等。人反作用力平衡控制装置202根据目标基体位置姿势和力传感器78的检测值等,来计算满足动力学平衡条件的人反作用力平衡控制用补偿总地面反作用力和修正目标基体位置姿势,并向脚动作控制部和臂动作控制部(图5所示的动作控制部126)输出(对臂动作控制部仅输出修正目标基体位置姿势)。据此,在图5等中所述的脚部致动器100等中执行控制。如此,在S44中,根据向量的方向和大小以及图7所示的其它参数,计算或生成步法。在被人牵着手步行的情况下,向量的方向,即从人作用的外力为朝向行进方向的力。
接着进入S46,对于计算出的步法进行限值处理。即,在机器人10的特性上,与X方向相比Y方向的动作受到限制,因此对于计算出的步法,主要对Y方向进行限值处理。此外,当在S34中为否定时,进入S48,执行步法结束处理,跳到S46之后。
接着,进入S50,根据生成的步法,计算脚部致动器100的指令值,进入S52,根据计算出的指令值,控制(驱动)脚部致动器100的动作。
此外,与S50的处理平行,在S54中,根据生成的步法,计算臂部致动器102的指令值,进入S56,控制(驱动)臂部致动器102的动作。
此外,与S54的处理平行,在S58中,根据生成的步法,计算手致动器104的指令值,进入S60,控制(驱动)手致动器104的动作,同时在S62中计算头部致动器106的指令值,进入S64,控制(驱动)头部致动器106的动作。
图8是表示S54的臂部致动器的指令值计算处理的子程序流程图。
如下面说明的那样,首先在S100中,判断从力传感器78R输出的力分量F中的Z方向分量Fz是否在绝对值上超过了阈值Fz_lim,当为肯定时,进入S102计算Z方向的手位置的修正量。换言之,该处理相当于识别对象(人)的身高并计算手22R在重力方向上的位置。此外,当在S100中为否定时,跳过S102的处理。
接着进入S104,根据步行速度计算X、Y方向的手22R的位置,进入S106,进行柔顺控制计算。即,通过柔顺控制吸收外力的小的干扰成分,而不在步行中使用。根据在S56中计算出的柔顺控制量,来执行柔顺控制。
第一实施例如上所述,在控制如下的脚式移动机器人10的动作的脚式移动机器人控制装置中,该脚式移动机器人10至少具有:基体14;与所述基体连结的多个脚部12;与所述基体连结并且在其前端分别连结有手22的多个臂部20;驱动所述脚部的脚部致动器100;以及驱动所述臂部的臂部致动器102,该控制装置构成为具有:外力检测单元(力传感器78、ECU 26、S26、S34、S36),其在经由所述手与人接触时,检测从所述人作用的外力;步法生成单元(ECU 26,S38至S46),其根据所述检测出的外力估计所述人的行进方向,根据所述估计出的行进方向生成步法;以及脚部致动器控制单元(ECU 26、S50、S52、S54至S64),其根据所述生成的步法至少控制所述脚部致动器的动作,因此可与人接触,可提高交流功能,而不会导致姿势的不稳定化。
此外,构成为所述生成的步法是被所述人牵着手步行的步法,因此除上述效果之外,在不仅停留于简单的接触的方面,可进一步提高交流功能。
此外,构成为执行吸收所述外力的干扰成分的柔顺控制(ECU 26,S54、S106、S56),因此除上述效果之外,可更好地避免姿势的不稳定化。
此外,构成为在所述生成的步法中,根据所述外力变更步幅(ECU 26、S44),因此除上述效果之外,可以变更步幅而吸收外力,可以更好地避免姿势的不稳定化。
此外,构成为具有:识别所述人的身高来计算所述手在重力方向上的位置的手位置计算单元(ECU 26、S20),以及控制臂部致动器的动作,以使在所述确定的手的位置处与所述人接触的臂部致动器控制单元(ECU 26、S24、S54、S100至S106),因此,除上述效果之外,在被人牵着手时,动作变得更加顺畅,可更加提高交流功能。
[实施例2]
接着,说明本发明的第二实施例。图9和图10是与第一实施例同样地以在行动决定部122中执行的处理为焦点,说明本发明的第二实施例的脚式移动机器人控制装置的动作的流程图。
图9是表示第二实施例的脚式移动机器人控制装置的动作的流程图的前半部分,图10是图9的流程图的后半部分。更加具体地,图9是表示牵着人的手步行(引导人)时的动作的流程图,图10表示被人牵着手步行时的动作,是与第一实施例的图6的流程图同样的流程图。
如下所述,在S200中判断是否要引导人。这通过是否经由声音识别部108识别出从操作员指示了引导人(例如来宾)来进行判断。或者可以从外部输入命令来进行,或者可以作为初始状态设定为引导人。
当在S200中为否定时,进入图10的流程图,执行从S300开始的处理。从图10的流程图的S300到S354的处理与第一实施例的图6的流程图的S10到S64的处理相同,是机器人10被人牵着手步行时的处理。
另一方面,当在S200中为肯定时,进入S202以后。如图11所示,S202以后是机器人10牵着人的手步行,即进行引导人的动作时的处理。
如下说明,在S202中设定目的。这是根据通过声音识别部108进行的指示而设定例如引导到接待室的引导动作的处理。接着进入S204,搜索要引导的人(对象)。这是通过利用IC标签信号接收器94接收从人携带的IC标签92发送的IC标签信息,或者经由图像处理部110进行识别来进行的。
接着进入S206,判断是否已发现要引导的人,当为肯定时,进入S208,确认相对于要引导的人是否接近至规定距离以内,当为肯定时,进入S210,进一步移动而接近对象。这些处理与第一实施例的图6流程图的S12至S16的处理相同。
接着,进入S212,判断是否已识别对象的身高,当为肯定时进入S214,计算牵引对象的手所使用的手,例如右侧手22R在重力方向上的与对象身高相对应的高度。当在S212中为否定时,进入S216,采用初始值。接着进入S218,控制臂部致动器102和手致动器104的动作,驱动臂部20和手22,以在计算出的位置处握住对象的手。
接着进入S220,判断从配置在右侧臂部20R上的力传感器78R输出的力分量F是否在绝对值上超过了阈值Fgrasp,或者从力传感器78R输出的力矩分量M是否在绝对值上超过了阈值Mgrasp。当在S220中为否定时,反复进行处理而待机,而当为肯定时进入S222,控制手致动器104的动作,以用力传感器78所检测出的外力F、M,具体地说是以Fx、Fy、Fz、Mx、My、Mz,来握住对象的手。从S212至S222的处理也与第一实施例的图6的流程图的S18至S28的处理相同。
接着进入S224,根据力传感器78的输出确认是否已与对象握住手,从而进入S226,生成路径。即,根据存储在地图D/B 118中的地图信息,作为节点设定或者决定直到在S202的目的设定中识别出的目的地的移动路径。此外,利用节点设定移动路径的技术记载在本申请人以前提出的日本特开2006-195969号公报中,因此省略此处的说明。
接着进入S228,执行步行控制。这意味着根据存储在所述步法D/B121中的步法,生成步法,控制脚部致动器100等的处理,具体地说,意味着执行第一实施例的图6的流程图的S34至S64的处理(与图10的流程图的S324至S354的处理相同)。此外,在该情况下,由于牵着人的手步行,因此,向量的方向,即从人作用的外力成为背向行进方向的力。
接着进入S230,通过发话促使对象注意。例如,发话“拐弯”“有台阶”等来促使对象注意。接着进入S232,判断对象的手是否已离开。当在S232为否定时,接着在S234中判断为已到达目的地,在S236中向对象说明已到达,放开手而离开对象。
在此,对于在S206中为否定,未能发现对象(人)的情况进行说明,在该情况下进入S238,判断从S204的对象搜索开始起经过的时间Tm是否超过规定值T1(例如5秒)。这与在S232中为肯定,判断为在到达目的地之前对象的手已离开的情况相同。
然后,当在S238为否定时,返回S204继续进行搜索,当在S238中为肯定时,进入S240,发话“某先生/女士在吗?”等来呼唤对象,进入S242,判断所述经过时间Tm是否超过第二规定值T2(例如20秒)。当在S242中为否定时,返回S204继续搜索。
另一方面,当在S242中为肯定时,进入S244,进行超时处理,并跳过以后的处理。这样,在未能立刻发现对象时,或者判断为对象的手已离开时,例如从5秒至20秒的期间中继续搜索,而即使这样也未能搜索到时,中止引导动作。
第二实施例如上所述,在控制如下的脚式移动机器人10的动作的脚式移动机器人控制装置中,该脚式移动机器人10至少具有:基体14;与所述基体连结的多个脚部12;与所述基体连结并且在其前端分别连结有手22的多个臂部20;驱动所述脚部的脚部致动器100;以及驱动所述臂部的臂部致动器102,该控制装置构成为具有:外力检测单元(力传感器78、ECU 26、S220、S324、S326),其当经由所述手与人接触时,检测从所述人作用的外力;步法生成单元(ECU 26、S228、S328至S336),其根据所述检测出的外力生成步法;以及脚部致动器控制单元(ECU 26、S228、S340、S342、S344至S354),其根据所述生成的步法至少控制所述脚部致动器的动作,因此可与人接触,可提高交流功能,而不会导致姿势的不稳定化。
此外,构成为所述生成的步法是牵着所述人的手步行的步法(S200、S228、S328至S336)或者是被所述人牵着手步行的步法(S200、S328至S336),因此除上述效果之外,在不仅停留于简单接触的方面,可进一步提高交流功能。
此外,构成为执行吸收所述外力的干扰成分的柔顺控制(ECU 26,S344、S106、S346),因此除上述效果之外,可更好地避免姿势的不稳定化。
此外,构成为在所述生成的步法中,根据所述外力变更步幅(ECU 26、S334),因此除上述效果之外,可以变更步幅而吸收外力,可以更好地避免姿势的不稳定化。
此外,构成为具有:识别所述人的身高来计算所述手在重力方向上的位置的手位置计算单元(ECU 26、S214、S310),以及控制所述臂部致动器的动作,以在所述确定的手的位置处与所述人接触的臂部致动器控制单元(ECU 26、S218、S314、S344、S100至S106),因此,除上述效果之外,在被人牵着手时,动作变得更加顺畅,可更加提高交流功能。
此外,在第一和第二实施例中,在被人牵着手步行时的动作中没有发话,但与第二实施例的牵着人的手步行时的动作同样,可以通过发话生成部124等进行发话。
此外在上述中,从IC标签92向IC标签信号接收器94通过无线系统输出识别信息,但也可以利用组合了日本特开2005-291716号公报中公开的无线系统和光通信的检测技术。
此外在上述中,作为脚式移动机器人示出了双足步行机器人的例子,但不限于此,也可以是三足以上的机器人。
Claims (6)
1.一种控制脚式移动机器人的动作的脚式移动机器人控制装置,该脚式移动机器人至少具有:基体;与所述基体连结的多个脚部;与所述基体连结并且在其前端分别连结有手的多个臂部;驱动所述脚部的脚部致动器;以及驱动所述臂部的臂部致动器,
其特征在于,该控制装置具有:
a.外力检测单元,其在经由所述手与人接触时,检测从所述人作用的外力;
b.步法生成单元,其根据所述检测出的外力生成步法;以及
c.脚部致动器控制单元,其根据所述生成的步法至少控制所述脚部致动器的动作。
2.根据权利要求1所述的脚式移动机器人控制装置,其特征在于,所述步法生成单元根据所述检测出的外力估计所述人的行进方向,并根据所述估计出的行进方向生成步法。
3.根据权利要求1或2所述的脚式移动机器人控制装置,其特征在于,所述生成的步法是牵着所述人的手步行的步法或者是被所述人牵着手步行的步法。
4.根据权利要求1或2所述的脚式移动机器人控制装置,其特征在于,在执行所述臂部致动器的驱动控制时,执行吸收所述外力的干扰成分的柔顺控制。
5.根据权利要求1或2所述的脚式移动机器人控制装置,其特征在于,在所述生成的步法中,根据所述外力改变步幅。
6.根据权利要求1或2所述的脚式移动机器人控制装置,其特征在于,该控制装置具有:
d.手位置计算单元,其识别所述人的身高来计算所述手在重力方向上的位置;以及
e.臂部致动器控制单元,其控制所述臂部致动器的动作,以在所述计算出的手的位置处与所述人接触。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358229 | 2005-12-12 | ||
JP2005358229 | 2005-12-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1982002A CN1982002A (zh) | 2007-06-20 |
CN100534732C true CN100534732C (zh) | 2009-09-02 |
Family
ID=37898363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNB2006101656687A Expired - Fee Related CN100534732C (zh) | 2005-12-12 | 2006-12-11 | 脚式移动机器人的控制装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7778731B2 (zh) |
EP (1) | EP1795314B1 (zh) |
KR (1) | KR100843802B1 (zh) |
CN (1) | CN100534732C (zh) |
DE (1) | DE602006009885D1 (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4384021B2 (ja) * | 2004-12-14 | 2009-12-16 | 本田技研工業株式会社 | 脚式ロボットの制御装置 |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US8138707B2 (en) * | 2007-10-23 | 2012-03-20 | Honda Motor Co., Ltd. | Bipedal walking robot |
JP5393544B2 (ja) * | 2010-03-12 | 2014-01-22 | 本田技研工業株式会社 | ロボット、ロボット制御方法およびプログラム |
TW201434600A (zh) * | 2013-03-01 | 2014-09-16 | Compal Electronics Inc | 具有可因應不同聲音信號產生相對應肢體動作之機器人 |
EP2952299A1 (en) * | 2014-06-05 | 2015-12-09 | Aldebaran Robotics | Standby mode of a humanoid robot |
US9804593B1 (en) * | 2014-12-12 | 2017-10-31 | X Development Llc | Methods and systems for teaching positions to components of devices |
JP7168614B2 (ja) * | 2020-07-10 | 2022-11-09 | 株式会社ソニー・インタラクティブエンタテインメント | ロボット |
CN112623066B (zh) * | 2021-03-09 | 2021-05-25 | 北京哈崎机器人科技有限公司 | 一种牵引式驱动装置及足式机器人 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69734835T2 (de) * | 1996-12-19 | 2006-07-20 | Honda Giken Kogyo K.K. | Haltungskontrolleur einen sich auf beinen bewegenden robotern |
JPH10286789A (ja) * | 1997-04-15 | 1998-10-27 | Honda Motor Co Ltd | 関節トルク検出装置 |
US6266576B1 (en) * | 1998-05-11 | 2001-07-24 | Honda Giken Kogyo Kabushiki Kaisha | Legged moving robot |
EP1112822A4 (en) * | 1999-05-10 | 2005-07-20 | Sony Corp | ROBOTS AND CONTROL PROCESSES THEREOF |
JP3435666B2 (ja) * | 1999-09-07 | 2003-08-11 | ソニー株式会社 | ロボット |
JP2001212783A (ja) * | 2000-02-01 | 2001-08-07 | Sony Corp | ロボット装置及びその制御方法 |
EP1361027B1 (en) | 2000-11-17 | 2007-01-17 | Honda Giken Kogyo Kabushiki Kaisha | Gait pattern generating device for legged mobile robot |
WO2002040225A1 (fr) * | 2000-11-17 | 2002-05-23 | Honda Giken Kogyo Kabushiki Kaisha | Robot a pattes |
JP2002154076A (ja) * | 2000-11-17 | 2002-05-28 | Honda Motor Co Ltd | ロボットの腕 |
JP4143305B2 (ja) * | 2001-01-30 | 2008-09-03 | 日本電気株式会社 | ロボット装置、照合環境判定方法、及び照合環境判定プログラム |
JP3771812B2 (ja) * | 2001-05-28 | 2006-04-26 | インターナショナル・ビジネス・マシーンズ・コーポレーション | ロボットおよびその制御方法 |
JP3945279B2 (ja) * | 2002-03-15 | 2007-07-18 | ソニー株式会社 | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 |
JP4149213B2 (ja) * | 2002-07-12 | 2008-09-10 | 本田技研工業株式会社 | 指示位置検出装置及び自律ロボット |
JP3706113B2 (ja) | 2003-03-24 | 2005-10-12 | 株式会社国際電気通信基礎技術研究所 | コミュニケーションロボット |
JP4231320B2 (ja) | 2003-03-31 | 2009-02-25 | 本田技研工業株式会社 | 移動体の検出装置 |
JP4477924B2 (ja) * | 2004-03-31 | 2010-06-09 | 本田技研工業株式会社 | 移動ロボットの外部検出装置 |
JP4174447B2 (ja) | 2004-03-31 | 2008-10-29 | 本田技研工業株式会社 | 検知対象検知システム |
JP4472592B2 (ja) * | 2004-08-30 | 2010-06-02 | 本田技研工業株式会社 | 運動体の制御方法、制御システム、制御プログラム |
JP4604612B2 (ja) * | 2004-09-07 | 2011-01-05 | 日本電気株式会社 | Icタグ管理装置、それを含むロボットおよびicタグ管理方法 |
JP4282662B2 (ja) | 2004-12-14 | 2009-06-24 | 本田技研工業株式会社 | 自律移動ロボットの移動経路生成装置 |
JP4384021B2 (ja) * | 2004-12-14 | 2009-12-16 | 本田技研工業株式会社 | 脚式ロボットの制御装置 |
JP4456561B2 (ja) * | 2005-12-12 | 2010-04-28 | 本田技研工業株式会社 | 自律移動ロボット |
-
2006
- 2006-12-11 CN CNB2006101656687A patent/CN100534732C/zh not_active Expired - Fee Related
- 2006-12-11 KR KR1020060125289A patent/KR100843802B1/ko active IP Right Grant
- 2006-12-11 EP EP06025604A patent/EP1795314B1/en not_active Expired - Fee Related
- 2006-12-11 DE DE602006009885T patent/DE602006009885D1/de active Active
- 2006-12-12 US US11/636,999 patent/US7778731B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP1795314B1 (en) | 2009-10-21 |
DE602006009885D1 (de) | 2009-12-03 |
KR20070062424A (ko) | 2007-06-15 |
EP1795314A3 (en) | 2008-10-29 |
KR100843802B1 (ko) | 2008-07-04 |
EP1795314A2 (en) | 2007-06-13 |
US7778731B2 (en) | 2010-08-17 |
US20070150107A1 (en) | 2007-06-28 |
CN1982002A (zh) | 2007-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN100534732C (zh) | 脚式移动机器人的控制装置 | |
CN100421887C (zh) | 腿式机器人的控制装置 | |
EP2199038B1 (en) | Robot and task execution system | |
US9073209B2 (en) | Walking robot and control method thereof | |
KR100840427B1 (ko) | 각식 이동 로봇의 제어장치 | |
US6802382B2 (en) | Robot moving on legs and control method therefor, and relative movement measuring sensor for robot moving on legs | |
US20090148035A1 (en) | Controller of mobile robot | |
KR100959472B1 (ko) | 로봇 장치 및 로봇 장치의 제어 방법 | |
EP1486299B1 (en) | Operation control device for leg-type mobile robot and operation control method, and robot device | |
JP4805818B2 (ja) | 移動ロボットの歩容生成装置 | |
US20120158182A1 (en) | Walking control apparatus and method of robot | |
KR100912688B1 (ko) | 이동 로봇의 제어장치 | |
US9833899B1 (en) | Adaptive response to load | |
JP2004223712A (ja) | 歩行式ロボット及びその位置移動方法 | |
US8483876B2 (en) | Controller of mobile robot | |
JP4914703B2 (ja) | 脚式移動ロボットの制御装置 | |
Nicholson et al. | Llama: Design and control of an omnidirectional human mission scale quadrupedal robot | |
JP4485887B2 (ja) | 脚式移動ロボットの力センサ異常検知装置 | |
JP2002210681A (ja) | 脚式移動ロボットのための動作制御装置及び動作制御方法、並びにロボット装置 | |
KR100816135B1 (ko) | 각식 이동 로봇 | |
Shieh et al. | Design of a biped locomotion controller based on adaptive neuro-fuzzy inference systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20090902 Termination date: 20201211 |
|
CF01 | Termination of patent right due to non-payment of annual fee |