CN1982000B - 自主移动机器人以及自主移动机器人的物品运送方法 - Google Patents
自主移动机器人以及自主移动机器人的物品运送方法 Download PDFInfo
- Publication number
- CN1982000B CN1982000B CN2006101656738A CN200610165673A CN1982000B CN 1982000 B CN1982000 B CN 1982000B CN 2006101656738 A CN2006101656738 A CN 2006101656738A CN 200610165673 A CN200610165673 A CN 200610165673A CN 1982000 B CN1982000 B CN 1982000B
- Authority
- CN
- China
- Prior art keywords
- robot
- control
- article
- situation
- under
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1641—Programme controls characterised by the control loop compensation for backlash, friction, compliance, elasticity in the joints
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39005—Feedback for stability of manipulator, felt as force reflection
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39195—Control, avoid oscillation, vibration due to low rigidity
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39241—Force and vibration control
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39473—Autonomous grasping, find, approach, grasp object, sensory motor coordination
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39484—Locate, reach and grasp, visual guided grasping
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40014—Gripping workpiece to place it in another place
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40042—Control tilting angle of surface carried by robot
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40073—Carry container with liquid, compensate liquid vibration, swinging effect
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40571—Camera, vision combined with force sensor
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
- Instructional Devices (AREA)
- Toys (AREA)
Abstract
本发明提供自主移动机器人以及自主移动机器人的物品运送方法,使自主移动机器人能够从取得源主动地接受物品,通过抑振控制抑制摇摆并进行运送,可靠地送到目的地。物品的运送使用规定的规格的运送容器。运送容器包括用于图像识别的图形和形状适于把持的把持部分。机器人包括:把持位置识别单元,其从取得源的图像来识别规定规格的运送容器的适于把持的规定位置,该规定规格的运送容器承载要运送的物品;把持控制单元,其进行将机器人掌部驱动到运送容器的规定位置,并把持规定位置的控制;以及把持成功与否判定单元,其基于作用于机器人掌部的来自所述物品的外力判定由双手进行的把持是否成功。
Description
技术领域
本发明涉及可自主移动的机器人,更详细地说,本发明涉及使该机器人的手把持物体而进行运送的技术。
背景技术
近年来,进行了各种使可自主移动的机器人运送物品的试验。例如,本申请人已经提出了在机器人从人那里接受物品时能够进行接受动作而不会给人带来不适感的物品运送系统(参照专利文献1)。该系统的机器人包括把持物品的可开闭的把持部、检测作用于把持部的外力的外力检测单元、检测把持部的开度的开度检测单元以及自主移动单元等,能够从人那里接受物品并到达人或放置场所等目的地。在把持部未把持物品的状态下检测出第一规定值以上的外力的情况下,使把持部开始接受动作,在接受动作中,基于检测到的把持部的外力和开度中的至少一个,判定物品的取得动作完毕。
[专利文献1]日本特愿2004-361467号(段落0151~0175,图13~图28)
但是,在以往的专利文献1的系统中,是以机器人从人那里接受物品(以下,称作‘被动接受’)为前提。即,在机器人从人那里接受物品时,需要人将物品的位置与机器人伸出的把持部(相当于人的手)对齐,以某一程度的力来进行按压。因此,给机器人物品的人需要对机器人伸出的把持部付出某一程度的注意力来使其把持物品,所以需要花费工夫,虽然其很少。
此外,在机器人把持所接受的物品移动到目的地时,由于每前进一步,把持部都振动,因此难以运送饮料等液体,特别是难以在没有加盖的状态下进行运送。
考虑到以上的方面,在从人那里给机器人物品时,如果机器人主动地接受被放置在规定的位置的物品或人伸出的物品(暂时称作‘主动接受’)而不需要人伴随注意定位的辅助动作,就很理想了。
此外,如果能够在从取得源到目的地的运送中抑制把持部的振动(暂时称作‘抑振控制’),则对于液体的运送也是很理想的。
发明内容
从而,本发明的课题在于提供一种能够从取得源主动地接受物品,通过抑振控制来抑制运送中的物品的摇摆并进行运送,而且可靠地将物品送到目的地的机器人。
本发明的课题在于提供一种可自主移动的机器人从取得源主动地(无需人的辅助)接受物品,通过抑振控制来抑制运送中的物品的摇摆并进行运送,而且可靠地将物品送到目的地的物品运送方法。
为了解决上述课题,方案1记载的发明中,自主移动机器人,其包括把持物品的可开闭的机器人掌部、照相机、自主移动单元、以及实现将物品从取得源运送到目的地的控制单元,该自主移动机器人的特征在于,所述控制单元包括:把持位置识别单元,其根据由所述照相机拍摄的所述取得源的图像识别规定规格的运送容器的适于把持的规定位置,该规定规格的运送容器承载了要运送的物品;把持控制单元,其进行将所述机器人掌部移动到所述运送容器的所述规定位置并把持该规定位置的控制;接受动作完成判定单元,其在机器人掌部正在接受物品的状态下,判定接受动作是否完成,在6轴力传感器检测的X轴方向的力为规定值(Fx2)以下的情况下,判定为接受动作完成,在等待接受状态下,在机器人掌部的开度为规定值以下的情况下,即把持角度偏差为规定值(θ1)以下的情况下,判定为接受动作完成;把持成功与否判定单元,其基于作用于所述机器人掌部的来自所述物品的反作用力(Fy)判定是否由双手进行所述把持,在来自物品的反作用力(Fy)为规定值以上的情况下,判定为把持成功;以及抑振控制单元,其在至所述目的地的运送中进行用于抑制所述机器人掌部的振动的反馈控制。
根据该结构,由于识别运送容器的规定位置,将机器人掌部驱动到运送容器的规定位置来把持规定位置,并基于作用于机器人掌部的外力来判定由双手进行的把持是否成功,所以能够可靠地取得运送容器而无需借助人的帮助。
根据该结构,由于在运送中抑制机器人掌部的振动,所以能够抑制 物品的摆动并进行运送,因此也能够进行液体等的运送。
方案2记载的机器人的特征在于,所述抑振控制单元包括:致动器控制部,其针对使关节活动的每个致动器设置,驱动控制各致动器,所述关节决定所述机器人掌部的动作;提取单元,其根据对所述机器人掌部作用的所述外力来求施加于所述机器人掌部的加速度分量,从所述加速度分量中仅提取所述致动器控制部能响应的分量;以及施加单元,其通过规定的运算将由所述提取单元提取出的分量划分为每个致动器的信号,将所划分的各信号施加到对应的致动器控制部的速度控制环中。
根据该结构得到与方案1同样的效果。
方案3记载的机器人的特征在于,所述加速度分量包含施加于所述机器人掌部的铅直方向的力以及施加于所述机器人掌部的绕机器人的左右方向的轴的力矩中的至少一种。
根据该结构,由于能够减少要处理的分量,所以能够使结构简单。
方案4记载的机器人的特征在于,该自主移动机器人包括:接受/交付高度决定单元,其根据所述目的地的载置所述运送容器的放置场所的高度来决定目标位置;机器人掌部移动单元,其将把持的所述运送容器放到所述目标位置;以及交付完毕判定单元,其基于作用于所述机器人掌部的所述外力,判定所述运送容器的设置是否完毕。
根据该结构,由于根据放置场所的高度决定目标位置,将把持的运送容器放到所述目标位置,基于来自力传感器的检测值判定运送容器的设置是否完毕,所以能够将运送容器放置到放置场所而无需借助人的帮助。
方案5记载的机器人的特征在于,该自主移动机器人还包括设置成功与否判定单元,该设置成功与否判定单元在所述运送容器的设置完成之前,基于所述机器人掌部是否降落到规定的高度来判定是否设置成功。
根据该结构,由于如果在设置完毕前,机器人掌部下降到规定的高度,则判定为设置失败,所以通过将规定的高度设定为接近机器人掌部的可动区域的下限,可以省去无用的动作。
方案6记载的机器人的特征在于,所述控制单元还包括在所述取得源为人的情况下判定所述人的交付的熟练度的熟练度判定单元,所述把持控制单元根据所述熟练度来调整动作速度。
根据该结构,由于根据人的熟练度来调整把持控制的动作速度,所以能够对于被判定为熟练度低的人不会带来不安感,并且对于被判定为 熟练度高的人不使其感到麻烦。
进而,方案7记载的发明的物品运送方法,该物品运送方法使自主移动机器人将物品从取得源搬送到目的地,所述自主移动机器人包括把持物品的可开闭的把持部、照相机、以及自主移动单元,该物品运送方法的特征在于,所述物品运送方法包括:把持位置识别步骤,根据由所述照相机拍摄到的所述取得源的图像来识别适于承载要运送的物品的规定规格的运送容器的把持的规定位置;把持控制步骤,进行将所述把持部移动到所述运送容器的所述规定位置,并把持该规定位置的控制;接受动作完成判定步骤,其在机器人掌部正在接受物品的状态下,判定接受动作是否完成,在6轴力传感器检测的X轴方向的力为规定值(Fx2)以下的情况下,判定为接受动作完成,在等待接受状态下,在机器人掌部的开度为规定值以下的情况下,即把持角度偏差为规定值(θ1)以下的情况下,判定为接受动作完成;把持成功与否判定步骤,基于作用于所述把持部的反作用力(Fy)判定由双手进行所述把持,在来自物品的反作用力(Fy)为规定值以上的情况下,判定为把持成功;以及抑振控制步骤,在至所述目的地的运送中进行用于抑制所述把持部的振动的反馈控制。
根据该结构,由于识别运送容器的规定位置,将把持部驱动到运送容器的规定位置来把持规定位置,并基于作用于把持部的外力来判定把持是否成功,所以能够可靠地取得运送容器而无需借助人的帮助。
根据本发明,通过利用图像信息能够从取得源取得运送容器而无需借助人的帮助。此外,通过在运送中抑制把持部的振动而能够抑制物品的摇摆并进行运送,所以也能够进行液体等的运送。
图1是表示本发明的实施方式的机器人控制系统的系统结构图。
附图说明
图2是表示图1的机器人R的外观的侧视图。
图3是示意地表示图1的机器人R的机构上的结构的立体图。
图4是表示图1的机器人R的内部结构的功能方框图。
图5是表示机器人的把持部的立体图,(a)表示手指打开状态,(b)表示手指关闭状态。
图6是表示机器人的把持部、开度检测单元以及外力检测单元的方框图。
图7是表示图4的主控制部以及存储部的方框图。
图8是表示本发明的物品运送所使用的运送容器的图。
图9是表示机器人R把持运送容器M的样子的立体图。
图10是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示取得源为人的情况下的向取得位置的移动的流程图。
图11是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示取得源为场所的情况下的向取得位置的移动的流程图。
图12是表示机器人移动到接受位置(取得源为人的情况)的状态的图。
图13是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示取得源为人的情况下的接受动作的流程图。
图14是表示机器人将把持部伸到接受高度的状态的俯视图。
图15是表示机器人将把持部伸到接受高度的状态的图。
图16是表示机器人开始接受物品的状态的图。
图17是表示机器人完成物品的接受的状态的图。
图18是用于说明判定是否把持成功的图,(a)是表示把持成功状态的图,(b)以及(c)是表示把持失败的状态的图。
图19是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示物品的重新接受准备的流程图。
图20是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示目的地为人的情况下的运送移动的流程图。
图21是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示目的地为场所的情况下的运送移动的流程图。
图22是表示本发明的一个实施方式的具有把持部71的抑振控制功能的图4的臂部控制部152的结构例的大略方框图。
图23是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示目的地为场所的情况下的设置动作的一例的流程图。
图24是表示本发明的实施方式的机器人控制系统的物品运送作业 的流程图,是表示目的地为场所的情况下的设置动作的另一例的流程图。
图25是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示在图20中没有将运送容器M交给人的情况下放置于物品放置处的动作的流程图。
图26是表示本发明的抑振控制的效果的一例的曲线图。
图27是表示图22的电机控制/驱动部401~407的内部结构的一例的框线图。
具体实施方式
以下,通过本发明的实施方式和附图详细地说明本发明。
另外,在多个附图中表示相同的要素的情况下赋予同一参照符号。
(机器人控制系统A的结构)
首先,说明本发明的实施方式的机器人控制系统A。图1是表示本发明的实施方式的机器人控制系统的系统结构图。
如图1所示,机器人控制系统A包括:配置在任务执行区域(机器人运转区域)EA的1台以上(本实施方式中为1台)机器人R;通过无线通信与这些机器人R连接的基站(例如无线LAN)1;通过路由器2连接到基站1的机器人管理装置(例如,服务器)3;以及通过网络4连接到机器人管理装置3的终端5。
机器人R被配置在任务执行区域EA,在任务执行区域EA内进行自主移动,基于执行命令信号来执行物品运送等任务。另外,在该任务执行区域EA内设有放置要运送的物品的物品放置处B1以及一个以上目的地即目的地物品放置处C1~C3。物品放置处B1、C1~C3例如是桌子或柜台等。此外,任务执行区域EA中有佩戴检测用的标签T、进行与机器人R之间的物品交接的人H。机器人R在没能发现交付物品的人H的情况等,例如,可以将物品放置于物品放置处C3。
机器人管理装置3基于从后述的终端5输入的任务数据,使机器人R执行任务,因此生成包含了该任务的内容的执行命令信号并输出给机器人R。该任务数据是与使机器人R执行的任务有关的数据,例如,包 括:将物品交给机器人R的人、机器人R交付物品的人、要运送的物品的种类等。
终端5是用于对机器人管理装置3输入任务数据的输入装置,是台式计算机、PHS等。此外,终端5也有用于使人可识别地输出从机器人R传送的行动报告信号(任务完成报告信号)的输出(显示)装置。
(机器人R的结构)
接着,说明本发明的实施方式的机器人R。在以下的说明中,在机器人R的前后方向上取X轴,在左右方向上取Y轴,在上下方向上取Z轴(参照图2)。
本发明的实施方式的机器人R是自主移动型的双足移动机器人。该机器人R基于从机器人管理装置3发送的执行命令信号来执行任务。
图2是表示图1的机器人的外观的示意图。如图2所示,机器人R与人同样通过两个腿部R1(仅图示一个)站立、移动(走路、跑步等),具有上体部R2、两个臂部R3(仅图示一个)以及头部R4,自主进行移动。此外,机器人R以背负的形式在后背(上体部R2的后部)具有控制装置搭载部R5,该控制装置搭载部R5搭载了用于控制这些腿部R1、上体部R2、臂部R3以及头部R4的动作的控制装置。
(机器人R的驱动结构)
接着说明机器人R的驱动结构。图3是示意地表示图2的机器人的驱动结构的立体图。另外,图3中的关节部通过驱动该关节部的电机来表示。
(腿部R1)
如图3所示,左右各个腿部R1包括6个关节部11R(L)~16R(L)。左右共12个的关节由以下部分构成:胯部(腿部R1和上体部R2的连接部分)的腿部旋转用(围绕Z轴)的胯关节部11R、11L(将右侧设为R,将左侧设为L。此外,有时也不附加R、L。以下相同。)、围绕胯部的仰俯(pitch)轴(Y轴)的胯关节部12R、12L、围绕胯部的摇摆(roll)轴(X轴)的胯关节部13R、13L、围绕膝部的仰俯轴(Y轴)的膝关节部14R、14L、围绕脚踝的仰俯轴(Y轴)的踝关节部15R、15L、以及 围绕脚踝的摇摆轴(X轴)的踝关节部16R、16L。而且,在腿部R1下方安装有足部17R、17L。
即,腿部R1包括胯关节部11R(L)、12R(L)、13R(L),膝关节部14R(L)以及踝关节部15R(L)、16R(L)。胯关节部11R(L)~13R(L)和膝关节部14R(L)由大腿连杆51R、51L连接,膝关节部14R(L)和踝关节部15R(L)、16R(L)由小腿连杆52R、52L连接。
(上体部R2)
如图3所示,上体部R2是机器人R的基体部分,与腿部R1、臂部R3以及头部R4连接。即,上体部R2(上体连杆53)经由胯关节部11R(L)~13R(L)与腿部R1连接。此外,上体部R2经由后述的肩关节部31R(L)~33R(L)与臂部R3连接。此外,上体部R2经由后述的颈关节部41、42与头部R4连接。
此外,上体部R2包括上体旋转用(围绕Z轴)的关节部21。
(臂部R3)
如图3所示,左右各个臂部R3具有7个关节部31R(L)~37R(L)。左右共14个关节部由以下部分构成:围绕肩部(臂部R3和上体部R2的连接部分)的仰俯轴(Y轴)的肩关节部31R、31L、围绕肩部的摇摆轴(X轴)的肩关节部32R、32L、臂部旋转用(围绕Z轴)的肩关节部33R、33L、围绕肘部的仰俯轴(Y轴)的肘关节部34R、34L、手臂旋转用(围绕Z轴)的臂关节部35R、35L、围绕手臂的仰俯轴(Y轴)的手臂关节部36R、36L以及围绕手臂的摇摆轴(X轴)的手臂关节部37R、37L。而且,在臂部R3的前端安装有把持部(手)71R、71L。
即,臂部R3包括肩关节部31R(L)、32R(L)、33R(L)、肘关节部34R(L)、臂关节部35R(L)以及手臂关节部36R(L)、37R(L)。肩关节部31R(L)~33R(L)和肘关节部34R(L)通过上臂连杆54R(L)连接,肘关节部34R(L)和手臂关节部36R(L)、37R(L)通过下臂连杆55R(L)连接。
(头部R4)
如图3所示,头部R4包括围绕颈部(头部R4和上体部R2的连接 部分)的Y轴的颈关节部41、围绕颈部的Z轴的颈关节部42。颈关节部41用于设定头部R4的倾斜角,颈关节部42用于设定头部R4的平面。
通过这样的结构,左右的腿部R1提供合计12个自由度,通过以适当的角度驱动移动中的12个关节部11R(L)~16R(L),可以对腿部R1提供所期望的动作,机器人R能够任意地在三维空间中移动。此外,左右的臂部R3提供合计14个自由度,通过以适当的角度驱动移动中的14个关节部31R(L)~37R(L),机器人R能够进行所期望的作业。
此外,踝关节部15R(L)、16R(L)和足部17R(L)之间设有公知的6轴力传感器61R(L)。6轴力传感器61R(L)检测从地面对机器人R作用的地面反作用力的三个方向分量Fx、Fy、Fz和力矩的三个方向分量Mx、My、Mz。
此外,手臂关节部36R(L)、37R(L)和把持部71R(L)之间设有公知的6轴力传感器62R(L)。6轴力传感器62R(L)检测作用于对机器人R的把持部71R(L)的反作用力的三个方向分量Fx、Fy、Fz和力矩的三个方向分量Mx、My、Mz。
此外,在上体部R2设有倾斜传感器63。倾斜传感器63检测对于上体部R2的重力轴(Z轴)的斜率及其角速度。
此外,各关节部的电机通过对其输出进行减速、增力的减速器(未图示)使所述大腿连杆51R(L)、小腿连杆52R(L)等相对位移。这些各关节部的角度由关节角度检测单元(例如,回转式编码器)进行检测。
控制装置搭载部R5容纳有后述的自主移动控制部150、把持部控制部160、无线通信部170、主控制部200、电池(未图示)等。各传感器61~63等的检测数据被传送到控制装置搭载部R5内的各控制部。此外,各电机由来自各控制部的驱动指示信号进行驱动。
图4是表示图1的机器人的功能方框图。如图4所示,机器人R除了腿部R1、臂部R3以及头部R4之外,还包括照相机C1、C2、扬声器S、传声器MC1、MC2、图像处理部100、声音处理部110、对象检测部120、自主移动控制部150、把持部控制部160、无线通信部170、主控制部200以及存储部300。另外,自主移动控制部150、把持部控制部160 以及主控制部200构成方案的控制单元。
此外,机器人R包括陀螺仪传感器SR1以及GPS接收器SR2。
陀螺仪传感器SR1检测与机器人R的朝向有关的数据(朝向数据)。此外,GPS接收器SR2检测与机器人R的位置有关的数据(位置数据)。陀螺仪传感器SR1以及GPS接收器SR2检测出的数据被输出到主控制部200,用于决定机器人R的行动,同时从主控制部200经由无线通信部170被发送到机器人管理装置3。
[照相机]
照相机C1、C2可以将图像作为数字数据取入,例如使用彩色CCD(Charge-Coupled Device,电荷耦合装置)照相机。照相机C1、C2左右平行地排列配置,所拍摄的图像被输出到图像处理部100。该照相机C1、C2和扬声器S以及传声器MC1、MC2都配置在头部R4的内部。
[图像处理部]
图像处理部100对照相机C1、C2拍摄的图像进行处理,根据拍摄的图像掌握机器人R的周围状况,因此是进行周围的障碍物或人的识别的部分。该图像处理部100包括立体处理部101、移动体提取部102以及脸识别部103。
立体处理部101以左右的照相机C1、C2拍摄的两个图像的一个作为基准进行图形匹配,计算左右的图像中的对应的各像素的视差而生成视差图像,并对移动体提取部102输出所生成的视差图像以及原来的图像。另外,该视差表示从机器人R到拍摄的物体之间的距离。
移动体提取部102基于从立体处理部101输出的数据,提取拍摄到的图像中的移动体。提取移动的物体(移动体)是为了推定移动的物体为人而进行人的识别。
为了进行移动体的提取,移动体提取部102存储过去的多帧(画面)的图像,比较最新的帧(图像)和过去的帧(图像),进行图形匹配,计算各像素的移动量,并生成移动量图像。然后,根据视差图像和移动量图像,在离照相机C1、C2规定的距离范围内,在存在移动量多的像素的情况下,推定为在该位置存在人,作为仅该规定距离范围的视差图像而 提取移动体,并对脸识别部103输出移动体的图像。
此外,移动体提取部102计算提取出的移动体的高度即身高,输出到脸识别部103。
即,移动体提取部102可以确定人相对于机器人R的位置,是方案中的‘人位置确定单元’的一例。
此外,移动体提取部102可以计算人的身高。
脸识别部103从提取出的移动体提取肤色的部分,根据其大小、形状等识别脸的位置。另外,同样也根据肤色的区域和大小、形状等来识别手的位置。
识别出的脸的位置作为机器人R移动时的信息且为了取得与该人的通讯而被输出到主控制部200,同时被输出到无线通信部170,经由基站1被发送到机器人管理装置3。
[扬声器]
扬声器S基于由后述的声音合成部111生成的声音数据输出声音。
[传声器]
传声器MC1、MC2用于收集机器人R的周围的声音。被收集的声音被输出到后述的声音识别部112以及音源定位部113。
[声音处理部]
声音处理部110包括声音合成部111、声音识别部112以及音源定位部113。
声音合成部111是基于主控制部200决定并输出的讲话行动的指令,根据文字信息生成声音数据,并对扬声器S输出声音的部分。声音数据的生成时,利用预先存储的文字信息和声音数据之间的对应关系。
声音识别部112从传声器MC1、MC2输入声音数据,基于预先存储的声音数据和文字信息之间的对应关系,根据声音数据生成文字信息,并输出到主控制部200。
音源定位部113基于传声器MC1、MC2之间的声压差以及声音的到达时间差,确定音源的位置(离机器人R的距离以及方向)。
[对象检测部]
对象检测部120检测在机器人R的周围是否存在具有检测用标签T的检测对象H,同时在检测到检测对象H的存在的情况下,确定该检测对象H的位置。关于对象检测部120,在专利文献1中已经详细地进行了说明,这里,由于在此之上详细叙述便会脱离本发明的主旨,所以省略进一步的说明。
[自主移动控制部]
如图4所示,自主移动控制部150包括头部控制部151、臂部控制部152以及腿部控制部153。
头部控制部151按照主控制部200的指示驱动头部R4,臂部控制部152按照主控制部200的指示驱动臂部R3,腿部控制部153按照主控制部200的指示驱动腿部R1。这些自主移动控制部150、头部R4、臂部R3以及腿部R1的组合是方案中的‘自主移动单元(自主移动装置)’的一例。
[把持部控制部]
把持部控制部160按照主控制部200的指示驱动把持部71。
[无线通信部]
无线通信部170是进行与机器人管理装置3之间的数据收发的通信装置。无线通信部170包括公共线路通信装置171以及无线通信装置172。
公共线路通信装置171是利用携带电话线路或PHC(PersonalHandyphone System,个人移动电话系统)线路等公共线路的无线通信单元。另一方面,无线通信装置172是符合IEEE802.11b标准的无线LAN等近距离无线通信的无线通信单元。
无线通信部170按照来自机器人管理装置3的连接要求,选择公共线路通信装置171或无线通信装置172来与机器人管理装置3进行数据通信。
[把持部]
接着,参照图5至图6进一步详细说明机器人R的把持部71R(L)。图5(a)是表示机器人的把持部的立体图,是表示手指打开状态的图。图5(b)是表示机器人的把持部的立体图,是表示手指关闭状态的图。 图6是表示机器人的把持部、开度检测单元以及6轴力传感器的方框图。另外,一对把持部71R、71L镜面对称,图5(a)以及图5(b)中示出左侧的把持部71L。以下,根据情况使用略去了R、L的符号进行说明。
如图5所示,把持部71包括掌部72、第一指部73、第二指部74。
掌部72通过手臂关节部36、37连接到下臂连杆55(参照图3)。
第一指部73是相当于人的拇指的部分,通过第一指关节部73a连接到掌部72的基端侧。
第二指部74是相当于人的食指、中指、无名指、小指的部分,经由第二指关节部74a连接到掌部72的前端侧。
此外,掌部72内内置有用于驱动第一指部73的第一指部用电机73b和用于驱动第二指部74的第二指部用电机74b。此外,掌部72中内置有检测第一指部角度α(第一指部73和掌部72的角度)的第一指部角度检测单元83和检测第二指部角度β(第二指部74和掌部72的角度)的第二指部角度检测单元84(参照图6)。
第一指部角度α是第一指部73和掌部72所构成的角度,从手指打开状态向手指关闭状态而增大。该第一指部角度α在图5(a)所示的手指打开状态(把持时全开)为α1,在图5(b)所示的手指关闭状态(把持时全闭)下为α2(α1≤α≤α2)。
第二指部角度β是第二指部74和掌部72所构成的角度,从手指打开状态向手指关闭状态而增大。该第二指部角度β在图5(a)所示的手指打开状态(把持时全开)为β1(=0),在图5(b)所示的手指关闭状态(把持时全闭)为β2(0≤β≤β2)。
这里,作为与把持部71的开度有关的数值,将相对于第一指部角度α以及第二指部角度β的把持角度偏差θ如下定义。
θ=(α2-α)+(β2-β)
即,把持角度偏差θ是表示把持部71相对于全闭状态的打开程度(开度)的数值,在手指关闭状态(把持时全闭)下,最小值为θmin=0,在手指打开状态(把持时全开)下,最大值为θmax=α2+β2。
在把持部71把持了物品的状态下,由于成为手指关闭状态之前的状 态下各指部73、74停止,所以把持角度偏差θ取正值。把持角度偏差θ具有被把持的物品的厚度越大则其值越大的特征。
此外,本实施方式的机器人控制系统A采用6轴力传感器62作为检测物品作用于把持部71的外力的外力检测单元。该6轴力传感器62也可以检测外力的方向。因此,从物品作用于把持部71的外力中,可分别检测X轴方向的力Fx、Y轴方向的力Fy、Z轴方向的力Fz。从而,即使物品重的情况下,也可以除去物品的重力引起的Z轴方向的力,可检测人要交付或接收物品而引起的外力(在本实施方式中为Fx)。
(主控制部200以及存储部300)
接着,参照图7说明图4的主控制部200以及存储部300。图7是表示图4的主控制部以及存储部的方框图。
(存储部)
如图7所示,存储部300包括人数据存储部310、地图数据存储部320、物品数据存储部330以及讲话数据存储部340。
人数据存储部3 10将与位于作为任务执行区域EA的办公室内的人有关的数据(人数据)与各个人相关联地进行存储。
作为人数据,包含与人识别号(ID)、姓名、所属、标签识别号、通常所在处、桌子位置、脸图像等有关的数据。
地图数据存储部320存储有与任务执行区域EA的地形(墙壁位置、桌子位置等)有关的数据(地图数据)。
物品数据存储部330将与使机器人R运送的物品有关的数据(物品数据)与各个物品相关联地进行存储。
作为物品数据包含有与物品识别号、物品的名称、大小、重量等有关的数据。
讲话数据存储部340存储有机器人R用于讲话的数据(讲话数据)。
(主存储部)
如图7所示,主存储部200包括行动管理单元210、人确定单元220、移动行动决定单元230、接受/交付行动决定单元240以及计时单元250。
(行动管理单元)
行动管理单元210取得从机器人管理装置3发送的执行命令信号,基于该执行命令信号控制人确定单元220、移动行动决定单元230以及接受/交付行动决定单元240。
此外,行动管理单元210将由陀螺仪传感器SR1检测出的机器人R的朝向数据,由GPS接收器SR2检测到的机器人R的位置数据等输出给机器人管理装置3。
此外,行动管理单元210向机器人管理装置3输出用于报告机器人R的任务执行状况的行动报告信号。
(人确定单元)
人确定单元220基于人数据存储部310中存储的人信息、由对象检测部120取得的标签T的标签识别号,确定由对象检测部检测到的人(检测对象)是谁。由于人数据存储部310中关联地存储有该人的姓名和该人固有的标签T的标签识别号,所以通过参照这些数据和执行命令信号,机器人R附近的人能够判定是否是与任务执行有关系的人。
进而,人确定单元220基于由移动体提取部102提取出的移动体的位置数据和由对象检测部120检测到的检测对象的位置数据,确定照相机C1、C2拍摄到的移动体是谁。
(移动行动决定单元)
移动行动决定单元230用于决定机器人R的自主移动的内容,包括移动路径决定单元231以及接受/交付位置决定单元232。
移动路径决定单元231基于任务执行命令信号、机器人R的位置数据、机器人R的朝向数据、人数据、地图数据,决定机器人R的移动路径。
接受/交付位置决定单元232基于由移动体提取部102检测出的移动体(人)的位置数据,决定机器人R的接受/交付位置。
接受/交付位置决定单元232决定接受/交付位置时,移动路径决定单元231决定机器人R的移动路径,以便移动到该接受/交付位置。该接受/交付位置是能够在机器人R和人之间良好地进行物品的接受/交付的位置,使用预先设定的距离a1(参照图12)决定。
(接受/交付行动决定单元)
接受/交付行动决定单元240用于决定把持部71伴随物品运送作业的行动(动作)内容,包括:接受方法决定单元241、接受/交付高度决定单元242、接受开始判定单元243、接受动作完成判定单元244、把持成功与否判定单元245、交付开始判定单元246、交付完成判定单元247、运送状态设定单元248以及熟练度判定单元249、把持位置识别单元261、把持控制单元262、把持部移动单元263以及设置成功与否判定单元264。
接受方法决定单元241基于执行命令信号、物品数据存储部330中存储的物品数据决定接受方法。
作为本实施方式的机器人R可选择的接受方法,有一手接受以及双手接受的两种。
一手接受是机器人R的一个把持部71R(或71L)接受物品的接受方法。双手接受是机器人R的两个把持部71R、71L接受物品的接受方法。接受方法决定单元241基于物品数据的大小或重量选择这两种类中的一个。例如,考虑在接受A4尺寸的文件等、可双手接受的大小的物品的情况下进行双手接受,在接受不能双手接受的大小的小尺寸的物品的情况下进行一手接受。
(接受/交付高度决定单元)
在接受/交付动作的对象为人的情况下,接受/交付高度决定单元242基于由移动体提取单元102计算出的人的身高,决定把持部71的伸出高度a3(参照图15)。该伸出高度是在机器人R和人之间良好地进行物品的接受/交付的高度,基于计算出的身高选择预先设定的三个级别高度中的某一个。
而且,接受/交付高度决定单元242通过自主移动控制部150将把持部71伸出到高度a3,同时从人到把持部71为止的距离为距离a2,进而,伸出把持部71,使得与由移动体提取部102计算出的人的中心(中心铅直线)一致(参照图14、图15)。
(接受开始判定单元)
接受开始判定单元243判定是否是人将物品伸出到机器人R可接受 的位置,并且机器人R可开始接受动作,在判定为可开始接受动作的情况下,使把持部71开始接受动作。
接受开始判定单元243在把持部71未把持物品的状态,详细地说,在后述的等待接受状态下,在6轴力传感器62检测出的X轴方向的力Fx为规定值Fx1(第一规定值)以上的情况下,判定为可开始接受动作,通过把持部控制部160驱动把持部71,进行手指关闭动作。
这是利用了要对机器人R交付物品的人对掌部72按压物品的情况的控制。
(接受动作完成判定单元)
接受动作完成判定单元244在把持部71正在接受物品的状态下,判定接受动作是否完成。
在6轴力传感器62检测的X轴方向的力Fx为规定值Fx2(第二规定值;Fx2≤Fx1)以下的情况下,该接受动作完成判定单元244判定为接受动作完成。
这是利用了要对机器人R交付物品的人判定为机器人R接受了物品而松手时物品按压到掌部72上的力减少的情况的控制。
此外,在等待接受状态下,在把持部71的开度为规定值以下的情况下,即把持角度偏差θ为规定值θ1(第三规定值)以下的情况下(例如,θ=0),接受动作完成判定单元244判定为接受动作完成。
接受动作完成判定单元244在判定为接受动作完成的情况下,通过把持部控制部160驱动把持部71,在手指关闭方向上产生转矩,从而把持物品。
(把持成功与否判定单元)
把持成功与否判定单元245判定物品的把持是否成功。
在本实施方式中,把持成功与否判定单元245在进行双手接受的情况下、通过臂部控制部152使把持部71R、71L接近或远离。而且,基于6轴力传感器62检测的来自物品的反作用力Fy,判定把持部71R、71L两个是否正在把持物品。
在来自物品的反作用力Fy为规定值以上的情况下,该把持成功与否 判定单元245判定为把持成功。
(交付开始判定单元)
在机器人R将物品伸出到人能接受的位置的状态下,交付开始判定单元246判定人是否要接受物品,在判定为人要接受物品的情况下,使把持部71开始交付动作。
在后述的等待交付状态下,在6轴力传感器62检测的X轴方向的力Fx为规定值Fx3以上的情况下,交付开始判定单元246判定为可开始交付动作,通过把持部控制部160驱动把持部71,并进行手指打开动作。
这是利用了要从机器人R接受物品的人拉拽物品的情况的控制。
此外,在等待交付状态下,在把持部71的开度为规定值以下的情况下,即把持角度偏差θ为规定值θ2以下的情况下(例如,θ=0),交付开始判定单元246判定为可开始接受动作。
这是利用了由于要从机器人R接受物品的人拉拽物品,物品被从把持部71取走,把持部71通过把持转矩而关闭的情况的控制。
(交付完成判定单元)
在后述的交付中状态下,由6轴力传感器62检测的X轴方向的力Fx为规定值Fx4(Fx4≤Fx3)以下的情况下,交付完成判定单元247判定为交付动作完成。
这是利用了由于人完全地接受物品,从而物品对把持部71产生的外力Fx减小的情况的控制。
(运送状态设定单元)
运送状态设定单元248检测把持部71的状态,并进行设定、更新。
作为把持部71的状态有以下的状态。
1:自由...不依赖于物品运送任务的状态
2:等待接受...伸出把持部,等待人交付物品的状态
3:接受中...人交付物品并进行物品的接受的状态
4:接受动作完成...人从物品处松手,物品(认为)被送到机器人侧的状态
5:把持成功与否判定...判定机器人是否成功把持物品的状态
6:接受失败...机器人接受物品失败的状态
7:把持完成...机器人接受物品成功,并把持了物品的状态
8:等待交付...伸出把持部,并等待人接受物品的状态
9:交付中...人接受物品并进行物品的交付的状态
10:交付完成...人完全接受物品,并且物品传送到人侧的状态
11:错误...在搬送中掉下物品的状态等
(熟练度判定单元)
熟练度判定单元249判定与接受/交付动作有关的人的熟练度。
熟练度判定单元249使用作为设置在主控制部200内的时钟的计时部250测定从等待接受状态转移到接受中状态所需的时间或从等待接受状态转移到接受中状态所需的时间。然后,基于所测定的时间的长度判定人的熟练度。这里,从测定时间短的一方起依次判定为熟练度高、熟练度中、熟练度低。
(把持位置识别单元)
把持位置识别单元261为了能进行以图像识别为主的把持动作,根据作为把持对象的物品的图像来识别适于物品的把持的部分。
(把持控制单元)
把持控制单元262进行将把持部71驱动到运送容器的规定的把持位置(规定位置)并把持规定位置的控制。
(把持部移动单元)
把持部移动单元263将所把持的物品或运送容器移动到根据设置场所的高度求得的目标位置。
(设置成功与否判定单元)
设置成功与否判定单元264在物品或运送容器的设置完成之前,判定把持部是否降落到规定的高度。在把持部降落到规定的高度的情况下,判定为设置失败。
把持部控制部160基于该熟练度设定手指关闭、手指打开动作的速度。即,在机器人R对被判定为熟练度低的人进行接受/交付动作的情况下,使把持部71减慢手指关闭、手指打开动作,使得不对人带来不安感。
此外,在机器人R对被判定为熟练度高的人进行接受/交付动作的情况下,接受/交付行动决定单元240使把持部71加速手指关闭、手指打开动作,从而不使人感到烦躁。
此外,接受/交付行动决定单元240根据该熟练度决定讲话行动,基于讲话数据使扬声器S进行讲话。
(机器人的动作例子)
接着,说明本发明的优选的实施方式的机器人R的物品运送动作。这里,以机器人R收到‘从取得源取得容纳了物品的规定规格的运送容器并将运送容器送到目的地’的任务相关的执行命令信号的情况为例进行说明。
根据本发明,物品载置或容纳在托盘等运送容器上来运送。图8是表示本发明的物品运送所使用的运送容器的一例的图,图8(a)是从上面观看运送容器M的图,(b)是从箭头SP的方向观看(a)所示的容器M的图,(c)是从背面观看容器M的图。在图8中,容器M通过具有载置或容纳物品或物品的容器的凹部M1,考虑在运送中物品不会在运送容器M上摆动或滑动。此外,运送容器M优选具有适于机器人R的把持部把持的形状,以使机器人R容易把持规定的位置(或把持部分)M3。例如,在图8的例子中,如(a)所示,运送容器M的表面被加工成使得相当于拇指的第一指部73不滑动,如(c)所示,在背面具有第二指部74容易搭钩的凸形状。
此外,在运送容器M的表面附加规定的图像识别用图形M2以使机器人R容易进行图像识别。在图8的例子中,作为规定的图形M2,贴有本公司的机器人名——‘ASIMO’的标识,但图形M2不限于此,只要是与运送容器M的底色不同的颜色且是任意的颜色的任意的标记或图形,可以是任意的。运送容器M的颜色为了运送容器M的识别,优选与放置运送容器M的放置处B1、C1~C3的表面颜色不同的颜色,进而,为了把持动作而优选与把持部71的颜色也不同的颜色。
进而,运送容器M的把持部分的高度h优选比把持部71的第二指部74的厚度高。图9表示机器人R把持运送容器M的状态的一例。
另外,在以下的说明中,由于作为运送容器M以运送饮料的托盘为例进行说明,也可以代替运送容器M而称作托盘M。
此后,依次说明向运送容器M的取得源移动的取得位置移动动作、从取得处取得运送容器M的取得动作、取得并把持运送容器M并运送到目的地的运送动作、以及将运送容器M放置到目的地的物品放置处的设置动作。
(取得位置移动动作)
图10是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示取得源为人的情况下的向取得位置的移动的流程图。
首先,机器人R在设定于任务执行区域EA的原位置进行等待(步骤S1)。
机器人R接收到从机器人管理装置3发送的执行命令信号时(步骤S2中为“是”),机器人R开始从原位置向人H1的通常所在处(以下记载为‘第一通常所在处’。)的移动(步骤S3)。到达人H1的通常所在处后(步骤S4中为“是”),机器人R中止移动,开始人H1的搜索(步骤S5)。
对象检测部120检测人H1的标签识别号(步骤S6中为“是”),机器人R由照相机C1、C2取得人H1的图像(步骤S7中为“是”),如图12所示,向人H1的正面移动(步骤S8)。图12中示出机器人R移动到由接受/交付位置决定单元232决定的接受位置的状态。
另外,对象检测部120在规定的时间内没有检测到人H1的标签识别号的情况下(步骤S9中为“是”),机器人R生成用于传达行动管理单元210不能执行任务的意思的行动报告信号,并对机器人管理装置3输出,同时移动到原位置(步骤S10)。
此外,图11是表示取得源为场所的情况下的向取得位置的移动的流程图。图11的流程图除了图10的虚线框由步骤S11以及S12取代之外,与图10的流程图相同,所以仅说明不同点。在图11中,接着步骤S4,在步骤S11中,得到目标场所(例如,图1的C1等)的图像,在判定步骤S12中,判定是否有托盘。在有托盘的情况下(“是”的情况),进至 步骤S8,如果没有则进至步骤S10。
(取得动作)
接着说明机器人R的接受动作。作为物品的取得源,可以是桌子等物品放置处(例如图1的B1)、也可以是人。图13是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示取得源为人的情况下的接受动作的流程图。
如图14以及图15所示,移动到取得位置的机器人R将手指打开状态的把持部71(71R、71L)伸出到由接受/交付高度决定单元242决定的接受高度(步骤S21)。
如图14以及图15所示,机器人R将把持部71R、71L伸出到由接受/交付高度决定单元242决定的高度a3,同时将把持部71R、71L伸出为从人H1到把持部71R、71L的距离为距离a2。进而,机器人R使把持部71R、71L的伸出方向与移动体提取部102计算出的人H1的中心(中心铅直线)一致。
把持部71R、71L的伸出完成后,运送状态设定单元248将运送状态设定为‘等待接受’,同时机器人R例如说出‘请交付托盘M’等,从而促使交付运送容器M(步骤S22)。
然后,在步骤S23中,确认运送容器M的位置,在步骤S24中,判定运送容器M的位置的变化是否未到规定值。通过该判定,判定人正在伸出托盘M还是伸出到某一位置而处于大致停止的状态。在步骤S24中,在位置的变化大于规定值的情况下(“否”的情况),判定为正在伸出,返回步骤S23。在位置的变化小于规定值的情况下(“是”的情况),判断为人的伸出动作大致完成,并进至步骤S25。
把持位置识别单元261对托盘M的把持部分M3进行图像识别(步骤S25),把持控制单元262将把持部71向托盘M的把持部分M3移动,在步骤S26中,6轴力传感器62R、62L的检测值Fx或Fy是否大于规定的值Fx1或Fy1。如果不大于规定的值(“否”的情况),判定为把持部71没碰到托盘M的把持部分M3,并返回步骤S25。在判定步骤S26中为“是”的情况下,判定为把持部71碰到托盘M的把持部分M3,并进 至步骤S27,运送状态设定单元248将运送状态设定为‘接受中’,同时机器人R开始关闭把持部71R、71L。图16中示出机器人R开始了托盘M的接受的状态。
然后,在接受中状态下,机器人R做出如下动作:由6轴力传感器62R、62L检测的力Fx为Fx2′以下或把持角度偏差θ为θ1以下时(步骤S28中“是”),运送状态设定单元248将运送状态设定为‘接受动作完成’(步骤S29),同时如图17所示,把持部71R、71L把持托盘M。
接着,把持成功与否判定单元245判定把持部71R、71L的开度(步骤S30)。
在两个把持部71R、71L的开度,即把持角度偏差θ为规定值θ3(第四规定值)以上(条件D1)的情况下,判定为托盘M厚、两个把持部71R、71L把持了托盘M,运送状态设定单元248将运送状态设定为‘把持完成’(步骤S31)。
在把持部71R、71L的至少一个的把持角度偏差θ小于规定值θ3(条件D2)的情况下,运送状态设定单元248将运送状态设定为‘判定是否把持成功’(步骤S32),同时把持成功与否判定单元245判定把持的成功与否(步骤S33)。
详细地说,机器人R使把持部71R、71L接近或远离,由6轴力传感器62R、62L检测从托盘M作用的反作用力Fy。在反作用力Fy为规定值Fy1′以上的情况下(条件D3),把持成功与否判定单元245判定为把持成功,运送状态设定单元248将运送状态设定为‘接受动作完成’,同时把持部71R、71L把持托盘M。
此外,在反作用力Fy小于规定值Fy1′的情况下(条件D4),把持成功与否判定单元245判定为把持失败,运送状态设定单元248将运送状态设定为‘接受失败’。
这里,参照图18说明是否把持成功判定。
如图18(a)所示,在两个把持部71R、71L正在把持托盘M的情况下,使把持部71R、71L接近时,产生托盘M引起的反作用力Fy(规定值Fy1′以上)(条件D3)。
如图18(b)所示,在仅是把持部71R、71L的一个(这里为把持部71R)正在把持托盘M的情况下,即使让把持部71R、71L接近,托盘M引起的反作用力Fy也是非常小的值(规定值Fy2以上,并且小于规定值Fy1′。Fy2≤Fy<Fy1′)(条件D5)。
如图18(c)所示,在两个把持部71R、71L未把持托盘M的情况下,即使让把持部71R、71L接近,也不产生托盘M引起的反作用力Fy(Fy=0)。
从而,在反作用力Fy为规定值Fy1′以上的情况下,把持成功与否判定单元245判定为把持成功,从而能够判定机器人R是否正以双手(把持部71R、71L)把持物品。
另外,这里,说明了取得源为人的情况下的取得动作,但通过省略图13的流程图的虚线部分(步骤S22~S24),图13的接受流程图也可以应用于取得源为书桌、柜台、桌子等场所的情况。在该情况下,在步骤S21中,机器人R需要将把持部71伸出得比取得源的物品放置处高。
这样,根据本发明,即使取得源为人的情况下,也能够取得托盘M而无需人的辅助。
(重新接受准备)
接着,说明机器人R的重新接受准备。图19是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示物品的重新接受准备的流程图。
把持成功与否判定单元245判定为把持失败时(图13的步骤S33中条件D4),运送状态设定单元248将把持状态设定为‘接受失败’而成为重新接受状态(步骤S41),把持成功与否判定单元245判定把持部71R、71L的状态(步骤S42)。在是否把持成功判定动作中,6轴力传感器62R、62L的至少一个检测到规定值Fy2以上的外力Fy的情况下(步骤S42中条件D5),运送状态设定单元248将运送状态设定为‘交付状态’,机器人R说出‘请接受托盘M并再次交付’(步骤S43)。
然后,机器人R进行如下动作:6轴力传感器62R、62L中正在把持托盘M的一个检测出规定值Fx5以上的外力Fx时(步骤S44中为“是”), 运送状态设定单元248将运送状态设定为‘交付中’,同时把持部71R、71L被打开(步骤S45)。然后,转移到步骤S22并再次执行接受动作。
另外,在步骤S42中,在是否把持成功判定动作中,在把持部71R、71L的把持角度偏差θ为规定值θ4以下的情况下(例如,θ=0)(条件D6),机器人R说出‘请再次交付托盘M’,把持部71R、71L被打开(步骤S45)。然后,转移到图13的步骤S22并再次执行接受动作。
(运送动作)
接着,说明机器人R的物品运送移动。图20是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示目的地为人的情况下的运送移动的流程图。
在步骤S28(图13)中,物品把持完成后,机器人R将把持部71R、71L移动到偏离了照相机C1、C2的拍摄区域的位置(死角)(步骤S61)。这是为了防止被把持的托盘M妨碍照相机C1、C2的视场。
机器人R在移动/把持部抑振控制步骤中,开始从接受位置向接受人的通常所在处(以下记载为‘第二通常所在处’。)的运送(步骤S62)。然后,在到达接受人的第二通常所在处之前(只要步骤S63中还仍为“否”),继续运送。
根据本发明,机器人R在以把持了物品或托盘M的状态进行移动的情况下(即,物品运送中),进行用于抑制把持部的振动的抑振控制。因此,在适当的定时(例如,图13的步骤S21等)中,在不把持物品的状态下,将臂部R3设为把持并运送时的姿势,存储6轴力传感器62R、62L的检测值Fx0、Fy0、Fz0、Mx0、My0、Mz0(将这暂时称作‘校准值’)。进而,例如在把持完成的步骤S3 1中,在把持物品或承载了物品的托盘M而静止的状态下,存储6轴力传感器62R、62L的检测值Fx1′、Fy1″、Fz1、Mx1、My1、Mz1(将这暂时称作‘物品加重值’)。
图22是表示本发明的一个实施方式的具有把持部71的抑振控制功能的图4的臂部控制部152的结构例的大略方框图。机器人R具有结构相对于左右的臂部相同的臂部控制部,而将各臂部控制部简称为臂部控制部152。一般来说,机器人R的左右的各臂部R3具有肩关节(SJ)上 3个、肘关节(HJ)上1个以及手臂关节(RJ)上的3个共7个未图示的致动器,即肩关节电机SJM1~SJM3、肘关节电机HJM以及手臂关节电机RJM1~RJM3。在图22中,臂部控制部152包括:对于构成其控制的臂部R3的7个未图示的电机SJM1~SJM3、HJM以及RJM1~RJM3分别设置的控制/驱动部401~407;使6轴力传感器62检测出的6个检测值Fx、Fy、Fz、Mx、My、Mz各自通过的低通滤波器(1/(A·s+1))408(A是任意的时间常数);对6个低通滤波器408的输出作用本领域技术人员公知的雅可比矩阵(Jacobian Matrix)而得到对于7个电机控制/驱动部401~407的信号的分配部409。各电机控制/驱动部40i(i=1~7)包括:根据对于对应的电机的力的目标值TVfi(i=1~7)和位置的目标值TVpi(i=1~7)进行达标(compliance)控制的达标控制部(未图示);使用达标控制的输出和来自分配部409的对应的信号进行对应的电机的速度控制以及驱动的速度控制环(未图示)。低通滤波器408优选构成为仅使电机控制/驱动部401~407的未图示的速度控制环能够反应的分量通过。
进而,根据本发明,臂部控制部152具有用于在物品运送中进行把持部71的抑振控制的把持部抑振控制部410。把持部抑振控制部410根据所述存储的校准值Fx0、Fy0、Fz0、Mx0、My0、Mz0以及物品加重值Fx1″、Fy1″、Fz1、Mx1、My1、Mz1,还有运送中时时刻刻从6轴力传感器62R、62L检测的值Fx、Fy、Fz、Mx、My、Mz,计算对把持部71施加的6个加速度分量
Fx-(Fx1″-Fx0)
Fy-(Fy1″-Fy0)
Fz-(Fz1-Fz0)
Mx-(Mx1-Mx0)
My-(My1-My0)
Mz-(Mz1-Mz0)。
把持部抑振控制部410包括:仅使各加速度分量中、所述电机控制/驱动部401~407的未图示的速度控制环能够反应的分量通过的低通滤波器 (1/(A·s+1))420(A是任意的时间常数);对该6个低通滤波器输出作用雅可比矩阵而得到对于7个电机控制/驱动部401~407的信号的分配部430;以及将分配部430的输出信号放大为适当的大小的放大器440。放大器440的输出被施加到对应的电机控制/驱动部40i(i=1~7)的未图示的速度控制环中。仅为参考而在图27中概念性地表示各电机控制/驱动部40i的结构例。在图27中,电机控制/驱动部40i(i=1~7)由下述部分构成:从所述力的目标值TVfi和位置的目标值TVpi之和减去分配部409的对应的输出的加减法器444;从加减法器444的输出减去来自后级的反馈量Fb1的减法器446;将减法器446的输出放大的放大器448;从把持部抑振控制部410的放大器440的输出和前级的放大器448的输出之和减去来自后级的反馈量Fb2的加减法器450;将加减法器450的输出放大的放大器452;提供将放大器452的输出进行了积分的输出值Fb2的积分元件454;以及提供对积分元件454的输出进行了积分的输出值Fb1的积分元件456。
在图22中,上述的计算加速度分量的部分和低通滤波器420所构成的模块415相当于方案的提取单元。分配部430、运算放大器440以及各电机控制/驱动部40i的加减法器450构成方案的施加单元。
另外,在所述分配部409以及430中,使用了雅可比矩阵,但不限于此,可以使用任意的适当的运算方式。
图26是表示本发明的抑振控制的效果的一例的曲线图。在图26中,(a)表示施加于把持部71的围绕Y轴的角速度的时间变化,(b)表示施加于把持部71的Z轴方向加速度的时间变化。在(a)以及(b)中,细线是不进行抑振控制的情况下的曲线,粗线是进行了抑振控制的情况下的曲线。在进行了抑振控制的情况下,在峰值时具有40%的抑振效果。
这样,根据本发明,通过在物品运送中进行把持部71的抑振控制,能够抑制把持部71、即运送中的物品的振动,并稳定地进行运送。
返回图20,机器人R到达接受人的第二通常所在处时(步骤S63中为“是”的情况)中止移动,并开始接受人的搜索(步骤S64)。
对象检测部120检测到接受人的标签识别号时(步骤S65中为“是”), 机器人R由照相机C1、C2取得接受人的图像(步骤S66中为“是”),移动到接受人的正面(步骤S67)。在步骤S67中,也优选进行所述抑振控制。然后,将托盘M交付给接受人(步骤S69),返回等待状态(图10的步骤S1)。另外,由于步骤S69的对人的交付可通过专利文献1中详细说明的方法进行,因此这里省略。
另外,对象检测部120在规定时间内没能检测到接受人的标签识别号的情况下(步骤S68中为“是”),控制过渡到图25的步骤S101。图25的说明在后面论述。
以上是目的地为人的情况下的运送动作,而通过图21说明目的地为场所的情况下的运送动作。图21的流程图与图20的共同点很多,所以仅说明不同点。在图21中,在判定步骤S63中判定为到达了目的地的情况下(“是”的情况),在步骤S74中取入目标场所的图像,在步骤S76中,在决定了物品或运送容器M的放置处之后,执行所述机器人位置对齐/把持部抑振控制步骤S67,进至图23或图24(设置动作流程图)的步骤S120。
(设置动作)
专利文献1中详细地说明了对于人的交付动作,但这里,说明设置处的高度高于机器人R的把持部71的可动范围的下限的情况下的设置动作。换言之,说明能够仅通过机器人R的臂部R3的动作进行设置的情况下的设置动作。图23是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示目的地为场所的情况下的设置动作的一例的流程图。
在图23中,首先移动到设置处中的位置(步骤S120),在步骤S121中,接受/交付高度决定单元242根据设置处(例如,指定的桌子)的高度Hs来设定目标位置Ht。例如,设定为Ht=Hs+w1(w1>托盘的高度)。设置处的高度Hs也可以从物品数据存储部330得到或还可以根据视觉信息进行推定。在步骤S122中,把持部移动单元263对臂部控制部152发出指令,以将把持部降落到目标位置Ht。在步骤S124中,根据视觉信息来判定把持部的高度Hh是否高于设置处的高度。在把持部的高度Hh高 于设置处的高度的情况下(“是”的情况),在步骤S126中,从当前的把持部的位置向桌子方向施加力,在判定步骤S128中,交付完成判定单元247判定力传感器的值是否为规定的值以上。若如此(“是”的情况),则由于物品的首尾正确地放置,所以在步骤S130中进行设置报告,在步骤S132中移动到原位置并进入等待状态。
在判定步骤S124中,在把持部的高度Hh与设置处的高度相等的情况下(“否”的情况),认为作为运送物的托盘已经接触到或放到设置处。因此,在判定步骤S134中,判定传感器的值是否为规定值以上。臂部控制部152由于要将把持部降落到目标位置Ht,所以反复进行判定步骤S134直到力传感器的值超过规定值为止。在力传感器的值超过了规定值的情况下(“是”的情况),由于物品的首尾正确地放置,所以进至步骤S130并进行所述动作。
另一方面,在判定步骤S128中,在力传感器的值不超过规定值的情况下(“否”的情况),在进一步的判定步骤S140中,设置成功与否判定单元264判定把持部的移动量是否超过了规定的值。在未超过的情况下(“否”的情况),返回步骤S126。在判定步骤S140中,在“是”的情况下,由于把持部仅通过臂部的动作就达到下降的界限,所以判定为设置失败。在该情况下,进行适当的失败处理(步骤S141),移动到原位置(步骤S142),返回等待状态(步骤S142)。
图24表示另一实施方式的设置动作。图24的流程图除了步骤S128的“否”分支以后的流程之外与图23的流程图相同,因此仅说明不同点。
在判定步骤S128中,在力传感器的值不超过规定的值的情况下(“否”的情况),在进一步的判定步骤S150中,也有通过设置成功与否判定单元264判定目标值变更次数是否达到了规定值的方法。该方法中,在目标值变更次数未达到规定值的情况下,在步骤S151中,将目标值Ht减少规定的值w2。即,设定为Ht=Ht-w2,返回步骤S122。在判定步骤S150中,在目标值变更次数达到规定的值的情况下(“是”的情况),也由于把持部仅通过臂部的动作就达到了下降的界限,所以判定为设置失败。
如上所述,根据本发的一个实施方式的设置动作,如果设置处的高度高于机器人R的把持部71的可动范围的下限,则可以将运送的物品或托盘M放置在设置处。
另外,在运送移动中,在机器人R掉落了托盘M的情况下,运送状态设定单元248将运送状态设定为‘错误’,同时行动管理单元210生成传达运送失败的行动报告信号,并输出给机器人管理装置3。
在本实施方式中,在把持角度偏差θ为规定值θ5以下的情况下(例如,θ=0),接受/交付行动决定单元240判定为机器人R掉落了托盘M。
此外,在运送移动中,在6轴力传感器62检测的Fx变化很大的情况下(例如,托盘M撞到障碍物),机器人R先停止自主移动并等待Fx返回到通常值。
同样,在运送移动中,照相机C1、C2检测到前方有障碍物的情况下(例如,人在机器人前面横穿),机器人R也先停止自主移动并等待障碍物从前方消失。
(物品放置处移动)
图25是表示本发明的实施方式的机器人控制系统的物品运送作业的流程图,是表示在图20中没有将运送容器M交给人的情况下放置于物品放置处的动作的流程图。
机器人R在规定时间内未能搜索到接受人的情况下(步骤S68中为“是”),机器人R进行从接受人的第二通常所在处向物品放置处B1的移动(步骤S101)。在该情况下,也优选进行所述抑振控制。
而且,机器人R通过所述设置动作将托盘M放置到物品放置处B1(步骤S102),同时生成传达将托盘M放到物品放置处B1的消息的行动报告信号,并输出到机器人管理装置3以及接受人专用的终端5(步骤S103)。然后,机器人R进行从物品放置处B1向原位置的移动(步骤S104)。
以上,只不过是为了说明本发明而举出的实施方式的例子。但是按照本发明的技术思想或原理对所述实施方式进行各种变更、修改或追加对于本领域技术人员来说是很容易的。
例如,在物品运送中,为了判定机器人是否掉落了物品也可以利用6轴力传感器检测出的Z轴方向的外力Fz。这是由于在机器人掉落了物品的情况下6轴力传感器不检测物品的负荷,导致Fz降低的缘故。
此外,机器人的各关节部的数量、配置等也可以适当地进行设计变更。
此外,在本实施方式中,结构为在机器人中组装的各控制部内设置接受/交付行动决定单元、人位置确定单元、接受/交付高度决定单元、身高确定单元、接受/交付高度决定单元以及人确定单元,但也可以是将这些各单元中的至少一个设置在机器人管理装置侧的结构。
图22所示的抑振控制部410中,使用了由6轴力传感器检测的所有分量,但由于6个分量中Fz以及My为重要的要素,所以也可以仅使用包含Fz以及My的分量。
Claims (7)
1.一种自主移动机器人,该自主移动机器人包括把持物品的可开闭的机器人掌部、照相机、自主移动单元、以及实现将物品从取得源运送到目的地的控制单元,该自主移动机器人的特征在于,
所述控制单元包括:
把持位置识别单元,其根据由所述照相机拍摄的所述取得源的图像识别规定规格的运送容器的适于把持的规定位置,该规定规格的运送容器承载了要运送的物品;
把持控制单元,其进行将所述机器人掌部移动到所述运送容器的所述规定位置,并把持该规定位置的控制;
接受动作完成判定单元,其在机器人掌部正在接受物品的状态下,判定接受动作是否完成,在6轴力传感器检测的X轴方向的力为规定值(Fx2)以下的情况下,判定为接受动作完成,在等待接受状态下,在机器人掌部的开度为规定值以下的情况下,即把持角度偏差为规定值(θ1)以下的情况下,判定为接受动作完成;
把持成功与否判定单元,其基于作用于所述机器人掌部的来自所述物品的反作用力(Fy)判定是否由双手进行所述把持,在来自物品的反作用力(Fy)为规定值以上的情况下,判定为把持成功;以及
抑振控制单元,其在至所述目的地的运送中进行用于抑制所述机器人掌部的振动的反馈控制。
2.如权利要求1所述的自主移动机器人,其特征在于,所述抑振控制单元包括:
致动器控制部,其针对使关节活动的每个致动器设置,驱动控制各致动器,所述关节决定所述机器人掌部的动作;
提取单元,其根据对所述机器人掌部作用的所述外力来求施加于所述机器人掌部的加速度分量,从所述加速度分量中仅提取所述致动器控制部能响应的分量;以及
施加单元,其通过规定的运算将由所述提取单元提取出的分量划分为每个致动器的信号,将所划分的各信号施加到对应的致动器控制部的速度控制环中。
3.如权利要求2所述的自主移动机器人,其特征在于,所述加速度分量包含施加于所述机器人掌部的铅直方向的力以及施加于所述机器人掌部的绕机器人的左右方向的轴的力矩中的至少一种。
4.如权利要求1所述的自主移动机器人,其特征在于,该自主移动机器人包括:
接受/交付高度决定单元,其根据所述目的地的载置所述运送容器的放置场所的高度来决定目标位置;
机器人掌部移动单元,其将把持的所述运送容器放到所述目标位置;以及
交付完毕判定单元,其基于作用于所述机器人掌部的所述外力,判定所述运送容器的设置是否完毕。
5.如权利要求4所述的自主移动机器人,其特征在于,该自主移动机器人还包括设置成功与否判定单元,该设置成功与否判定单元在所述运送容器的设置完成之前,基于所述机器人掌部是否降落到规定的高度来判定是否设置成功。
6.如权利要求1所述的自主移动机器人,其特征在于,
所述控制单元还包括在所述取得源为人的情况下判定所述人的交付的熟练度的熟练度判定单元,
所述把持控制单元根据所述熟练度来调整动作速度。
7.一种物品运送方法,该物品运送方法使自主移动机器人将物品从取得源搬送到目的地,所述自主移动机器人包括把持物品的可开闭的把持部、照相机、以及自主移动单元,该物品运送方法的特征在于,
所述物品运送方法包括:
把持位置识别步骤,根据由所述照相机拍摄到的所述取得源的图像来识别适于承载要运送的物品的规定规格的运送容器的把持的规定位置;
把持控制步骤,进行将所述把持部移动到所述运送容器的所述规定位置,并把持该规定位置的控制;
接受动作完成判定步骤,其在机器人掌部正在接受物品的状态下,判定接受动作是否完成,在6轴力传感器检测的X轴方向的力为规定值
(Fx2)以下的情况下,判定为接受动作完成,在等待接受状态下,在机器人掌部的开度为规定值以下的情况下,即把持角度偏差为规定值(θ1)以下的情况下,判定为接受动作完成;
把持成功与否判定步骤,基于作用于所述把持部的反作用力(Fy)判定由双手进行所述把持,在来自物品的反作用力(Fy)为规定值以上的情况下,判定为把持成功;以及
抑振控制步骤,在至所述目的地的运送中进行用于抑制所述把持部的振动的反馈控制。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005358355A JP4456561B2 (ja) | 2005-12-12 | 2005-12-12 | 自律移動ロボット |
JP2005358355 | 2005-12-12 | ||
JP2005-358355 | 2005-12-12 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1982000A CN1982000A (zh) | 2007-06-20 |
CN1982000B true CN1982000B (zh) | 2011-10-26 |
Family
ID=37898353
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006101656738A Expired - Fee Related CN1982000B (zh) | 2005-12-12 | 2006-12-12 | 自主移动机器人以及自主移动机器人的物品运送方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US7822508B2 (zh) |
EP (1) | EP1795313B1 (zh) |
JP (1) | JP4456561B2 (zh) |
KR (1) | KR100841075B1 (zh) |
CN (1) | CN1982000B (zh) |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1795314B1 (en) * | 2005-12-12 | 2009-10-21 | HONDA MOTOR CO., Ltd. | Legged mobile robot control system |
WO2007088735A1 (ja) * | 2006-02-02 | 2007-08-09 | Kabushiki Kaisha Yaskawa Denki | ロボットシステム |
JP5105147B2 (ja) * | 2006-08-28 | 2012-12-19 | 株式会社安川電機 | ロボットおよび制御方法 |
JP4316630B2 (ja) * | 2007-03-29 | 2009-08-19 | 本田技研工業株式会社 | ロボット、ロボットの制御方法およびロボットの制御プログラム |
JP4361132B2 (ja) * | 2007-07-05 | 2009-11-11 | パナソニック株式会社 | ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム |
JP5010382B2 (ja) * | 2007-07-27 | 2012-08-29 | 株式会社東芝 | マニピュレータおよびロボット |
JP4516592B2 (ja) * | 2007-12-06 | 2010-08-04 | 本田技研工業株式会社 | 移動型ロボット |
US8915692B2 (en) | 2008-02-21 | 2014-12-23 | Harvest Automation, Inc. | Adaptable container handling system |
KR101687626B1 (ko) * | 2010-01-06 | 2016-12-21 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP5494193B2 (ja) * | 2010-04-30 | 2014-05-14 | セイコーエプソン株式会社 | 把持ロボットおよび把持方法 |
US9107565B2 (en) | 2010-08-16 | 2015-08-18 | Fujitsu Limited | Identifying an event occurrence from sensor data streams |
US9386359B2 (en) * | 2010-08-16 | 2016-07-05 | Fujitsu Limited | Selecting metadata for sensor data streams |
KR101598773B1 (ko) * | 2010-10-21 | 2016-03-15 | (주)미래컴퍼니 | 수술용 로봇의 움직임 제어/보상 방법 및 장치 |
US9147173B2 (en) | 2011-10-31 | 2015-09-29 | Harvest Automation, Inc. | Methods and systems for automated transportation of items between variable endpoints |
KR101896473B1 (ko) * | 2012-01-04 | 2018-10-24 | 삼성전자주식회사 | 로봇 핸드의 제어 방법 |
US8937410B2 (en) | 2012-01-17 | 2015-01-20 | Harvest Automation, Inc. | Emergency stop method and system for autonomous mobile robots |
US8428777B1 (en) * | 2012-02-07 | 2013-04-23 | Google Inc. | Methods and systems for distributing tasks among robotic devices |
JP2013184273A (ja) | 2012-03-09 | 2013-09-19 | Sony Corp | ロボット装置及びロボット装置の制御方法、並びにコンピューター・プログラム |
US20140025230A1 (en) * | 2012-07-17 | 2014-01-23 | Elwha LLC, a limited liability company of the State of Delaware | Unmanned device interaction methods and systems |
US20140025233A1 (en) | 2012-07-17 | 2014-01-23 | Elwha Llc | Unmanned device utilization methods and systems |
US9150119B2 (en) | 2013-03-15 | 2015-10-06 | Aesynt Incorporated | Apparatuses, systems, and methods for anticipating and delivering medications from a central pharmacy to a patient using a track based transport system |
US9511945B2 (en) | 2012-10-12 | 2016-12-06 | Aesynt Incorporated | Apparatuses, systems, and methods for transporting medications from a central pharmacy to a patient in a healthcare facility |
CN103065540B (zh) * | 2012-12-31 | 2014-08-20 | 黑龙江大学 | 智能清障车 |
JP2014205198A (ja) * | 2013-04-10 | 2014-10-30 | セイコーエプソン株式会社 | ロボット、ロボット制御装置およびロボットシステム |
JP6354122B2 (ja) * | 2013-06-05 | 2018-07-11 | セイコーエプソン株式会社 | ロボット |
US9623560B1 (en) * | 2014-11-26 | 2017-04-18 | Daniel Theobald | Methods of operating a mechanism and systems related therewith |
US9592608B1 (en) * | 2014-12-15 | 2017-03-14 | X Development Llc | Methods and systems for providing feedback during teach mode |
JP6486114B2 (ja) | 2015-01-16 | 2019-03-20 | 株式会社東芝 | 荷役装置 |
KR101665578B1 (ko) | 2015-07-23 | 2016-10-12 | 한국콘베어공업주식회사 | 무인이송차량 |
KR101771047B1 (ko) | 2015-07-23 | 2017-09-05 | 한국콘베어공업주식회사 | 무인이송차량을 이용한 물품 이송시스템 |
CN105069437A (zh) * | 2015-08-14 | 2015-11-18 | 惠州Tcl移动通信有限公司 | 一种能够自动识别位置的智能系统及其实现方法 |
JP2017111790A (ja) * | 2015-12-10 | 2017-06-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 移動制御方法、自律移動ロボット及びプログラム |
US9694494B1 (en) | 2015-12-11 | 2017-07-04 | Amazon Technologies, Inc. | Feature identification and extrapolation for robotic item grasping |
US9919422B1 (en) | 2016-01-06 | 2018-03-20 | X Development Llc | Methods and systems to provide mechanical feedback during movement of a robotic system |
US10928792B2 (en) * | 2016-07-25 | 2021-02-23 | Leridge Corporation | Parallel manufacturing systems and methods |
JP6514156B2 (ja) * | 2016-08-17 | 2019-05-15 | ファナック株式会社 | ロボット制御装置 |
US11194334B2 (en) * | 2016-11-30 | 2021-12-07 | Panasonic Intellectual Property Corporation Of America | Autonomous mobile device, autonomous delivery system, delivery method, and non-transitory recording medium |
WO2018156288A1 (en) * | 2017-02-27 | 2018-08-30 | Walmart Apollo, Llc | Systems, devices, and methods for in-field authenticating of autonomous robots |
JP6673276B2 (ja) * | 2017-03-28 | 2020-03-25 | カシオ計算機株式会社 | 音声検出装置、音声検出方法、及びプログラム |
WO2018195938A1 (zh) * | 2017-04-28 | 2018-11-01 | 深圳市元征科技股份有限公司 | 一种工厂置物车的自动行驶方法及装置 |
US10769448B2 (en) * | 2017-05-31 | 2020-09-08 | Panasonic I-Pro Sensing Solutions Co., Ltd. | Surveillance system and surveillance method |
CN107186732A (zh) * | 2017-07-06 | 2017-09-22 | 重庆瑞景信息科技有限公司 | 用于儿童娱乐的拟人机器人 |
CN107278946B (zh) * | 2017-08-09 | 2020-04-14 | 苏州阿甘机器人有限公司 | 一种用于宠物喂食的家用机器人及其工作方法 |
CN107697649A (zh) * | 2017-08-31 | 2018-02-16 | 广州泰行智能科技有限公司 | 一种多流水线的机械臂控制方法和装置 |
CN107720290A (zh) * | 2017-08-31 | 2018-02-23 | 广州泰行智能科技有限公司 | 一种单机械臂的多位置输出控制方法和装置 |
KR102463806B1 (ko) | 2017-11-09 | 2022-11-07 | 삼성전자주식회사 | 이동이 가능한 전자 장치 및 그 동작 방법 |
JP6969408B2 (ja) * | 2018-01-24 | 2021-11-24 | トヨタ自動車株式会社 | 配送システム |
JP7109207B2 (ja) * | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
EP3793780A4 (en) * | 2018-05-18 | 2022-10-05 | Corindus, Inc. | REMOTE COMMUNICATION AND CONTROL SYSTEM FOR ROBOTIC INTERVENTION PROCEDURES |
US10471591B1 (en) | 2018-06-01 | 2019-11-12 | X Development Llc | Object hand-over between robot and actor |
JP7318655B2 (ja) * | 2018-10-05 | 2023-08-01 | ソニーグループ株式会社 | 情報処理装置、制御方法及びプログラム |
JP7225659B2 (ja) | 2018-10-11 | 2023-02-21 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
EP3653348A1 (en) * | 2018-11-19 | 2020-05-20 | Tata Consultancy Services Limited | System and method for intelligent 3d imaging guided robotic gripper |
CN109573526A (zh) * | 2018-12-29 | 2019-04-05 | 北京艾瑞思机器人技术有限公司 | 搬运控制方法及搬运机器人 |
KR102179309B1 (ko) | 2019-01-29 | 2020-11-16 | 울산과학기술원 | 캘리브레이션 장치 |
EP3831546A4 (en) * | 2019-03-15 | 2022-03-23 | OMRON Corporation | GRIP POSITION AND ORIENTATION REGISTRATION DEVICE, GRIP POSITION AND ORIENTATION REGISTRATION METHOD, AND PROGRAM |
JP7308081B2 (ja) * | 2019-06-04 | 2023-07-13 | Thk株式会社 | 搬送システム |
US11597078B2 (en) * | 2020-07-28 | 2023-03-07 | Nvidia Corporation | Machine learning control of object handovers |
CN117120218A (zh) * | 2021-04-01 | 2023-11-24 | 直观外科手术操作公司 | 用于控制机器人操纵器或相关联工具的系统和方法 |
KR102390590B1 (ko) | 2022-01-26 | 2022-04-26 | 주식회사 플로틱 | 라쳇을 이용한 물체를 운반하기 위한 로봇 |
CN114770504B (zh) * | 2022-04-26 | 2024-01-30 | 深圳优地科技有限公司 | 机器人控制方法、装置、机器人及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6584375B2 (en) * | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
Family Cites Families (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1983002249A1 (en) * | 1981-12-24 | 1983-07-07 | Hans Richter | Mounting robot |
JPS58177295A (ja) * | 1982-04-07 | 1983-10-17 | 株式会社日立製作所 | ロボット制御装置 |
US4617502A (en) * | 1983-06-30 | 1986-10-14 | Hitachi, Ltd. | Method and apparatus for controlling a robot hand along a predetermined path |
US4946380A (en) * | 1989-05-30 | 1990-08-07 | University Of Southern California | Artificial dexterous hand |
US5373747A (en) * | 1991-03-30 | 1994-12-20 | Kabushiki Kaisha Toshiba | Robot hand and robot |
US6720949B1 (en) * | 1997-08-22 | 2004-04-13 | Timothy R. Pryor | Man machine interfaces and applications |
US6184868B1 (en) * | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
US6249780B1 (en) * | 1998-08-06 | 2001-06-19 | Yamaha Hatsudoki Kabushiki Kaisha | Control system for controlling object using pseudo-emotions and pseudo-personality generated in the object |
JP2000263481A (ja) | 1999-03-12 | 2000-09-26 | Meidensha Corp | ビンピッキング装置 |
JP3443077B2 (ja) * | 1999-09-20 | 2003-09-02 | ソニー株式会社 | ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット |
EP2017042B1 (en) * | 2000-11-20 | 2010-09-15 | Sony Corporation | Motion controller and motion control method for legged walking robot, and robot apparatus |
JP2002239963A (ja) * | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体 |
US20020165643A1 (en) * | 2001-05-04 | 2002-11-07 | Bancroft Allen John | Retail robot time share system |
US6580246B2 (en) * | 2001-08-13 | 2003-06-17 | Steven Jacobs | Robot touch shield |
US6667592B2 (en) * | 2001-08-13 | 2003-12-23 | Intellibot, L.L.C. | Mapped robot system |
JP3818897B2 (ja) * | 2001-11-29 | 2006-09-06 | 富士写真フイルム株式会社 | 脚式移動ロボット |
JP3914045B2 (ja) * | 2001-12-17 | 2007-05-16 | 本田技研工業株式会社 | 多指ハンド装置 |
KR100977348B1 (ko) * | 2002-03-15 | 2010-08-20 | 소니 주식회사 | 다리식 이동 로봇의 동작 제어 장치 및 동작 제어 방법 및 로봇 장치 |
DE60336992D1 (de) * | 2002-03-18 | 2011-06-16 | Sony Corp | Robotereinrichtung mit steuerverfahren |
JP3833567B2 (ja) * | 2002-05-01 | 2006-10-11 | 本田技研工業株式会社 | 移動ロボットの姿勢制御装置 |
AU2003272981A1 (en) * | 2002-10-10 | 2004-05-04 | Sony Corporation | Robot device operation control device and operation control method |
US7443115B2 (en) * | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
JP3599244B2 (ja) * | 2002-11-06 | 2004-12-08 | ソニー株式会社 | ロボット装置、ロボット装置の運動制御装置並びに運動制御方法 |
JP3951235B2 (ja) * | 2003-02-19 | 2007-08-01 | ソニー株式会社 | 学習装置及び学習方法並びにロボット装置 |
US7761184B2 (en) * | 2003-03-23 | 2010-07-20 | Sony Corporation | Robot apparatus and control method thereof |
CN100567098C (zh) * | 2003-05-21 | 2009-12-09 | 松下电器产业株式会社 | 物品管理系统和物品管理服务器 |
JP2004361467A (ja) * | 2003-06-02 | 2004-12-24 | Pioneer Electronic Corp | 表示装置及び方法 |
US7110882B2 (en) * | 2003-07-07 | 2006-09-19 | Robert Bosch Gmbh | Method for improving GPS integrity and detecting multipath interference using inertial navigation sensors and a network of mobile receivers |
JP3963162B2 (ja) | 2003-08-28 | 2007-08-22 | ソニー株式会社 | ロボット装置及びロボット装置の制御方法ロボット装置 |
JP2005153047A (ja) * | 2003-11-21 | 2005-06-16 | Fanuc Ltd | ロボットの関節装置。 |
JP2005167517A (ja) * | 2003-12-01 | 2005-06-23 | Olympus Corp | 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム |
JP2005219161A (ja) | 2004-02-05 | 2005-08-18 | Matsushita Electric Ind Co Ltd | ロボット把持制御装置及びロボット把持制御システム |
CN1942289A (zh) | 2004-04-16 | 2007-04-04 | 松下电器产业株式会社 | 机器人、提示输出装置、机器人控制系统、机器人控制方法、机器人控制程序及集成电路 |
WO2006006624A1 (ja) * | 2004-07-13 | 2006-01-19 | Matsushita Electric Industrial Co., Ltd. | 物品保持システム、ロボット及びロボット制御方法 |
WO2006013829A1 (ja) | 2004-08-02 | 2006-02-09 | Matsushita Electric Industrial Co., Ltd. | 物品運搬用ロボット、物品運搬システム、及び物品運搬方法 |
JP4317518B2 (ja) * | 2004-12-14 | 2009-08-19 | 本田技研工業株式会社 | 物品運搬システム |
-
2005
- 2005-12-12 JP JP2005358355A patent/JP4456561B2/ja not_active Expired - Fee Related
-
2006
- 2006-12-08 KR KR1020060124991A patent/KR100841075B1/ko active IP Right Grant
- 2006-12-11 US US11/636,597 patent/US7822508B2/en not_active Expired - Fee Related
- 2006-12-11 EP EP06025603A patent/EP1795313B1/en not_active Expired - Fee Related
- 2006-12-12 CN CN2006101656738A patent/CN1982000B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6584375B2 (en) * | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
Non-Patent Citations (2)
Title |
---|
MARK BECKER etc..GripSee:A Gesture-Controlled Robot for Object Perceptionand Manipulation.Antonomous Robots/ 6.1999,/(6),203-221. |
MARK BECKER etc..GripSee:A Gesture-Controlled Robot for Object Perceptionand Manipulation.Antonomous Robots/ 6.1999,/(6),203-221. * |
Also Published As
Publication number | Publication date |
---|---|
KR100841075B1 (ko) | 2008-06-24 |
CN1982000A (zh) | 2007-06-20 |
EP1795313A2 (en) | 2007-06-13 |
US20070152619A1 (en) | 2007-07-05 |
EP1795313A3 (en) | 2009-10-28 |
JP2007160447A (ja) | 2007-06-28 |
JP4456561B2 (ja) | 2010-04-28 |
KR20070062423A (ko) | 2007-06-15 |
EP1795313B1 (en) | 2011-10-05 |
US7822508B2 (en) | 2010-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1982000B (zh) | 自主移动机器人以及自主移动机器人的物品运送方法 | |
CN101628415B (zh) | 腿式移动机器人及其控制装置和控制方法 | |
KR100807449B1 (ko) | 레그식 로봇의 제어 장치 | |
Kagami et al. | Design and implementation of software research platform for humanoid robotics: H6 | |
CN100348383C (zh) | 机器人控制装置 | |
CN105858188A (zh) | 具备三维传感器的搬运机器人系统 | |
US10351189B2 (en) | Whole body manipulation on a legged robot using dynamic balance | |
JP4317518B2 (ja) | 物品運搬システム | |
Costanzo et al. | Handover control for human-robot and robot-robot collaboration | |
JP6258556B1 (ja) | 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法 | |
CN205184779U (zh) | 移动式专家互动咨询系统 | |
US11945106B2 (en) | Shared dense network with robot task-specific heads | |
WO2018185855A1 (ja) | 制御装置、ピッキングシステム、物流システム、プログラム、制御方法、及び、生産方法 | |
CN103502909A (zh) | 电子设备 | |
JP6363294B1 (ja) | 情報処理装置、ピッキングシステム、物流システム、プログラム、及び、情報処理方法 | |
Wang et al. | A pushing leader based decentralized control method for cooperative object transportation | |
JP2012187666A (ja) | ロボット制御装置、物品取り出しシステム、プログラムおよびロボットの制御方法 | |
Taira et al. | Design and implementation of reconfigurable modular humanoid robot architecture | |
TWI555524B (zh) | 機器人的行動輔助系統 | |
JP5899703B2 (ja) | ロボット | |
CN104038616A (zh) | 一种信息处理方法及通信设备 | |
Mizuuchi et al. | Adaptive pick-and-place behaviors in a whole-body humanoid robot with an autonomous layer based on parallel sensor-motor modules | |
KR102387778B1 (ko) | 매장 픽업 서비스를 제공하기 위한 로봇 시스템 및 그 방법 | |
Shelomentcev et al. | A teleoperation system to control the humanoid robot using an RGB-D sensor | |
JP2021070071A (ja) | 荷役制御装置及び荷役装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111026 Termination date: 20121212 |