CN111319039A - 机器人 - Google Patents

机器人 Download PDF

Info

Publication number
CN111319039A
CN111319039A CN201911218648.5A CN201911218648A CN111319039A CN 111319039 A CN111319039 A CN 111319039A CN 201911218648 A CN201911218648 A CN 201911218648A CN 111319039 A CN111319039 A CN 111319039A
Authority
CN
China
Prior art keywords
robot
target object
grasped
grasping
grasp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911218648.5A
Other languages
English (en)
Other versions
CN111319039B (zh
Inventor
池田拓也
寺田耕志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN111319039A publication Critical patent/CN111319039A/zh
Application granted granted Critical
Publication of CN111319039B publication Critical patent/CN111319039B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/06Programme-controlled manipulators characterised by multi-articulated arms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39484Locate, reach and grasp, visual guided grasping
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39536Planning of hand motion, grasping

Abstract

本发明涉及机器人。一种包括机械手的机器人,其包括:摄像获取单元,所述摄像获取单元被配置成获取包括要抓取的目标物体的环境空间的图像;以及控制单元,所述控制单元被配置成控制由机器人执行的运动,其中控制单元在它移动机器人使得机器人接近要抓取的目标物体时使机器人通过摄像获取单元来获取要抓取的目标物体的多个信息块,对于信息块中的每一个,通过使用学习模型来计算要抓取的目标物体的抓取位置和抓取位置的确定性的指标,并且尝试通过移动机械手来在基于计算的结果而选择的抓取位置处抓取要抓取的目标物体。

Description

机器人
技术领域
本公开涉及一种包括机械手的机器人,所述机械手抓取要抓取的目标物体。
背景技术
已知一种包括用于抓取要抓取的目标物体的机械手的移动机器人。日本未审查专利申请特开第2013-198943号公开一种技术,其中机器人在它接近要抓取的目标物体时被停止以通过视觉传感器来获取关于要抓取的目标物体的信息,然后识别装置通过使用所获取的信息来识别要抓取的目标物体,并且轨迹控制器基于识别的结果来创建用于抓取的计划。
发明内容
然而,在像在日本未审查专利申请特开第2013-198943号中公开的技术中的那样将机器人停止以获取关于要抓取的目标物体的信息的情况下,仅能够从一个方向上的视图获取关于要抓取的目标物体的信息。因此,有时不能适当地识别要抓取的目标物体的抓取位置。因此,此技术有抓取的成功率不是很高的问题。另外,由于停止机器人的移动以便获取关于要抓取的目标物体的信息,需要额外的时间来执行抓取。
已鉴于前述背景技术做出本公开,并且本公开目的旨在提供一种能够适当地识别要抓取的目标物体的抓取位置、然后提高抓取的成功率并且减少抓取所需要的时间的机器人。
第一示例性方面是一种包括机械手的机器人,机器人还包括:摄像获取单元,该摄像获取单元被配置成获取包括要抓取的目标物体的环境空间的摄像图像;以及控制单元,该控制单元被配置成控制由机器人执行的运动,其中控制单元在它移动机器人使得机器人接近要抓取的目标物体时使机器人通过摄像获取单元来获取要抓取的目标物体的多个摄像图像,对于从摄像图像获取的信息,通过使用学习模型来计算要抓取的目标物体的抓取位置和抓取位置的确定性的指标,并且尝试通过移动机械手来在基于计算的结果而选择的抓取位置处抓取要抓取的目标物体。
当关于要抓取的目标物体的信息是从其仅一个方向获取的时,在要抓取的目标物体的不可观察部分中可以存在更多所希望的抓取位置。通过在机器人正被移动时获取要抓取的目标物体的多个信息块,可以从其彼此不同的方向获取要抓取的目标物体的信息块。通过这样做,与关于要抓取的目标物体的信息是从其仅一个方向获取的情况相比较,可减少要抓取的目标物体的不可观察部分的数目。因此,可以适当地识别要抓取的目标物体的抓取位置。然后,通过使用学习模型来根据要抓取的目标物体的前述信息块计算出抓取位置及其似然性并且基于计算的结果来选择抓取位置,可以确定被估计为更希望抓取要抓取的目标物体的抓取位置,从而提高抓取的成功率。另外,在机器人正被移动以便接近要抓取的目标物体时获取关于要抓取的目标物体的信息,并且因此与机器人在它已接近要抓取的目标物体时被停止并且然后获取关于要抓取的目标物体的信息的情况相比较,可以减少抓取要抓取的目标物体所需要的时间。
另外,控制单元可以优先地选择与相对高的指标相对应的抓取位置并且尝试在所选择的抓取位置处抓取要抓取的目标物体。通过如上优先地选择与相对高的似然性相对应的抓取位置,可以确定被估计为更希望抓取要抓取的目标物体的抓取位置,从而提高抓取的成功率。
另外,当已获得高于预定阈值的指标时,控制单元可以尝试通过移动机械手来抓取要抓取的目标物体。如上所述,通过在已获得高于预定阈值的似然性时终止对关于要抓取的目标物体的信息的获取并且尝试抓取目标物体,可以进一步减少抓取所需要的时间。
另外,摄像获取单元优选地设置在机械手不妨碍关于要抓取的目标物体的视觉信息的位置处。通过这样做,在通过摄像获取单元获得的关于要抓取的目标物体的信息中,可以降低不能识别要抓取的目标物体的抓取位置的风险。
另外,摄像获取单元优选地设置在机械手的尖端处。机器人被配置为使得机械手的尖端可以被带至最靠近要抓取的目标物体。因此,通过将摄像获取单元设置在机械手的尖端处,可以以较高的准确度获取关于要抓取的目标物体的信息。
另外,信息可以是关于通过合成由摄像获取单元获取的要抓取的目标物体的多个摄像图像而创建的三维(3D)图像的图像数据。
根据本公开,可以适当地识别要抓取的目标物体的抓取位置,然后提高抓取的成功率,并且减少抓取所需要的时间。
根据在下文给出的详细描述和仅作为图示给出的附图,本公开的上述及其它目的、特征和优点将变得被更充分地理解,并且因此不应被认为是限制本公开。
附图说明
图1是根据实施例的控制装置被应用于的机器人的透视图;
图2是示出机器人的控制配置的框图;
图3是示出控制装置控制机器人抓取要抓取的目标物体的运动的处理过程的流程图;
图4是用于通过使用监督学习作为示例来说明用于使非学习神经网络学习的方法的示意图;
图5是用于更具体地说明图3的步骤S101中的处理的示意图;
图6是示出机器人在它在它可抓取要抓取的目标物体的范围内接近的同时获取关于要抓取的目标物体的信息的示例的示意图;以及
图7是用于说明控制单元控制机器人抓取要抓取的目标物体的运动的处理过程的变型例1的流程图。
具体实施方式
在下文中,将基于以下实施例描述本公开。然而,权利要求书中阐述的本公开不旨在限于以下实施例。此外,不绝对地有必要提供作为用于解决问题的手段的要在以下实施例中描述的所有配置。为了描述的清楚起见,以下描述和附图被适当地省略和简化。在所有附图中相同的元件通过相同的附图标记来表示,并且必要时避免重复性描述。
首先,描述根据此实施例的控制装置被应用于的机器人的配置。
图1是根据此实施例的控制装置被应用于的机器人100的透视图。在图1中,xy平面是机器人100的行进表面,而z轴正方向指示天顶方向。如图1中所示,机器人100主要包括作为用于在行进表面上移动的移动机构的可移动基体部110、主体部120以及作为抓取机构的机械手230。机械手230包括机器人臂130和机器人手140。
可移动基体部110在其圆柱形外壳内部支撑两个主动轮111和脚轮112,其中的每一个均与行进表面接触。两个主动轮111被布置为使得它们旋转轴的中心彼此重合。主动轮111中的每一个均由电机(未示出)彼此独立地旋转驱动。脚轮112是从动轮并且被设置为使得其在垂直方向上从可移动基体部110延伸的枢转轴将轮支撑在远离其旋转轴的位置处。另外,脚轮112跟随可移动基体部110的移动以便在可移动基体部110的移动方向上移动。机器人100在例如两个主动轮111在相同的方向上以相同的旋转速度旋转时直线前进,而在例如两个主动轮111在相反的方向上以相同的旋转速度旋转时绕通过可移动基体部110的两个主动轮111的中心的垂直轴转动。
主体部120支撑机器人臂130并且包括形成用户界面的一部分的显示面板123。显示面板123例如是液晶面板,并且显示角色的面部并示出关于机器人100的信息。显示面板123包括在其显示表面上的触摸面板,并且可接收从用户输入的指令。
由主体部120支撑的机器人臂130包括多个连杆,例如,如图1中所示的两个连杆,并且可以通过驱动设置在关节部131(腕关节、肘关节、肩关节等)中的致动器以便旋转地耦合每个连杆来取得各种姿势。减速机构设置在每个关节部131中。机器人手140连接到机器人臂130的尖端,并且可通过绕平行于机器人臂130的尖端连杆延伸的方向的枢转轴驱动致动器来使整个机器人手140旋转。机器人手140包括第一指140a和第二指140b,所述第一指140a和第二指140b通过设置在其尖端处的致动器来驱动。第一指140a和第二指140b可通过像虚线所指示的那样移动以便彼此接近并且抓取目标物体来抓取。另外,控制箱190设置在主体部120中。控制箱190包括将稍后描述的控制单元、存储器等。
摄像获取单元250获取包括要抓取的目标物体的环境空间的摄像图像。摄像获取单元250设置在机械手230不妨碍关于要抓取的目标物体的视觉信息的位置处。注意的是,摄像获取单元250优选地设置在机械手230的尖端处。机器人100被配置为使得机械手230的尖端可被带至最靠近要抓取的目标物体。因此,通过将摄像获取单元250设置在机械手230的尖端处,可以以较高的准确度获取关于要抓取的目标物体的信息。
摄像获取单元250包括例如设置在主体部120中可观察包括机器人臂130和机器人手140的移动范围的环境空间的位置处的环境相机121以及设置在机器人臂130的尖端处的手部相机141。环境相机121和手部相机141包括摄像设备,所述摄像设备例如是CMOS图像传感器和图像数据生成单元。环境相机121输出通过拍摄它前面的环境空间而生成的图像数据。手部相机141输出通过拍摄机器人手140前面的空间而生成的图像数据。注意的是,摄像获取单元250没有必要包括多个相机,并且因此它可以包括仅一个相机。
图2是示出机器人100的控制配置的框图。根据此实施例的控制单元200被并入到机器人100中。也就是说,控制单元200例如是CPU,并且被容纳在主体部120的控制箱190(参见图1)中。驱动单元210包括驱动电路和用于驱动主动轮111(参见图1)的电机,并且设置在可移动基体部110(参见图1)中。
包括在机械手230中的机器人臂130除了包括参考图1描述的结构之外还包括用于驱动每个关节部131的致动器132、用于检测关于每个关节部131(参见图1)的旋转信息的旋转传感器134以及用于检测每个关节131的操作力(扭矩)的力传感器133。致动器132例如是伺服电机。旋转传感器134例如是编码器。力传感器133例如是用于检测每个关节部131的扭矩的扭矩传感器等。包括在机械手230中的机器人手140包括用于驱动第一指140a和第二指140b(参见图1)的致动器142以及用于检测机器人手140的操作力的力传感器143。
传感器单元220包括用于在移动时检测障碍物和来自外部的接触的各种传感器,并且以分布式方式设置在可移动基体部110和主体部120(参见图1)中。控制单元200通过向传感器单元220发送控制信号来驱动各种传感器并从它们获取输出。
如上所述,摄像获取单元250的环境相机121被用于观察其前面的包括机器人臂130和机器人手140的移动范围的环境空间,并且依照来自控制单元200的拍摄指令执行拍摄。环境相机121将所生成的图像数据传递到控制单元200。如上所述,手部相机141被用于观察机器人手140前面的空间,并且依照来自控制单元200的拍摄指令执行拍摄。手部相机141将所生成的图像数据传递到控制单元200。
存储器240是非易失性存储介质,并且例如,使用固态驱动器。存储器240除了存储用于控制机器人100的控制程序之外还可以存储被用于控制的各种参数值、功能、查找表等。
控制单元200控制机器人100的运动。也就是说,控制单元200通过向驱动单元210发送驱动信号来执行主动轮111的旋转控制。另外,控制单元通过向机器人臂130的致动器132和机器人手140的致动器142发送驱动信号来控制抓取要用机械手230抓取的目标物体的运动。将稍后描述由控制单元200执行的机器人100的运动控制的细节。
控制单元200从连接到因特网600的系统服务器500读取学习模型500a。控制单元200通过无线路由器700连接到因特网600。注意的是,系统服务器500连接到的网络不限于因特网并且可以是其它类型的网络,诸如内部网。
接下来,描述控制单元200控制机器人100抓取要抓取的目标物体的运动的处理过程。注意的是,在以下描述中适当地参考图1和图2。
图3是示出控制单元200控制机器人100抓取要抓取的目标物体的运动的处理过程的流程图。如图3中所示,首先,在机器人100正在被移动以便接近要抓取的目标物体时,由摄像获取单元250获取要抓取的目标物体的多个信息块直到预定时间流逝为止(步骤S101)。注意的是,“移动机器人100”包括所有以下情况:仅驱动作为移动机构的可移动基体部110的情况;仅驱动作为抓取机构的机械手230的情况;以及驱动可移动基体部110和机械手230两者的情况。
继步骤S101之后,对于所获取的要抓取的目标物体的信息块中的每一个通过使用学习模型来计算要抓取的目标物体的抓取位置和作为该抓取位置的确定性的指标的似然性(步骤S102)。注意的是,最大似然估计方法被用于学习模型。最大似然估计方法计算使似然函数最大化的参数及其似然性。似然性是指示从所获取的关于要抓取的目标物体的信息计算出的参数的确定性的程度的指标。注意的是,要计算的参数是抓取位置,并且似然性指示所计算出的抓取位置的确定性的程度。接下来,基于在步骤S102中执行的计算的结果来选择与最高似然性相对应的抓取位置,并且机械手230被移动以尝试在所选择的抓取位置处抓取要抓取的目标物体(步骤S103)。
继步骤S103之后,确定了要抓取的目标物体是否被成功地抓取(步骤S104)。当在步骤S104中确定了要抓取的目标物体被成功地抓取时,处理结束。当在步骤S104中确定了要抓取的目标物体未被成功地抓取时,确定了在通过步骤S102中执行的计算所获取的抓取位置当中是否存在尚未做出抓取尝试的剩余抓取位置(步骤S105)。
当在步骤S105中确定了在通过步骤S102中执行的计算所获取的抓取位置当中不存在尚未做出抓取尝试的剩余抓取位置时,处理结束。当在步骤S105中确定了在通过步骤S102中执行的计算所获取的抓取位置当中存在尚未做出抓取尝试的抓取位置时,与在先前时间中已做出抓取尝试的抓取位置的最高似然性之后的次最高似然性相对应的抓取位置被选择,并且机械手230被移动以尝试在所选择的抓取位置处抓取要抓取的目标物体(步骤S106)。然后,处理返回到步骤S104。如上所述,控制单元200优先地选择与相对高的似然性相对应的抓取位置并且尝试在所选择的抓取位置处抓取要抓取的目标物体。
接下来,描述在图3的步骤S102中使用的学习模型的学习方法的示例。注意的是,学习模型500a(参见图2)例如是神经网络。另外,如上所述,最大似然估计方法被用于学习模型。
图4是用于通过使用监督学习作为示例来说明用于使非学习神经网络(在下文中称为“非学习NN 500b”等)学习的方法的示意图。注意的是,监督学习是当要学习的数据具有预定正确的答案使得输入与输出之间的关系被学习时提前给出由要学习的数据(输入)及其正确的答案(输出)的组合构成的大量训练数据集的方法。
如图4中所示,由作为输入的要学习的图像数据161和作为输出的确定数据162的组合构成的训练数据集160由非学习NN 500b给出。注意的是,要学习的图像数据161是关于要抓取的各种类型的目标物体的图像数据,并且确定数据162是关于与要抓取的各个目标物体相对应的所希望的抓取位置的数据。多个训练数据集160是例如通过人用示教器等操作机器人100并且使机器人100重复抓取要抓取的目标物体的运动来提前获取的。通过这样做,非学习NN 500b在要抓取的目标物体的抓取运动中学习要学习的图像数据161与确定数据162之间的关系。增加训练数据集160的获取次数n使得能够改进学习模型500a的确定准确度。
接下来,更具体地描述图3的步骤S101中的处理。
图5是用于更具体地说明图3的步骤S101中的处理的示意图。如图5的上部中所示,机器人100的控制单元200(参见图2)使摄像获取单元250获取关于要在机器人100已开始被移动以便接近要抓取的目标对象的位置处抓取的目标物体W1的信息。此时,获取从通过箭头P1所指示的方向拍摄的要抓取的目标物体W1的图像数据。机器人100沿着通过虚线所指示的从路线计划获取的路线L1接近要抓取的目标物体。注意的是,诸如快速探索随机树(RRT)这样的已知方法可被用于路线计划。然后,控制单元200在它沿着路线L1移动机器人100的同时,使摄像获取单元250获取要抓取的目标对象的多个信息块直到预定时间流逝为止。预定时间例如由用户提前设置。
如图5的下部中所示,获取在机器人100正被沿着路线L1移动时从与通过箭头P1所指示的方向不同的通过箭头P2所指示的方向拍摄要抓取的目标物体W1的图像数据。如上所述,在机器人100正被沿着路线L1移动时,获取从彼此不同的多个方向中的每一个拍摄要抓取的目标物体W1的图像数据。
当通过仅使用要抓取的目标物体W1被从其一个方向拍摄的图像数据来确定被估计为希望抓取要抓取的目标物体W1的抓取位置时,在要抓取的目标物体W1的不可观察部分中可以存在更多所希望的抓取位置。通过使用从彼此不同的多个相应的方向拍摄要抓取的目标物体W1的图像数据片来确定被估计为希望抓取要抓取的目标物体W1的抓取位置,可减少要抓取的目标物体W1中的不可观察部分的数目。因此可以适当地识别要抓取的目标物体的抓取位置。
另外,在机器人100中,在机器人100正被移动以便接近要抓取的目标物体W1时获取关于要抓取的目标物体W1的信息。因此与机器人在它接近要抓取的目标物体时被停止并且然后获取关于要抓取的目标物体的信息的情况相比较,可以减少抓取要抓取的目标物体所需要的时间。
注意的是,当机器人100已在它可抓取要抓取的目标物体W1的范围内接近但是预定时间未流逝时,机器人100在它可抓取要抓取的目标物体W1的范围内被移动直到预定时间流逝为止,使得关于要抓取的目标物体W1的信息被摄像获取单元250获取。图6是示出在机器人100接近它可抓取要抓取的目标物体W1的范围时机器人100获取关于要抓取的目标物体W1的信息的示例的示意图。在图6中,通过虚线所围绕的区域R指示机器人100可抓取要抓取的目标物体W1的范围。
如图6的上部中所示,在机器人100在它可抓取要抓取的目标物体W1的范围R内接近时通过摄像获取单元250的手部相机141从通过箭头P3所指示的方向拍摄要抓取的目标物体W1的获取图像数据。在这种状态下,机械手230被移动以改变手部相机141的位置。通过这样做,如图6的下部中所示,获取通过摄像获取单元250的手部相机141从与通过箭头P3所指示的方向不同的通过箭头P4所指示的方向拍摄要抓取的目标物体W1的图像数据。注意的是,可以通过仅驱动机械手230、通过仅驱动可移动基体部110和通过驱动机械手230和可移动基体部110两者来执行机器人100在它可抓取要抓取的目标物体W1的范围R内的移动。
[变型例1]
描述已经参考图3描述的机器人100的控制单元200控制机器人100抓取要抓取的目标物体的运动的处理过程的变型例。注意的是,在以下描述中适当地参考图1和图2。
在此变型例中,控制单元200尝试通过在已获取了具有似然性高于预定阈值的抓取位置时移动机械手230来抓取要抓取的目标物体。通过这样做,可以进一步减少抓取所需要的时间。
图7是用于说明控制单元200控制机器人100抓取要抓取的目标物体的运动的处理过程的变型例的流程图。如图7中所示,首先,在机器人100正被移动以便接近要抓取的目标物体时,通过摄像获取单元250获取关于要抓取的目标物体的信息(步骤S201)。
继步骤S201之后,对于所获取的信息通过使用学习模型来计算要抓取的目标物体的抓取位置和作为该抓取位置的确定性的指标的似然性(步骤S202)。接下来,确定了似然性是否超过预定阈值(步骤S203)。注意的是,预定阈值例如由用户提前设置。
当在步骤S203中确定了似然性超过预定阈值时,机械手230被移动以尝试在所计算出的抓取位置处抓取要抓取的目标物体(步骤S204)。接下来,确定了要抓取的目标物体是否被成功地抓取(步骤S205)。当在步骤S205中确定了要抓取的目标物体被成功地抓取时,处理结束。当在步骤S205中确定了要抓取的目标物体未被成功地抓取时,确定了是否预定时间是否流逝(步骤S206)。当在步骤S206中确定了预定时间未流逝时,处理返回到步骤S201。当在步骤S206中确定了预定时间流逝时,确定了在通过计算所获取的抓取位置当中是否存在尚未做出抓取尝试的剩余抓取位置(步骤S207)。
当在步骤S207中确定了在通过计算所获取的抓取位置当中存在尚未做出抓取尝试的剩余抓取位置时,在剩余抓取位置当中选择与最高似然性相对应的抓取位置,并且机械手230被移动以尝试在所选择的抓取位置处抓取要抓取的目标物体(步骤S208)。接下来,确定了要抓取的目标物体是否被成功地抓取(步骤S209)。当在步骤S209中确定了要抓取的目标物体未被成功地抓取时,处理返回到步骤S207。当在步骤S209中确定了要抓取的目标物体被成功地抓取时,处理结束。
如上所述,在根据此实施例的机器人100中,在机器人正被移动时获取要抓取的目标对象的多个信息块。通过这样做,关于要抓取的目标物体的信息可以被从与其彼此不同的方向获取。因此,与要抓取的目标物体的信息是从其仅一个方向获取的情况相比较,可减少要抓取的目标物体的不可观察部分的数目。因此可以适当地识别要抓取的目标物体的抓取位置。然后,机器人100通过使用学习模型来根据从多个不同的方向获取的要抓取的目标物体的信息块来计算相应的抓取位置和似然性,然后选择基于计算的结果尝试抓取的抓取位置。通过这样做,可以确定被估计为更希望抓取要抓取的目标物体的抓取位置,从而提高抓取的成功率。另外,在机器人100正被移动以便接近要抓取的目标物体时获取关于要抓取的目标物体的信息,并且因此与机器人在它已接近要抓取的目标物体时被停止并且然后获取关于要抓取的目标物体的信息的情况相比较,可以减少抓取要抓取的目标物体所要求的时间。
注意的是,本公开不限于上述实施例,并且可在不脱离本公开的范围和精神的情况下视需要而定修改它们。已经在前述实施例中描述了学习模型被存储在机器人外部的系统服务器中的配置示例。然而,配置不限于以上示例并且可以是例如学习模型被存储在安装在机器人上的存储器(例如,图2中的存储器240)中的配置。
控制单元可以通过合成在它移动机器人100时获取的要抓取的目标物体的多个摄像图像来创建要抓取的目标物体的3D图像,然后基于所创建的3D图像来选择要抓取的目标物体的抓取位置。例如,每当获取了要抓取的目标物体的预定数目的摄像图像时,或者每当预定时间流逝时,控制单元生成3D图像。控制单元通过使用学习模型来计算要抓取的目标对象的抓取位置和该抓取位置的确定性的指标,诸如针对所创建的3D图像中的每一个的似然性。学习模型在这里是与接收在机器人100正被移动时获取的关于要抓取的目标物体的多个摄像图像的图像数据的学习模型500a(参见图2)不同的用于3D图像的学习模型(在下文中称为“3D图像学习模型”)。3D图像学习模型例如是神经网络,并且由要学习的3D图像的数据(输入)和抓取位置(输出)的组合构成的大量训练数据集被提前给予给3D图像学习模型,使得3D图像学习模型学习输入与输出之间的关系。关于输入到学习模型的3D图像的数据可以是三维坐标数据被转换成便于计算处理的形式的数据(例如,三维坐标被转换成极坐标的数据)。然后,控制单元优先地选择与相对高的似然性相对应的抓取位置并且尝试通过移动机械手来在所选择的抓取位置处抓取要抓取的目标物体。通过这样做,可以更适当地识别要抓取的目标物体的抓取位置。
虽然在前述实施例中通过使用学习模型计算出的抓取位置的确定性的指标是似然性,但是它不限于此。抓取位置的确定性的指标可以是例如,诸如排名A、排名B、……这样的离散排名或诸如是或否这样的二进制分类。注意的是,当离散排名或二进制分类被用于抓取位置的确定性的指标时,控制单元选择最近已确定了优先要抓取的抓取位置并尝试抓取要抓取的目标物体。
根据如此描述的公开内容,将显然的是,以许多方式改变本公开的实施例将是显而易见的。这样的变化不应被认为脱离本公开的精神和范围,并且对本领域的技术人员显而易见的所有这样的修改意在包括在以下权利要求的范围内。

Claims (6)

1.一种包括机械手的机器人,所述机器人还包括:
摄像获取单元,所述摄像获取单元被配置为获取包括要抓取的目标物体的环境空间的摄像图像;以及
控制单元,所述控制单元被配置为控制由所述机器人执行的运动,
其中,
所述控制单元在其移动所述机器人以使得所述机器人接近所述要抓取的目标物体时使所述机器人通过所述摄像获取单元来获取所述要抓取的目标物体的多个摄像图像,对于从所述摄像图像获取的信息,通过使用学习模型来计算所述要抓取的目标物体的抓取位置和所述抓取位置的确定性的指标,并且尝试通过移动所述机械手来在基于所述计算的结果而选择的抓取位置处抓取所述要抓取的目标物体。
2.根据权利要求1所述的机器人,其中,
所述控制单元优先地选择与相对高的指标相对应的抓取位置,并且尝试在所选择的抓取位置处抓取所述要抓取的目标物体。
3.根据权利要求1所述的机器人,其中,
当已获得高于预定阈值的所述指标时,所述控制单元尝试通过移动所述机械手来抓取所述要抓取的目标物体。
4.根据权利要求1所述的机器人,其中,
所述摄像获取单元被设置在所述机械手不妨碍关于所述要抓取的目标物体的视觉信息的位置处。
5.根据权利要求4所述的机器人,其中,
所述摄像获取单元被设置在所述机械手的尖端处。
6.根据权利要求1所述的机器人,其中,
所述信息是关于3D图像的图像数据,所述3D图像是通过对由所述摄像获取单元获取的所述要抓取的目标物体的多个摄像图像进行合成而创建的。
CN201911218648.5A 2018-12-14 2019-12-03 机器人 Active CN111319039B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018234338A JP7044047B2 (ja) 2018-12-14 2018-12-14 ロボット
JP2018-234338 2018-12-14

Publications (2)

Publication Number Publication Date
CN111319039A true CN111319039A (zh) 2020-06-23
CN111319039B CN111319039B (zh) 2024-01-02

Family

ID=71073253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911218648.5A Active CN111319039B (zh) 2018-12-14 2019-12-03 机器人

Country Status (3)

Country Link
US (1) US11833682B2 (zh)
JP (1) JP7044047B2 (zh)
CN (1) CN111319039B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3515671B1 (en) 2017-06-19 2020-05-13 Google LLC Robotic grasping prediction using neural networks and geometry aware object representation
EP3695941B1 (en) * 2019-02-15 2022-04-13 Siemens Aktiengesellschaft Computerized system and method using different image views to find grasp locations and trajectories for robotic pick up
US11433545B2 (en) * 2019-02-17 2022-09-06 Samsung Electronics Co., Ltd. Robotic vision
CN113103227B (zh) * 2021-03-26 2022-12-02 北京航空航天大学 抓握姿态采集方法及抓握姿态采集系统
CN114932554B (zh) * 2022-06-06 2023-12-01 北京钢铁侠科技有限公司 抓取机器人的自主移动方法、装置、存储介质及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US20170252922A1 (en) * 2016-03-03 2017-09-07 Google Inc. Deep machine learning methods and apparatus for robotic grasping
CN107825125A (zh) * 2017-11-30 2018-03-23 中国地质大学(武汉) 一种基于视觉伺服的螺孔定位及锁卸螺丝装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007319938A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP4578438B2 (ja) * 2006-05-31 2010-11-10 株式会社日立製作所 ロボット装置
US8958911B2 (en) * 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5803769B2 (ja) 2012-03-23 2015-11-04 トヨタ自動車株式会社 移動ロボット
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
US9687982B1 (en) * 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
US10089575B1 (en) * 2015-05-27 2018-10-02 X Development Llc Determining grasping parameters for grasping of an object by a robot grasping end effector
US10086514B2 (en) * 2015-05-29 2018-10-02 Textron Innovations, Inc. Robotic system and method for processing aircraft component
CN108885715B (zh) * 2016-03-03 2020-06-26 谷歌有限责任公司 用于机器人抓取的深度机器学习方法和装置
JP6724499B2 (ja) * 2016-04-05 2020-07-15 株式会社リコー 物体把持装置及び把持制御プログラム
JP6771744B2 (ja) * 2017-01-25 2020-10-21 株式会社安川電機 ハンドリングシステム及びコントローラ
JP6707485B2 (ja) * 2017-03-22 2020-06-10 株式会社東芝 物体ハンドリング装置およびその較正方法
JP6983524B2 (ja) * 2017-03-24 2021-12-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10464212B2 (en) * 2017-03-28 2019-11-05 Amazon Technologies, Inc. Method and system for tele-operated inventory management system
EP3515671B1 (en) * 2017-06-19 2020-05-13 Google LLC Robotic grasping prediction using neural networks and geometry aware object representation
US10773382B2 (en) * 2017-09-15 2020-09-15 X Development Llc Machine learning methods and apparatus for robotic manipulation and that utilize multi-task domain adaptation
JP2019063984A (ja) * 2017-10-02 2019-04-25 キヤノン株式会社 情報処理装置、方法及びロボットシステム
JP2019084601A (ja) * 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、把持システムおよび情報処理方法
JP6676030B2 (ja) * 2017-11-20 2020-04-08 株式会社安川電機 把持システム、学習装置、把持方法、及び、モデルの製造方法
US10981272B1 (en) * 2017-12-18 2021-04-20 X Development Llc Robot grasp learning
US10754318B2 (en) * 2017-12-21 2020-08-25 X Development Llc Robot interaction with objects based on semantic information associated with embedding spaces
US11097418B2 (en) * 2018-01-04 2021-08-24 X Development Llc Grasping of an object by a robot based on grasp strategy determined using machine learning model(s)
US20190314995A1 (en) * 2018-04-12 2019-10-17 Aeolus Robotics Corporation Limited Robot and method for controlling the same
US10878260B2 (en) * 2018-10-17 2020-12-29 Aurora Flight Sciences Corporation Micro-fiducial for machine vision
US11312012B2 (en) * 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9102055B1 (en) * 2013-03-15 2015-08-11 Industrial Perception, Inc. Detection and reconstruction of an environment to facilitate robotic interaction with the environment
US20170252922A1 (en) * 2016-03-03 2017-09-07 Google Inc. Deep machine learning methods and apparatus for robotic grasping
CN107825125A (zh) * 2017-11-30 2018-03-23 中国地质大学(武汉) 一种基于视觉伺服的螺孔定位及锁卸螺丝装置

Also Published As

Publication number Publication date
JP7044047B2 (ja) 2022-03-30
US20200189097A1 (en) 2020-06-18
JP2020093366A (ja) 2020-06-18
US11833682B2 (en) 2023-12-05
CN111319039B (zh) 2024-01-02

Similar Documents

Publication Publication Date Title
CN111319039B (zh) 机器人
CN114080583B (zh) 视觉教导和重复移动操纵系统
Natale et al. A sensitive approach to grasping
US20170106542A1 (en) Robot and method of controlling thereof
JP2013193202A (ja) 人間援助型タスクデモンストレーションを使用してロボットを訓練するための方法およびシステム
US11633852B2 (en) Computing device, machine learning method, and storage medium
CN114516060A (zh) 用于控制机器人装置的设备和方法
CN114770461B (zh) 一种基于单目视觉的移动机器人及其自动抓取方法
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
CN116529033A (zh) 细粒度工业机器人组件
JP2012228765A (ja) ロボット、ロボットの動作方法、及びプログラム
CN111975763B (zh) 算术设备、控制程序、机器学习器、抓握装置和控制方法
US11656923B2 (en) Systems and methods for inter-process communication within a robot
US11915523B2 (en) Engagement detection and attention estimation for human-robot interaction
EP4301557A1 (en) System(s) and method(s) of using imitation learning in training and refining robotic control policies
Yoon et al. Real-time Video Prediction Using GANs With Guidance Information for Time-delayed Robot Teleoperation
US20240153314A1 (en) Engagement Detection and Attention Estimation for Human-Robot Interaction
WO2022209924A1 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
Singh et al. Humanoid Robots that Move on Two Feet and Are Led by Vision Systems
KR20230175122A (ko) 대상물의 조작, 특히 픽업을 위한 로봇 제어 방법
WO2023165807A1 (en) Robot and method for controlling a robot
CN117656049A (zh) 工件的拨动方法、装置、设备及存储介质
CN116543038A (zh) 用于借助于图像数据来确定对象信息的方法
Salah Skill Transfer and Improvement Framework for a Simulated Robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant