CN103568024B - 利用机械手取出散装物品的装置 - Google Patents
利用机械手取出散装物品的装置 Download PDFInfo
- Publication number
- CN103568024B CN103568024B CN201310326121.0A CN201310326121A CN103568024B CN 103568024 B CN103568024 B CN 103568024B CN 201310326121 A CN201310326121 A CN 201310326121A CN 103568024 B CN103568024 B CN 103568024B
- Authority
- CN
- China
- Prior art keywords
- mentioned
- image
- posture
- container
- search domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明提供利用机械手取出散装物品的装置。该物品取出装置构成为通过利用照相机的拍摄获取包括容器的开口端面的基准容器图像,基于该基准容器图像,设定与容器的收纳空间对应的图像上检索区域,设定包括容器的开口端面的基准平面,基于预先存储的照相机的校准数据,计算出与图像上检索区域对应的基准平面上的检索区域,将检索区域转换成转换检索区域,将利用三维测定机测定出的多个三维点投影于基准平面上,取出包含于转换检索区域内的三维点,使用该三维点识别容器内的物品的位置。
Description
技术领域
本发明涉及识别散装于容器内的物品的位置,并利用机械手取出识别出的物品的物品取出装置。
背景技术
以往,已知有利用照相机拍摄散装于容器内的物品,并对该照相机图像进行图像处理来识别物品的位置的装置。例如,在日本特开2007-313624号公报(JP2007-313624A)所记载的装置中,以容器整体收纳在视野内的方式将照相机配置在容器的正上方,使用来自该照相机的图像检测物品,选定应利用机械手的机械臂取出的物品。使用设置于机械臂的指尖部的三维视觉传感器进行该选定的物品的取出。
然而,由于照相机图像包括容器的开口端面、内壁,所以如JP2007-313624A所记载的装置那样,若根据照相机图像来识别物品,则存在不易区分这些开口端面、内壁与物品的情况。
发明内容
本发明的一实施方式是物品取出装置,具备:三维测定机,其对散装于具有平面状的开口端面、和连接设置于该开口端面且形成收纳空间的内壁部的集装箱的收纳空间内的多个物品的表面位置进行测定;照相机,其拍摄包括集装箱的开口端面的区域;机械手,其具有能够从集装箱内取出物品的手部;图像获取部,其获取利用照相机拍摄出的集装箱的图像;图像上检索区域设定部,其基于通过图像获取部获取的图像,设定与收纳空间对应的图像上的区域亦即图像上检索区域;基准平面设定部,其设定包括集装箱的开口端面的平面亦即基准平面;检索区域计算部,其计算与图像上检索区域对应的基准平面上的区域亦即检索区域;投影部,其将利用三维测定机测定出的多个三维点投影于基准平面上;判定部,其判断由投影部投影的多个三维点是否包含在检索区域内;位置识别部,其使用由三维测定机测定出的多个三维点中的由判定部判定为包含在检索区域内的三维点,识别集装箱内的物品的位置;以及机械手控制部,其基于由位置识别部识别出的物品的位置控制机械手,使其取出物品。
附图说明
本发明的目的、特征以及优点通过与附图相关联的以下的实施方式的说明更加明确。在该附图中,
图1是表示本发明的一实施方式的物品取出装置的概要构成的图。
图2A是表示由图1的控制装置执行的处理的一个例子的流程图,尤其是表示物品取出作业的前期处理的一个例子的图。
图2B是表示由图1的控制装置执行的处理的一个例子的流程图,尤其是表示物品取出作业时的处理的一个例子的图。
图3是示意地表示在图2A的处理中得到的图像上检索区域的一个例子的图。
图4是示意地表示由图1的三维测定机获取的三维点集合的图。
图5是说明图2B的处理的图。
图6是说明图2B的处理的其他的图。
图7是说明本实施方式的效果的图。
图8是表示图1的控制装置内的结构的框图。
具体实施方式
图1是表示本发明的实施方式的物品取出装置10的概要构成的图。物品取出装置10具有三维测定机11、照相机12、机械手13以及控制装置14,该控制装置14与照相机12、三维测定机11和机械手13连接,分别控制三维测定机11、照相机12和机械手13。机械手13具有安装于机械臂13a的前端部的手部15。三维测定机11和照相机12安装于架台16。另外,以下定义图示那样相互正交的X轴、Y轴、Z轴。包括X轴和Y轴的XY平面是水平面,Z轴朝向铅垂上方。
在机械手13的侧方配置有上面开放的箱状的容器17。容器17具有与底面平行的平面状的开口端面17a(上面)、以及连接设置于开口端面17a且形成收纳空间17c的内壁部17b,并且从地面到开口端面17a具有规定高度Zc。容器17呈如下形状,即沿着与包括开口端面17a的平面垂直的方向在包括开口端面17a的平面上投影容器17的底面以及内壁部17b得到的区域与被开口端面17a的内侧边缘(容器的内壁部17b和开口端面交叉的部位)包围的闭合区域一致。在容器17内的收纳空间17c散装收纳有多个物品20。能够利用手部15保持物品20,通过机械手13的动作从容器17取出物品20。在容器17的中央部上方设置有三维测定机11和照相机12。
三维测定机11根据来自控制装置14的指令,从容器17的上方测定散装于容器17内的物品20的表面位置,从而获取三维点的集合(三维点集合)。能够根据设置三维测定机11的位置变更三维测定机11的测定区域位置、大小。以包括全部容器17内的物品20的方式设定三维测定机11的测定区域。由于测定区域过大会导致测定分辨率降低,所以优选设定成包括物品20的可能存在区域,即包括收纳空间17C的整体的程度。三维测定机11和控制装置14能够通过通信电缆等通信机构相互连接、相互通信。
三维测定机11能够利用各种非接触方式的测定机。例如列举使用2台照相机的立体方式、扫描激光线光的方式、扫描激光点光的方式、使用投影仪等装置向物品投影图案光的方式、利用光从投光机射出后在物品表面反射而入射至受光器的飞行时间的方式。
三维测定机11以距离图像或三维图的形式表示所获取的三维信息。距离图像以图像形式表现三维信息,利用图像的各像素的亮度、颜色来表示与该像素对应的位置的Z方向的高度或距三维测定机11的距离。另一方面,所谓三维图是作为测定出的三维坐标值(x,y,z)的集合来表现三维信息的。在本实施方式中,将具有距离图像中的各像素或者三维图中的三维坐标值的点称为三维点,将由多个三维点构成的集合称作三维点集合。三维点集合是由三维测定机11测定出的三维点全体的集合,能够由三维测定机11获取。
照相机12是具有CCD传感器、CMOS传感器等摄像元件(光电转换元件)的数码摄像机或数码相机,根据来自控制装置14的指令从容器17的上方拍摄包括开口端面17a的区域。能够根据设置照相机12的位置来变更照相机12的拍摄区域的位置、大小。以全部包括容器17的方式设定照相机12的拍摄区域。由于拍摄区域过大会导致拍摄分辨率的降低,所以优选设定成包括容器17的可能存在区域,即包括开口端面17a的全体的程度。照相机12和控制装置14通过通信电缆等通信机构相互连接、相互通信。
另外,若三维测定机11具有照相机,且该照相机的拍摄区域设定为包括容器17的可能存在区域的程度,则能够用作将设于三维设定机11的照相机用作照相机12。由此,部件件数变少,能够减少三维测定机11和照相机12的全体的设置空间。
控制装置14构成为包括分别具有CPU、ROM、RAM、其他周边电路等的运算处理装置。图2A、图2B分别是表示由控制装置14执行的处理的一个例子的流程图。以下参照图2A、图2B的流程图以及相关联的附图,对物品取出装置10的动作进行说明。另外,在执行图2A、图2B的处理前,以共用的坐标系(XYZ坐标系)为基准校准三维测定机11和照相机12。
图2A是将容器17设定成成为基准的位置以及姿势(以下称位置姿势)的状态,即在基准状态下执行的处理的一个例子。在基准状态下,容器17设置于水平地板上。图2A的处理是在构筑散装取出系统时仅执行一次的处理,即便在因容器17的更换等容器17的位置姿势变化的情况下,也无需再次执行。另外,由于在变更了所使用的容器17的尺寸的情况下,需要变更检索区域,所以该情况下,再次执行图2A的处理。
如图2A所示,首先在步骤SR1中,在将容器17设定成基准状态的状态下向照相机12输出控制信号,利用照相机12拍摄包括容器17的区域,且将该拍摄后的图像作为基准容器图像进行读取。即,获取基准容器图像。
在步骤SR2中,检测在基准容器图像上的容器17的开口端面17a的位置姿势亦即图像上基准容器位置姿势。更具体而言,从步骤SR1的基准容器图像确定出表示容器17的开口端面17a的区域亦即图像上开口端面区域IG(图3)。为了确定出图像上基准容器位置姿势(图像上开口端面区域IG),例如能够使用图案匹配等方法。图案匹配的方法是已知的方法,省略详细的说明。
在步骤S3中,在基准状态下,将包括容器17的开口端面17a的平面设定为基准平面。在基准状态下,由于容器17设定在水平的地板上(XY平面上),所以基准平面也是水平。即,在空间上,基准平面成为高度Zc恒定的水平面。对于基准平面的设定需要高度Zc,高度Zc可以使用预先测定出的值,也可以由三维测定机11测定。
在步骤SR4中,将在基准状态下与基准平面以规定的角度相交的方向作为投影方向进行设定或计算。在本实施方式中,将与基准平面垂直的方向作为投影方向进行设定。因此,投影方向与Z轴平行。
在步骤SR5中,使用图像上基准容器位置姿势、基准平面和照相机12的校准数据,计算与图像上基准容器位置姿势对应的、在实际空间上的容器17的位置姿势亦即基准容器位置姿势Cr。即,基于校准数据,计算与表示图像上基准容器位置姿势的图像上开口端面区域IG(图3)对应的开口端面17a在基准平面上成为什么样的位置姿势。另外,根据在图像上检测出的容器的位置姿势、基准平面和照相机12的校准数据来计算在实际空间上的容器17的位置姿势Cr的方法是已知方法,省略详细的说明。能够以以下数学式(Ⅰ)这样的齐次变换矩阵来表示所计算出的基准容器位置姿势Cr。
数学式1
在上式(Ⅰ)中,Cr.x、Cr.y表示容器的位置,Cr.r11、Cr.r12、Cr.r21、Cr.r22表示容器的姿势。控制装置14将该基准容器位置姿势Cr存储于存储器。
在步骤SR6中,将基准容器图像上比容器17的内壁17b靠内侧、即将图像上开口端面区域IG的内侧的区域设定成图像上检测区域。以将图像上的多个点Vri(i=1,2,3,…)作为顶点,顺次连结顶点Vri而围起的区域表示图像上检测区域。能够以下式(Ⅱ)表示Vri。另外,Vri.vt表示图像上的垂直方向的图像位置,Vri.hz表示图像上的水平方向的位置。
数学式2
图3是表示图像上检索区域AR的一个例子的图,示意地表示基准容器图像18。在图3中,由于物品20存在比容器17的内壁17b靠内侧,所以例如将从图像上开口端面区域IG的角的4个点向内侧仅移动了规定量s1、s2后的4个顶点Vr1~Vr4设定为表现图像上检索区域AR的顶点。在距图像上开口端面区域IG规定量S1、S2的内侧设定顶点Vr1~Vr4是为了防止因容器17的内壁17b的凹凸、三维测定机11的测定误差而将容器17的内壁上的三维点误认为是处于比容器17的内壁17b靠内侧的物品20上的三维点。例如考虑以图像上什么样的长度表示内壁17b的深度来设定规定量S1、S2即可,使其为容器17的内壁17b附近的物品20不出检索区域的外侧的程度即可。
在步骤SR7中,使用图像上的4个点Vri(i=1,2,3,4)、基准平面和照相机12的校准数据,将在实际空间中高度Zc的基准平面上的点的4个点Wri(i=1,2,3,4)作为表示检索区域的点进行计算,并进行存储。即,基于照相机12的校准数据,计算出与图像上检索区域AR对应的基准平面上的区域亦即检索区域。能够以下式(Ⅲ)表示Wri。另外,Wri.x表示实际空间上的X坐标,Wri.y表示实际空间上的Y坐标。
数学式3
另外,在本实施方式中,通过利用直线连结4个点Wri得到检索区域,但点Wri的个数并不局限于4个点,只要是3个点以上,就能够设定检索区域。由此,结束将容器17设置成基准状态进行的、物品取出作业的前期处理。
图2B是表示物品取出作业时的处理的一个例子的流程图。在进行了图2A的处理后,在进行物品取出作业时执行该处理。
在步骤SE1中,在物品取出作业时利用照相机12拍摄包括容器17的区域,获取实际状态下的图像(实际容器图像)。实际状态下的容器17的位置与基准状态下的容器17的位置不同的情况较多,但即便在实际状态下,容器17也设置于与基准状态相同的水平的地板上。因此,包括基准状态的容器17的开口端面17a的基准平面即便在物品取出作业时(实际状态)下,也成为包括容器17的开口端面17a的基准平面。
在步骤SE2中,检测在步骤SE1中所获取的实际容器图像上的容器的开口端面17a的位置姿势亦即图像上容器位置姿势(也存在称为图像上实际容器位置姿势的情况)。即,与步骤SR2相同,利用图案匹配等从照相机图像确定出图像上开口端面区域。
在步骤SE3中,根据图像上容器位置姿势、基准平面和校准数据来计算出与图像上容器位置姿势对应的实际空间上的容器17的位置姿势亦即容器位置姿势(也存在称为实际容器位置姿势的情况)Ce。即,基于校准数据,计算出与表示图像上容器位置姿势的图像上开口端面区域对应的开口端面17a在基准平面上成为什么样的位置姿势。实际空间上的容器17的位置姿势的计算方法使用与步骤SR5相同的方法即可。能够以下式(Ⅳ)表示计算出的容器位置姿势Ce。
数学式4
在步骤SE4中,根据在步骤SR5中计算出的基准容器位置姿势Cr和在步骤SE3中计算出的容器位置姿势Ce,计算出容器位置姿势变化量Cofs。能够以下式(Ⅴ)计算出容器位置姿势变化量Cofs。另外,inv()表示逆矩阵。
数学式5
Cofs=Ce×inv(Cr) (V)
在步骤SE5中,在步骤SR7中存储的检索区域Wri乘以在步骤SE4中计算出的容器位置姿势变化量Cofs,将该值设为转换检索区域Wei。能够以下式(Ⅵ)表示转换检索区域Wei。
数学式6
Wei=Cofs×Wri(i=1,2,3,4) (VI)
在步骤SE6中,向三维测定机11输出控制信号,利用三维测定机11进行三维点的测定,获取三维点集合。
在步骤SE7中,判定在将属于三维点集合的三维点沿投影方向朝向基准平面上投影时是否包括在转换检索区域内,将集合了判定为包括在转换检索区域内的三维点的集合作为区域内三维点集合而求出。使用图4、图5以及图6,对求出区域内三维点集合的方法进行说明。
图4是示意地表示转换检索区域30和三维点集合31的图。如图4所示,三维点集合31包括沿投影方向(Z轴方向)向基准平面上投影时包括在转换检索区域30内这样的三维点和出了区域30外这样的三维点的双方。其中,要想求出集合了包括在区域30内这样的三维点而成的集合亦即区域内三维点集合,首先求出在高度Zc的基准平面上投影了三维点集合31后的投影三维点集合32。
接下来,判定投影三维点集合32的各点(以后称投影三维点)是否在转换检索区域30内。图5是用于说明该判定方法的图。图5示出转换检索区域30内的投影三维点32A和转换检索区域30外的投影三维点32B。分别以投影三维点32A、32B为起点设定沿X轴的正向延伸的射线,求出射线和转换检索区域30的各边交叉的次数。如投影三维点32A所示,在转换检索区域30内有投影三维点的情况下,交叉次数为奇数,如投影三维点32B所示,在转换检索区域30外有投影三维点的情况下,交叉次数为0或偶数。因此,通过判定交叉次数是奇数还是偶数,能够判定投影三维点是否在转换检索区域30内。在投影三维点集合32所包括的全部点中进行该处理,通过全部集合判定为转换检索区域30内的投影三维点,能够如图6所示那样求出转换检索区域30内的投影三维点的集合亦即区域内投影三维点集合33。接下来,集合与区域内投影三维点集合33所包括的各投影三维点对应的投影前的三维点。这是图6所示的区域内三维点集合34,使用区域内三维点集合34进行物品20的位置识别。
在步骤SE8中,从区域内三维点集合34识别出1个以上的物品20的位置。即,识别物品位置。作为识别物品位置的方法,有使用了三维模型图案的匹配等各种方法,省略对该点的详细说明。
在步骤SE9中,基于识别出的物品位置使机械手13移动,利用搭载于机械手13的手部15保持物品20,并取出。若识别出多个物品位置,则也能够基于各物品位置取出多个物品20。通过重复以上步骤SE1~SE9,进行容器17内的物品20的取出作业。
图7是说明本实施方式的效果的图。在图7中,通过三维测定机11测定容器17的内壁17b上的三维点40A和容器17的开口端面17a上的三维点40B(步骤SE6)。在高度Zc的基准平面上示出通过上述处理(步骤SE5)计算出的转换检索区域30。这里,容器17的内壁上的三维点40A的投影三维点41A和开口端面上的三维点40B的投影三维点41B均在基准平面上位于转换检索区域30的区域外。因此,三维点40A和40B均不包含于区域内三维点集合34(步骤SE7),不为了识别物品20的位置而被使用。因此,容器17的开口端面17a、内壁17b的三维点不包括于区域内三维点集合34,能够防止将这些位置误识别成物品20的位置。
根据本实施方式,能够起到以下这样的作用效果。
(1)通过利用照相机12的拍摄,获取包括容器17的开口端面17a的基准容器图像(步骤SR1),基于该基准容器图像,设定与容器17的收纳空间17c对应的图像上检索区域AR(图3)(步骤SR6),设定包括容器17的开口端面17a的基准平面(步骤SR3),基于预先存储的照相机12的校准数据,计算出与图像上检索区域AR对应的基准平面上的检索区域(步骤SR7)。另外,将检索区域转换成转换检索区域30(步骤SE5),将利用三维测定机11测定出的多个三维点投影于基准平面上,将包含在转换检索区域内的三维点作为区域内三维点集合34而计算(步骤SE6、步骤SE7),使用区域内三维点集合34识别出容器内的物品的位置(步骤SE8),基于识别出的物品位置,控制机械手13来取出物品(步骤SE9)。因此,能够防止在利用机械手13取出物品时,将容器17的开口端面17a、内壁17b的三维点的位置误识别成物品20的位置。
(2)从获取的基准容器图像确定出表示容器17的开口端面17a的区域亦即图像上开口端面区域IG,在图像上开口端面区域IG的规定量S1、S2内侧设定图像上检索区域AR,所以能够从图像上检索区域排除内壁17b的凹凸等,能够不受内壁17b的凹凸等影响而高精度地识别出物品。
(3)从基准容器图像确定出图像上基准容器位置姿势(步骤SR2),且基于照相机12的校准数据,计算出与图像上基准容器位置姿势对应的实际空间上的基准容器位置姿势(步骤SR5),另外,从物品取出作业时的容器17的图像确定出图像上容器位置姿势(步骤SE2),基于照相机12的校准数据,计算出与图像上容器位置姿势对应的实际空间上的容器位置姿势(步骤SE3),基于基准容器位置姿势和容器位置姿势的差异,将检索区域转换成转换检索区域30(步骤SE5)。由此,即便在容器17的位置姿势从成为基准的位置姿势变化的情况下,也能够高精度地识别出物品20的位置。
(4)另外,将与基准平面以设定的角度相交的方向设定为投影方向(步骤SR4)。由此,在容器内壁17b所形成的平面不与基准平面垂直的情况下,将投影方向设定为与容器内壁17b所形成的平面的法线向量正交且与基准平面的法线向量的内积最大的方向,从而能够防止将内壁17b的三维点的位置误识别为物品20的位置。
另外,在上述实施方式中,在物品取出作业时,将预先设定的实际空间上的检索区域转换成了转换检索区域30,但在容器17的位置姿势的变化量小的情况下(例如在位置姿势的变化量为0的情况下),也可以替换转换检索区域30而使用检索区域来获取区域内三维点集合34。在上述实施方式中,由四边形构成了图像上检索区域AR,但也可以由其他多边形构成。
图8是表示图1的控制装置14内的结构的框图。上述实施方式中的控制装置14作为功能构成具有:图像获取部14A(步骤SR1、步骤SE1),其获取利用照相机12拍摄的容器17的图像;图像上检索区域设定部14B(步骤SR6),其基于该获取的图像设定图像上检索区域AR;基准平面设定部14C(步骤SR3),其设定容器17的基准平面;检索区域计算部14D(步骤SR7),其基于预先存储的照相机12的校准数据计算检索区域;投影部14E(步骤SE7),其将由三维测定机11测定出的多个三维点投影在基准平面上;判定部14F(步骤SE7),其判定拍摄出的多个三维点是否包括在检索区域内;位置识别部14G(步骤SE8),其使用由三维测定机11测定出的多个三维点中的判定为包括在检索区域内的三维点,识别出容器内的物品20的位置;以及机械手控制部14H(步骤SE9),其基于识别出的物品20的位置控制机械手13,使其取出物品20。
另外,控制装置14具备:基准位置姿势确定部14I(步骤SR2),其从基准容器图像确定出图像上基准容器位置姿势;实际位置姿势确定部14J(步骤SE2),其从实际容器图像确定出图像上实际容器位置姿势;基准位置姿势计算部14K(步骤SR5),其基于照相机12的校准数据,计算出基准容器位置姿势;实际位置姿势计算部14L(步骤SE3),其基于照相机12的校准数据,计算出实际容器位置姿势;区域转换部14M(步骤SE5),其基于计算出的基准容器位置姿势和实际容器位置姿势的差异,将检索区域转换成转换检索区域30;以及投影方向设定部14N(步骤SR4),其设定由投影部进行的三维点的投影方向。
根据本发明,利用来自照相机的图像,在包括容器的开口端面的平面上设定检索区域,基于由三维测定机测定出的物品表面的三维点中的包含于检索区域内的点来识别物品的位置。由此,能够防止将容器的开口端面、内壁误识别成物品,能够使用机械手的手部高精度地进行物品的取出。
以上,与其优选实施方式相关联地说明了本发明,但本领域技术人员知道能够不脱离权利要求书的公开范围地进行各种修正以及变更。
Claims (7)
1.一种物品取出装置,其特征在于,具备:
三维测定机(11),其对散装于具有平面状的开口端面(17a)、和与该开口端面连接设置且形成收纳空间的内壁部(17b)的容器(17)的上述收纳空间内的多个物品(20)的表面位置进行测定;
照相机(12),其拍摄包括上述容器的上述开口端面的区域;
机械手(13),其具有能够从上述容器内取出物品的手部(15);
图像获取机构(14A);其获取由上述照相机拍摄出的上述容器的图像;
图像上检索区域设定机构(14B),其基于由上述图像获取机构获得的图像,设定与上述收纳空间对应的图像上的区域亦即图像上检索区域(AR);
基准平面设定机构(14C),其设定包括上述容器的上述开口端面的平面亦即基准平面;
检索区域计算机构(14D),其基于预先存储的上述照相机的校准数据,计算出与上述图像上检索区域对应的上述基准平面上的区域亦即检索区域;
投影机构(14E),其将利用上述三维测定机测定出的多个三维点投影于上述基准平面上;
判定机构(14F),其判定由上述投影机构投影的多个三维点是否包含在上述检索区域内;
位置识别机构(14G),其使用由上述三维测定机测定出的多个三维点中的由上述判定机构判定为包含在上述检索区域内的三维点,识别出上述容器内的物品(20)的位置;以及
机械手控制机构(14H),其基于由上述位置识别机构识别出的物品的位置来控制上述机械手,使其取出上述物品。
2.根据权利要求1所述的物品取出装置,其特征在于,
上述图像上检索区域设定机构,从作为将上述容器设置成基准的位置姿势的基准状态下的上述容器的图像而由上述图像获取机构所获取的基准容器图像(18),确定出表示上述容器的上述开口端面的区域亦即图像上开口端面区域(IG),并且在该图像上开口端面区域的规定量(S1、S2)内侧设定上述图像上检索区域。
3.根据权利要求2所述的物品取出装置,其特征在于,
上述图像获取机构获取上述基准容器图像,并且获取上述容器的位置姿势从上述基准状态变化后的实际状态下的上述容器的图像亦即实际容器图像,
上述图像上检索区域设定机构基于上述基准容器图像设定上述图像上检索区域,
上述物品取出装置还具备:
基准位置姿势确定机构(14I),其从上述基准容器图像确定出表示图像上的上述容器的位置姿势的图像上基准容器位置姿势;
实际位置姿势确定机构(14J),其从上述实际容器图像确定出表示图像上的上述容器的位置姿势的图像上实际容器位置姿势;
基准位置姿势计算机构(14K),其基于上述照相机的校准数据,计算出与上述图像上基准容器位置姿势对应的实际空间上的上述容器的位置姿势亦即基准容器位置姿势;
实际位置姿势计算机构(14L),其基于上述照相机的校准数据,计算出与上述图像上实际容器位置姿势对应的实际空间上的上述容器的位置姿势亦即实际容器位置姿势;以及
区域转换机构(14M),其基于由上述基准位置姿势计算机构计算出的基准容器位置姿势和由上述实际位置姿势计算机构计算出的上述实际容器位置姿势的差异,将由上述检索区域计算机构计算出的上述检索区域转换成转换检索区域(30),
上述判定机构判定由上述投影机构投影的多个三维点是否包括在由上述区域转换机构转换后的上述转换检索区域内。
4.根据权利要求1所述的物品取出装置,其特征在于,
上述图像获取机构获取上述容器设置于基准的位置姿势的基准状态的上述容器的图像亦即基准容器图像(18),并且获取上述容器的位置姿势从上述基准状态变化后的实际状态下的上述容器的图像亦即实际容器图像,
上述图像上检索区域设定机构基于上述基准容器图像设定上述图像上检索区域,
上述物品取出装置还具备:
基准位置姿势确定机构(14I),其从上述基准容器图像确定出表示图像上的上述容器的位置姿势的图像上基准容器位置姿势;
实际位置姿势确定机构(14J),其从上述实际容器图像确定出表示图像上的上述容器的位置姿势的图像上实际容器位置姿势;
基准位置姿势计算机构(14K),其基于上述照相机的校准数据,计算出与上述图像上基准容器位置姿势对应的实际空间上的上述容器的位置姿势亦即基准容器位置姿势;
实际位置姿势计算机构(14L),其基于上述照相机的校准数据,计算出与上述图像上实际容器位置姿势对应的实际空间上的上述容器的位置姿势亦即实际容器位置姿势;以及
区域转换机构(14M),其基于由上述基准位置姿势计算机构计算出的基准容器位置姿势和由上述实际位置姿势计算机构计算出的上述实际容器位置姿势的差异,将由上述检索区域计算机构计算出的上述检索区域转换成转换检索区域(30),
上述判定机构判定由上述投影机构投影的多个三维点是否包括在由上述区域转换机构转换后的上述转换检索区域内。
5.根据权利要求1~4中任一项所述的物品取出装置,其特征在于,
还具备投影方向设定机构(14N),其设定由上述投影机构进行的上述三维点的投影方向。
6.根据权利要求1~4中任一项所述的物品取出装置,其特征在于,
由上述图像上检索区域设定机构设定的上述图像上检索区域是多边形。
7.根据权利要求1~4中任一项所述的物品取出装置,其特征在于,
上述三维测定机具有上述照相机。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012-170009 | 2012-07-31 | ||
JP2012170009A JP5469216B2 (ja) | 2012-07-31 | 2012-07-31 | バラ積みされた物品をロボットで取出す装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103568024A CN103568024A (zh) | 2014-02-12 |
CN103568024B true CN103568024B (zh) | 2015-06-03 |
Family
ID=49944085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310326121.0A Active CN103568024B (zh) | 2012-07-31 | 2013-07-30 | 利用机械手取出散装物品的装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8874270B2 (zh) |
JP (1) | JP5469216B2 (zh) |
CN (1) | CN103568024B (zh) |
DE (1) | DE102013012224B4 (zh) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3970922A1 (en) | 2012-06-12 | 2022-03-23 | Snap-On Incorporated | An inventory control system having advanced functionalities |
JP5929854B2 (ja) * | 2013-07-31 | 2016-06-08 | 株式会社安川電機 | ロボットシステムおよび被加工物の製造方法 |
JP5778311B1 (ja) * | 2014-05-08 | 2015-09-16 | 東芝機械株式会社 | ピッキング装置およびピッキング方法 |
JP5829306B2 (ja) | 2014-05-12 | 2015-12-09 | ファナック株式会社 | レンジセンサの配置位置評価装置 |
CN107530881B (zh) * | 2015-01-29 | 2021-05-25 | Abb瑞士股份有限公司 | 机器人系统和用于操作机器人的方法 |
US11370128B2 (en) | 2015-09-01 | 2022-06-28 | Berkshire Grey Operating Company, Inc. | Systems and methods for providing dynamic robotic control systems |
CN114559428B (zh) | 2015-09-01 | 2023-10-27 | 伯克希尔格雷营业股份有限公司 | 用于提供动态机器人控制系统的系统和方法 |
CA2998403C (en) | 2015-09-09 | 2021-04-27 | Berkshire Grey, Inc. | Systems and methods for providing dynamic communicative lighting in a robotic environment |
EP3347780B1 (en) | 2015-09-11 | 2023-06-07 | Berkshire Grey Operating Company, Inc. | Robotic systems and methods for identifying and processing a variety of objects |
EP4088889A1 (en) | 2015-11-13 | 2022-11-16 | Berkshire Grey Operating Company, Inc. | Sortation systems and methods for providing sortation of a variety of objects |
US9937532B2 (en) | 2015-12-18 | 2018-04-10 | Berkshire Grey Inc. | Perception systems and methods for identifying and processing a variety of objects |
CA3169689C (en) | 2016-01-08 | 2024-04-02 | Berkshire Grey Operating Company, Inc. | Systems and methods for acquiring and moving objects |
EP3988257B1 (en) | 2016-02-08 | 2023-05-03 | Berkshire Grey Operating Company, Inc. | Systems and methods for providing processing of a variety of objects employing motion planning |
CA3046214C (en) | 2016-12-09 | 2022-01-04 | Berkshire Grey, Inc. | Systems and methods for processing objects provided in vehicles |
JP6889574B2 (ja) * | 2017-03-03 | 2021-06-18 | 株式会社キーエンス | ロボット設定装置、ロボット設定方法、ロボット設定プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器 |
US11167422B2 (en) * | 2017-03-30 | 2021-11-09 | Soft Robotics, Inc. | User-assisted robotic control systems |
CN111278612B (zh) * | 2017-11-28 | 2023-12-12 | 株式会社富士 | 元件移载装置 |
JP7161857B2 (ja) | 2018-03-14 | 2022-10-27 | オムロン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
DE112019004517T5 (de) * | 2018-09-10 | 2021-06-02 | Fanuc America Corporation | Roboterkalibrierung für ar (augmented reality) und digitaler zwilling |
KR20240042157A (ko) | 2018-10-30 | 2024-04-01 | 무진 아이엔씨 | 자동화된 패키지 등록 시스템, 디바이스 및 방법 |
US10369701B1 (en) | 2018-10-30 | 2019-08-06 | Mujin, Inc. | Automated package registration systems, devices, and methods |
CN110127436A (zh) * | 2019-06-04 | 2019-08-16 | 青岛大学 | 一种棉条自动输送系统 |
JP7031091B2 (ja) * | 2020-02-17 | 2022-03-08 | 株式会社三井E&Sマシナリー | 供給装置およびその制御方法 |
US11130237B1 (en) * | 2020-03-05 | 2021-09-28 | Mujin, Inc. | Method and computing system for performing container detection and object detection |
EP4185443A1 (en) | 2020-07-22 | 2023-05-31 | Berkshire Grey Operating Company, Inc. | Systems and methods for object processing using a passively collapsing vacuum gripper |
US20220024705A1 (en) | 2020-07-22 | 2022-01-27 | Berkshire Grey, Inc. | Systems and methods for object processing using a vacuum gripper that provides object retention by evacuation |
CA3234674A1 (en) | 2021-10-06 | 2023-04-13 | Berkshire Grey Operating Company, Inc. | Dynamic processing of objects provided in elevated vehicles with evacuation systems and methods for receiving objects |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3202290B2 (ja) * | 1991-12-28 | 2001-08-27 | ティーディーケイ株式会社 | インダクタンス素子 |
EP1428634A2 (en) * | 2002-12-13 | 2004-06-16 | Fanuc Ltd | Workpiece taking-out robot with a three-dimensional visual sensor |
CN1528571A (zh) * | 2003-09-29 | 2004-09-15 | 上海大学 | 多边形对象多指抓取规划方法与装置 |
CN101396829A (zh) * | 2007-09-29 | 2009-04-01 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN101637908A (zh) * | 2008-07-29 | 2010-02-03 | 上海发那科机器人有限公司 | 一种用于机器人搬运作业的视觉定位方法 |
Family Cites Families (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4305130A (en) * | 1979-05-29 | 1981-12-08 | University Of Rhode Island | Apparatus and method to enable a robot with vision to acquire, orient and transport workpieces |
US4402053A (en) * | 1980-09-25 | 1983-08-30 | Board Of Regents For Education For The State Of Rhode Island | Estimating workpiece pose using the feature points method |
US4412293A (en) * | 1981-03-30 | 1983-10-25 | Kelley Robert B | Robot system which acquires cylindrical workpieces from bins |
JP2730754B2 (ja) * | 1989-03-29 | 1998-03-25 | 豊田工機株式会社 | 視覚装置付ロボット |
US4985846A (en) * | 1989-05-11 | 1991-01-15 | Fallon Patrick J | Acoustical/optical bin picking system |
JPH03202290A (ja) * | 1989-12-27 | 1991-09-04 | Toyota Motor Corp | ばら積み物体の取出装置 |
US6363173B1 (en) * | 1997-12-19 | 2002-03-26 | Carnegie Mellon University | Incremental recognition of a three dimensional object |
JP3525896B2 (ja) * | 1999-03-19 | 2004-05-10 | 松下電工株式会社 | 3次元物体認識方法および同方法を使用したビンピッキングシステム |
JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
JP2005515910A (ja) * | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
US6826452B1 (en) * | 2002-03-29 | 2004-11-30 | The Penn State Research Foundation | Cable array robot for material handling |
US6898484B2 (en) * | 2002-05-01 | 2005-05-24 | Dorothy Lemelson | Robotic manufacturing and assembly with relative radio positioning using radio based location determination |
JP2004160567A (ja) * | 2002-11-11 | 2004-06-10 | Fanuc Ltd | 物品取出し装置 |
JP3805310B2 (ja) * | 2003-01-30 | 2006-08-02 | ファナック株式会社 | ワーク取出し装置 |
JPWO2004106009A1 (ja) * | 2003-06-02 | 2006-07-20 | 松下電器産業株式会社 | 物品取扱いシステムおよび物品取扱いサーバ |
JP3834307B2 (ja) * | 2003-09-29 | 2006-10-18 | ファナック株式会社 | ロボットシステム |
JP3930490B2 (ja) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | 物品取出し装置 |
CN101228555A (zh) * | 2005-07-07 | 2008-07-23 | 独创目标实验室公司 | 用于目标的运动行为的三维监控和分析的系统 |
JP4087874B2 (ja) * | 2006-02-01 | 2008-05-21 | ファナック株式会社 | ワーク取り出し装置 |
JP4153528B2 (ja) * | 2006-03-10 | 2008-09-24 | ファナック株式会社 | ロボットシミュレーションのための装置、プログラム、記録媒体及び方法 |
JP4199264B2 (ja) | 2006-05-29 | 2008-12-17 | ファナック株式会社 | ワーク取り出し装置及び方法 |
JP4238256B2 (ja) * | 2006-06-06 | 2009-03-18 | ファナック株式会社 | ロボットシミュレーション装置 |
US7313464B1 (en) * | 2006-09-05 | 2007-12-25 | Adept Technology Inc. | Bin-picking system for randomly positioned objects |
US20080181485A1 (en) * | 2006-12-15 | 2008-07-31 | Beis Jeffrey S | System and method of identifying objects |
US7957583B2 (en) * | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
JP4565023B2 (ja) * | 2008-07-04 | 2010-10-20 | ファナック株式会社 | 物品取り出し装置 |
US8559699B2 (en) * | 2008-10-10 | 2013-10-15 | Roboticvisiontech Llc | Methods and apparatus to facilitate operations in image based systems |
US8559671B2 (en) * | 2008-12-18 | 2013-10-15 | The Regents Of The University Of California | Training-free generic object detection in 2-D and 3-D using locally adaptive regression kernels |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
JP5714232B2 (ja) * | 2009-03-12 | 2015-05-07 | オムロン株式会社 | キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法 |
JP5282717B2 (ja) * | 2009-10-19 | 2013-09-04 | 株式会社安川電機 | ロボットシステム |
JP5382621B2 (ja) * | 2010-06-03 | 2014-01-08 | 株式会社安川電機 | 移載装置 |
JP5505138B2 (ja) * | 2010-07-05 | 2014-05-28 | 株式会社安川電機 | ロボット装置およびロボット装置による把持方法 |
JP4938115B2 (ja) * | 2010-07-27 | 2012-05-23 | ファナック株式会社 | ワーク取出し装置およびワーク取出し方法 |
JP5685027B2 (ja) * | 2010-09-07 | 2015-03-18 | キヤノン株式会社 | 情報処理装置、物体把持システム、ロボットシステム、情報処理方法、物体把持方法およびプログラム |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5787642B2 (ja) * | 2011-06-28 | 2015-09-30 | キヤノン株式会社 | 対象物保持装置、対象物保持装置の制御方法、およびプログラム |
US9437005B2 (en) * | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
US8930009B2 (en) * | 2011-10-20 | 2015-01-06 | Kabushiki Kaisha Yaskawa Denki | Robot system and processed object manufacturing method |
JP2013101045A (ja) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
US8843236B2 (en) * | 2012-03-15 | 2014-09-23 | GM Global Technology Operations LLC | Method and system for training a robot using human-assisted task demonstration |
-
2012
- 2012-07-31 JP JP2012170009A patent/JP5469216B2/ja active Active
-
2013
- 2013-07-22 US US13/947,805 patent/US8874270B2/en active Active
- 2013-07-23 DE DE102013012224.4A patent/DE102013012224B4/de active Active
- 2013-07-30 CN CN201310326121.0A patent/CN103568024B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3202290B2 (ja) * | 1991-12-28 | 2001-08-27 | ティーディーケイ株式会社 | インダクタンス素子 |
EP1428634A2 (en) * | 2002-12-13 | 2004-06-16 | Fanuc Ltd | Workpiece taking-out robot with a three-dimensional visual sensor |
CN1528571A (zh) * | 2003-09-29 | 2004-09-15 | 上海大学 | 多边形对象多指抓取规划方法与装置 |
CN101396829A (zh) * | 2007-09-29 | 2009-04-01 | 株式会社Ihi | 机器人装置的控制方法以及机器人装置 |
CN101637908A (zh) * | 2008-07-29 | 2010-02-03 | 上海发那科机器人有限公司 | 一种用于机器人搬运作业的视觉定位方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2014028415A (ja) | 2014-02-13 |
US8874270B2 (en) | 2014-10-28 |
CN103568024A (zh) | 2014-02-12 |
JP5469216B2 (ja) | 2014-04-16 |
US20140039679A1 (en) | 2014-02-06 |
DE102013012224B4 (de) | 2015-02-05 |
DE102013012224A1 (de) | 2014-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103568024B (zh) | 利用机械手取出散装物品的装置 | |
US9415511B2 (en) | Apparatus and method for picking up article randomly piled using robot | |
US9927222B2 (en) | Position/orientation measurement apparatus, measurement processing method thereof, and non-transitory computer-readable storage medium | |
CN104908038B (zh) | 对工件的取出工序进行仿真的机器人仿真装置 | |
EP2636493B1 (en) | Information processing apparatus and information processing method | |
US8711214B2 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium | |
US9727053B2 (en) | Information processing apparatus, control method for information processing apparatus, and recording medium | |
US10410339B2 (en) | Simulator, simulation method, and simulation program | |
US9746855B2 (en) | Information processing system, method, and program | |
US9616572B2 (en) | Information processing apparatus for determining interference between peripheral objects and grasping unit, information processing method, and storage medium | |
US9430837B2 (en) | Position and orientation measurement apparatus, position and orientation measurement method, and program | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
US20130158947A1 (en) | Information processing apparatus, control method for information processing apparatus and storage medium | |
US20080240511A1 (en) | Apparatus for picking up objects | |
US20120262455A1 (en) | Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium | |
JP2013101045A (ja) | 物品の3次元位置姿勢の認識装置及び認識方法 | |
WO2011105522A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
CN106985161A (zh) | 物品抓取系统和方法 | |
JP2017033429A (ja) | 3次元物体検査装置 | |
Nilsson | 3D-vision guided robotics for material handling | |
Rofalis et al. | Fast visual part inspection for bin picking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |