CN108789499B - 物品取出系统 - Google Patents

物品取出系统 Download PDF

Info

Publication number
CN108789499B
CN108789499B CN201810367322.8A CN201810367322A CN108789499B CN 108789499 B CN108789499 B CN 108789499B CN 201810367322 A CN201810367322 A CN 201810367322A CN 108789499 B CN108789499 B CN 108789499B
Authority
CN
China
Prior art keywords
article
space
unit
sensor
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810367322.8A
Other languages
English (en)
Other versions
CN108789499A (zh
Inventor
和田润
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2017-089023 priority Critical
Priority to JP2017089023A priority patent/JP6526100B2/ja
Application filed by FANUC Corp filed Critical FANUC Corp
Publication of CN108789499A publication Critical patent/CN108789499A/zh
Application granted granted Critical
Publication of CN108789499B publication Critical patent/CN108789499B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1612Programme controls characterised by the hand, wrist, grip control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39155Motion skill, relate sensor data to certain situation and motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39476Orient hand relative to object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39543Recognize object and plan hand shapes in grasping movements
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40607Fixed camera to observe workspace, object, workpiece, global

Abstract

即使物品以各种状态容纳于收纳容器内,也能够从收纳容器中取出更多的物品。提供一种物品取出系统(1),包括:传感器(3),用于测量收纳容器(X)内容纳的物品(W)的状态;物品检测单元,用于基于传感器(3)测量出的物品(W)的状态,对物品(W)进行检测;处理单元(2、4),用于取出物品检测单元检测到的物品(W)或者改变物品(W)的位置和姿势;以及控制部(5),用于控制传感器(3)、物品检测单元以及处理单元(2、4),控制部(5)包括:空间分割单元,其针对传感器(3)测量出的物品(W)的每个状态,分割物品(W)所存在的空间;以及切换单元,其针对由空间分割单元分割得到的每个空间,切换传感器(3)的测量方法、物品检测单元的检测方法以及处理单元(2、4)的取出方法中的至少一个。

Description

物品取出系统
技术领域
本发明涉及一种物品取出系统。
背景技术
以往,已知一种通过机器人取出容纳于箱子等的收纳容器内的物品的系统(例如,参照专利文献1)。在该系统中,通过三维传感器测量收纳容器内的物品的三维形状,并且根据获取的三维数据确定物品的位置和姿势,从而利用机器人取出物品。
现有技术文献
专利文献
专利文献1:日本特开2013-10155号公报
发明内容
发明所要解决的问题
然而,存在以下问题:由于收纳容器内的物品的状态并不相同,因而如果完全应用同一种测量方法、检测方法以及取出方法,则无法从收纳容器中取出所有的物品。
本发明是鉴于上述情况而完成的,其目的在于提供一种物品取出系统,即使物品以各种状态容纳于收纳容器内,也能够从收纳容器中取出更多的物品。
解决问题的手段
为了实现上述目的,本发明提供以下手段。
本发明的一个方面提供一种物品取出系统,包括:传感器,用于测量收纳容器内容纳的物品的状态;物品检测单元,用于基于所述传感器测量出的所述物品的状态,对所述物品进行检测;处理单元,用于取出所述物品检测单元检测到的所述物品或者改变所述物品的位置和姿势;以及控制部,用于控制所述传感器、所述物品检测单元以及所述处理单元,所述控制部包括:空间分割单元,其针对由所述传感器测量出的所述物品的每个状态,分割所述物品所存在的空间;以及切换单元,其针对由所述空间分割单元分割得到的每个所述空间,切换所述传感器的测量方法、所述物品检测单元的检测方法以及所述处理单元的取出方法中的至少一个。
根据本方面,通过传感器测量收纳容器内的物品的状态,物品检测单元基于测量出的物品的状态对物品进行检测,处理单元从收纳容器内取出检测到的物品或者改变物品的位置和姿势。
在该情况下,空间分割单元针对传感器测量出的物品的状态而对收纳容器内的物品所存在的空间进行分割,针对分割得到的每个空间切换测量方法、检测方法以及取出方法中的至少一个。由此,针对不同状态的物品不是应用同一种测量方法、检测方法以及取出方法,而是根据物品的状态应用不同的测量方法、检测方法或取出方法,因而,即使物品是以各种状态容纳于收纳容器内,也能够从收纳容器中取出更多的物品。
在上述方面中,也可以为,所述传感器包括:二维相机,用于获取所述物品的二维图像;以及三维相机,用于获取所述物品的三维形状。
通过这样,通过二维相机获取包含物品的亮度、颜色等状态的二维图像,通过三维相机获取包含物品的姿势、高度等状态的三维形状。由此,能够根据物品的二维图像和三维形状而针对每个状态对物品进行分割。
另外,在上述方面中,也可以为,所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述空间,所述切换单元针对分割得到的每个所述空间,切换用于通过所述传感器测量所述二维图像和所述三维形状中的至少一个的条件。
通过这样,针对基于传感器获取到的二维图像和三维形状中的至少一个而分割得到的每个空间,切换进行测量的条件进行测量,从而能够高精度地进行之后的物品的检测。
另外,在上述方面中,也可以为,所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述空间,所述切换单元针对分割得到的每个所述空间,切换通过所述物品检测单元检测所述物品的检测工具。
通过这样,例如在整齐排列的物品与散落的物品混合存在的情况下,根据物品的二维图像和三维形状中的至少一个,按照两种物品所属的空间进行分割,并且针对每个空间而切换不同的检测工具,从而能够高精度地检测每个空间的物品。
另外,在上述方面中,也可以为,所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述收纳容器的所述空间,所述切换单元针对分割得到的每个所述空间,切换所述处理单元进行的取出或者使所述物品的位置和姿势改变的方法。
例如,对于配置在距离收纳容器的内壁较远位置的物品,无需担心处理单元与收纳容器的内壁之间的干扰而能够进行取出作业,另一方面,对于靠近收纳容器的内壁的物品,处理单元进行的取出或使物品的位置和姿势改变的方法受到限制。
通过这样,根据物品是否靠近收纳容器的内壁而切换取出方法,因此能够从收纳容器内取出更多的物品。
另外,在上述方面中,也可以为,通过机械学习设定由所述切换单元切换的测量方法、检测方法以及取出方法中的与所述物品的状态相对应的最佳测量方法、检测方法以及取出方法。
通过这样,由于通过机械学习来统计设定与物品的状态相对应的最佳测量方法、检测方法以及取出方法,因而,即使在不存在用于分割空间的明确条件的情况下,也能够设定适当的测量方法、检测方法以及取出方法。
发明的效果
根据本发明,能够实现如下效果:即使物品以各种状态容纳于收纳容器中,也能够从收纳容器中取出更多的物品。
附图说明
图1是表示本发明的一个实施方式所涉及的物品取出系统的整体结构图。
图2是表示图1的物品取出系统的框图。
图3是表示通过图1的物品取出系统的传感器获取到的二维图像和空间分割的一例的图。
图4是对在图3状态下的物品取出系统的动作进行说明的流程图。
图5是表示图1的物品取出系统的空间分割的其他实施例的图。
图6是对在图5的状态下的物品取出系统的动作进行说明的流程图。
图7是表示图1的物品取出系统的空间分割的其他实施例的图。
图8是对在图7状态下的物品取出系统的动作进行说明的流程图。
图9是对在图1的物品取出系统中对用户进行分割得到的空间分配检测工具的机械学习的学习模型的构建进行说明的流程图。
图10是对应用图9的学习模型进行的物品的取出动作进行说明的流程图。
具体实施方式
下面,参照附图对本发明的一个实施方式所涉及的物品取出系统1进行说明。
如图1所示,本实施方式所涉及的物品取出系统1是通过机器人(处理单元)2取出上方开口的箱子那样的收纳容器X内容纳的多个机械部件那样的工件(物品)W、或者改变工件W的位置和姿势的系统。
本实施方式所涉及的物品取出系统1包括:传感器(二维相机或三维相机)3,其配置于收纳容器X的上方,用于获取配置在下方的收纳容器X内的工件W的状态;机器人2,其在手腕前端安装有能够把持工件W的机械手(处理单元)4;以及控制部5,用于控制机器人2、传感器3以及机械手4。
传感器3包括用于获取工件W的二维图像的二维相机(省略图示)和用于获取工件W的三维形状数据的三维相机(省略图示)。
工件W的例如是平板状,并且具有在板厚方向上贯通的圆形贯通孔100的形状。
机器人2例如是垂直多关节型机器人,机械手4具有插入于工件W的贯通孔100的两个爪6,并且具有通过在闭合状态下打开插入于贯通孔100的爪6来把持工件W的结构。机器人2的形态和机械手4的结构可以是任意的。
如图2所示,控制部5包括:工件检测部(物品检测单元)7,用于基于传感器3获取的工件W的状态而对工件W进行检测;空间分割部(空间分割单元)8,用于基于传感器3测量出的工件W的每个状态,分割工件W所存在的空间;取出控制部9,用于控制机器人2和机械手4;以及切换部(切换单元)10,其针对由空间分割部8分割得到的每个空间,切换由传感器3进行的测量方法、由工件检测部7进行的检测方法以及由取出控制部9进行的使用机器人2和机械手4取出工件W的取出方法中的至少一个。控制部5是计算机,具备存储数据的存储部(省略图示)和处理数据的处理器(省略图示)。
在图3所示的例子中,空间分割部8基于传感器3获取的工件W的二维图像的亮度,将空间分割为亮的空间和暗的空间(图中阴影所示)。然后,空间分割部8如实线所示那样修正边界线,从而使得分割空间的边界线(图中虚线所示)不会横穿工件W。在该情况下,修正边界线,以使工件W包含在相对于横穿工件W的边界线而言,工件W的更多的部分所存在一侧。
并且,切换部10针对分割得到的每个空间而切换传感器3的测量方法。即,在亮的空间中减少曝光以使传感器3获取二维图像,在暗的空间中增加曝光以使传感器3获取二维图像。
对该情况下的步骤进行说明,如图4所示,首先,通过传感器3获取收纳容器X内的数据(步骤S1),基于获取到的二维图像,测量工件W的状态(亮度、条件)(步骤S2),并且根据工件W的状态对空间进行分割(步骤S3)。
然后,针对分割得到的每个空间切换传感器3的曝光(步骤S4),重新获取数据(步骤S5),对于分割得到的所有空间重复从步骤S4起的步骤(步骤S6)。接着,在基于获取到的二维图像和三维形状数据进行工件W的检测之后(步骤S7),计算工件W的位置和姿势(步骤S8),利用机器人2和机械手4进行工件W的位置和姿势的改变以及取出(步骤S9)。
另外,在图5所示的例子中,示出了在整齐排列的工件W中散落一个工件W的情况。在这样的情况下,空间分割部8基于传感器3获取到的工件W的三维形状数据,将空间中的工件W的高度变化与其他地方不同的空间从剩余的空间中分割出来。空间分割部8利用边界线(图中实线所示)分割出的空间是相对于工件W以整齐排列的状态堆叠的空间而高度变化不同的工件W散落的空间。
并且,切换部10针对分割得到的每个空间而切换由工件检测部7进行的工件W的检测的检测工具。即,由于在工件W以整齐排列的状态堆叠的空间中,能够看到贯通孔100大致呈圆形,因而能够通过圆形的图案进行图案匹配来检测工件W,在工件W散落的空间中,贯通孔100变为椭圆形,因而能够通过进行允许圆形图案的变形的图案匹配来检测工件W。
并且,在工件W整齐排列的空间中,通过将机械手4从贯通孔100的正面(铅直上方)向下插入,从而能够把持工件W,在工件W散落的空间中,在将机械手4斜向插入贯通孔100中、或者用机械手4按压工件W来修正散落状态(改变工件W的位置和姿势)、或者去除了工件W之后,能够通过与整齐排列的空间相同的取出方法取出工件W。
对该情况下的步骤进行说明,如图6所示,首先,通过传感器3进行收纳容器X内的测量(数据获取)(步骤S1),基于获取到的三维形状数据,测量工件W的状态(倾斜度等、条件)(步骤S2),并且根据工件W的状态而分割空间(步骤S3)。
然后,针对分割得到的每个空间切换检测工具(步骤S10),并进行工件W的检测(步骤S7),对于分割得到的所有空间重复从步骤S10起的步骤(步骤S6)。接着,计算工件W的位置和姿势(步骤S8),针对每个空间切换取出方法,从而利用机器人2和机械手4进行工件的取出(步骤S9)。
另外,在图7所示的例子中,示出了收纳容器X内散装了很多工件W的状态。在这样的情况下,空间分割部8根据是否距离收纳容器X的内壁较远而对空间进行分割。
具体而言,如图7中的虚线所示的边界线那样,空间分割部8根据是否与收纳容器X相距规定的距离以上而分割空间,并且如实线那样对边界线进行修正,从而使得边界线不会横穿基于二维图像或三维形状数据而检测到的工件W。
更详细地,根据工件W的较多的部分存在于以虚线所示的边界线为界的内侧和外侧的哪一侧而如实线那样修正边界线,从而使得整个工件W配置于其较多的部分所存在的一侧的空间内。
然后,切换部10针对每个空间,切换通过机器人2和机械手4进行取出的取出方法。即,在内侧的空间中,由于机械手4不与收纳容器X的内壁相干扰,因而能够比较自由地决定机器人2和机械手4的姿势而取出工件W。
另一方面,在外侧的空间中,由于机械手4与相邻的收纳容器X的内壁相干扰的可能性较高,因此机械手4从与内壁相反的一侧靠近工件W,并且在将工件W拉入内侧的空间内后,可以通过内侧的空间中的取出方法而取出工件W。
对该情况下的步骤进行说明,如图8所示,首先,通过传感器3进行收纳容器X内的测量(数据获取)(步骤S1),基于获取到的三维形状数据,测量工件W与收纳容器X之间的距离(工件W的状态、条件)(步骤S2),根据工件W的状态而分割空间(步骤S3)。
然后,进行工件W的检测(步骤S7),计算工件W的位置和姿势(步骤S8),针对每个空间而切换取出方法(步骤S11),利用机器人2和机械手4进行取出(步骤S9),针对分割所得到的所有空间重复从步骤S11起的工序(步骤S6)。
根据如上述构成的本实施方式所涉及的物品取出系统1,存在以下优点:即使工件W以各种不同的状态容纳于收纳容器X内,也能够高精度地检测出更多的工件W并将其从收纳容器X中取出。
需要说明的是,虽然在本实施方式所涉及的物品取出系统1中,设定为空间分割部8基于传感器3检测到的二维图像和三维形状中的至少一个的工件W的状态来分割空间,但也可以利用机械学习来分割空间。例如,如图9所示,通过传感器3获取二维图像或三维形状数据(步骤S1),用户在由传感器3获取到的二维图像或三维形状数据中,对空间进行分割(步骤S20),并且针对每个空间分配预先生成的检测工具(步骤S21),将空间与测量结果作为教师数据而相关联地存储起来(步骤S22)。在重复步骤S21和步骤S22的步骤并对数据进行了存储之后(步骤S23),能够构建学习模型(步骤S24)。
在构建学习模型之后,如图10所示,当通过传感器3获取到工件W的二维图像和三维形状数据时(步骤S1),应用学习模型(步骤S25)对收纳容器X内的空间进行分割,并且将适当的检测工具分配到每个空间(步骤S26)。由此,即使在空间分割的条件模糊的情况下,也能够通过学习模型将工件W明确地分类到某个空间中,从而高精度地计算出工件W的位置和姿势(步骤S27),能够从收纳容器X内取出更多的工件W(步骤S9)。
另外,在本实施方式中,作为工件W,例示了具有圆形的贯通孔100的平板状的工件,但是并不限定于此。另外,作为机械手4,也能够根据工件W的形状而采用任意结构的机械手。
另外,虽然设定为通过学习模型使工件W与空间和检测工具相关联,但取而代之地,也可以通过学习模型切换传感器3的测量方法、工件W的检测工具以及利用机器人2和机械手4进行取出的取出方法中的至少一个。
附图标记说明
1物品取出系统
2机器人(处理单元)
3传感器(二维相机、三维相机)
4机械手(处理单元)
5控制部
7工件检测部(物品检测单元)
8空间分割部(空间分割单元)
10切换部(切换单元)
W工件(物品)
X收纳容器

Claims (8)

1.一种物品取出系统,包括:
传感器,用于测量收纳容器内容纳的物品的状态;
物品检测单元,用于基于所述传感器测量出的所述物品的状态,对所述物品进行检测;
处理单元,用于取出所述物品检测单元检测到的所述物品或者改变所述物品的位置和姿势;以及
控制部,用于控制所述传感器、所述物品检测单元以及所述处理单元,
所述控制部包括:空间分割单元,其针对由所述传感器测量出的所述物品的每个状态,分割所述物品所存在的空间;以及切换单元,其针对由所述空间分割单元分割得到的每个所述空间,切换所述传感器的测量方法、所述物品检测单元的检测方法、所述处理单元取出所述物品的方法、以及使所述物品的位置和姿势改变的方法中的至少一个。
2.根据权利要求1所述的物品取出系统,其特征在于,
所述传感器包括:二维相机,用于获取所述物品的二维图像;以及三维相机,用于获取所述物品的三维形状。
3.根据权利要求2所述的物品取出系统,其特征在于,
所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述空间,
所述切换单元针对分割得到的每个所述空间,切换用于通过所述传感器测量所述二维图像和所述三维形状中的至少一个的条件。
4.根据权利要求2所述的物品取出系统,其特征在于,
所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述空间,
所述切换单元针对分割得到的每个所述空间,切换通过所述物品检测单元检测所述物品的检测工具。
5.根据权利要求3所述的物品取出系统,其特征在于,
所述切换单元针对分割得到的每个所述空间,切换通过所述物品检测单元检测所述物品的检测工具。
6.根据权利要求2至5中任一项所述的物品取出系统,其特征在于,
所述空间分割单元基于所述传感器获取到的所述二维图像和所述三维形状中的至少一个而分割所述收纳容器的所述空间,
所述切换单元针对分割得到的每个所述空间,切换所述处理单元取出所述物品的方法或者使所述物品的位置和姿势改变的方法。
7.根据权利要求1至5中任一项所述的物品取出系统,其特征在于,
通过机械学习来设定:由所述空间分割单元进行的所述空间的分割;以及由所述切换单元进行的测量方法、检测方法、取出所述物品的方法、以及使所述物品的位置和姿势改变的方法的切换。
8.根据权利要求6所述的物品取出系统,其特征在于,
通过机械学习来设定:由所述空间分割单元进行的所述空间的分割;以及由所述切换单元进行的测量方法、检测方法、取出所述物品的方法、以及使所述物品的位置和姿势改变的方法的切换。
CN201810367322.8A 2017-04-28 2018-04-23 物品取出系统 Active CN108789499B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017-089023 2017-04-28
JP2017089023A JP6526100B2 (ja) 2017-04-28 2017-04-28 物品取出システム

Publications (2)

Publication Number Publication Date
CN108789499A CN108789499A (zh) 2018-11-13
CN108789499B true CN108789499B (zh) 2019-12-31

Family

ID=63797614

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810367322.8A Active CN108789499B (zh) 2017-04-28 2018-04-23 物品取出系统

Country Status (4)

Country Link
US (1) US10518417B2 (zh)
JP (1) JP6526100B2 (zh)
CN (1) CN108789499B (zh)
DE (1) DE102018206209B4 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6333871B2 (ja) * 2016-02-25 2018-05-30 ファナック株式会社 入力画像から検出した対象物を表示する画像処理装置
JP6453922B2 (ja) * 2017-02-06 2019-01-16 ファナック株式会社 ワークの取り出し動作を改善するワーク取り出し装置およびワーク取り出し方法
JP6680750B2 (ja) * 2017-11-22 2020-04-15 ファナック株式会社 制御装置及び機械学習装置
JP2020166371A (ja) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 情報処理方法、情報処理装置、物体検出装置およびロボットシステム
WO2021006306A1 (ja) * 2019-07-08 2021-01-14 TechMagic株式会社 食器自動洗浄システム、食器自動洗浄方法、食器自動洗浄プログラム及び記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
CN103786153A (zh) * 2012-10-31 2014-05-14 发那科株式会社 物品取出装置及物品取出方法
CN104227723A (zh) * 2013-06-07 2014-12-24 株式会社安川电机 工件检测装置和方法、机器人系统及被加工物的制造方法
JP2015079374A (ja) * 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
CN104608149A (zh) * 2013-11-05 2015-05-13 发那科株式会社 用机器人来取出散装物品的装置以及方法
CN106393102A (zh) * 2015-07-31 2017-02-15 发那科株式会社 机械学习装置、机器人系统及机械学习方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3516067B2 (ja) 1994-04-26 2004-04-05 川崎重工業株式会社 デパレタイズ用画像作成方法および画像作成装置
JP3876260B2 (ja) 2004-09-16 2007-01-31 ファナック株式会社 物品供給装置
JP5333344B2 (ja) 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP5402697B2 (ja) * 2009-10-26 2014-01-29 株式会社安川電機 ロボット装置及びワーク取り出しシステム並びにワーク取り出し方法
JP4938115B2 (ja) * 2010-07-27 2012-05-23 ファナック株式会社 ワーク取出し装置およびワーク取出し方法
JP5787642B2 (ja) 2011-06-28 2015-09-30 キヤノン株式会社 対象物保持装置、対象物保持装置の制御方法、およびプログラム
JP5929854B2 (ja) * 2013-07-31 2016-06-08 株式会社安川電機 ロボットシステムおよび被加工物の製造方法
CN107530881B (zh) * 2015-01-29 2021-05-25 Abb瑞士股份有限公司 机器人系统和用于操作机器人的方法
JP6512852B2 (ja) 2015-02-10 2019-05-15 キヤノン株式会社 情報処理装置、情報処理方法
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
DE102016009030B4 (de) * 2015-07-31 2019-05-09 Fanuc Corporation Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsystem zum Lernen eines Werkstückaufnahmevorgangs

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004160567A (ja) * 2002-11-11 2004-06-10 Fanuc Ltd 物品取出し装置
CN103786153A (zh) * 2012-10-31 2014-05-14 发那科株式会社 物品取出装置及物品取出方法
CN104227723A (zh) * 2013-06-07 2014-12-24 株式会社安川电机 工件检测装置和方法、机器人系统及被加工物的制造方法
JP2015079374A (ja) * 2013-10-17 2015-04-23 セイコーエプソン株式会社 物体認識装置、物体認識方法、物体認識プログラム、ロボットシステム及びロボット
CN104608149A (zh) * 2013-11-05 2015-05-13 发那科株式会社 用机器人来取出散装物品的装置以及方法
CN106393102A (zh) * 2015-07-31 2017-02-15 发那科株式会社 机械学习装置、机器人系统及机械学习方法

Also Published As

Publication number Publication date
US10518417B2 (en) 2019-12-31
JP2018187687A (ja) 2018-11-29
JP6526100B2 (ja) 2019-06-05
CN108789499A (zh) 2018-11-13
US20180311824A1 (en) 2018-11-01
DE102018206209A1 (de) 2018-10-31
DE102018206209B4 (de) 2020-08-13

Similar Documents

Publication Publication Date Title
CN108789499B (zh) 物品取出系统
EP3383593B1 (en) Teaching an industrial robot to pick parts
DE112012002677B4 (de) Zuführvorrichtung für Bauelemente
EP1418025A2 (en) Article pickup device comprising a robot and a visual sensor
CN105858188A (zh) 具备三维传感器的搬运机器人系统
EP2585256B1 (en) Method for the selection of physical objects in a robot system
DE112019000177T5 (de) Ein robotersystem mit automatisiertem paketregistrierungsmechanismus und verfahren zum betreiben dieses systems
JP2014161965A (ja) 物品取り出し装置
CN104227723A (zh) 工件检测装置和方法、机器人系统及被加工物的制造方法
JP2008246631A (ja) 対象物取出装置
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
US9576363B2 (en) Object picking system, object detecting device, object detecting method
JP2016147327A (ja) 位置及び姿勢の変換演算機能を備えたワーク取出しロボットシステム、及びワーク取出し方法
US20150290805A1 (en) Vision-Assisted System and Method for Picking of Rubber Bales in a Bin
US9361695B2 (en) Method of recognizing a position of a workpiece from a photographed image
US9796120B2 (en) Injection molding system
CN108942916B (zh) 工件取出系统
JP6167760B2 (ja) 物品位置認識装置
CN108126914B (zh) 一种基于深度学习的料框内散乱多物体机器人分拣方法
JP6041710B2 (ja) 画像認識方法
JP2016078180A (ja) 異常原因推定装置、ピッキング装置及びピッキング装置における異常原因推定方法
JP6026365B2 (ja) 画像認識方法
US11123862B2 (en) Method for handling a workpiece with the aid of a removal tool and machine for carrying out the method
JP2020049558A (ja) 物品取り出しシステム
JP2014174629A (ja) ワークピース認識方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant