CN103056884A - 机器人系统和被加工对象物制造方法 - Google Patents

机器人系统和被加工对象物制造方法 Download PDF

Info

Publication number
CN103056884A
CN103056884A CN201210039248XA CN201210039248A CN103056884A CN 103056884 A CN103056884 A CN 103056884A CN 201210039248X A CN201210039248X A CN 201210039248XA CN 201210039248 A CN201210039248 A CN 201210039248A CN 103056884 A CN103056884 A CN 103056884A
Authority
CN
China
Prior art keywords
robot
green onion
controller
instrument
transfer path
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201210039248XA
Other languages
English (en)
Inventor
三次哲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011230685A external-priority patent/JP5370788B2/ja
Priority claimed from JP2011230684A external-priority patent/JP5440885B2/ja
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Publication of CN103056884A publication Critical patent/CN103056884A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41815Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell
    • G05B19/4182Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by the cooperation between machine tools, manipulators and conveyor or other workpiece supply system, workcell manipulators and conveyor only
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种机器人系统和被加工对象物制造方法。一种机器人系统包括传送胡葱(12)的传送机(14);三维传感器(18),该三维传感器(18)检测在传送机(14)的传送路径上传送的胡葱(12)的三维形状;机器人(16A)和(16B),该机器人(16A)和(16B)允许安装用于执行提起并移动胡葱(12)的作业的工具(166a)和(166c);以及控制器(28),该控制器(28)对于机器人(16A)和(16B)输出动作命令并且基于三维传感器(18)的检测结果校正动作命令,其中,控制器(28)向机器人(16A)和(16B)输出校正后的动作命令。

Description

机器人系统和被加工对象物制造方法
技术领域
本发明的实施方式涉及机器人系统和被加工对象物制造方法。
背景技术
在现有技术中,已经知道了用于对传送装置在传送路径上进行传送的对象物执行预定作业的技术(参见例如日本专利申请特开平H 11-262886号公报)。该预定作业的示例包括以下:提起并移动被传送对象物,向对象物涂布粘合剂或涂料,去除对象物的不需要区域,或在对象物上打烙印。在该现有技术中,由传送装置(带式传送机)连续传送多个对象物(工件)。当被传送的对象物到达预定位置时,由摄像机记录该对象物的图像。由摄像机生成的视频信号被发送到图像处理装置。图像处理装置检查对象物的形状、其安装姿势、有无凹凸、毛刺位置等。接着,基于该信息,确定安装于爪间隔改变机构的夹持爪触及对象物的位置,该爪间隔可变机构设置于固定于机器人(铰接式机器人)的机器人臂的工具(机器人手)的两个手指。爪间隔改变机构接着根据该确定调节夹持爪之间的间隔。
接着,机器人臂基于来自图像处理装置的信息,移动到对象物的位置并且经由工具夹持该对象物。随后,机器人臂通过使对象物的未整形区域接触研磨机并且接着例如上升、下降、旋转或传递对象物,来对该对象物整形。一旦对象物被整形,机器人臂就将对象物放置在传送装置上,结束该系列作业。随后,机器人臂针对下一个对象物调节夹持爪之间的间隔。
进一步地,在现有技术中,已知用于加工对象物的其他技术(参见例如日本专利申请特开JP 2003-237940号公报)。在该现有技术中,设置了传送装置(带式传送机)。两个加工装置设置在传送装置附近。能够三维移动的机器人(三维机器人)沿传送装置的行进方向设置在两个加工装置的上游侧。该机器人能够接收传送装置和两个加工装置之间的对象物(工件)。
对象物由传送装置传送并且由机器人递送到一个加工装置。接着,在一个加工装置对该对象物进行加工之后,由机器人将对象物放置在传送装置上。接着,当向另一个加工装置的位置传送对象物时,该对象物经由机器人由另一个加工装置类似地加工并且放置在传送装置上。
发明内容
本发明解决的问题
通常,经由例如示教器预先输入的动作命令被输出给机器人。机器人基于该动作命令进行动作。
但是,当对象物是个体形状不定的无定形对象物(如,自然对象物(如,蔬菜或水果)或多个种类混合的人工对象物(工业产品))时,对象物的形状存在变化,使得不可能确认各对象物的形状。结果,存在这样的可能性:即使机器人基于动作命令进行动作时,该机器人也将无法经由工具对传送路径上传送的对象物精确地执行预定作业。在现有技术日本专利申请特开平H 11-262886号公报中,由摄像机记录传送路径上传送的对象物的图像,并且基于该视频信号检查对象物的形状。接着,即使对象物是形状不定的无定形对象物(如,自然对象物或人工对象物),也基于视频信号对动作命令进行校正,并且该动作命令在校正后输出给机器人。结果,机器人基于校正后的动作命令进行动作,由此可以经由工具对传送路径上传送的对象物精确地执行预定作业。
但是,当该处理基于由图像拍摄装置(如,摄像机)拍摄的图像时,可以确认对象物的二维形状,但是难以精确地确认对象物的三维形状。结果,当对象物是无定形对象物时,根据现有技术的日本专利申请特开平H 11-262886号公报的技术,即使机器人基于校正后的动作命令进行动作,也无法精确地对传送路径上传送的对象物可靠地执行预定作业。结果,执行作业后的对象物是有缺陷的,这造成包括无法使对象物进入市场,生产率降低的问题。另一方面,为了精确地对传送路径上传送的对象物可靠地执行预定作业,可以考虑在比正常情况长的时间段执行作业的技术。但是,在这样的情况下,与上述情况类似,节拍时间增加,导致生产率下降的问题。
进一步地,在如前所述,被加工对象物是个体形状不定的无定形对象物(如,自然对象物(如,蔬菜或水果)或多个种类混合的人工对象物(工业产品))的情况下,例如,在日本专利申请特开JP 2003-237940号公报的现有技术中会出现以下问题。即,即使机器人试图移动到要加工被传送对象物的位置,工具有时也会由于对象物形状的变化而无法接触或提起对象物。进一步地,即使工具与对象物接触,有时由于接触姿态差,也无法提起对象物,或者提起了对象物,但是在移动时掉下。在这样的情况下,存在这样的可能性:机器人无法使对象物移动到要加工对象物的位置。进一步地,即使机器人可以使对象物移动到要加工对象物的位置,但是如上所述,对象物形状存在变化,使得无法针对各对象物具体设置加工目标区域。结果,存在在加工过程中在对象物之间被加工区域出现变化的可能性。
因此,本发明的第一目的是提供一种即使对象物是无定形对象物也能够在执行预定作业时提高生产率的机器人系统。
本发明的第二目的是提供一种即使对象物是无定形对象物也能够抑制加工过程中对象物之间被加工区域变化的被加工对象物制造方法。
解决问题的方法
为了实现上述目的,根据本公开的一个方面,提供了一种机器人系统,该机器人系统包括:传送对象物的传送装置;第一传感器,该第一传感器检测由所述传送装置在传送路径上传送的所述对象物的三维形状;机器人,该机器人对所述传送装置在所述传送路径上传送的所述对象物执行预定作业;以及控制器,该控制器配置为操作所述机器人;所述控制器包括:命令输出部,该命令输出部基于所述第一传感器的检测结果,校正所述动作命令。
为了实现上述目的,根据本公开的另一个方面,提供了一种通过使用至少一个机器人来执行的被加工对象物制造方法,该至少一个机器人用于加工对象物,该方法包括以下步骤:传送步骤,在传送路径上传送所述对象物;检测步骤,经由第一传感器检测所述传送路径上传送的所述对象物的三维形状;控制步骤,基于所述第一传感器的检测结果控制所述机器人,使得当所述对象物在所述工具的可移动范围内传送时,使安装于所述机器人的工具接触所述对象物的接触目标区域,并且将所述对象物提起并移动到预定位置;检测步骤,由第二传感器检测已经移动到所述预定位置的所述对象物的姿势;设置步骤,基于所述第二传感器的检测结果,来设置由所述机器人的所述工具提起的所述对象物的加工目标区域;以及控制步骤,控制所述机器人,使得将所述工具提起的所述对象物的所述加工目标区域引导到要执行加工的位置。
本发明的优点
根据本公开的机器人系统,即使对象物是无定形对象物,也可以提高执行预定作业时的生产率。
根据本公开的被加工对象物制造方法,即使对象物是无定形对象物,也可以抑制加工过程中对象物之间的被加工区域的变化。
附图说明
图1是示意性地示出了第一实施方式的机器人系统的整体构造的俯视图。
图2是示意性地示出了机器人系统的整体构造的侧面图。
图3是示出了控制器的功能构造的功能框图。
图4是说明了机器人系统的动作的一个示例的说明性图。
图5是说明了机器人系统的动作的一个示例的说明性图。
图6是说明了机器人系统的动作的一个示例的说明性图。
图7是说明了机器人系统的动作的一个示例的说明性图。
图8是说明了机器人系统的动作的一个示例的说明性图。
图9是说明了机器人系统的动作的一个示例的说明性图。
图10是说明了机器人系统的动作的一个示例的说明性图。
图11是示意性地示出了照相机正面朝上安装的变型例的机器人系统的整体构造的俯视图。
图12是示意性地示出了第二实施方式的机器人系统的整体构造的侧面图。
图13示出了由控制器执行的控制细节的一个示例的流程图。
图14是示意性地示出了确定机器人待机姿势并且相应地选择机器人的变型例的机器人系统的整体构造的侧面图。
图15是示出了由控制器执行的控制细节的一个示例的流程图。
图16是示意性地示出了确定机器人安装区域并且相应地选择机器人的变型例的机器人系统的整体构造的侧面图。
图17是示出了由控制器执行的控制细节的一个示例的流程图。
图18是示意性地示出了仅安装了一个机器人的变型例的机器人系统的整体构造的侧面图。
图19是示意性地示出了机器人系统的整体构造的侧面图。
图20是示出了由控制器执行的控制细节的一个示例的流程图。
具体实施方式
现在将参照附图描述机器人系统和被处理对象物制造方法的第一实施方式。该实施方式是以新鲜产品(胡葱、藠头等)为目标的切割系统的实施方式,胡葱用作个体形状不定的无定形对象物的示例。
如图1和图2所示,该实施方式的机器人系统10(被加工对象物制造方法)是通过切除根毛部12a和茎部12b,以提取球根部12c来切割(对其执行预定加工)胡葱12的系统。胡葱12是球根蔬菜,即,自然对象物。胡葱12显示出个体形状(如,根毛部12a、茎部12b和球根部12c的位置、大小、范围等)的变化。该机器人系统10包括传送机14(传送装置)、三维传感器18(第一传感器)、多个(该示例中两个)机器人16A和16B(此后适当、简单地统称为“机器人16”)和控制器28。注意的是,传送机14、三维传感器18、各个机器人16A和16B以及控制器28彼此通信连接。
传送机14沿一个方向(在图1中从右侧到左侧;图2中从纸张背面到正面)传送在传送面上放置的胡葱12。传送机14包括电动机142、传送机驱动部144(驱动部)和编码器146。电动机142生成旋转力。传送机驱动部144连接至电动机142,并且由电动机142的旋转力旋转驱动。编码器146连接至传送机驱动部144,并且检测传送机驱动部144的旋转位置。编码器146的检测结果(即,传送机驱动部144的旋转位置信息)输出到控制器28。
三维传感器18包括激光光源和照相机。三维传感器18位于传送机14的传送路径的上游侧。具体地,三维传感器18固定于大致倒L形支撑部件32(其固定于地板部),使得三维传感器18位于传送路径上方,并且激光光源和照相机面朝下。激光光源设置在传送机14的传送面上的预定位置中。具体地,激光光源被设置为,使得持续照射(发射)沿与传送机14的传送方向垂直的方向长的隙缝形(线状束)的激光(此后适当称为“激光隙缝光”)。照相机设置为,使得照射机接收与激光光源所照射的激光隙缝光的路径不同的光学路径的反射光(相对于入射光具有预定角度的反射光)。照相机连续拍摄由激光光源所照射的激光隙缝光的照射位置及其周围的图像。
以预定速率在传送路径上连续传送胡葱12。即,胡葱12通过三维传感器18的检测区域下方。三维传感器18从激光光源向胡葱12照射激光隙缝光,并且经由照相机拍摄这些激光隙缝光的反射光。凭借该设置,三维传感器18对通过其下方的胡葱12进行扫描。接着,基于由照相机拍摄的图像,使用三角测量原理计算到被扫描的胡葱12的距离,并且检测胡葱12的三维形状。三维传感器18的检测结果(即,三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息)输出到控制器28。
各个机器人16A和16B比三维传感器18更远地设置在传送路径的下游侧。具体地,机器人16A和16B分别设置在传送路径沿宽度方向的一侧(图1中的上侧;图2中的左侧)上的区域中和另一侧(图1中的下侧;图2中的右侧)上的区域中,使得两个机器人16A和16B沿传送路径一定程度(例如,将近1m)地分开。进一步地,多个机器人16中沿传送路径的各个机器人16A和16B(至少最上游的机器人16A)设置在考虑了后面描述的工具的动作(具体地,吸盘166a和166b的吸附动作)的位置中。即,由吸盘166a和166b提起被传送的胡葱12的区域与三维传感器18的固定位置(具体地,三维传感器18对胡葱12的检测区域)在传送路径的下游沿传送路径分开预定距离S以上。预定距离S是例如,在用于根据三维传感器18的检测结果来获取后面描述的距离图像的处理时段中胡葱12所传送的距离,例如,1m。
这些机器人16A和16B在该示例中分别是垂直铰接式机器人。机器人16A和16B包括基台162、摆动基台163、臂164和用于基于预定提起方法执行提起和移动胡葱12的作业(相当于预定作业)的工具(例如,作为吸附装置的吸盘166a和166b)。基台162固定于基座30的顶侧,基座30固定于未示出的地板部。摆动基台163摆动地安装于基台162。臂164包括多个部件,并且各个部件彼此旋转地安装。吸盘166a和166b(此后适当、简单地统称为“吸盘166”)安装于臂164的端部。由真空装置(未示出)使吸盘166进入真空状态,并且吸盘166由此能够吸附并提起胡葱12。进一步地,照相机20(图像拍摄装置;第二传感器)、切割器22、废物盒24和投入盒26分别安装在各个机器人16A和16B周围的区域中。注意的是,照相机20和控制器28各个彼此通信连接。
对于这些机器人16A和16B中的各个机器人,通过经由真空装置(未示出)建立真空状态,能够通过真空吸附提起胡葱12的吸盘166a和166b安装于臂164的端部。接着,各个机器人16A和16B使摆动基台163和臂164协调地动作。凭借该设置,吸盘166a和166b接触传送路径上传送的胡葱12(具体地,如后所述,胡葱12的球根部12c的部分)。接着,通过吸盘166a和166b的真空吸附(相当于预定提起方法)来提起胡葱12。在该提起状态中,胡葱12移动到相邻照相机20的镜头201视野内的预定图像拍摄位置。接着,由吸盘166a和166b提起的胡葱12移动到周围区域中的切割器22的圆形切刀222的刀片2221的位置,并且由切割器22进行切割。随后,被吸盘166a和166b提起并且通过切割加工而切除了根毛部12a和茎部12b的胡葱12的球根部12c移动到相邻的投入盒26上方并且被投入到投入盒26(后面详细描述)中。
照相机20分别安装在各个机器人16A和16B附近,并且正面侧包括镜头201和由以环形设置在镜头201周围的多个LED制成的照明设备202。此时,照相机20的背面侧面对传送机14的侧面。进一步地,镜头201的视野位于相邻机器人16的吸盘166a和166b的可移动范围内。各个照相机20安装为,使得正面侧不面朝上,这使得可以保护镜头201不受从上方落下的水滴的影响。进一步地,背光(未示出)安装在各个照相机20的镜头201的正面侧上。接着,如上所述,当胡葱12由相邻机器人16移动到镜头201的视野内的图像拍摄位置时,各个照相机20经由镜头201拍摄视野内的图像。凭借该设置,照相机20拍摄移动到图像拍摄位置的胡葱12的图像,检测胡葱12的形状和姿势。各个照相机20的检测结果(即,各个照相机20的拍摄图像)输出到控制器28。
切割器22分别安装在各个机器人16A和16B附近。切割器22包括沿周向旋转的圆形切刀222。圆形切刀222在其外周周围包括对胡葱12进行切割的刀片2221。此时,圆形切刀222的刀片2221的位置(执行加工的位置)位于相应机器人16的吸盘166的可移动范围内。
废物盒24是用于丢弃由切割器22切除的胡葱12的根毛部12a和茎部12b的盒子。废物盒24是顶侧开口的盒子,并且放置在各个切割器22下方。
投入盒26是用于投入由切割器22切除了根毛部12a和茎部12b的胡葱12的球根部12c的盒子。投入盒26是顶侧开口的盒子,并且设置在各个机器人16A和16B附近。
控制器28包括用于控制三维传感器18、各个机器人16A和16B、照相机20等的操作的计算机,该计算机包括输入装置、显示装置、存储装置、运算装置等。如图3所示,该控制器28包括第一图像处理部281(第一设置部)、第二图像处理部283(第二设置部)、机器人选择部285和机器人控制器286。
第一图像处理部281生成从三维传感器18输入的、由三维传感器18的照相机所拍摄的图像,并且基于该拍摄图像的距离信息的距离图像(三维信息)。距离图像是以图像来表示从图像中的各个区域到三维传感器18的距离的大小的图像。接着,第一图像处理部281基于生成的距离图像来检测通过三维传感器18下方的胡葱12(以下适当称为“特定胡葱12”)的三维形状。凭借该设置,第一图像处理部281设置特定胡葱12的吸附目标区域(接触目标区域)(细节后面描述)。吸附目标区域是用作由机器人16的吸盘166进行真空吸附(接触)的目标的区域,即,最可能由吸盘166吸附的区域。
第二图像处理部283基于从照相机20输入的照相机20的拍摄图像,来检测由照相机20以图像拍摄的特定胡葱12的形状和姿势。接着,第二图像处理部283设置特定胡葱12的加工目标区域(细节后面描述)。加工目标区域是用作要由刀片2221切割的整个切割部分(包括切割开始位置和从该位置的切割角度)的目标的区域。
机器人选择部285从多个(该示例中两个)机器人16A和16B选择要处理特定胡葱12的机器人16。例如,机器人选择部285遵照预设顺序(例如,从最靠近三维传感器18的位置开始分配的顺序)选择机器人16。进一步地,机器人选择部285可以从未执行任何处理(已完成处理)的机器人16中,从具有更高优先级的机器人16开始选择机器人16。具有更高优先级的机器人16的可能示例包括当以与三维传感器18的接近度的顺序排列时具有更高优先级的机器人16,以及在之前处理期间具有更快完成定时的机器人16。进一步地,机器人选择部285可以随机选择未执行任何处理(已完成处理)的机器人16。进一步地,机器人选择部285可以基于从三维传感器18输入的、三维传感器18的照相机的拍摄图像,来检测特定胡葱12的传送位置(沿传送机14的宽度方向的位置),并且选择安装在检测到的位置侧上(例如,在沿传送机14的宽度方向的一侧上)的机器人16。
机器人控制器286被构造为操作机器人16A和16B。机器人控制器286包括第一控制器2861(第一控制部)和第二控制器2862(第二控制部)。
第一控制器2861基于从传送机14的编码器146输入的传送机驱动部144的旋转位置信息,来计算在传送路径上传送的胡葱12的移动量。接着,第一控制器2861基于计算出的胡葱12的移动量和由第一图像处理部281设置的胡葱12的吸附目标区域的位置,计算特定胡葱12将在机器人16的吸盘166的可移动范围内传送的时刻。换句话说,该时刻是机器人16利用吸盘166吸附并且提起特定胡葱12的吸附目标区域的动作开始时刻。进一步地,第一控制器2831在计算出的动作开始时刻使摆动基台163和臂164协调地动作。凭借该设置,控制各个机器人16A和16B的动作(细节后面细节),吸盘166接触特定胡葱12的吸附目标区域,并且通过吸附将特定胡葱12提起。而且,此时,特定胡葱12移动到相邻照相机20的镜头201的视野内的图像拍摄位置。
第二控制器2862使摆动基台163和臂164协调地动作。凭借该设置,控制各个机器人16A和16B的动作(细节后面细节),并且由吸盘166提起的特定胡葱12内、由第二图像处理部283所设置的加工目标区域被引导到刀片2221的位置(要执行加工的位置)。
以下利用图4至图10描述机器人系统10的动作的示例。
首先,如图4所示,当以预定速率在传送路径的上游侧上连续传送的胡葱12通过三维传感器18下方时,三维传感器18检测到该胡葱12。接着,该检测结果(即,三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息)输出到控制器28。接着,控制器28的第一图像处理部281基于所输入的三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息,生成距离图像。图5中(A)和(B)示出了形成所生成的距离图像的示例的模型的示意图。注意的是,图5中(A)和(B)中所示的距离图像是形成来自不同视点的相同信息的模型的图像。如图5中(A)和(B)所示,在所生成的距离图像中,以三维示出了通过三维传感器18下方的特定胡葱12的形状。第一图像处理部281基于该距离图像检测特定胡葱12的三维形状,并且设置特定胡葱12的吸附目标区域。以下在所生成的距离图像中所示的特定胡葱12的球根部12c上方不存在防碍由吸盘166进行真空吸附的障碍物的前提下,描述该实施方式。这样的障碍物可以是例如,根毛部12a的毛或茎部12b的叶子。第一图像处理部281检测特定胡葱12的包括预定尺寸(例如,1cm3)以上的平坦表面面积的最高区域(图5中(A)和(B)中所示的示例中由附图标记31表示的区域)。接着,第一图像处理部281将检测到的区域设置为特定胡葱12的吸附目标区域。
随后,如图6所示,由机器人选择部285选择的机器人16(该示例中机器人16A)经由机器人控制器286的第一控制器2861的控制,基于第一控制器2861计算出的动作开始时刻,使摆动基台163和臂164协调地动作。凭借该设置,机器人16使吸盘166(该示例中的吸盘166a)接触传送路径上传送的特定胡葱12的吸附目标区域(图6中所示的示例中由附图标记31表示的区域)。接着,如图7所示,在通过由吸盘166产生的真空吸附来提起特定胡葱12之后,使摆动基台163和臂164协调地动作,以呈现预设和预定成像姿态。凭借该设置,提起的特定胡葱12移动到相邻照相机20的镜头201的视野内的图像拍摄位置。
接着,照相机20拍摄位于镜头201的视野内、处于成像姿态的机器人16和移动到图像拍摄位置的特定胡葱12的图像。接着,该拍摄图像输出到控制器28。图8中(A)示出了由照相机20拍摄的图像的示例的模型的示意图,该图像从照相机20输入到控制器28。如图8中(A)所示,在照相机20的拍摄图像中,以二维表示机器人16和特定胡葱12的形状和姿势。控制器28的第二图像处理部283基于该拍摄图像,检测特定胡葱12的形状和姿势并且设置特定胡葱12的加工目标区域。根据该实施方式,第二图像处理部283首先根据如图8中(A)中所示的照相机20的拍摄图像,生成不包括机器人16A的图像16A’的图像(仅特定胡葱12的图像12’)。随后,如图8中(B)所示,第二图像处理部283计算在所生成的图像中所示的特定胡葱12的图像12’的最大内切圆(在图8中(B)中所示的示例中由附图标记33表示的圆),并且找到该计算出的最大内切圆的中心位置。接着,第二图像处理部283将计算出的中心位置设置为特定胡葱12的图像12’的重心(在图8中(B)中所示的示例中由附图标记34表示的位置)。随后,如图9中(A)所示,第二图像处理部283将特定胡葱12的所求出的图像12’的重心的、一侧上的预定范围(在图9中(A)中所示的示例中由附图标记35所表示的范围)的表面面积和另一侧上的预定范围(由图9中(A)中所示的附图标记36所表示的范围)的表面面积进行比较。接着,第二图像处理部283确定具有更大表面面积的一侧(在图9中(A)中所示的示例中由附图标记35表示的范围侧)是根毛部12a侧,并且具有较小表面面积的一侧(由图9中(A)中所示的附图标记36表示的范围侧)是茎部12b侧。接着,如图9中(B)所示,第二图像处理部283测量从特定胡葱12的所求出的图像12’的重心到茎部12b侧的各区域的宽度(厚度)尺寸,并且指定宽度小于或等于预定值的区域(在图9中(B)中所示的示例中由附图标记37表示的区域)。类似地,第二图像处理部283测量从特定胡葱12的所求出的图像12’的重心到根毛部12a侧的各区域的宽度(厚度)尺寸,并且指定宽度小于或等于预定值的区域(在图9中(B)中所示的示例中由附图标记38表示的区域)。接着,第二图像处理部283将所指定的区域37和38设置为特定胡葱12的加工目标区域。
随后,如图10所示,机器人16A经由机器人控制器286的第二控制器2862的控制,使摆动基台163和臂164协调地动作。凭借该设置,由吸盘166a提起的特定胡葱12的所设置的加工目标区域(在图10中所示的该示例中的区域37和区域38)被引导到刀片2221的位置。接着,经由摆动基台163和臂164的协调动作,沿着加工目标区域由刀片2221切割由吸盘166提起的特定胡葱12。凭借该设置,根毛部12a和茎部12b与球根部12c分离,落下,并且放入到刀片2221下方的废物盒24中。随后,机器人16A经由机器人控制器286的控制,进一步使摆动基台163和臂164协调地动作。结果,由吸盘166提起的特定胡葱12的球根部12c移动到相邻投入盒26上方。接着,以该移动状态,解除吸盘166的真空吸附,使特定胡葱12的球根部12c被投入到投入盒26中。注意的是,虽然上面已经描述了由机器人选择部285选择的机器人16A吸附并且切割特定胡葱12的例示性场景,但是类似的动作可以由另一个机器人16(如,机器人16B)来执行。
如上所述,在该实施方式的机器人系统10中,机器人16使吸盘166接触由传送机14在吸盘166的可移动范围内传送的胡葱12,并且提起胡葱12。进一步地,所提起的胡葱12移动到切割器22的圆形切刀222的刀片2221的位置,在该位置对胡葱12执行切割加工。
这里,胡葱12(其是如上所述的无定形对象物)显示出个体形状的变化。结果,当遵照通常方法切割胡葱12时,机器人16在试图将传送的胡葱12移动到刀片2221的位置时,有时无法使吸盘166接触胡葱12,由此无法提起胡葱12。或者,吸盘166可以接触胡葱12,但是由于接触姿态差,无法提起胡葱12。或者,有时吸盘166提起胡葱12,但是在移动时掉下。在这样的情况下,存在机器人16将无法使胡葱12移动到刀片2221的位置的可能性。进一步地,即使胡葱12被成功地移动到刀片2221的位置,如上所述的胡葱12的个体形状的变化使得遵照通常方法时不可能详细地设置各个胡葱12的加工目标区域。结果,存在在加工期间胡葱12的个体切割区域发生变化的可能性。
这里,在该实施方式中,三维传感器18检测由传送机14在传送路径上传送的胡葱12。接着,控制器28的第一图像处理部281基于三维传感器18的检测结果,来设置通过三维传感器18下方的特定胡葱12的吸附目标区域。随后,当特定胡葱12在吸盘166的可移动范围内传送时,机器人16经由控制器28的第一控制器2861的控制,使吸盘166接触特定胡葱12的所设置的吸附目标区域。凭借该设置,特定胡葱12被提起并且移动到图像拍摄位置。结果,即使在要切割胡葱12的情况下,机器人16也可以将胡葱12可靠地移动到刀片2221的位置。接着,照相机20检测移动到图像拍摄位置的特定胡葱12的姿势。基于照相机20的检测结果,控制器28的第二图像处理部283设置由机器人16的吸盘166提起的特定胡葱12的加工目标区域。随后,机器人16经由控制器28的第二控制器2862的控制,将由吸盘166提起的特定胡葱12的所设置的加工目标区域引导到刀片2221的位置。凭借该设置,在要切割胡葱12的情况下,胡葱12的加工目标区域可以被引导到刀片2221的位置。因此,可以抑制在加工期间各个胡葱12之间加工区域的变化,使得可以提高加工精度。
进一步地,在该实施方式中,如上所述,在三维传感器18检测到胡葱12之后,照相机20再次检测胡葱12的姿势。凭借该设置,即使胡葱12的姿势在由三维传感器18进行检测之后的传送期间改变,照相机20也再次确认胡葱12的姿势,使得可以加工胡葱12。所以,实现了提高加工精度的优点。
进一步地,具体而言,根据该实施方式,传送机14包括:电动机142;由电动机142旋转驱动的传送机驱动部144;以及连接至传送机驱动部144并且检测传送机驱动部144的旋转位置的编码器146。接着,控制器28的机器人控制器286的第一控制部2861基于编码器146的检测结果,来计算机器人16的动作开始时刻。结果,机器人16能够与传送机14对胡葱12的传送动作可靠协调地、可靠地提起胡葱12。
进一步地,具体而言,根据该实施方式,可以实现以下优点。即,可以考虑照相机安装在传送机14的传送路径的上游侧上并且基于由该照相机拍摄的图像确定胡葱12的形状(二维形状)的构造。但是,在这样的情况下,例如,构成传送机14的传送面的部件由透光材料制成,要求严格控制照相机周围区域的光学条件,以完成胡葱12的详细图像。这可以通过例如从传送面的下侧朝向胡葱12照射背光来实现。结果,造成了设备成本的增加。这里,在该实施方式中,三维传感器18安装在传送机14的传送路径的上游侧。接着,控制器28的第一图像处理部281基于与三维传感器18的检测结果相对应的距离图像,来设置胡葱12的接触目标区域。由于基于与三维传感器18的检测结果相对应的距离图像,确定胡葱12的形状(三维形状),所以不需要像安装照相机的情况那样严格控制三维传感器18周围的光学条件。因此,可以实现降低设备成本。进一步地,由于基于胡葱12的三维形状来设置胡葱12的接触目标区域,所以可以确定机器人16可以实现由吸盘166的可靠接触的区域(在该示例中,胡葱12的包括预定表面面积以上的平坦表面面积的最高区域)。结果,可以实现进一步提高胡葱12的接触目标区域的设置精度。
进一步地,具体而言,根据该实施方式,可以实现以下优点。即,如上所述,根据该实施方式,胡葱12被可靠地移动到预定位置。因此,可以使用需要严格控制机器人16的吸盘166的可移动范围内的光学条件(如周围区域中安装背光)的传感器,作为用于检测被移动的胡葱12的姿势的传感器。即,即使传感器被构造在照相机内,也可以拍摄胡葱12的详细图像。这里,在该实施方式中,用于检测移动到预定位置的胡葱12的姿势的传感器被构造在照相机20内,而控制器28的第二图像处理部283基于由照相机20拍摄的图像来设置胡葱12的加工目标区域。凭借该设置,用于检测移动到预定位置的胡葱12的姿势的传感器不需要使用昂贵三维传感器的构造。即,基于由照相机20拍摄的图像,求出胡葱12的姿势、重心等,这使得可以确定胡葱12的要被加工的区域。接着,可以高精度地设置胡葱12的加工目标区域。
进一步地,具体而言,根据该实施方式,机器人16在臂164的端部包括能够通过吸附胡葱12而进行提起的吸盘166。接着,控制器28的第一图像处理部281设置吸盘166的真空吸附的吸附目标区域。凭借该设置,可以通过吸盘166的真空吸附力,快速且可靠地提起所传送的胡葱12。
进一步地,具体而言,根据该实施方式,系统包括切割器22,该切割器22包括用于切割胡葱12的刀片2221。接着,控制器28的机器人控制器286的第二控制器2862控制机器人16,使得由机器人16的吸盘166提起的胡葱12的加工目标区域被引导到刀片2221的位置。凭借该设置,由机器人16的吸盘166提起的胡葱12的加工目标区域被可靠地引导到切割器22的刀片2221的位置。结果,可以实现高精度地切割胡葱12。
注意的是,实施方式不限于上述,并且在不偏离本发明的精神和范围的情况下,可以进行各种变型。下面描述这样的变型例。
(1-1)照相机结构的变型
例如,如图11所示,各个照相机20可以放置为使得正面侧(包括镜头201和照明设备202的一侧)面朝上。还根据该变型例,与实施方式类似,可以可靠地抑制加工期间各个胡葱12之间加工区域的变化,这可以提高加工精度。进一步地,由于照相机20正面侧面朝上而安装,所以机器人16可以快速地将胡葱12移动到镜头201视野内的图像拍摄位置。这使得可以缩短机器人16的周转时间(cycle time)。
(1-2)其他
虽然根据上述,控制器28包括第一图像处理部281、第二图像处理部283以及包括第一控制器2861和第二控制器2862的机器人控制器286,并且以批量形式执行各种运算和处理,但是本发明不限于此。即,这些各种运算和处理可以分别由与控制器28分开的装置执行。例如,可以设置第一图像处理装置、第二图像处理装置和机器人控制器。然后,第一图像处理装置执行与第一图像处理部281相同的运算和处理,第二图像处理装置执行与第二图像处理部283相同的运算和处理,而机器人控制器执行与机器人控制器286相同的运算和处理。在这样的情况下,第一图像处理装置相当于第一设置部,第二图像处理装置相当于第二设置部,而机器人控制器相当于权利要求中描述的第一控制部和第二控制部。
进一步地,虽然根据上述,三维传感器18安装为用于检测由传送机14在传送路径上传送的胡葱12的传感器,但是本发明不限于此。即,安装的传感器可以是照相机、距离传感器等。在这样的情况下,照相机、距离传感器等相当于权利要求中所描述的第一传感器。
进一步地,虽然根据上述,胡葱12(作为无定形对象物)经受切割加工,但是本发明不限于此。即,无定形对象物(如,自然对象物(如,除了胡葱12的蔬菜或水果)或多个种类混合的人工对象物(工业产品))可以经受加工。在这样的情况下,无定形对象物(如,自然对象物(如,除了胡葱12的蔬菜或水果)或多个种类混合的人工对象物)相当于权利要求中所描述的对象物。进一步地,对象物不限于具有不定形状的对象物,也允许规则形状的对象物。在这样的情况下,规则形状的对象物相当于权利要求中所描述的对象物。
进一步地,虽然根据上述胡葱12经受切割加工,但是本发明不限于此,允许胡葱12经受除了切割加工之外的加工。
进一步地,虽然根据上述,机器人16在臂164的端部包括吸盘166,但是本发明不限于此。即,机器人16可以在臂164的端部包括能够通过夹持胡葱12进行提起的机器人手。在这样的情况下,机器人手相当于权利要求中描述的工具。进一步地,机器人16在臂164的端部可以包括能够通过穿孔提起胡葱12的带刺部件。在这样的情况下,带刺部件相当于权利要求中描述的工具。进一步地,在由磁性物质(如,铁)制成的对象物经受加工的情况下,机器人16可以在臂164的端部包括能够通过电磁力电磁提起由磁性物质(如,铁)制成的对象物的电磁体。在这样的情况下,电磁体相当于权利要求中描述的吸附部件和工具。
进一步地,虽然根据上述,安装了多个机器人16,但是本发明不限于此,允许仅安装一个机器人16。
下面将参照附图描述第二实施方式。使用相同的附图标记来表示与第一实施方式中相同的部件,并且将适当省略或简化对这些部件的描述。该实施方式,与第一实施方式类似,是采用胡葱12作为目标对象物的切割系统的一个实施方式。
该实施方式的机器人系统10(机器人系统)包括与图1和图2中所示的第一实施方式的机器人系统相同的构造。
在该实施方式中,在机器人16A和16B中,上游机器人16A的功能与第一实施方式中的相同。即,吸盘166a安装在机器人16A的臂164的端部。然后,机器人16A使摆动基台163和臂164协调地动作,使得吸盘166a接触在传送路径上传送的胡葱12。接着,通过吸盘166a的真空吸附而提起的胡葱12移动到照相机20的预定图像拍摄位置。接着,在由吸盘166a提起的胡葱12移动到切割器22的刀片2221的位置并且被切割之后,切除了根毛部12a和茎部12b的胡葱12的球根部12c被投入到投入盒26中。
另一方面,根据该实施方式,如图12所示,传送路径下游侧上的机器人16B在臂164的端部具有作为工具而安装的手166c(机器人手)。手166c是能够通过使用夹持作为预定提起方法而提起胡葱12的工具。该机器人16B使摆动基台163和臂164协调地动作,使手166c接触被传送的胡葱12的球根部12c。胡葱12通过手166c的夹持而被提起,然后与机器人16A类似,移动到照相机20的镜头201视野内的预定图像拍摄位置。接着,与机器人16A类似,由手166c提起的胡葱12移动到切割器22的圆形切刀222的刀片2221的位置,并且被切割器22切割。随后,被手166c提起并且通过切割加工切除了根毛部12a和茎部12b的胡葱12的球根部12c,移动到投入盒26上方,并且被投入到投入盒26中。
注意的是,在该实施方式中,当通过吸盘166a的真空吸附而提起胡葱12时的节拍时间比当通过手166c的夹持而提起胡葱12时的节拍时间短。即,吸盘166a的真空吸附能够比手166c的夹持更快地提起胡葱12。
与第一实施方式类似,控制器28包括用于控制三维传感器18、各个机器人16A和16B、照相机20等的操作的计算机,该计算机包括输入装置、显示装置、存储装置、运算装置等。接着,根据该实施方式,控制器28的存储装置存储经由例如示教器等预先输入的多个动作命令。该多个动作命令包括不指定用于通过工具提起并移动在传送路径上传送的胡葱12的作业的机器人16和工具类型的动作命令,如,包括各控制点的位置、各关节的角度和插入(interpolation)动作的类型等的示教数据。
下面将使用图13来描述由该实施方式的控制器28执行的控制内容的示例。
在图13中,该流程中所示的处理通过经由例如输入装置执行的预定开始操作(例如,由控制器28打开电源)而开始。首先,在步骤S5中,控制器28向各个机器人16A和16B输出在存储装置中存储的预定动作命令,使得各个机器人16A和16B呈现预定待机姿势(例如,图12中所示的姿势)。各个机器人16A和16B基于来自控制器28的动作命令,使摆动基台163和臂164协调地动作,呈现预定待机姿势并且等待。
接着,流程前进到步骤S10,其中,控制器28输入三维传感器18的检测结果,即,由三维传感器18的照相机20拍摄的图像和该拍摄图像的距离信息。
随后,在步骤S20中,控制器28基于在步骤S10中输入的拍摄图像和距离信息,生成以图像表示从图像中各区域到三维传感器18的距离的大小的距离图像(三维信息)。接着,控制器28基于所生成的距离图像来检测通过三维传感器18下方的特定胡葱12的三维形状。
接着,流程前进到步骤S30,其中,控制器28基于在步骤S20中检测到的特定胡葱12的三维形状,来检测特定胡葱12中的最可能被吸盘166a真空吸附的区域(细节后面描述)。
随后,在步骤S40中,控制器28根据步骤S30的检测结果,针对特定胡葱12确定机器人16的工具的提起处理的处理模式的提起方法。例如,在步骤S30中,在特定胡葱12上存在最可能被真空吸附的区域的情况下,控制器28确定出针对特定胡葱12的提起方法将是由吸盘166a进行真空吸附。这是因为由吸盘166a进行真空吸附的节拍时间比由手166c进行夹持的节拍时间短。另一方面,在步骤S30中,在特定胡葱12上不存在最可能被真空吸附的区域的情况下,控制器28确定出针对特定胡葱12的提起方法将是由手166c进行夹持。即,在特定胡葱12上存在最可能被真空吸附的区域的情况下,提起方法被确定为具有更短的节拍时间的真空吸附,而在特定胡葱12上不存在最可能被真空吸附的区域的情况下,提起方法被确定为具有更长的节拍时间的夹持。该步骤S40的过程起到权利要求中描述的模式确定部的作用。
接着,流程前进到步骤S50,其中,控制器28从机器人16A和16B中选择安装了与步骤S40中确定的提起方法相对应的工具(相当于第一工具;此后适当称为“特定工具”)的机器人16(相当于第一机器人;此后适当称为“特定机器人16”),作为对特定胡葱12执行作业的机器人16。例如,在步骤S40中,在提起方法被确定为真空吸附的情况下,选择包括吸盘166a(该吸盘166a用作执行真空吸附的工具)的机器人16A。另一方面,在步骤S40中,在提起方法被确定为夹持的情况下,选择包括手166c(该手166c用作执行夹持的工具)的机器人16B。该步骤S50的过程起到权利要求中描述的第一机器人选择部的作用。
随后,在步骤S60中,控制器28根据步骤S50中的选择结果,来设置特定胡葱12的接触目标区域。接触目标区域是用作由特定机器人16的特定工具进行接触的目标的区域。例如,在步骤S50中选择机器人16A的情况下,特定胡葱12中在步骤S30中检测到的最可能被真空吸附并且满足预定条件的区域(细节后面描述)被设置为特定胡葱12的上述接触目标区域的吸附目标区域。吸附目标区域是用作由吸盘166a进行真空吸附的目标的区域。另一方面,在步骤S50中选择了机器人16B的情况下,特定胡葱12的球根部12c的适当区域被设置为特定胡葱12的接触目标区域的夹持目标区域。夹持目标区域是用作由手166c进行夹持的目标的区域。
接着,流程前进到步骤S70,其中,控制器28基于在适当时刻从传送机14的编码器146输入的编码器146的检测结果(即,传送机驱动部144的旋转位置信息),来计算传送路径上传送的胡葱12的移动量。接着,基于计算出的胡葱12的移动量,控制器28计算特定胡葱12将在特定机器人16的特定工具的可移动范围之内传送的时刻。换句话说,该时刻是特定机器人16利用特定工具提起在传送路径上传送的特定胡葱12的动作开始时刻。该步骤S70的过程起到时刻计算部的作用。
随后,在步骤S75中,控制器28读取存储装置中存储的与步骤S75有关的动作命令,并且针对特定机器人16的特定工具校正所读取的动作命令。即,当到达步骤S70中计算出的动作开始时刻时,对动作命令进行校正,使得摆动基台163和臂164协调动作。进一步地,对动作命令进行校正,使得特定工具接触在传送路径上传送的特定胡葱12的接触目标区域,并且将特定胡葱12提起并移动到与相邻照相机20有关的图像拍摄位置。结果,例如,在步骤S50中选择了机器人16A的情况下,针对机器人16A的吸盘166a校正动作命令。即,对动作命令进行校正,使得吸盘166a接触特定胡葱12的吸附目标区域,并且通过吸盘166a的真空吸附将特定胡葱12提起并移动到图像拍摄位置。另一方面,在步骤S50中选择了机器人16B的情况下,针对机器人16B的手166c对动作命令进行校正。即,校正动作命令,使得手166c接触特定胡葱12的夹持目标区域,并且通过手166c的夹持将特定胡葱12提起并移动到图像拍摄位置。
随后,在步骤S80中,控制器28向特定机器人16输出步骤S75中校正后的动作命令。凭借该设置,特定机器人16基于来自控制器28的动作命令,在达到动作开始时刻时使摆动基台163和臂164协调地动作。结果,特定工具接触传送路径上传送的特定胡葱12的接触目标区域,并且将特定胡葱12提起并移动到与相邻照相机20有关的图像拍摄位置(细节后面描述)。例如,在步骤S50中选择了机器人16A的情况下,机器人16A的吸盘166a接触特定胡葱12的吸附目标区域,并且通过吸盘166a的真空吸附将特定胡葱12提起并移动到图像拍摄位置。另一方面,在步骤S50中选择了机器人16B的情况下,机器人16B的手166c接触特定胡葱12的夹持目标区域,并且通过手166c的夹持将特定胡葱12提起并移动到图像拍摄位置。
接着,流程前进到步骤S90,其中,控制器28输入位于特定机器人16附近的照相机20的检测结果,即,照相机20的拍摄图像。
随后,在步骤S100中,控制器28基于在步骤S90中输入的照相机20的拍摄图像,检测由照相机20拍摄的特定胡葱12的形状和姿势,并且设置特定胡葱12的加工目标区域(细节后面描述)。与第一实施方式类似,加工目标区域是用作整个切割部分的目标的区域,包括切割器22的圆形切刀222的刀片2221的切割开始位置和从该切割开始位置的切割角度。
接着,流程前进到步骤S105,其中,控制器28读取存储装置中存储的与步骤S105有关的动作命令,并且校正由此读取的动作命令。即,针对特定机器人16的特定工具校正所读取的动作命令,使得由特定工具提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。例如,在步骤S50中选择了机器人16A的情况下,针对吸盘166a校正动作命令,使得由吸盘166a提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。另一方面,在步骤S50中选择了机器人16B的情况下,针对手166c校正动作命令,使得由手166c提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。
接着,流程前进到步骤S110,其中,控制器28向特定机器人16输出步骤S105中校正之后的动作命令。凭借该设置,特定机器人16基于来自控制器28的动作命令,使摆动基台163和臂164协调地动作。结果,由特定工具提起的特定胡葱12的加工目标区域被引导到执行预定动作的刀片2221的位置(细节后面描述)。例如,在步骤S50中选择了机器人16A的情况下,由机器人16A的吸盘166a提起的特定胡葱12的加工目标区域被引导到执行预定动作的刀片2221的位置。另一方面,在步骤S50中选择了机器人16B的情况下,由机器人16B的手166c提起的特定胡葱12的加工目标区域被引导到执行预定动作的刀片2221的位置。
随后,在步骤S120中,控制器28确定是否例如经由输入装置执行了预定结束操作(例如,控制器28的电源关闭)。直到执行了预定结束操作为止,不满足步骤S120的条件,流程返回到步骤S5,并且重复相同的过程。一旦执行预定结束操作,满足步骤S120的条件并且结束该流程中表示的处理。
注意的是,在上述中,步骤S75和步骤S105的过程起到权利要求中描述的动作校正部的作用。进一步地,步骤S80和步骤S110的过程起到命令输出部的作用。
接着,将使用图4至图10来描述该实施方式的机器人系统10的动作的示例。
首先,控制器28向各个机器人16A和16B输出存储装置中存储的预定动作命令。结果,各个机器人16A和16B使摆动基台163和臂164协调地动作,呈现预定待机姿势并且等待(参照步骤S5)。接着,如图4所示,当以预定速率在传送路径的上游侧上连续传送的胡葱12通过三维传感器18下方时,由三维传感器18来检测该胡葱12。接着,该检测结果(即,三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息)输出到控制器28。凭借该设置,向控制器28输入三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息(参照步骤S10),并且基于所输入的三维传感器18的照相机的拍摄图像和该拍摄图像的距离信息,生成距离图像(参照图5中(A)和(B))。如利用图5中(A)和(B)所描述的,此时在生成的距离图像中以三维表示通过三维传感器18下方的特定胡葱12的形状,并且基于该距离图像检测特定胡葱12的三维形状(参照步骤S20)。接着,基于检测出的特定胡葱12的三维形状,检测特定胡葱12中的最可能被真空吸附的区域(参照步骤S30)。还在该实施方式中,与第一实施方式类似,基于在所生成的距离图像中所示的特定胡葱12的球根部12c上方不存在阻碍吸盘166进行真空吸附的障碍物的前提进行描述。与上述实施方式类似,在该实施方式中也是检测包括预定尺寸(例如,1cm3)以上的平坦表面面积的区域作为最可能被真空吸附的区域。
随后,根据检测结果,控制器28针对特定胡葱12确定机器人16的工具的提起方法(参照步骤S40)。以下描述了在上述中检测特定胡葱12中的最可能被真空吸附的区域的情况的一个示例。即,在上述中检测特定胡葱12中的最可能被真空吸附的区域的情况下,将针对特定胡葱12的提起方法确定为真空吸附。接着,在机器人16A和16B中,选择包括用作支持真空吸附的工具的吸盘166a的机器人16A(参照步骤S50)。随后,检测特定胡葱12中的最可能被真空吸附并且存在于最高位置中的区域(图5中(A)和(B)中所示的区域31),并且该检测到的区域被设置为特定胡葱12的吸附目标区域(参照步骤S60)。接着,与第一实施方式类似,基于在适当时刻从传送机14的编码器146向控制器28输入的编码器146的检测结果(即,传送机驱动部144的旋转位置信息),来计算传送路径上传送的胡葱12的移动量。接着,基于计算出的胡葱12的移动量,计算特定胡葱12将要在机器人16A的吸盘166a的可移动范围内传送的时刻(换句话说,用于由吸盘166a提起特定胡葱12的动作开始时刻)(参照步骤S70)。
接着,控制器28读取存储装置中存储的动作命令并且针对机器人16A的吸盘166a校正存储装置中存储的动作命令(参照步骤S75)。随后,从控制器28向机器人16A输出校正后的动作命令。结果,如图6所示,当到达计算出的动作开始时刻时,机器人16A使摆动基台163和臂164协调地动作。凭借该设置,吸盘166a接触传送路径上传送的特定胡葱12的所设置的吸附目标区域(图6中所示的示例中的区域31)。接着,如图7所示,通过吸盘166的真空吸附来提起特定胡葱12。接着,控制器28通过使摆动基台163和臂164协调地动作,将由吸盘166提起的胡葱12移动到照相机20的镜头201视野内的图像拍摄位置,使得呈现预设的、预定图像拍摄姿态(参照步骤S80)。
凭借该设置,照相机20拍摄在镜头201视野内、处于图像拍摄姿态的机器人16A和移动到图像拍摄位置的特定胡葱12的图像。接着,向控制器28输出拍摄图像。凭借该设置,照相机20的拍摄图像(参照图8中(A))被输入到控制器28(参照步骤S90)。基于如图8中(A)所示的以二维表示机器人16A和特定胡葱12的形状和姿势的拍摄图像,检测特定胡葱12的形状和姿势,并且由控制器28设置特定胡葱12的加工目标区域(参照步骤S100)。在该实施方式中,与第一实施方式类似,首先生成不包括图8中(A)中所示的机器人16A的图像16A’的图像,计算该图像中特定胡葱12的图像12’的最大内切圆(图8中(B)中所示的圆33),并且将该最大内切圆的中心位置设置为特定胡葱12的图像12’的重心(图8中(B)中的位置34)。随后,与上述类似,比较特定胡葱12的图像12’的重心的一侧和另一侧的表面积,并且如图9所示,具有更大表面积的一侧被确定为根毛部12a侧,而具有较小表面积的一侧被确定为茎部12b侧。接着,与上述类似,基于特定胡葱12的图像12’的重心两侧的各宽度尺寸,将区域37和区域38设置为特定胡葱12的加工目标区域。
接着,读取存储装置中存储的动作命令,并且随后由控制器28针对机器人16A的吸盘166a校正该动作命令(参照步骤S105)。随后,从控制器28向机器人16A输出校正后的动作命令。结果,如图10所示,机器人16A使摆动基台163和臂164协调地动作。凭借该设置,由吸盘166a提起的特定胡葱12的加工目标区域(区域37和区域38)被引导到圆形切刀222的刀片2221的位置,并且由刀片2221沿加工目标区域执行切割。凭借该设置,根毛部12a和茎部12b从球根部12c分离,落下,并且被投入到废物盒24中。接着,由吸盘166a提起的特定胡葱12的球根部12c移动到投入盒26上方,并且由于吸盘166的真空吸附的解除而被投入到投入盒26中(参照步骤S110)。
如上所述,该实施方式的机器人系统10包括:传送胡葱12的传送机14、包括吸盘166a或手166c的机器人16A和16B、以及向各个机器人16A和16B输出动作命令的控制器28。各个机器人16A和16B基于来自控制器28的动作命令进行动作,并且利用吸盘166a或手166c执行提起并移动在传送路径上传送的胡葱12的作业。
这里,在所执行的作业是提起并移动用作上述无定形对象物的胡葱12的情况下,胡葱12的个体形状存在变化,通常使得不能识别各个胡葱12的形状。结果,各个机器人16A和16B即使基于来自控制器28的动作命令进行动作也可能遗漏胡葱12。为了解决这样的不便,通常由照相机拍摄在传送路径上传送的胡葱12的图像,控制器28基于该拍摄图像校正动作命令,并且向要动作的机器人16输出校正后的动作命令。结果,机器人16基于校正后的动作命令进行动作,使得即使当如上所述执行提起并移动胡葱12的作业时,也可以减少胡葱12的遗漏数量。但是,当该处理是基于由照相机拍摄的图像时,可以确认胡葱12的二维形状,但是难以精确地确认胡葱12的三维形状。结果,在执行提起并移动胡葱12的作业的情况下,即使当机器人基于校正后的动作命令进行动作时,基于由照相机拍摄的图像校正动作命令的方法也无法可靠地防止遗漏胡葱12。因此,胡葱12被遗漏,这导致生产率下降。另一方面,为了可靠地执行提起并移动胡葱12的作业,可以以比正常情况长的时间段提起胡葱12的方法。但是,在这样的情况下,节拍时间增加,与上述情况类似,这导致生产率下降。
这里,在该实施方式中,三维传感器18设置于传送路径的上游侧,并且该三维传感器18检测传送路径上传送的胡葱12的三维形状。随后,控制器28基于三维传感器18的检测结果校正动作命令,并且向要动作的机器人16输出校正后的动作命令。凭借该设置,输入了来自控制器28的校正后的动作命令的机器人16基于校正后的动作命令进行动作,使得可以经由吸盘166a或手166c可靠且快速地提起传送路径上传送的胡葱12。
如上所述,根据该实施方式,即使在执行提起并移动胡葱12的作业的情况下,节拍时间也不增加,使得可以可靠地防止遗漏胡葱12。结果,实现了提高生产率。
进一步地,具体而言,根据该实施方式,三维传感器18包括:激光光源,该激光光源被设置为使得激光隙缝光照射在传送机14的传送面的预定位置上;以及照相机,该照相机拍摄由激光光源照射的激光隙缝光的照射位置及其周围区域的图像。凭借具有这样结构的三维传感器18,可以可靠且精确地检测传送路径上传送的胡葱12的三维形状。
进一步地,具体而言,根据该实施方式,控制器28基于三维传感器18的检测结果,来确定传送路径上传送的胡葱12的提起方法。凭借该设置,可以确定允许可靠且快速提起胡葱12的提起方法。接着,控制器28校正动作命令,使得根据所确定的提起方法,由吸盘166a或手166c来提起并移动在传送路径上传送的胡葱12。凭借该设置,可以使用允许可靠且快速提起胡葱12的提起方法,来提起并移动胡葱12。结果,当要执行提起并移动胡葱12的作业时,可以在不增加节拍时间的情况下可靠地防止遗漏胡葱12,实现提高生产率。
进一步地,具体而言,根据该实施方式,可以实现以下优点。即,用于根据三维传感器18的检测结果获取距离图像的处理包括大量运算,这要求相对长的处理时间。这里,在该实施方式中,在机器人16A和16B中,由安装在传送路径的最上游侧的机器人16A的吸盘166a执行提起处理的区域与三维传感器18的胡葱12的检测区域在传送路径的下游侧上,沿传送路径分开预定距离S以上的距离。接着,预定距离S被设置为比胡葱12在用于根据三维传感器18的检测结果获取距离图像的处理时间中传送的距离长。结果,在胡葱12到达要由机器人16A的吸盘166a执行提起处理的区域之前,可以完成距离图像处理并且可以获取距离图像。结果,一旦基于获取的距离图像确认了胡葱12的三维形状,就可以执行经由吸盘166a的提起处理。因此,可以通过吸盘166a可靠防止遗漏。进一步地,由于在用于根据三维传感器18的检测结果获取距离图像的处理过程中传送吸盘166a,所以可以没有浪费地有效利用用于该处理的处理时间。
进一步地,具体而言,根据该实施方式,传送机14包括:电动机142;由电动机142旋转驱动的传送机驱动部144;以及连接至传送机驱动部144并且检测传送机驱动部144的旋转位置的编码器146。接着,控制器28基于编码器146的检测结果来计算机器人16的动作开始时刻。结果,机器人16的工具能够与传送机14对胡葱12的传送动作可靠协调地、可靠地提起传送路径上传送的胡葱12。
进一步地,具体而言,根据该实施方式,安装了两个机器人16,即,各包括实施彼此不同的提起方法的多种工具的机器人16A和16B。接着,控制器28基于与三维传感器18的检测结果相对应的距离图像,来确定胡葱12的提起方法。接着,控制器28从机器人16A和16B中选择包括与所确定的提起方法相对应的工具的机器人16。随后,控制器28校正动作命令,使得与所选机器人16的所确定的提起方法相对应的工具提起并移动传送路径上传送的胡葱12。凭借该设置,可以从机器人16A和16B中选择性地使用包括与能够可靠且快速提起胡葱12的提起方法相对应的工具的机器人16。结果,可以可靠地防止遗漏胡葱12,由此可靠地提高生产率。
进一步地,具体而言,根据该实施方式,吸盘166a安装于机器人16A的臂164,而手166c安装于机器人16B的臂164。由于吸盘166a安装于机器人16A的臂164,所以可以通过吸附提起胡葱12。结果,可以在没有由于穿孔造成的损坏的情况下提起胡葱12,并且与通过手166c的夹持来提起胡葱12的情况相比,可以缩短节拍时间。进一步地,由于手166c安装于机器人16B的臂164,所以可以通过夹持来提起胡葱12。结果,即使在难以通过吸盘166a的吸附提起胡葱12的情况下,也可以可靠地提起胡葱12。注意的是,难以通过吸附提起胡葱12的情况包括胡葱12的形状或材料不适合吸附的情况,在吸盘166a最可能吸附胡葱12的区域附近存在障碍物的情况等。
注意的是,实施方式不限于上述,并且可以在不偏离本发明的精神和范围的情况下进行各种变型。下面一个个地描述这样的变型例。
(2-1)当确定机器人的待机姿势并且相应地选择机器人时
虽然在第二实施方式中基于与三维传感器18的检测结果相对应的距离图像来确定胡葱12的提起方法,并且相应地选择机器人16,但是本发明不限于此。即,控制器28可以基于与三维传感器18的检测结果相对应的距离图像,来确定直到机器人16开始提起处理为止的待机姿势,并且相应地选择机器人16。
如图14所示,在该变型例中,安装在机器人16B的臂164的端部的工具、以及控制器28(参见图1)的控制内容与第二实施方式的不同。即,在该变型例中,与机器人16A的吸盘166a相同的吸盘166a安装于机器人16B的臂164的端部。
以下利用图15描述由该变型例中的控制器28执行的控制内容的示例。注意的是,图15是与上述图13相对应的图,使用相同的附图标记来表示与图13中相同的过程,并且适当省略或简化其描述。
在图15中,在步骤S5’中,控制器28向各个机器人16A和16B输出存储装置中存储的预定动作命令,使得各个机器人16A和16B呈现彼此不同的预定待机姿势(例如,图14中所示的姿态)。凭借该设置,各个机器人16A和16B基于来自控制器28的动作命令,使摆动基台163和臂164协调地动作。结果,各个机器人16A和16B以彼此不同的预定预定待机姿势等待。
之后的步骤S10和S20与图13中的相同,并且一旦在步骤S20中检测出特定胡葱12的三维形状,流程就前进到步骤S35。
在步骤S35中,控制器28基于在步骤S20中检测到的特定胡葱12的三维形状,来检测特定胡葱12中最可能被吸盘166a真空吸附的区域。接着,在胡葱12的所检测到的最可能被真空吸附的区域中,满足预定条件的区域被设置为特定胡葱12的吸盘166a的吸附目标区域。
随后,在步骤S40’中,控制器28根据特定胡葱12的吸附目标区域的设置位置,将直到机器人16开始提起处理为止的待机姿势确定为特定胡葱12的提起处理的处理模式。具体地,控制器28确定步骤S5’中机器人16A和16B的两种不同待机姿势中的哪个姿势能够可靠地接近吸附目标区域,并且接近吸附目标区域花费较短时间,即,具有更短的节拍时间。注意的是,该步骤S40’的过程起到权利要求中描述的模式确定部的作用。
接着,流程前进到步骤S50’,在步骤S50’中,控制器28从机器人16A和16B中选择以步骤S40’中确定的待机姿势进行等待的机器人16(相当于第二机器人),作为对特定胡葱12执行作业的机器人16。注意的是,该步骤S50’的过程起到权利要求中描述的第二机器人选择部的作用。
步骤S70之后的过程与图13中的大致相同,并且将省略其描述。
注意的是,在上述中,步骤S75和步骤S105的过程起到权利要求中描述的动作校正部的作用。进一步地,步骤S80和步骤S110的过程起到命令输出部的作用。
在上述变型例中,安装了以不同的待机姿势进行等待的两个机器人16,即,机器人16A和16B。接着,控制器28基于与三维传感器18的检测结果相对应的距离图像,来确定直到机器人16在开始提起处理为止的待机姿势,并且从机器人16A和16B中选择以预定待机姿势进行等待的机器人16。随后,控制器28校正动作命令,使得所选机器人16的吸盘166a提起并移动传送路径上传送的胡葱12。凭借该设置,可以从机器人16A和16B中选择性地使用以能够可靠且快速提起胡葱12的待机姿势进行等待的机器人16。结果,可以可靠地防止遗漏胡葱12,由此可靠地提高生产率。
(2-2)当确定机器人的安装区域并且相应地选择机器人时
虽然在第二实施方式中基于与三维传感器18的检测结果相对应的距离图像来确定胡葱12的提起方法,并且相应地选择机器人16,但是本发明不限于此。即,控制器28可以基于与三维传感器18的检测结果相对应的距离图像来确定机器人16的安装区域,并且相应地选择机器人16。
如图16所示,在该变型例中,安装在机器人16B的臂164的端部的工具、以及控制器28(参见图1)的控制内容与第二实施方式的不同。即,在该变型例中,与机器人16A的吸盘166a相同的吸盘166a安装于机器人16B的臂164的端部。
以下利用图17描述由该变型例中的控制器28执行的控制内容的示例。注意的是,图17是与上述图13和图15相对应的图,使用相同的附图标记来表示与图13和图15中相同的过程,并且适当省略或简化其描述。
在图17中,步骤S5、S10和S20与图13中的相同。进一步地,步骤S35与图15中的相同,并且一旦在步骤S35中设置了特定胡葱12的吸附目标区域,流程前进到步骤S42。
在步骤S42中,控制器28基于步骤S35中的设置,检测与传送路径上传送的特定胡葱12的吸附目标区域相对应的传送机14的传送路径的宽度位置。具体地,控制器28检测吸附目标区域是在传送机14的传送路径的沿宽度方向的中央部CP(参照图16)的一侧(图16中的左侧)还是另一侧(图16中的右侧)上。
随后,在步骤S44中,控制器28基于步骤S42的检测结果,将要选择的机器人16的安装区域确定为特定胡葱12的提起处理的处理模式。例如,在步骤S42中,在检测到吸附目标区域在传送路径的沿宽度方向的中央部CP的一侧上的情况下,控制器28确定要选择的机器人16的安装区域是传送路径的沿宽度方向的所述一侧上的区域。另一方面,在步骤S42中,在检测到吸附目标区域在传送路径的沿宽度方向的中央部CP的另一侧上的情况下,控制器28确定要选择的机器人16的安装区域是在传送路径的沿宽度方向的所述另一侧上的区域。
接着,流程前进到步骤S50”,其中,控制器28从机器人16A和16B中选择安装在步骤S44中所确定的机器人16的安装区域中的机器人16(相当于第三机器人),作为对特定胡葱12执行作业的机器人16。例如,在步骤S44中,在机器人16的安装区域被确定为在传送路径的沿宽度方向的所述一侧上的区域的情况下,选择安装在传送路径的沿宽度方向的所述一侧上的区域中的、能够可靠地靠近传送路径的沿宽度方向的中央部CP的所述一侧上的吸附目标区域并且提供到吸附目标区域的更短靠近时间(即,更短的节拍时间)的机器人16A。另一方面,在步骤S44中,在机器人16的安装区域被确定为在传送路径的沿宽度方向的所述另一侧上的区域的情况下,选择安装在传送路径的沿宽度方向的所述另一侧上的区域中的、能够可靠地靠近传送路径的沿宽度方向的中央部CP的另一侧上的吸附目标区域,并且提供到吸附目标区域的更短靠近时间(即,更短的节拍时间)的机器人16B。注意的是,该步骤S50”的过程起到权利要求中描述的第三机器人选择部的作用。
步骤S70之后的过程与图13中的大致相同,并且将省略其描述。
注意的是,在上述中,步骤S42和步骤S44的过程起到权利要求中描述的模式确定部的作用,步骤S42的过程起到位置检测部的作用,而步骤S44的过程起到区域确定部的作用。进一步地,步骤S75和步骤S105的过程起到权利要求中描述的动作校正部的作用。进一步地,步骤S80和步骤S110的过程起到命令输出部的作用。
在上述变型例中,安装了两个机器人16,即,设置在传送路径的沿宽度方向的一侧和另一侧上的区域中的机器人16A和16B。接着,控制器28基于与三维传感器18的检测结果相对应的距离图像,检测传送路径上传送的胡葱12在传送路径的宽度方向的位置。接着,基于该检测结果,控制器28确定机器人16的安装区域,并且从机器人16A和16B中选择安装在所确定的安装区域中的机器人16。随后,控制器28校正动作命令,使得所选机器人16的吸盘166a提起并移动传送路径上传送的胡葱12。凭借该设置,可以从机器人16A和16B中选择性地使用安装在安装区域中的、允许可靠且快速提起胡葱12的机器人16。结果,可以可靠地防止遗漏胡葱12,由此可靠地提高生产率。
(2-3)当仅安装一个机器人时
虽然在上述中构造包括两个安装的机器人16,但是本发明不限于此,允许安装仅一个机器人16的构造。
如图18和图19所示,该变型例的机器人系统10A(机器人系统)包括传送机14、三维传感器18、机器人16A和控制器28。
在该变型例的机器人16A上,在臂164的端部安装吸盘166a和手166c,作为涉及不同提起方法的多个(该示例中2个)工具。照相机20、切割器22、废物盒24和投入盒26安装在该机器人16A周围。
进一步地,该变型例的控制器28的存储装置存储经由例如示教器等预先输入的多个动作命令。该多个动作命令包括不指定用于经由工具提起并移动在传送路径上传送的胡葱12的作业的工具类型的动作命令。
以下利用图20描述由该变型例中的控制器28执行的控制内容的示例。注意的是,图20是与上述图13相对应的图,使用相同的附图标记来表示与图13中相同的过程,并且适当省略或简化其描述。
在图20中,首先,在步骤S5A中,控制器28向机器人16A输出存储装置中存储的预定动作命令,使得机器人16A呈现预定待机姿势(例如,图19中所示的姿势)。结果,机器人16A使摆动基台163和臂164协调地动作,呈现预定待机姿势并等待。
之后的步骤S10至S40与图13中的相同。接着,一旦在步骤S40中确定了特定胡葱12的提起方法,流程前进到步骤S50A。注意的是,也在该变型例中,步骤S40的过程起到权利要求中描述的模式确定部的作用。
在步骤S50A中,控制器28从设置于机器人16A的两个工具(即,吸盘166a和手166c)中选择与步骤S40中确定的提起方法相对应的工具(相当于第二工具;此后适当称为“特定工具”),作为执行提起特定胡葱12的作业的工具。例如,在步骤S40中,在提起方法被确定为真空吸附的情况下,选择用作执行真空吸附的工具的吸盘166a。另一方面,在步骤S40中,在提起方法被确定为夹持的情况下,选择用作用于夹持的工具的手166c。注意的是,该步骤S50A的过程起到权利要求中描述的工具选择部的作用。
随后,在步骤S60A中,控制器28根据步骤S50A的选择结果,设置特定胡葱12的接触目标区域。例如,在步骤S50A中选择了吸盘166a的情况下,控制器28从特定胡葱12的在步骤S30中作为最可能被真空吸附的区域而检测到的区域中,将满足预定条件的区域设置为特定胡葱12的吸附目标区域。另一方面,在步骤S50A中选择手166c的情况下,控制器28将特定胡葱12的球根部12c的适当区域,设置为特定胡葱12的夹持目标区域。
接着,流程前进到步骤S70A,其中,与步骤S70类似,控制器28计算特定胡葱12将在步骤S50A中选择的工具的可移动区域内传送的时刻(换句话说,机器人16A的动作开始时刻)。该步骤S70A的过程起到时刻计算部的作用。
随后,在步骤S75A中,控制器28读取存储装置中存储的与步骤S75A有关的动作命令,并且针对特定工具校正所读取的动作命令。即,对动作命令进行校正,使得当到达步骤S70A中计算出的动作开始时刻时,使摆动基台163和臂164协调动作,特定工具接触特定胡葱12的接触目标区域,并且将特定胡葱12提起并移动到照相机20的图像拍摄位置。例如,在步骤S50A中选择了吸盘166a的情况下,针对吸盘166a校正动作命令,使得吸盘166a接触特定胡葱12的吸附目标区域,并且通过真空吸附将特定胡葱12提起并移动到图像拍摄位置。另一方面,在步骤S50A中选择了手166c的情况下,针对手166c对动作命令进行校正,使得手166c接触特定胡葱12的夹持目标区域,并且通过夹持将特定胡葱12提起并移动到图像拍摄位置。
随后,在步骤S80A中,控制器28向机器人16A输出步骤S75A中校正后的动作命令。凭借该设置,特定机器人16A基于来自控制器28的动作命令,在达到动作开始时刻时使摆动基台163和臂164协调地动作。结果,特定工具接触传送路径上传送的特定胡葱12的接触目标区域,并且将特定胡葱12提起并移动到与相邻照相机20有关的图像拍摄位置。例如,在步骤S50A中选择了吸盘166a的情况下,吸盘166a接触特定胡葱12的吸附目标区域,并且通过真空吸附将特定胡葱12提起并移动到图像拍摄位置。另一方面,在步骤S50A中选择了手166c的情况下,手166c接触特定胡葱12的夹持目标区域,并且通过夹持将特定胡葱12提起并移动到图像拍摄位置。
之后的步骤S90和S100与图13中的相同,并且一旦步骤S100中检测到了特定胡葱12的加工目标区域,流程前进到步骤S105A。
在步骤S105A中,控制器28读取存储装置中存储的与步骤S105A有关的动作命令,并且校正由此读取的动作命令。具体地,针对特定工具校正所读取的动作命令,使得由特定工具提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。例如,在步骤S50A中选择了吸盘166a的情况下,控制器28针对吸盘166a校正动作命令,使得由吸盘166a提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。另一方面,在步骤S50A中选择了手166c的情况下,控制器28针对手166c校正动作命令,使得由手166c提起的特定胡葱12的加工目标区域被引导到刀片2221的位置。
接着,流程前进到步骤S110A,其中,控制器28向机器人16A输出步骤S105中校正后的动作命令。凭借该设置,机器人16A基于来自控制器28的动作命令,使摆动基台163和臂164协调地动作,将由特定工具提起的特定胡葱12的加工目标区域引导到刀片2221的位置,并且执行预定动作。例如,在步骤S50A中选择了吸盘166a的情况下,机器人16A将由吸盘166a提起的特定胡葱12的加工目标区域引导到刀片2221的位置,并且执行预定动作。另一方面,在步骤S50中选择了手166c的情况下,机器人16A将由手166c提起的特定胡葱12的加工目标区域引导到刀片2221的位置,并且执行预定动作。
之后的步骤S120与图13中的相同,并且将省略其描述。
注意的是,在上述中,步骤S75A和步骤S105A的过程起到权利要求中描述的动作校正部的作用。进一步地,步骤S80A和步骤S110A的过程起到命令输出部的作用。
在上述变型例中,单个机器人16A包括吸盘166a和手166c。接着,控制器28基于与三维传感器18的检测结果相对应的距离图像,确定胡葱12的提起方法。接着,控制器28从吸盘166a和手166c中选择与所确定的提起方法相对应的工具。随后,控制器28校正动作命令,使得所选工具提起并移动传送路径上传送的胡葱12。结果,机器人16A可以从吸盘166a和手166c中选择性地使用与能够可靠且快速提起胡葱12的提起方法相对应的工具。结果,可以可靠地防止遗漏胡葱12,由此可靠地提高生产率。
(2-4)其他
虽然根据该实施方式,吸盘166a安装于机器人16A的臂164,而手166c安装于机器人16B的臂164,但是本发明并不限于此。即,作为预定提起方法的、能够通过穿孔提起胡葱12的带刺部件可以代替吸盘166a作为工具安装于机器人16A的臂164。或者,带刺部件可以代替手166c作为工具安装于机器人16B的臂164。将带刺部件安装于机器人16A或机器人16B的臂164使得可以通过穿孔提起胡葱12。凭借该设置,与通过手166c的夹持来提起胡葱12的情况相比,可以减小节拍时间。
进一步地,虽然根据该实施方式吸盘166a安装于机器人16A的臂164,而手166c安装于机器人16B的手164,但是本发明不限于此。即,真空吸附量(真空吸附力)不同的吸盘166a可以安装于机器人16A和16B的臂164。
进一步地,虽然在变型例(2-1)和(2-2)中吸盘166a安装于各个机器人16A和16B的臂164,但是本发明不限于此。即,手166c或带刺部件可以代替吸盘166a安装于各个机器人16A和16B的臂164。
进一步地,虽然在变型例(2-3)中吸盘166a和手166c安装于机器人16A的臂164,但是本发明不限于此。即,带刺部件可以代替吸盘166a或手166c安装于机器人16A的臂164。或者,除了吸盘166a或手166c,带刺部件可以安装于机器人16A的臂164。或者,真空吸附量(真空吸附力)不同的两个吸盘166a可以安装于机器人16A的臂164。
进一步地,虽然在上述中控制器28以批量形式执行各种运算和处理,但是本发明不限于此,允许由除了控制器28之外的装置分别执行各种运算和处理。例如,可以安装第一图像处理器、第二图像处理器、机器人控制器和控制这些的控制器(如,PC或PLC)。接着,第一图像处理器可以基于由三维传感器18的照相机所拍摄的图像和该拍摄图像的距离信息,来生成距离图像,以及检测可以被真空吸附的区域;第二图像处理器可以基于照相机20的拍摄图像来检测胡葱12的形状和姿势;而机器人控制器可以执行与机器人16的动作控制有关的处理,如,确定提起处理的处理模式、选择机器人16或工具、校正动作命令以及输出动作命令。在该情况下,第一图像处理器、设置于各个照相机20的第二图像处理器、设置于各个机器人16的机器人控制器、以及控制这些的控制器相当于权利要求中描述的控制器。
进一步地,虽然上述中提起并移动作为无定形对象物的胡葱12,但是本发明不限于此。即,可以提起并移动无定形对象物(如,自然对象物(如,除了胡葱12的蔬菜或水果)或多个种类混合的人工对象物(工业产品))。在这样的情况下,无定形对象物(如,自然对象物(如,除了胡葱12的蔬菜或水果)或多个种类混合的人工对象物)相当于权利要求中描述的对象物。进一步地,对象物不限于具有无定形形状的对象物,还允许规则形状的对象物。在这样的情况下,规则形状的对象物相当于权利要求中描述的对象物。
进一步地,在执行提起并移动包括磁性物质(如,铁)的对象物的作业的情况下,能够通过电磁吸附(相当于预定提起方法)提起包括磁性物质(如,铁)的对象物的电磁体可以安装于机器人16的臂164。在这样的情况下,电磁体相当于权利要求中描述的吸附装置和工具。
进一步地,虽然在实施方式和变型例(2-1)和(2-2)中安装了两个机器人16,但是本发明不限于此,允许安装三个以上机器人16。进一步地,虽然在变型例(2-3)中安装了单个机器人16,但本发明不限于此,允许安装两个以上机器人16。
进一步地,在上述中,作为预定作业的示例描述了执行提起并移动在传送路径上传送的胡葱12的作业的情况。但是,本发明不限于此,允许将上述技术应用于所执行的预定作业是例如向对象物涂布粘合剂、涂料等的作业、去除对象物的不需要区域的作业、或者在对象物上打烙印的作业的情况。即使在应用于这样的作业的情况下,也可以通过基于三维传感器的检测结果校正动作命令并且向要动作的机器人输出校正后的动作命令,来可靠且精确地执行作业。结果,与第二实施方式类似,提高了生产率。
进一步地,图13等所示的流程不限于实施方式中所示的过程,允许在不偏离本发明的精神和范围的情况下,添加过程、删除过程和改变过程的顺序。
进一步地,除了上面已经叙述的,还可以适当组合基于上述实施方式和各个变型例的技术。
尽管这里没有对其他示例进行分别描述,但是在不偏离本发明的精神和范围的情况下,可以对上述实施方式和变型例进行各种改变。

Claims (14)

1.一种机器人系统(10;10A),该机器人系统(10;10A)包括:
传送装置(14),该传送装置(14)传送对象物(12);
第一传感器(18),该第一传感器(18)检测由所述传送装置(14)在传送路径上传送的所述对象物(12)的三维形状;
机器人(16A、16B),该机器人(16A、16B)对由所述传送装置(14)在所述传送路径上传送的所述对象物(12)执行预定作业;以及
控制器(28),该控制器(28)被构造为操作所述机器人(16A、16B),其中,
所述控制器(28)包括:
命令输出部(S80、S110;S80A、S110A),该命令输出部(S80、S110;S80A、S110A)生成对所述机器人(16A、16B)的动作命令;以及
动作校正部(S75、S105;S75A、S105A),该动作校正部(S75、S105;S75A、S105A)基于所述第一传感器(18)的检测结果,校正所述动作命令。
2.根据权利要求1所述的机器人系统(10;10A),其中,
所述第一传感器(18)包括:
激光光源,该激光光源被定向为使得向所述传送装置(14)的传送面上的预定位置照射线状束的激光;以及
照相机,该照相机拍摄所述激光光源的激光的照射位置及该照射位置的周围区域的图像。
3.根据权利要求1或2所述的机器人系统(10;10A),其中,
所述机器人(16A、16B)被构造为允许安装用于执行作为所述预定作业的按照预定提起方法提起并移动所述对象物(12)的作业的工具(166a、166c);
所述控制器(28)包括模式确定部(S40;S40’;S42、S44),该模式确定部(S40;S40’;S42、S44)基于所述第一传感器(18)的所述检测结果,针对所述传送路径上传送的所述对象物(12)确定所述工具(166a、166c)的提起处理的处理模式;并且
所述动作校正部(S75、S105;S75A、S105A)根据所述模式确定部(S40;S40’;S42、S44)确定的提起处理的处理模式,来校正所述动作命令,使得由所述工具(166a、166c)提起并移动所述传送路径上传送的所述对象物(12)。
4.根据权利要求3所述的机器人系统(10;10A),其中,
安装有多个所述机器人(16A、16B);
多个所述机器人(16A、16B)中安装在所述传送路径的最上游的机器人(16A、16B)被安装为,使得要由所述工具(166a、166c)执行所述提起处理的区域与所述第一传感器(18)对所述对象物(12)的检测区域,在所述传送路径的下游侧沿该传送路径分开预定距离(S)以上。
5.根据权利要求4所述的机器人系统(10),其中,
所述模式确定部(S40)基于与所述第一传感器(18)的检测结果相对应的三维信息,将所述提起方法确定为所述提起处理的处理模式;
所述控制器(28)还包括第一机器人选择部(S50),该第一机器人选择部(S50)在多个所述机器人(16A、16B)中,选择安装有与所述模式确定部(S40)确定出的提起方法相对应的工具(166a、166c)的第一机器人(16A、16B);
所述动作校正部(S75、S105)校正所述动作命令,使得由安装于所述第一机器人(16A、16B)的所述工具(166a、166c)提起并移动所述传送路径上传送的所述对象物(12);并且
所述命令输出部(S80、S110)向所述第一机器人(16A、16B)输出由所述动作校正部(S75、S105)校正后的动作命令。
6.根据权利要求4所述的机器人系统(10),其中,
所述模式确定部(S40’)基于与所述第一传感器(18)的检测结果相对应的三维信息,将所述机器人(16A、16B)的直到开始所述提起处理为止的待机姿势确定为所述提起处理的处理模式;
所述控制器(28)还包括第二机器人选择部(S50’),该第二机器人选择部(S50’)在多个所述机器人(16A、16B)中选择以所述模式确定部(S40’)确定的待机姿势进行等待的第二机器人(16A、16B);
所述动作校正部(S75、S105)校正所述动作命令,使得由安装于所述第二机器人(16A、16B)的所述工具(166a、166c)提起并移动所述传送路径上传送的所述对象物(12);并且
所述命令输出部(S80、S110)向所述第二机器人(16A、16B)输出由所述动作校正部(S75、S105)校正后的动作命令。
7.根据权利要求4所述的机器人系统(10),其中,
所述机器人(16A、16B)沿所述传送路径的宽度方向从一侧区域到另一侧区域安装有多个;
所述模式确定部(S42、S44)包括:
位置检测部(S42),该位置检测部(S42)基于与所述第一传感器(18)的检测结果相对应的三维信息,检测在所述传送路径上传送的所述对象物(12)沿所述传送路径的宽度方向的位置;以及
区域确定部(S44),该区域确定部(S44)基于所述位置检测部(S42)的检测结果,将所述机器人(16A、16B)的安装区域确定为所述提起处理的处理模式;
所述控制器(28)还包括第三机器人选择部(S50”),该第三机器人选择部(S50”)在多个所述机器人(16A、16B)中选择安装在所述区域确定部(S44)所确定的安装区域中的第三机器人(16A、16B);
所述动作校正部(S75、S105)校正所述动作命令,使得由安装于所述第三机器人(16A、16B)的所述工具(166a、166c)提起并移动在所述传送路径上传送的所述对象物(12);并且
所述命令输出部(S80、S110)向所述第三机器人(16A、16B)输出由所述动作校正部(S75、S105)校正后的动作命令。
8.根据权利要求4所述的机器人系统(10A),其中,
所述机器人(16A)被构造为允许安装彼此不同的多种所述工具(166a、166c);
所述模式确定部(S40)基于与所述第一传感器(18)的检测结果相对应的三维信息,将所述提起方法确定为所述提起处理的处理模式;
所述控制器(28)还包括工具选择部(S50A),该工具选择部(S50A)在多个所述工具(166a、166c)中选择与所述模式确定部(S40)所确定的提起方法相对应的第二工具(166a、166c);并且
所述动作校正部(S75A、S105A)校正所述动作命令,使得由所述第二工具(166a、166c)提起并移动在所述传送路径上传送的所述对象物(12)。
9.根据权利要求1所述的机器人系统,其中,
所述控制器(28)包括:
第一设置部(281),该第一设置部(281)基于所述第一传感器(18)的检测结果,设置在所述传送路径上传送的所述对象物(12)的接触目标区域;
第一控制部(2861),该第一控制部(2861)控制所述机器人(16A、16B),使得当所述对象物(12)在安装于所述机器人(16A、16B)的所述工具(166a、166b)的可移动范围内传送时,使所述工具(166a、166b)接触所述对象物(12)的所述接触目标区域,并且将所述对象物(12)提起并移动到预定位置;
第二传感器(20),该第二传感器(20)检测已经移动到所述预定位置的所述对象物(12)的姿势;
第二设置部(283),该第二设置部(283)基于所述第二传感器(20)的检测结果,设置由所述机器人(16A、16B)的所述工具(166a、166b)提起的所述对象物(12)的加工目标区域;以及
第二控制部(2861),该第二控制部(2861)控制所述机器人(16A、16B),使得由所述工具(166a、166b)提起的所述对象物(12)的所述加工目标区域被引导到要执行加工的位置。
10.根据权利要求9所述的机器人系统,其中,
所述传送装置(14)包括:
电动机(142);
驱动部(144),该驱动部(144)由所述电动机(142)旋转驱动;以及
编码器(146),该编码器(146)连接至所述驱动部(144)并且检测所述驱动部(144)的旋转位置,并且
所述第一控制部(2861)基于所述编码器(146)的检测结果,计算所述机器人(16A、16B)的动作开始时刻。
11.根据权利要求10所述的机器人系统,其中,
所述第二传感器是拍摄已经移动到所述预定位置的所述对象物(12)的图像的图像拍摄装置(20);并且
所述第二设置部(283)基于所述图像拍摄装置(20)的拍摄图像,设置所述对象物(12)的所述加工目标区域。
12.根据权利要求10或11所述的机器人系统,其中,
所述机器人(16A、16B)的所述工具是能够通过吸附提起所述对象物(12)的吸附装置(166a、166b);并且
所述第一设置部(281)将吸附目标区域设置为所述对象物(12)的所述接触目标区域。
13.根据权利要求10所述的机器人系统,该机器人系统还包括:
切割器(22),其包括作为所述加工对所述对象物(12)进行切割的刀片(2221);其中,
所述第二控制部(2861)控制所述机器人(16A、16B),使得由所述机器人(16A、16B)的所述工具(166a、166b)提起的所述对象物(12)的所述加工目标区域,被引导到作为要执行所述加工的位置的、所述切割器(22)的所述刀片(2221)的位置。
14.一种使用至少一个机器人来执行的被加工对象物制造方法,该至少一个机器人用于加工对象物,该方法包括以下步骤:
在传送路径上传送所述对象物(12);
利用第一传感器(18)检测所述传送路径上传送的所述对象物(12)的三维形状;
基于所述第一传感器(18)的检测结果,控制所述机器人(16A、16B),使得当所述对象物(12)在安装于所述机器人(16A、16B)的工具(166a、166b)的可移动范围内传送时,使所述工具(166a、166b)接触所述对象物(12)的接触目标区域,并且将所述对象物(12)提起并移动到预定位置;
由第二传感器(20)检测已经移动到所述预定位置的所述对象物(12)的姿势;
基于所述第二传感器(20)的检测结果,来设置由所述机器人(16A、16B)的所述工具(166a、166b)提起的所述对象物(12)的加工目标区域;以及
控制所述机器人(16A、16B),使得由工具(166a、166b)提起的所述对象物(12)的所述加工目标区域被引导到要执行加工的位置。
CN201210039248XA 2011-10-20 2012-02-20 机器人系统和被加工对象物制造方法 Pending CN103056884A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011230685A JP5370788B2 (ja) 2011-10-20 2011-10-20 対象物加工システム
JP2011-230685 2011-10-20
JP2011230684A JP5440885B2 (ja) 2011-10-20 2011-10-20 ロボットシステム
JP2011-230684 2011-10-20

Publications (1)

Publication Number Publication Date
CN103056884A true CN103056884A (zh) 2013-04-24

Family

ID=45655811

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210039248XA Pending CN103056884A (zh) 2011-10-20 2012-02-20 机器人系统和被加工对象物制造方法

Country Status (4)

Country Link
US (1) US8930009B2 (zh)
EP (1) EP2583796A2 (zh)
CN (1) CN103056884A (zh)
BR (1) BR102012003829A2 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103342140B (zh) * 2013-06-07 2015-05-20 上海发那科机器人有限公司 一种用于机器人的随行跟踪系统
CN104723338A (zh) * 2013-12-20 2015-06-24 蛇目缝纫机工业株式会社 机器人、机器人的控制方法及机器人的控制程序
CN106054805A (zh) * 2016-07-07 2016-10-26 上海邮政科学研究院 一种用于分拣机的纠偏控制系统
CN106457573A (zh) * 2014-06-20 2017-02-22 欧姆龙株式会社 机器人控制系统
CN107921638A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 机械臂系统
CN108573504A (zh) * 2017-03-13 2018-09-25 韩国科学技术研究院 用于分析植物的表型的3d影像生成方法及其系统
CN109605381A (zh) * 2019-01-29 2019-04-12 欧米瑞(广东)智能制造有限公司 一种三维定位取料系统及取料方法
CN109625957A (zh) * 2018-12-29 2019-04-16 广州瑞松智能科技股份有限公司 一种利用3d视觉及机器人抓手的上料机构

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5469216B2 (ja) * 2012-07-31 2014-04-16 ファナック株式会社 バラ積みされた物品をロボットで取出す装置
JP2015100075A (ja) * 2013-11-20 2015-05-28 株式会社東芝 画像処理装置、システムおよび方法
JP6415190B2 (ja) * 2014-09-03 2018-10-31 キヤノン株式会社 ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法
CN105045290A (zh) * 2015-08-24 2015-11-11 铜陵学院 一种单轮全自动中低速灭火机器人伺服控制系统
JP6450737B2 (ja) * 2016-12-08 2019-01-09 ファナック株式会社 ロボットシステム
JP6470321B2 (ja) * 2017-01-11 2019-02-13 ファナック株式会社 物品搬送装置
US11511435B2 (en) 2017-05-22 2022-11-29 Abb Schweiz Ag Robot-conveyor calibration method, robot system and control system
US10339670B2 (en) * 2017-08-29 2019-07-02 Trimble Inc. 3D tool tracking and positioning using cameras
EP3820655B1 (en) * 2018-07-13 2023-06-14 ABB Schweiz AG Diagnosis method and apparatus
US20200041977A1 (en) 2018-08-03 2020-02-06 Walmart Apollo, Llc Mobile assembly apparatus
JP7313049B2 (ja) * 2019-09-30 2023-07-24 Johnan株式会社 ロボット制御システム、ロボット制御方法およびプログラム
CN113910269B (zh) * 2021-10-27 2022-12-20 因格(苏州)智能技术有限公司 一种机器人总控系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS642882A (en) * 1987-06-25 1989-01-06 Omron Tateisi Electron Co Robot control method
JPH07136959A (ja) * 1993-11-11 1995-05-30 Nippon Telegr & Teleph Corp <Ntt> ロボット位置決め方法
JPH1158187A (ja) * 1997-08-26 1999-03-02 Matsushita Electric Works Ltd 生産ラインにおける部品の移送供給制御方法及びその装置
JP2001277165A (ja) * 2000-03-28 2001-10-09 Seiko Instruments Inc 収納装置及び収納方法
EP1442848A2 (en) * 2003-01-30 2004-08-04 Fanuc Ltd Robot hand for taking out objects with means for changing the orientation of the hand
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
CN102189551A (zh) * 2010-03-11 2011-09-21 株式会社安川电机 机器人系统以及搬运方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5845884A (ja) 1981-09-14 1983-03-17 株式会社妙徳製作所 自動機械化装置
JPS60127988A (ja) 1983-12-09 1985-07-08 ダイキン工業株式会社 複合ハンド
JP3296643B2 (ja) 1992-12-21 2002-07-02 松下電工株式会社 部品供給方法およびその装置
JP3129693B2 (ja) 1998-03-19 2001-01-31 川崎重工業株式会社 ワーク把持装置
JP2003237940A (ja) 2002-02-18 2003-08-27 Meidensha Corp 搬送装置
JP2008514504A (ja) * 2004-09-30 2008-05-08 アーベーベー アーエス 産業用ロボットに使用されるドア開閉機構
US8821099B2 (en) * 2005-07-11 2014-09-02 Brooks Automation, Inc. Load port module
JP2007030087A (ja) 2005-07-26 2007-02-08 Fanuc Ltd 物流トラッキング装置
GB0620955D0 (en) * 2006-10-20 2006-11-29 Speakman Stuart P Methods and apparatus for the manufacture of microstructures
WO2008150903A1 (en) * 2007-05-31 2008-12-11 Monsanto Technology Llc Seed sorter

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS642882A (en) * 1987-06-25 1989-01-06 Omron Tateisi Electron Co Robot control method
JPH07136959A (ja) * 1993-11-11 1995-05-30 Nippon Telegr & Teleph Corp <Ntt> ロボット位置決め方法
JPH1158187A (ja) * 1997-08-26 1999-03-02 Matsushita Electric Works Ltd 生産ラインにおける部品の移送供給制御方法及びその装置
JP2001277165A (ja) * 2000-03-28 2001-10-09 Seiko Instruments Inc 収納装置及び収納方法
EP1442848A2 (en) * 2003-01-30 2004-08-04 Fanuc Ltd Robot hand for taking out objects with means for changing the orientation of the hand
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
CN102189551A (zh) * 2010-03-11 2011-09-21 株式会社安川电机 机器人系统以及搬运方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103342140B (zh) * 2013-06-07 2015-05-20 上海发那科机器人有限公司 一种用于机器人的随行跟踪系统
CN104723338B (zh) * 2013-12-20 2017-11-14 蛇目缝纫机工业株式会社 机器人、机器人的控制方法及机器人的控制程序
CN104723338A (zh) * 2013-12-20 2015-06-24 蛇目缝纫机工业株式会社 机器人、机器人的控制方法及机器人的控制程序
TWI566906B (zh) * 2013-12-20 2017-01-21 車樂美縫衣機工業股份有限公司 機器人、機器人的控制方法及機器人的控制程式
US9958856B2 (en) 2013-12-20 2018-05-01 Janome Sewing Machine Co., Ltd. Robot, robot control method and robot control program
CN106457573B (zh) * 2014-06-20 2019-04-05 欧姆龙株式会社 机器人控制系统
CN106457573A (zh) * 2014-06-20 2017-02-22 欧姆龙株式会社 机器人控制系统
US10286547B2 (en) 2014-06-20 2019-05-14 Omron Corporation Robot control system
CN107921638A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 机械臂系统
CN106054805A (zh) * 2016-07-07 2016-10-26 上海邮政科学研究院 一种用于分拣机的纠偏控制系统
CN106054805B (zh) * 2016-07-07 2019-12-20 中邮科技有限责任公司 一种用于分拣机的纠偏控制系统
CN108573504A (zh) * 2017-03-13 2018-09-25 韩国科学技术研究院 用于分析植物的表型的3d影像生成方法及其系统
CN108573504B (zh) * 2017-03-13 2022-10-04 韩国科学技术研究院 用于分析植物的表型的3d影像生成方法及其系统
CN109625957A (zh) * 2018-12-29 2019-04-16 广州瑞松智能科技股份有限公司 一种利用3d视觉及机器人抓手的上料机构
CN109605381A (zh) * 2019-01-29 2019-04-12 欧米瑞(广东)智能制造有限公司 一种三维定位取料系统及取料方法

Also Published As

Publication number Publication date
BR102012003829A2 (pt) 2017-10-24
US20130103179A1 (en) 2013-04-25
EP2583796A2 (en) 2013-04-24
US8930009B2 (en) 2015-01-06

Similar Documents

Publication Publication Date Title
CN103056884A (zh) 机器人系统和被加工对象物制造方法
CN102189551B (zh) 机器人系统以及搬运方法
CN102039547B (zh) 磨削装置及磨削方法以及薄板状部件的制造方法
EP3173194B1 (en) Manipulator system, image capturing system, transfer method of object, and carrier medium
US8977378B2 (en) Systems and methods of using a hieroglyphic machine interface language for communication with auxiliary robotics in rapid fabrication environments
JP5582126B2 (ja) ワーク取出システム、ロボット装置および被加工物の製造方法
JP6685776B2 (ja) 撮像システム、計測システム、生産システム、撮像方法、プログラム、記録媒体および計測方法
JP5893695B1 (ja) 物品搬送システム
TW201715948A (zh) 自主調整式電子元件操控裝置的裝置和方法
JP5440885B2 (ja) ロボットシステム
JP2005305613A (ja) 物品取出し装置
KR20180127388A (ko) 기판 반송 장치 및 기판 반송 로봇의 교시 방법
JP2006035397A (ja) 搬送ロボットシステム
EP2915597A1 (en) Programmable digital machine vision inspection system
JP2005005608A (ja) 基板搬送ロボットのティーチング装置及びティーチング方法
US20210269253A1 (en) Device and method for separating piece goods
JP7173048B2 (ja) 異音検査装置、異音検査方法、プログラム及びワークの製造方法
CN112894798A (zh) 在存在人类操作员的情况下控制机器人的方法
JP2013145532A (ja) 加工装置、ツール、加工方法および加工位置の設定方法
JP2018134698A (ja) ワーク取出システム
US9636824B2 (en) Transfer system
JP2010279969A (ja) レーザ加工方法、レーザ加工装置及びソーラパネル製造方法
JP2009121900A (ja) 寸法測定装置、及びワーク製造方法
US11077559B2 (en) Support robot and methods of use thereof
JP2014061561A (ja) ロボットシステムおよび物品製造方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20160608

C20 Patent right or utility model deemed to be abandoned or is abandoned