CN110587592B - 机器人控制装置、机器人控制方法及计算机可读记录介质 - Google Patents
机器人控制装置、机器人控制方法及计算机可读记录介质 Download PDFInfo
- Publication number
- CN110587592B CN110587592B CN201910408402.8A CN201910408402A CN110587592B CN 110587592 B CN110587592 B CN 110587592B CN 201910408402 A CN201910408402 A CN 201910408402A CN 110587592 B CN110587592 B CN 110587592B
- Authority
- CN
- China
- Prior art keywords
- robot
- space
- image
- workpiece
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40053—Pick 3-D object from pile of objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40515—Integration of simulation and planning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Automation & Control Theory (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Manipulator (AREA)
Abstract
机器人控制装置、机器人控制方法及计算机可读记录介质,能够与机器人从图像取得禁止空间退出的时刻配合地迅速取得拍摄图像。机器人控制装置具有:取得部,其从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;仿真部,其对机器人的动作进行仿真;以及控制部,其控制为,当在仿真中机器人从工件集合和机器人会被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得图像传感器的拍摄图像,其中,该图像取得禁止空间是根据作为图像传感器的视野范围的第1空间和至少1个第2空间中的至少一方而设定的空间,该第2空间是以包含工件集合的工件区域或将工件区域分割为多个而得到的分割区域为底面的柱状的空间。
Description
技术领域
本发明涉及机器人控制装置、机器人控制方法及计算机可读记录介质。
背景技术
在工厂的生产线等中,作为搬运部件和产品等工件的装置之一,有拾取放置装置(例如,参照专利文献1)。拾取放置装置对工件进行保持而将工件搬运并载置到目标场所。要保持的工件是基于由图像传感器从工件集合的上方拍摄得到的拍摄图像而确定的。另外,在利用图像传感器对工件集合进行拍摄时,需要在机器人臂部从工件集合的上方退避出来的状态下进行拍摄,以使得不在机器人臂部与工件集合重叠的状态下进行拍摄。
另外,在拾取放置装置中,为了提高生产性,要求缩短在规定场所从对工件进行保持起到载置于目标场所为止的循环时间。通常,为了缩短拾取放置装置的循环时间,优选在机器人臂部从工件集合的上方退避出来的时刻迅速地开始图像传感器的拍摄。
专利文献1:日本特开2011-131303号公报
专利文献2:日本特开2008-30136号公报
发明内容
但是,由于机器人臂部从工件集合的上方退避的时刻会根据要保持的工件的位置及工件保持所需的时间而产生偏差,所以难以进行估计。因此,以往,在机器人臂部明显不存在于工件上方的时刻(例如从对工件进行保持起经过几秒后的固定时刻)开始拍摄。因此,难以缩短循环时间。
也考虑了将用于确定机器人臂部从工件集合的上方退避的时刻的传感器与拍摄工件集合的图像传感器分开设置,但存在部件个数增加而使得装置的成本变高的问题。
本发明是鉴于上述问题而完成的,其目的在于,提供能够与机器人从作为机器人的作业对象的工件集合和机器人会被重叠地拍摄到的图像取得禁止空间退避出来的时刻一致地,迅速取得拍摄图像的机器人控制装置、机器人控制方法以及计算机可读记录介质。
本发明的机器人控制装置具有:取得部,其从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;仿真部,其与所述机器人的动作并行地执行所述机器人的动作的仿真;以及控制部,其控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是根据第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
另外,也可以是,所述控制部计算以包含所述工件集合的外廓的形状为所述底面的所述第2空间,将计算出的所述第2空间与所述第1空间重复的空间计算为所述图像取得禁止空间。
另外,也可以是,包含所述工件集合的外廓的形状是表示所述工件集合的外廓的轮廓或在内部包含所述工件集合的轮廓的形状。
另外,也可以是,在内部包含所述工件集合的轮廓的形状是包含所述工件集合的外廓的外接形状或收纳所述工件集合的收纳部的内缘形状。
另外,也可以是,所述图像传感器是拍摄静态图像的图像传感器,所述控制部控制为,与所述仿真中的所述机器人从图像取得禁止空间退避出来的时刻一致地,开始所述图像传感器的拍摄。
另外,也可以是,所述图像传感器是拍摄动态图像的图像传感器,所述控制部控制为,与所述仿真中的所述机器人从图像取得禁止空间退避出来的时刻一致地,从所述图像传感器拍摄到的动态图像中取得帧图像。
另外,也可以是,所述图像取得禁止空间被设定了多个,所述控制部控制为,在所述机器人从多个所述图像取得禁止空间中的至少1个所述图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像。
另外,也可以是,设定为,在沿所述图像传感器的拍摄方向俯视观察的情况下,所述多个所述图像取得禁止空间中的至少两个所述图像取得禁止空间的一部分重复。
另外,也可以是,所述控制部控制为,在所述机器人的机器人臂部的位置退避到不对所述工件集合的配置带来影响的基准位置,并且在与各个所述分割区域对应的图像取得禁止空间中有存在工件且不存在所述机器人臂部的图像取得禁止空间的情况下,取得所述图像传感器的拍摄图像。
本发明的机器人控制方法由计算机执行包含如下工序的处理:取得工序,从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;仿真工序,与所述机器人的动作并行地执行所述机器人的动作的仿真;以及控制工序,控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是根据第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
本发明的计算机可读记录介质,其存储有用于使计算机作为如下部来发挥功能的机器人控制程序:取得部,其从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;仿真部,其与所述机器人的动作并行地执行所述机器人的动作的仿真;以及控制部,其控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是根据第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
发明效果
根据本发明,能够与机器人从作为机器人的作业对象的工件集合和机器人会被重叠地拍摄到的图像取得禁止空间退避出来的时刻一致地迅速取得拍摄图像。
附图说明
图1是拾取放置装置的概略结构图。
图2是示出垂直多关节机器人的一例的立体图。
图3是示出机器人控制装置的硬件结构的例子的结构图。
图4是示出机器人控制装置的功能结构的例子的框图。
图5是示出机器人控制处理的流程的流程图。
图6是示出第1空间的一例的图。
图7是示出第2空间的一例的图。
图8是示出图像取得禁止空间的一例的图。
图9是用于对第2空间的底面的一例进行说明的图。
图10是用于对第2空间的底面的一例进行说明的图。
图11是用于对第2空间的底面的一例进行说明的图。
图12是用于对机器人臂部是否从图像取得禁止空间退避出来的判定进行说明的图。
图13是在机器人控制装置中执行的各处理的时序图。
图14是示出设定了多个图像取得禁止空间的情况下的一例的俯视图。
图15是示出设定了多个图像取得禁止空间的情况下的一例的立体图。
图16是示出设定了多个图像取得禁止空间的情况下的拍摄图像的取得时机的判定处理的一例的流程图。
标号说明
1:拾取放置装置;10:机器人控制装置;20A、20B:收纳部;30:取得部;32:仿真部;34:控制部;36:存储部;40:第1空间;42:底面;44:第2空间;46:图像取得禁止空间;50:轮廓;52:外接形状。
具体实施方式
以下,参照附图对本发明的实施方式的一例进行说明。另外,对在各附图中相同或等价的构成要素和部分标注相同的参照标号。另外,为了便于说明,附图的尺寸比例有时被夸大,有时与实际的比例不同。
图1是本实施方式的拾取放置装置1的结构图。如图1所示,拾取放置装置1具有机器人RB、图像传感器S以及机器人控制装置10。
机器人RB对从收纳在箱状的收纳部20A中的工件W的集合即工件集合WS选择出的工件W进行保持并搬运到箱状的其他收纳部20B,并载置在收纳部20B内。以下,将保持工件W的动作称为拾取动作。另外,将载置工件W的动作称为放置动作。
在本实施方式中,作为一例,在机器人RB的机器人臂部的前端安装有机器人手H作为前端执行器,通过利用机器人手H对收纳部20A内的工件W进行抓持而对工件W进行保持。然后,工件W在被保持的状态下被搬运到其他收纳部20B,解除工件W的保持而载置工件W。另外,保持工件W的部件并不限于机器人手H,也可以是吸附工件W的吸附垫。
图像传感器S设置在能够对包含工件集合WS的范围进行拍摄的、工件集合WS的上方的位置处。图像传感器S是根据机器人控制装置10的指示将工件集合WS拍摄为静态图像的照相机。另外,作为图像传感器S,也可以使用从多个不同的方向同时拍摄对象物的立体照相机。
机器人控制装置10对从图像传感器S取得的拍摄图像进行图像处理,根据图像处理的结果来识别要保持的工件W的位置和姿势。然后,机器人控制装置10生成使机器人RB从收纳部20A对工件W进行保持并载置到收纳部20B为止的路径计划。机器人控制装置10将动作指令值输出到机器人RB,以使得机器人RB依照所生成的路径计划进行动作。
接着,对机器人RB进行说明。在本实施方式中,对机器人RB是垂直多关节机器人的情况进行说明,但本发明也能够应用于水平多关节机器人(SCARA机器人)及并联机器人等。
图2是示出作为垂直多关节机器人的机器人RB的结构的图。如图2所示,机器人RB是具有基础连杆BL、连杆L1~L6以及接头J1~J6的6个自由度的6轴机器人。另外,接头是将连杆彼此连接起来的关节。另外,以下,将连杆L1~L6及与连杆L6连接的机器人手H统称为机器人臂部。
基础连杆BL和连杆L1借助在图2中以铅直轴S1为中心向箭头C1方向旋转的接头J1而连接。因此,连杆L1以基础连杆BL为支点向箭头C1方向旋转。
连杆L1和连杆L2借助在图2中以水平轴S2为中心向箭头C2方向旋转的接头J2而连接。因此,连杆L2以连杆L1为支点向箭头C2方向旋转。
连杆L2和连杆L3借助在图2中以轴S3为中心向箭头C3方向旋转的接头J3而连接。因此,连杆L3以连杆L2为支点向箭头C3方向旋转。
连杆L3和连杆L4借助在图2中以轴S4为中心向箭头C4方向旋转的接头J4而连接。因此,连杆L4以连杆L3为支点向箭头C4方向旋转る。
连杆L4和连杆L5借助在图2中以轴S5为中心向箭头C5方向旋转的接头J5而连接。因此,连杆L5以连杆L4为支点向箭头C5方向旋转。
连杆L5和连杆L6借助在图2中以轴S6为中心向箭头C6方向旋转的接头J6而连接。因此,连杆L6以连杆L5为支点向箭头C6方向旋转。另外,虽然在图2中省略了图示,但在连杆L6安装有机器人手H。
接头J1~J6分别将-180度到+180度的旋转角度的范围内的预定范围设定为可动区域。
机器人RB的姿势由接头J1~J6各自的旋转角度来确定。
图3是示出本实施方式的机器人控制装置10的硬件结构的框图。
如图3所示,机器人控制装置10具有CPU(Central Processing Unit:中央处理单元)11、ROM(Read Only Memory:只读存储器)12、RAM(Random Access Memory:随机存取存储器)13、存储装置14、输入部15、监视器16、光盘驱动装置17以及通信接口18。各结构经由总线19以能够相互通信的方式连接。
在本实施方式中,在ROM 12或存储装置14中存储有执行机器人控制处理的机器人控制程序。CPU 11是中央运算处理单元,其执行各种程序并对各结构进行控制。即,CPU 11从ROM 12或存储装置14读出程序,并以RAM 13为作业区域来执行程序。CPU 11依照记录在ROM 12或存储装置14中的程序来进行上述各结构的控制及各种运算处理。
另外,CPU 11是能够并行地执行多个处理的处理器。作为这样的处理器,可举出多核CPU。另外,CPU 11也可以是能够基于多任务操作系统来并行地执行多个处理的处理器。
ROM 12存储各种程序及各种数据。RAM 13作为作业区域来临时存储程序或数据。存储装置14由HDD(Hard Disk Drive:硬盘驱动器)或SSD(Solid State Drive:固态驱动器)构成,存储包含操作系统在内的各种程序及各种数据。
输入部15包含键盘151及鼠标152等指示器件,用于进行各种输入。监视器16例如是液晶显示器,其显示各种信息。监视器16可以采用触摸面板方式而作为输入部15发挥功能。光盘驱动装置17进行存储在各种记录介质(CD-ROM或蓝光光盘等)中的数据的读入、针对记录介质的数据的写入等。
通信接口18是用于与机器人RB和图像传感器S等其他设备进行通信的接口,例如,使用了以太网(注册商标)、FDDI或Wi-Fi(注册商标)等标准。
接着,对机器人控制装置10的功能结构进行说明。
图4是示出机器人控制装置10的功能结构的例子的框图。
如图4所示,作为功能结构,机器人控制装置10具有取得部30、仿真部32、控制部34以及存储部36。各功能结构是通过由CPU 11读出存储于ROM 12或存储装置14中的机器人控制程序并在RAM 13中展开执行而实现的。
取得部30从对作为机器人RB的作业对象的工件集合WS进行拍摄的图像传感器S取得拍摄图像。
仿真部32对机器人RB的动作进行仿真。
控制部34控制为,当在仿真部32的仿真中机器人RB从工件集合WS和机器人RB会被重叠地拍摄到的图像取得禁止空间退避出来的情况下,取得图像传感器S的拍摄图像,其中,该图像取得禁止空间是根据图像传感器S的视野范围和包含工件集合WS的区域的形状中的至少一方而设定的空间。
存储部36存储机器人控制处理程序、与图像传感器S的视野范围相关的信息、机器人RB的基础连杆BL及连杆L1~L6的形状数据、与接头J1~J6的可动区域相关的信息、机器人手H的形状数据、工件W的形状数据等各种信息。
接着,对机器人控制装置10的作用进行说明。
图5是示出由机器人控制装置10的CPU 11执行的机器人控制处理的流程的流程图。当操作者指示执行机器人控制处理时,CPU 11从ROM 12或存储装置14读出机器人控制程序并在RAM 13中展开执行,由此执行机器人控制处理。
CPU 11作为控制部34而对图像传感器S指示拍摄,作为取得部30来取得图像传感器S所拍摄到的拍摄图像(步骤S100)。
作为控制部34,CPU 11从存储部36读出图像传感器S的视野范围,根据从图像传感器S取得的拍摄图像和从存储部36读出的图像传感器S的视野范围,计算图像取得禁止空间(步骤S102)。
这里,图像取得禁止空间是指工件集合WS和机器人RB会被重叠地拍摄到的空间。如后述那样,在机器人RB对工件W进行保持时,根据图像传感器S拍摄到的拍摄图像来选择要保持的工件W。此时,如果工件集合WS和机器人RB的机器人臂部重叠地呈现在拍摄图像中,则有时难以选择要保持的工件W。因此,当在图像取得禁止空间内存在机器人RB的机器人臂部的情况下,禁止取得由图像传感器S拍摄的拍摄图像。
在本实施方式中,将第1空间与第2空间重复的空间设为图像取得禁止空间,其中,该第1空间是图像传感器S的视野范围,该第2空间是以包含工件集合WS的区域为底面,将底面延伸到图像传感器S的位置而得到的空间。
例如,将第1空间设为表示图6所示的四棱锥状的视野范围的第1空间40。另外,将第2空间设为,如图7所示那样以工件集合WS的收纳范围为底面42、将底面42延伸到图像传感器S的位置而得到的四棱柱状的第2空间44。在该情况下,作为第1空间40与第2空间44重复的图像取得禁止空间,可得到图8所示的图像取得禁止空间46。另外,底面42是本发明的工件区域的一例。
如图9所示,在沿图像传感器S的拍摄方向俯视观察收纳部20A的情况下,图7的底面42是收纳部20A的内缘形状48。另外,也可以将表示图8所示的图像取得禁止空间46的形状的数据预先存储在存储部36中,而省略步骤102的处理。
底面42的形状不限于图9的例子。例如,也可以计算以包含工件集合WS的外廓的形状为底面的柱状的第2空间,将计算出的第2空间与第1空间重复的空间计算为图像取得禁止空间。
在该情况下,如图10所示,也可以将包含工件集合WS的外廓的形状作为表示工件集合WS的外廓的轮廓50。在该情况下,作为控制部34,CPU 11对由图像传感器S取得的拍摄图像执行公知的边缘提取处理等图像处理而提取工件集合WS的轮廓50。然后,通过将提取出的轮廓50延伸到图像传感器S的位置而计算出柱状的第2空间。由此,能够使第2空间成为必要最小限度的空间。
另外,也可以将包含工件集合WS的区域的轮廓设为在内部包含工件集合WS的轮廓的形状。例如如图11所示,也可以将在内部包含工件集合WS的轮廓的形状设为包含工件集合WS的外廓的外接形状52。在图11的例子中,外接形状52为矩形,但也可以是圆。另外,也可以将外接形状52设为凸包工件集合WS的凸包形状。在图11的例子的情况下,与将收纳部20A的内缘的形状48设为底面的情况相比,能够减小底面的面积。另外,与将表示工件集合WS的外廓的轮廓50设为底面的情况相比,可以使第2空间为单纯的柱状形状。
作为控制部34,CPU 11根据从图像传感器S取得的拍摄图像,计算要拾取的工件W的位置和姿势(步骤S104)。例如对拍摄图像实施公知的边缘提取处理和特征提取处理等来检测各工件W的位置和姿势。然后,从检测出的工件W中选择要拾取的工件W。另外,作为要拾取的工件W的选择基准,例如可以列举选择在工件集合WS中位于最上部的工件W、选择存在于工件集合WS的中央的工件W、选择不与其他工件W重叠的工件W等,但并不限于这些。
作为控制部34,CPU 11生成拾取动作的路径计划(步骤S106)。具体来说,根据在步骤S104中计算出的待拾取的工件W的位置和姿势,确定机器人RB的目标姿势,计算从机器人RB的初始姿势到目标姿势的路径计划。这里,机器人RB的路径计划是指使机器人RB从初始姿势向目标姿势动作的情况下的姿势的列表,即,机器人RB的接头J1~J6的各自的旋转角度的列表。在路径计划的计算中,可以使用当指定初始姿势和目标姿势时自动生成路径计划的动作计划的方法。另外,也可以使用通过示教回放的方法而生成的路径计划。即,也可以使机器人RB直接移动而示教与各种各样的工件的位置和姿势对应的路径,并预先存储在存储部36中,从存储部36读出与在步骤S104中计算出的待拾取的工件W的位置和姿势对应的路径。
作为控制部34和仿真部32,CPU 11将用于使机器人RB依照在步骤S106中生成的路径计划进行动作的动作指令值发送到机器人RB而使机器人RB实际进行动作,并且执行与机器人RB的实际动作相同的动作的仿真(步骤S108)。由此,与实际执行机器人RB的拾取动作一致地,在仿真中也执行虚拟的机器人RB的拾取动作。即,并行地执行实际的机器人RB的拾取动作和仿真中的虚拟的机器人RB的拾取动作。另外,也可以是,实际的机器人RB的动作与仿真中的机器人RB的动作相比,执行仿真中的拾取动作稍微先行于实际执行机器人RB的拾取动作。由此,当在后述的步骤S114中在仿真中判定为包括所保持的工件W在内的机器人臂部已从图像取得禁止空间46退避出来、在步骤S116中对图像传感器S指示拍摄的情况下,能够使拍摄指示的时刻尽量与实际上机器人RB从图像取得禁止空间46退避的时刻一致。
另外,作为控制部34,CPU 11与步骤S108的处理并行地执行生成放置动作的路径计划的处理(步骤S110)。
具体来说,将在拾取动作中拾取了工件W时的机器人RB的姿势设为初始姿势,将向收纳部20B载置工件W时的姿势设为目标姿势,计算机器人RB的从初始姿势到目标姿势的路径计划。
作为控制部34和仿真部32,CPU 11将用于使机器人RB依照在步骤S110中生成的路径计划进行动作的动作指令值发送到机器人RB而使机器人RB实际进行动作,并且执行与机器人RB的实际动作相同的动作的仿真(步骤S112)。由此,在实际执行机器人RB的放置动作的同时,在仿真中也执行虚拟的机器人RB的放置动作。即,并行地执行实际的机器人RB的放置动作和仿真中的虚拟的机器人RB的放置动作。
另外,CPU 11与步骤S112的处理并行地执行步骤S114和S116的处理。即,作为控制部34,CPU 11判定拍摄图像的取得时机是否已到来(步骤S114)。
拍摄图像的取得时机在仿真中设为是包含所保持的工件W在内的机器人臂部从图像取得禁止空间46退避出来的时刻。为了计算包含所保持的工件W在内的机器人臂部从图像取得禁止空间46退避出来的时刻,CPU 11在仿真中例如使用判定机器人与障碍物之间的干涉的公知的干涉判定技术。这里,干涉是指机器人与障碍物发生接触。作为公知的干涉判定技术,例如可以使用日本特开2002-273675号公报所记载的技术。
例如如图12所示,在将图像取得禁止空间46视为障碍物的情况下,可认为机器人RB的机器人臂部向箭头A方向移动而进入到图像取得禁止空间46内的时刻是机器人RB的机器人臂部与障碍物发生干涉的时刻。另外,在图12中省略了机器人手H和工件W的图示。
另外,在将图像取得禁止空间46视为障碍物的情况下,可认为机器人RB的机器人臂部进入到图像取得禁止空间46内并且包括所保持的工件W在内的机器人臂部向箭头B方向移动而从图像取得禁止空间46脱离出来的时刻是从包括所保持的工件W在内的机器人臂部与障碍物发生干涉的状态变为不发生干涉的时刻。
因此,CPU 11在仿真中将图像取得禁止空间46视为障碍物,机器人RB的机器人臂部与障碍物发生干涉,然后,将包括所保持的工件W在内的机器人臂部变为与障碍物不发生干涉的时刻判定为机器人RB从图像取得禁止空间46退避出来的时刻。
在拍摄图像的取得时机尚未到来的情况下(步骤S114:否),CPU 11反复进行步骤S114的判定。
另一方面,在拍摄图像的取得时机到来的情况下(步骤S114:是),CPU 11作为控制部34对图像照相机S指示拍摄,作为取得部30从图像传感器S取得对工件集合WS进行拍摄而得到的拍摄图像(步骤S116)。
CPU 11判定是否已从工件集合WS将全部的工件W从收纳部20A搬运到收纳部20B(步骤S118)。具体来说,例如对在步骤S116中取得的拍摄图像实施图像处理,判定在拍摄图像中是否存在工件W。另外,在预先知道最初收纳在收纳部20A中的工件的数量的情况下,也可以判定搬运工件W的次数是否达到了工件W的数量。然后,在搬运完了全部的工件W的情况下(步骤S118:是),结束本流程。另一方面,在未搬运完全部的工件W的情况下(步骤S118:否),转移到步骤S102,反复进行步骤S102~S118的处理直到搬运完全部的工件W。在该情况下,在步骤S106中生成拾取动作的路径计划时的初始姿势是通过上次的放置动作放置了工件W时的机器人RB的姿势。
在图13中示出了将摄像和图像处理(步骤S100~S104)、拾取动作的路径计划的生成(步骤S106)、拾取动作和仿真(步骤S108)、放置动作的路径计划的生成(步骤S110)、放置动作和仿真(步骤S112)设为1个循环的情况下的各动作的时序图。另外,在图13中,t1~t2的期间是机器人RB的机器人臂部存在于图像取得禁止空间46的期间。这样,当在第1个循环的拾取动作的中途的t1的时刻机器人RB的机器人臂部进入到图像取得禁止空间46、在放置动作的中途的t2的时刻包括所保持的工件W在内的机器人臂部从图像取得禁止空间46退避出来的情况下,优选在t2的时刻提前开始第2个循环的拍摄。
在本实施方式中,执行机器人RB的动作的仿真。于是,在仿真中,在包括所保持的工件W在内的机器人臂部从图像取得禁止空间46退避出来的情况下,对图像传感器S指示拍摄。因此,能够与机器人RB从图像取得禁止空间46退避出来的时刻一致地迅速取得拍摄图像,能够缩短1个循环所需的时间。
机器人控制装置10并不限定于上述实施方式,能够进行各种改变。例如,在本实施方式中,对图像传感器S是拍摄静态图像的照相机的情况进行了说明,但也可以使用拍摄动态图像的摄像机。在该情况下,在执行图5的处理的过程中,继续由图像传感器S进行的动态图像的拍摄。然后,在步骤S100、步骤S116中,只要控制为从由图像传感器S拍摄到的动态图像中取得帧图像即可。
另外,在本实施方式中,对包括工件W在内的机器人臂部从图像取得禁止空间46完全退避出来的情况下对图像传感器S指示拍摄的情况进行了说明,但即使是包括所保持的工件W在内的机器人臂部的一部分留在图像取得禁止空间46中的状态,也可以对图像传感器S指示拍摄。例如,在将第2空间44的底面如图9所示那样设为收纳部20A的内缘的形状48的情况或如图11所示那样设为包含工件集合WS的外廓的外接形状52的情况下,只要是即使在图像取得禁止空间46内也不会与工件集合WS重叠的位置,则在包括保持工件W在内的机器人臂部的一部分留在图像取得禁止空间46内的状态下,在很多情况下也不会影响到工件W的选择。因此,即使在包括所保持的工件W在内的机器人臂部的一部分留在图像取得禁止空间46中的状态下,在与工件集合WS不重叠的位置的情况下,也可以对图像传感器S指示拍摄。在该情况下,在图5的步骤S104的处理中,也可以根据从拍摄图像中除去了机器人臂部的一部分后的图像来选择待拾取的工件。
另外,也可以是,在判定为除所保持的工件W之外的包括机器人手H在内的机器人臂部从图像取得禁止空间46退避出来的情况下,对图像传感器S指示拍摄。另外,也可以是,在判定为除所保持的工件W和机器人手H之外的机器人臂部从图像取得禁止空间46退避出来的情况下,对图像传感器S指示拍摄。
另外,在本实施方式中,对将第1空间40与第2空间44重复的空间设为图像取得禁止空间46的情况进行了说明,但也可以将第1空间40或第2空间44设为图像取得禁止空间46。在将第1空间40设为图像取得禁止空间46的情况下,第1空间40是根据图像传感器S的视野范围而预先确定的,因此能够省略图5的步骤102的处理。另外,在将第2空间44设为图像取得禁止空间46的情况下,与计算第1空间40和第2空间44重复的空间的情况相比,能够缩短图像取得禁止空间46的计算时间。另外,也可以将第1空间40与第2空间44之和设为图像取得禁止空间46。
另外,在本实施方式中,对仅设定有一个图像取得禁止空间的情况进行了说明,但在图5的步骤S102中,也可以设定多个图像取得禁止空间。例如,也可以设定作为图像传感器S的视野范围的第1空间和柱状的多个第2空间分别重复的多个图像取得禁止空间,该柱状的多个第2空间是以将包含工件集合WS的工件区域分割成多个而得到的各个分割区域为底面、将各底面延伸到图像传感器S的位置而得到的。
具体来说,如图14所示,在沿图像传感器S的拍摄方向俯视观察收纳部20A的情况下,以收纳部20A的内缘的形状48为底面,将该底面被分割成多个而得到的各个分割区域42A~42D设为多个第2空间的底面。在图14的例子中,分割区域42A~42D的各自的一部分被设定为互相重复。即,在沿图像传感器S的拍摄方向俯视观察的情况下,多个图像取得禁止空间的一部分被设定为重复。这样,通过使多个图像取得禁止空间的一部分互相重复,与不使多个图像取得禁止空间的一部分重复的情况相比,能够增加可在各图像取得禁止空间中选择的工件W的数量。
另外,也可以将分割区域42A~42D设定为使分别存在于分割区域42A~42D中的工件W的数量均等。在该情况下,根据拍摄图像来计算工件W的位置和数量。然后,根据计算出的工件W的数量和位置来设定分割区域42A~42D的尺寸即可。
在图15中示出了以各个分割区域42A~42D为底面通过将各底面延伸到图像传感器S的位置而得到的柱状的第2空间44A~44D的一例。
另外,在图14的例子中,设定为分割区域42A~42D的各自的一部分互相重复,但也可以设定为分割区域42A~42D中的两个或三个分割区域的一部分互相重复。另外,可以将多个图像取得禁止空间设定为分割区域42A~42D互相不重复,但在该情况下需要将分割区域42A~42D设定为工件集合WS全部包含在多个图像取得禁止空间中。
在设定了多个图像取得禁止空间的情况下,在图5的步骤S114中,执行图16所示的处理。首先,CPU 11在仿真中判定机器人臂部的位置是否退避到不会对工件集合WS的配置带来影响的基准位置(步骤S114A)。即,判定机器人臂部是否退避到不会因与工件W接触而使工件集合WS的配置发生变化的位置。这里,基准位置例如如图15所示那样,是在作为高度方向的Z方向上与收纳部20B的上表面A相距预定的距离h的位置。在该情况下,如图15所示,在机器人臂部的高度是与收纳部20B的上表面A在Z方向上相距距离h的位置的面B以上的高度的情况下,步骤S114A的判定是肯定的判定。
另外,例如也可以根据在图5的步骤S100中取得的拍摄图像和工件W的形状及尺寸来设定基准位置。具体来说,根据拍摄图像和工件W的形状及尺寸,估计被堆积得最高的工件W的堆积位置,根据所估计出的堆积位置,估计从收纳部20B的底面到工件集合WS的最高位置的高度。然后,将与估计出的工件集合WS的最高位置在Z方向上相距预定的距离h的位置设为基准位置。另外,也可以是每当在图5的步骤S116中取得拍摄图像时,根据拍摄图像和工件W的形状及尺寸来估计从收纳部20B的底面到工件集合WS的最高位置的高度,将与估计出的位置在Z方向上相距预定的距离h的位置设为基准位置。
然后,在仿真中,在机器人臂部的位置退避到基准位置的情况下(步骤S114A:是),即,在机器人臂部不会因与工件W接触而对工件集合WS的配置带来影响的情况下,转移到步骤S114B。另一方面,在机器人臂部的位置未退避到基准位置的情况下(步骤S114A:否),即,在机器人臂部有可能与工件W接触而对工件集合WS的配置带来影响的情况下,反复进行步骤S114A的处理直到机器人臂部的位置退避到基准位置。
CPU 11判定在与各个分割区域42A~42D对应的图像取得禁止空间中是否有存在工件W且不存在机器人臂部的图像取得禁止空间(步骤S114B)。然后,在与各个分割区域42A~42D对应的图像取得禁止空间中有存在工件W且不存在机器人臂部的图像取得禁止空间的情况下(步骤S114B:是),转移到图5的步骤S116。另一方面,在与各个分割区域42A~42D对应的图像取得禁止空间中不具有存在工件W且不存在机器人臂部的图像取得禁止空间的情况下(步骤S114B:否),反复进行步骤S114B的处理直到步骤S114B的判定为肯定的为止。
另外,是否存在工件W的判定例如是按照以下方式进行的。首先,最先执行图5的步骤S102,在对每个分割区域42A~42D设定了图像取得禁止空间时,通过对拍摄图像进行图像处理而按照每个分割区域42A~42D计算工件W的数量作为初始值,并预先存储在存储部38中。接着,每当在图5的步骤S108中执行拾取动作时,便减少存储在存储部38中的工件W的数量中的与执行了拾取动作的分割区域对应的工件W的数量。然后,通过判定存储在存储部38中的工件W的数量是否不为零,来判定是否存在工件W。或者,每当执行图5的步骤S116时,便通过对拍摄图像进行图像处理而按照每个分割区域42A~42D计算工件W的数量,并预先存储在存储部38中。然后,在执行了下一个步骤S114B时,通过判定存储在存储部38中的工件W的数量是否不为零,来判定是否存在工件W。
这样,当在与各个分割区域42A~42D对应的图像取得禁止空间中有存在工件W且不存在机器人臂部的图像取得禁止空间的情况下,判定为拍摄图像的取得时机已到来。例如设为图14所示的分割区域42A内的工件W被拾取,机器人臂部从与分割区域42A对应的图像取得禁止空间退避出来。在该情况下,即使在与其他分割区域42B~42D对应的图像取得禁止空间的至少1个图像取得禁止空间中留有机器人臂部的一部分,但只要在分割区域42A中留有工件W,则至少能够从分割区域42A选择工件W。这样,在机器人臂部已从多个图像取得禁止空间中的至少一个图像取得禁止空间退避出来的情况下,判定为拍摄图像的取得时机已到来,由此能够迅速取得拍摄图像。
另外,在本实施方式中,对将本发明应用于机器人RB保持工件W的拾取动作进行了情况,但也可以将本发明应用于机器人RB将所保持的工件W载置于收纳部20B的放置动作。在该情况下,在收纳部20B的上方设置图像传感器,根据图像传感器所拍摄到的拍摄图像来计算图像取得禁止空间,并且确定载置工件W的位置。然后,在将工件W载置于收纳部20B的机器人臂部已从图像取得禁止空间退避出来的情况下,只要对图像传感器指示拍摄即可。
另外,在本实施方式中,在仿真中使用公知的干涉判定技术来判定机器人RB从图像取得禁止空间46退避出来的时刻,但也可以根据机器人RB的路径计划来判定机器人RB从图像取得禁止空间46退避出来的时刻。具体来说,根据在图5的S110中生成的放置动作的路径计划,计算从机器人RB保持工件W起到从图像取得禁止空间46退避出来为止的退避时间。然后,只要将在仿真中从机器人RB保持工件W起经过了退避时间的时刻判定为从图像取得禁止空间46退避出来的时刻即可。
另外,在上述各实施方式中由CPU读入软件(程序)而执行的机器人控制处理也可以由CPU以外的各种处理器来执行。作为该情况下的处理器,例示了FPGA(Field-Programmable Gate Array:现场可编程门阵列)等能够在制造之后变更电路结构的PLD(Programmable Logic Device:可编程逻辑器件)以及具有ASIC(Application SpecificIntegrated Circuit:专用集成电路)等为了执行特定的处理而专门设计的电路结构的处理器、即专用电路等。另外,可以由该各种处理器中的一个来执行机器人控制处理,也可以由同种或不同种的两个以上的处理器的组合(例如,多个FPGA及CPU与FPGA的组合等)来执行机器人控制处理。另外,更具体来说,这些各种处理器的硬件结构是将半导体元件等电路元件组合起来而得的电路。
另外,在上述各实施方式中,对机器人控制程序预先存储(安装)于存储装置14或ROM 12的方式进行了说明,但并不限定于此。也可以以记录在CD-ROM(Compact Disk ReadOnly Memory:只读光盘)、DVD-ROM(Digital Versatile Disk Read Only Memory:数字多功能只读光盘)以及USB(Universal Serial Bus,通用串行总线)存储器等记录介质中的方式来提供程序。另外,程序也可以是经由网络从外部装置下载的方式。
Claims (11)
1.一种机器人控制装置,其具有:
取得部,其从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;
仿真部,其与所述机器人的动作并行地执行所述机器人的动作的仿真;以及
控制部,其控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
2.根据权利要求1所述的机器人控制装置,其中,
所述控制部计算以包含所述工件集合的外廓的形状为所述底面的所述第2空间,将计算出的所述第2空间与所述第1空间重复的空间计算为所述图像取得禁止空间。
3.根据权利要求2所述的机器人控制装置,其中,
包含所述工件集合的外廓的形状是表示所述工件集合的外廓的轮廓或在内部包含所述工件集合的轮廓的形状。
4.根据权利要求3所述的机器人控制装置,其中,
在内部包含所述工件集合的轮廓的形状是包含所述工件集合的外廓的外接形状或收纳所述工件集合的收纳部的内缘形状。
5.根据权利要求1~4中的任意一项所述的机器人控制装置,其中,
所述图像传感器是拍摄静态图像的图像传感器,
所述控制部控制为,与所述仿真中的所述机器人从图像取得禁止空间退避出来的时刻一致地,开始所述图像传感器进行的拍摄。
6.根据权利要求1~4中的任意一项所述的机器人控制装置,其中,
所述图像传感器是拍摄动态图像的图像传感器,
所述控制部控制为,与所述仿真中的所述机器人从图像取得禁止空间退避出来的时刻一致地,从所述图像传感器拍摄到的动态图像中取得帧图像。
7.根据权利要求1所述的机器人控制装置,其中,
所述图像取得禁止空间被设定了多个,
所述控制部控制为,在所述机器人从多个所述图像取得禁止空间中的至少1个所述图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像。
8.根据权利要求7所述的机器人控制装置,其中,
该机器人控制装置设定为,在沿所述图像传感器的拍摄方向俯视观察的情况下,所述多个所述图像取得禁止空间中的至少两个所述图像取得禁止空间的一部分重复。
9.根据权利要求7或8所述的机器人控制装置,其中,
所述控制部控制为,在所述机器人的机器人臂部的位置退避到不对所述工件集合的配置带来影响的基准位置,并且在与各个所述分割区域对应的图像取得禁止空间中有存在工件且不存在所述机器人臂部的图像取得禁止空间的情况下,取得所述图像传感器的拍摄图像。
10.一种机器人控制方法,在该机器人控制方法中,由计算机执行包含如下工序的处理:
取得工序,从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;
仿真工序,与所述机器人的动作并行地执行所述机器人的动作的仿真;以及
控制工序,控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
11.一种计算机可读记录介质,其存储有用于使计算机作为如下部来发挥功能的机器人控制程序:
取得部,其从对作为机器人的作业对象的工件集合进行拍摄的图像传感器取得拍摄图像;
仿真部,其与所述机器人的动作并行地执行所述机器人的动作的仿真;以及
控制部,其控制为,当在所述仿真中所述机器人从所述工件集合和所述机器人可能被重叠地拍摄到的至少1个图像取得禁止空间退避出来的情况下,取得所述图像传感器的拍摄图像,其中,该图像取得禁止空间是第1空间和至少1个第2空间重复的空间,该第1空间是所述图像传感器的视野范围,该第2空间是以包含所述工件集合的工件区域或将所述工件区域分割为多个而得到的各个分割区域为底面,将所述底面延伸到所述图像传感器的位置而得到的柱状的空间。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-112794 | 2018-06-13 | ||
JP2018112794A JP7233858B2 (ja) | 2018-06-13 | 2018-06-13 | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110587592A CN110587592A (zh) | 2019-12-20 |
CN110587592B true CN110587592B (zh) | 2022-07-19 |
Family
ID=66625843
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910408402.8A Active CN110587592B (zh) | 2018-06-13 | 2019-05-16 | 机器人控制装置、机器人控制方法及计算机可读记录介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11527008B2 (zh) |
EP (1) | EP3616857B1 (zh) |
JP (1) | JP7233858B2 (zh) |
CN (1) | CN110587592B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220416552A1 (en) | 2019-11-27 | 2022-12-29 | Hitachi Astemo, Ltd. | In-vehicle battery system |
CN111844019B (zh) * | 2020-06-10 | 2021-11-16 | 安徽鸿程光电有限公司 | 一种机器抓取位置确定方法、设备、电子设备和存储介质 |
JP2022017739A (ja) * | 2020-07-14 | 2022-01-26 | 株式会社キーエンス | 画像処理装置 |
CN113177932B (zh) * | 2021-05-19 | 2023-08-04 | 北京小明智铁科技有限公司 | 一种工作区的划分和跟踪方法以及装置 |
DE102022125564B3 (de) * | 2022-10-04 | 2023-10-12 | J.Schmalz Gmbh | Verfahren zum Handhaben von Gegenständen und Handhabungsanlage |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103042529A (zh) * | 2011-10-13 | 2013-04-17 | 株式会社安川电机 | 工件取出系统、机器人装置以及被加工物的制造方法 |
CN104802186A (zh) * | 2014-01-24 | 2015-07-29 | 发那科株式会社 | 制作用于拍摄工件的机器人程序的机器人程序设计装置 |
CN105922268A (zh) * | 2015-02-27 | 2016-09-07 | 佳能株式会社 | 信息处理装置、处理系统、物体移动系统和物体移动方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3639873B2 (ja) | 2001-03-16 | 2005-04-20 | 川崎重工業株式会社 | ロボット制御方法およびロボット制御システム |
JP3768174B2 (ja) * | 2002-07-24 | 2006-04-19 | ファナック株式会社 | ワーク取出し装置 |
JP2004160567A (ja) * | 2002-11-11 | 2004-06-10 | Fanuc Ltd | 物品取出し装置 |
JP4087841B2 (ja) * | 2004-12-21 | 2008-05-21 | ファナック株式会社 | ロボット制御装置 |
JP2008030136A (ja) | 2006-07-27 | 2008-02-14 | Sony Corp | ロボットの動作編集装置及び動作編集方法、並びにコンピュータ・プログラム |
EP1972416B1 (en) | 2007-03-23 | 2018-04-25 | Honda Research Institute Europe GmbH | Robots with occlusion avoidance functionality |
JP5275967B2 (ja) | 2009-12-22 | 2013-08-28 | 本田技研工業株式会社 | 干渉チェック装置 |
JP5382621B2 (ja) * | 2010-06-03 | 2014-01-08 | 株式会社安川電機 | 移載装置 |
JP5767464B2 (ja) * | 2010-12-15 | 2015-08-19 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、およびプログラム |
JP5911299B2 (ja) * | 2011-12-27 | 2016-04-27 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
JP5507595B2 (ja) | 2012-02-17 | 2014-05-28 | ファナック株式会社 | ロボットを用いた物品組付け装置 |
JP2014176923A (ja) | 2013-03-14 | 2014-09-25 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
JP2017042859A (ja) * | 2015-08-25 | 2017-03-02 | キヤノン株式会社 | ピッキングシステム、並びに、そのための処理装置、方法及びプログラム |
JP6450727B2 (ja) * | 2016-10-28 | 2019-01-09 | ファナック株式会社 | ロボットが行う物品整列作業のシミュレーションのための装置、方法、プログラム及び記録媒体 |
-
2018
- 2018-06-13 JP JP2018112794A patent/JP7233858B2/ja active Active
-
2019
- 2019-05-13 US US16/410,213 patent/US11527008B2/en active Active
- 2019-05-16 CN CN201910408402.8A patent/CN110587592B/zh active Active
- 2019-05-21 EP EP19175612.1A patent/EP3616857B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103042529A (zh) * | 2011-10-13 | 2013-04-17 | 株式会社安川电机 | 工件取出系统、机器人装置以及被加工物的制造方法 |
CN104802186A (zh) * | 2014-01-24 | 2015-07-29 | 发那科株式会社 | 制作用于拍摄工件的机器人程序的机器人程序设计装置 |
CN105922268A (zh) * | 2015-02-27 | 2016-09-07 | 佳能株式会社 | 信息处理装置、处理系统、物体移动系统和物体移动方法 |
Also Published As
Publication number | Publication date |
---|---|
US11527008B2 (en) | 2022-12-13 |
JP7233858B2 (ja) | 2023-03-07 |
EP3616857A1 (en) | 2020-03-04 |
US20190385329A1 (en) | 2019-12-19 |
CN110587592A (zh) | 2019-12-20 |
EP3616857B1 (en) | 2021-11-24 |
JP2019214100A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110587592B (zh) | 机器人控制装置、机器人控制方法及计算机可读记录介质 | |
CN110576436B (zh) | 路径计划装置、路径计划方法以及计算机可读记录介质 | |
EP2364823B1 (en) | Robot system and transfer method | |
US9415511B2 (en) | Apparatus and method for picking up article randomly piled using robot | |
JP4938115B2 (ja) | ワーク取出し装置およびワーク取出し方法 | |
JP5582126B2 (ja) | ワーク取出システム、ロボット装置および被加工物の製造方法 | |
Nerakae et al. | Using machine vision for flexible automatic assembly system | |
CN112292235B (zh) | 机械手控制装置、机械手控制方法及记录介质 | |
JP2014502564A (ja) | 把持位置を決定する方法、コンピュータプログラム及び装置 | |
US20190030722A1 (en) | Control device, robot system, and control method | |
JP2016159387A (ja) | 情報処理装置、処理システム、物体移動システム、および、物体移動方法 | |
EP3936286A1 (en) | Robot control device, robot control method, and robot control program | |
US10656097B2 (en) | Apparatus and method for generating operation program of inspection system | |
WO2020157875A1 (ja) | 作業座標作成装置 | |
JP6750406B2 (ja) | 搬入出装置の搬入出作業における失敗要因特定方法 | |
JP6708142B2 (ja) | ロボットの制御装置 | |
JP7070186B2 (ja) | マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム | |
US20230264352A1 (en) | Robot device for detecting interference of constituent member of robot | |
JP6996441B2 (ja) | マニピュレータ制御装置、マニピュレータ制御方法、及びマニピュレータ制御プログラム | |
WO2024023934A1 (ja) | ワーク取出し装置、ワーク取出し方法及び制御装置 | |
TW202419237A (zh) | 工件取出裝置、工件取出方法及控制裝置 | |
TW202339917A (zh) | 機器人系統 | |
JP2019114057A (ja) | 制御装置、ロボットおよびロボットシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |