JP2014050936A - Handling system, handling method, and program - Google Patents

Handling system, handling method, and program Download PDF

Info

Publication number
JP2014050936A
JP2014050936A JP2012198192A JP2012198192A JP2014050936A JP 2014050936 A JP2014050936 A JP 2014050936A JP 2012198192 A JP2012198192 A JP 2012198192A JP 2012198192 A JP2012198192 A JP 2012198192A JP 2014050936 A JP2014050936 A JP 2014050936A
Authority
JP
Japan
Prior art keywords
workpiece
robot hand
handling
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012198192A
Other languages
Japanese (ja)
Other versions
JP6000029B2 (en
Inventor
Kota Fujimura
恒太 藤村
Hironobu Takahashi
裕信 高橋
Fumio Ueda
文雄 上田
Hiroshi Harada
寛 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YOODS KK
Asahi Kasei Corp
Applied Vision Systems Corp
Original Assignee
YOODS KK
Asahi Kasei Corp
Applied Vision Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YOODS KK, Asahi Kasei Corp, Applied Vision Systems Corp filed Critical YOODS KK
Priority to JP2012198192A priority Critical patent/JP6000029B2/en
Publication of JP2014050936A publication Critical patent/JP2014050936A/en
Application granted granted Critical
Publication of JP6000029B2 publication Critical patent/JP6000029B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a handling system or the like capable of accurately lifting and transferring a placed workpiece.SOLUTION: A control device 50 acquires three-dimensional coordinates of a surface of a workpiece 10, which is placed, on the basis of a sensor output of a first sensor 30, detects an uppermost point in a vertical direction on the surface of the workpiece 10 on the basis of the acquired three-dimensional coordinates of the surface of the workpiece 10, detects a handling area which is an area larger than a predetermined size and smoothly continuous from the uppermost point and in which a holding part 21 of a robot hand 20 holds something, and outputs a control signal, with which behavior of the robot hand 20 is controlled so that the holding part 21 is moved to be opposed to the surface of the workpiece 10 in the detected handling area, allowed to hold the workpiece 10, moved to a transfer place, and allowed to release the workpiece 10, to the robot hand 20.

Description

本発明は、ワークを移載するハンドリングシステム、ハンドリング方法及びプログラムに関する。   The present invention relates to a handling system, a handling method, and a program for transferring a workpiece.

積載されたワークをロボットハンドが移載するシステムにおいて、ワークを把持するロボットハンドの位置、向きを決定するために、積載物の上方から撮影した画像や距離センサの出力に基づいてワークの形状、位置を取得する方法が知られている(例えば、特許文献1、2)。   In a system in which a robot hand transfers a loaded workpiece, in order to determine the position and orientation of the robot hand that grips the workpiece, the shape of the workpiece based on the image taken from above the load and the output of the distance sensor, A method for acquiring a position is known (for example, Patent Documents 1 and 2).

特許文献1に記載のワーク位置認識装置は、同一平面上に並んだ複数のワークを撮影した画像から輪郭データを取得し、輪郭データから各ワークの位置、姿勢を検出し、画像中のワーク部分の画像をマスタ画像として登録しておき、対象となるワークの画像とマスク画像のパターンマッチングを行い、マッチングが成功したときに対象となるワークの位置及び姿勢を出力するとしている。   A workpiece position recognition device described in Patent Document 1 acquires contour data from an image obtained by photographing a plurality of workpieces arranged on the same plane, detects the position and orientation of each workpiece from the contour data, and detects a workpiece portion in the image. Are registered as a master image, pattern matching between the image of the target workpiece and the mask image is performed, and the position and orientation of the target workpiece are output when the matching is successful.

また、特許文献2に記載の袋状ワーク認識方法は、レーザレーダやステレオカメラのような距離センサで袋状ワークの3次元形状を取得し、その3次元形状の法線ベクトルの角度から、その不連続部分を袋状ワークの境界と見なして、袋状ワークの位置と姿勢を認識するとしている。   Further, the bag-like workpiece recognition method described in Patent Document 2 acquires the three-dimensional shape of the bag-like workpiece with a distance sensor such as a laser radar or a stereo camera, and from the angle of the normal vector of the three-dimensional shape, The discontinuous portion is regarded as the boundary of the bag-like workpiece, and the position and posture of the bag-like workpiece are recognized.

特開2010−32258号公報JP 2010-32258 A 特開2010−256209号公報JP 2010-256209 A

積載されたワークが袋物であり、内容物が袋の中で流動する場合、ワークの表面が平坦でなく、表面の一部に凹凸が生じていることがある。その場合、特許文献1に記載のワーク位置認識装置では、ワーク表面のパターンが正確に判別できないという問題が生じる。   When the loaded work is a bag and the contents flow in the bag, the surface of the work may not be flat, and a part of the surface may be uneven. In that case, the workpiece position recognition device described in Patent Document 1 has a problem that the pattern on the workpiece surface cannot be accurately determined.

また、ワークが複数段で積み重なっている状態に置いて、段差がある部分にワークが積まれ、上段のワークが水平に置かれない場合がある。その場合、特許文献2のように、境界位置から袋上ワークの外形、姿勢を認識しても、水平方向の姿勢は正確に認識できても、鉛直方向の姿勢が正確に認識できず、ワークを把持するのに最適な箇所を検出することができないという問題が生じる。   In addition, when the workpieces are stacked in a plurality of stages, the workpieces may be stacked on a stepped portion, and the upper workpiece may not be placed horizontally. In that case, as in Patent Document 2, even if the outer shape and posture of the on-bag workpiece are recognized from the boundary position, even if the posture in the horizontal direction can be recognized correctly, the posture in the vertical direction cannot be accurately recognized. There arises a problem that it is not possible to detect an optimum place for gripping the finger.

本発明は、上記実情に鑑みてなされたものであり、積載されたワークを確実に持ち上げ、移載することのできる、ハンドリングシステム等を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide a handling system or the like that can reliably lift and transfer a loaded workpiece.

上記目的を達成するため、本発明の第1の観点に係るハンドリングシステムは、
ワークを移載するロボットハンドを備えるハンドリングシステムであって、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第1の3次元座標計測部と、
前記第1の3次元座標計測部が計測した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出部と、
前記最上点検出部が検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出部と、
前記ハンドリング領域検出部が検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御部と、
を有することを特徴とする。
In order to achieve the above object, a handling system according to the first aspect of the present invention includes:
A handling system including a robot hand for transferring a workpiece,
A first three-dimensional coordinate measuring unit that measures the three-dimensional coordinates of the surface of one or more of the workpieces loaded or the contents of the workpieces;
Based on the three-dimensional coordinates of the surface measured by the first three-dimensional coordinate measurement unit, an uppermost point detection unit that detects an uppermost point in a substantially vertical direction of the surface;
A handling area detecting unit for detecting a handling area for holding by the robot hand, which is an area of a predetermined size or more smoothly continuous from the top point detected by the top point detecting unit;
The gripping part that grips the workpiece provided in the robot hand is moved so as to face the surface in the handling area detected by the handling area detection unit, and the workpiece is gripped and transferred by the gripping part. A robot hand control unit for controlling the operation of the robot hand so as to be released after being moved to a mounting place;
It is characterized by having.

前記ハンドリング領域検出部が、前記所定の大きさ以上のハンドリング領域を検出できなかった時には、前記最上点検出部は、前記ハンドリング領域を検出できなかった時の前記最上点を含む前記所定の大きさ未満の領域以外の領域で、略鉛直方向における最上点を再検出し、前記ハンドリング領域検出部は、再検出した前記最上点から滑らかに連続する領域を再検出し、所定の大きさ以上のハンドリング領域を検出できるまで、前記最上点検出部の前記最上点の検出と、前記ハンドリング領域検出部の前記ハンドリング領域の検出を繰り返すようにしてもよい。   When the handling area detection unit cannot detect a handling area larger than the predetermined size, the uppermost point detection unit includes the predetermined size including the uppermost point when the handling area cannot be detected. The uppermost point in a substantially vertical direction is re-detected in a region other than the region less than the region, and the handling region detection unit re-detects a region that smoothly continues from the re-detected uppermost point, and the handling is greater than a predetermined size. Until the region can be detected, the detection of the top point of the top point detection unit and the detection of the handling region of the handling region detection unit may be repeated.

前記ロボットハンドが前記ワークを把持し持ち上げた状態の、前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第2の3次元座標計測部と、
前記第2の3次元座標計測部が計測した、前記表面の3次元座標に基づいて、前記ワークの姿勢が正常か否かを判定するワーク姿勢判定部と、を更に有し、
前記ワーク姿勢判定部が、前記ワークの姿勢が正常でないと判定した場合には、前記ロボットハンド制御部が、前記ワークを略平坦なスペースに下ろして解放するように制御し、前記第1の3次元座標計測部が、前記スペースの上部における前記表面の3次元座標を再計測し、前記最上点検出部は、前記スペースの上部において前記最上点を再検出し、前記ハンドリング領域検出部が、前記スペースの上部において前記ハンドリング領域を再検出し、前記ロボットハンド制御部が、再検出したハンドリング領域内の前記表面に対向するように前記把持部を移動させて、前記把持部で前記ワークを把持し、移載場所に移動させてから解放するように制御するようにしてもよい。
A second three-dimensional coordinate measuring unit that measures the three-dimensional coordinates of the surface of the workpiece or the contents of the workpiece in a state where the robot hand grips and lifts the workpiece;
A workpiece posture determination unit that determines whether or not the posture of the workpiece is normal based on the three-dimensional coordinates of the surface measured by the second three-dimensional coordinate measurement unit;
When the workpiece posture determining unit determines that the posture of the workpiece is not normal, the robot hand control unit controls the first workpiece to lower the workpiece into a substantially flat space and release it. A three-dimensional coordinate measurement unit remeasures the three-dimensional coordinates of the surface in the upper part of the space, the uppermost point detection unit redetects the uppermost point in the upper part of the space, and the handling region detection unit The handling area is redetected in the upper part of the space, and the robot hand control unit moves the gripping part so as to face the surface in the redetected handling area, and grips the workpiece by the gripping part. In addition, it may be controlled to release after moving to the transfer place.

前記ワーク姿勢判定部は、前記把持部の下方で且つ積載された前記ワークを含まない位置に想定した、上下2つの互いに接する検出空間のうち上方の検出空間に存する、前記ワーク、又は、前記ワークの内容物の表面の面積が、所定の値以上であるときに、姿勢が正常であると判定するようにしてもよい。   The workpiece posture determination unit is located in an upper detection space of two upper and lower detection spaces that are assumed to be below the gripping portion and do not include the loaded workpiece, or the workpiece or the workpiece It may be determined that the posture is normal when the area of the surface of the contents is equal to or greater than a predetermined value.

前記ワーク姿勢判定部は、前記把持部の下方で且つ積載された前記ワークを含まない位置に想定した、上下2つの互いに接する検出空間のうち、下方の検出空間に含まれる、前記ワーク、又は、前記ワークの内容物の表面を示す3次元座標の計測数に対する、上方の検出空間に含まれる、前記ワーク、又は、前記ワークの内容物の表面を示す3次元座標の計測数の比が、所定の値以上であるときに、姿勢が正常であると判定するようにしてもよい。   The work posture determination unit is included in a lower detection space among two upper and lower detection spaces, assuming a position below the gripping part and not including the loaded work, or The ratio of the measured number of the three-dimensional coordinates indicating the surface of the workpiece or the contents of the workpiece included in the upper detection space to the measured number of the three-dimensional coordinates indicating the surface of the contents of the workpiece is predetermined. It may be determined that the posture is normal when the value is greater than or equal to.

前記第2の3次元座標計測部は、前記第1の3次元座標計測部とは異なる方向から前記表面の3次元座標を計測するようにしてもよい。   The second three-dimensional coordinate measuring unit may measure the three-dimensional coordinates of the surface from a direction different from that of the first three-dimensional coordinate measuring unit.

前記第1の3次元座標計測部又は前記第2の3次元座標計測部による前記表面の3次元座標の計測の結果から、前記ワークを置くことが可能な広さを有する略平坦面を、前記スペースとして検出するスペース検出部を更に有するようにしてもよい。   From the result of measurement of the three-dimensional coordinates of the surface by the first three-dimensional coordinate measurement unit or the second three-dimensional coordinate measurement unit, a substantially flat surface having an area where the workpiece can be placed, You may make it further have the space detection part detected as a space.

前記ハンドリング領域検出部が検出するハンドリング領域の大きさは、前記把持部の大きさに基づいて定められた大きさであってもよい。   The size of the handling area detected by the handling area detection unit may be a size determined based on the size of the gripping part.

前記把持部が複数の吸気口を含み、前記複数の吸気口を前記ワークにあてた状態で、前記吸気口から吸気することにより前記ワークを把持する吸着ハンドであってもよい。   The gripping part may include a plurality of air intake ports, and may be a suction hand that grips the workpiece by sucking air from the air intake port in a state where the plurality of air intake ports are applied to the work.

前記把持部が、複数の指状体を含み、前記複数の指状体が互いに異なる方向から前記ワークを支持することにより前記ワークを把持する指状ハンドであってもよい。   The grip portion may include a plurality of finger-like bodies, and the plurality of finger-like bodies may support the workpiece from different directions to hold the workpiece.

前記ロボットハンドが前記ワークを持ち上げた後に、前記ワークを下方から撮影する撮影部と、
前記撮影部が撮影した画像に基づいて、前記ワークの水平面上での前記ワークの方向と重心位置を検出する方向・重心位置検出部と、を更に有し、
前記ロボットハンド制御部は、前記方向・重心位置検出部の検出結果に基づいて、前記ワークの重心位置が前記移載場所における所定の位置にあり、前記ワークの方向が前記移載場所における所定の方向を向いている状態で、前記ワークを解放するように、前記ロボットハンドを制御するようにしてもよい。
After the robot hand lifts the workpiece, an imaging unit that images the workpiece from below;
Based on the image photographed by the photographing unit, further comprising a direction / center of gravity position detection unit for detecting the direction and the center of gravity position of the workpiece on the horizontal plane of the workpiece,
The robot hand control unit is configured such that, based on the detection result of the direction / centroid position detection unit, the center of gravity position of the workpiece is at a predetermined position at the transfer location, and the direction of the workpiece is a predetermined position at the transfer location. You may make it control the said robot hand so that the said workpiece | work may be released in the state which has faced the direction.

また、本発明の第2の観点に係るハンドリング方法は、
ワークを把持して持ち上げ移載場所に移動させた後に解放するロボットハンドにより前記ワークを移載させるハンドリング方法であって、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第1の3次元座標計測ステップと、
計測した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出ステップと、
検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出ステップと、
検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御ステップと、
を有することを特徴とする。
The handling method according to the second aspect of the present invention is as follows:
A handling method of transferring the workpiece by a robot hand that is released after the workpiece is lifted and moved to the transfer location,
A first three-dimensional coordinate measurement step of measuring three-dimensional coordinates of the surface of the one or more workpieces loaded or the contents of the workpiece;
Based on the measured three-dimensional coordinates of the surface, an uppermost point detecting step of detecting the uppermost point in the substantially vertical direction of the surface;
A handling area detecting step of detecting a handling area for the robot hand to hold, which is an area of a predetermined size or more smoothly continuous from the detected uppermost point;
Move the gripping part for gripping the workpiece provided in the robot hand so as to face the surface in the detected handling area, grip the workpiece with the gripping part, and move it to the transfer location. A robot hand control step for controlling the operation of the robot hand so as to release from
It is characterized by having.

また、本発明の第3の観点に係るプログラムは、
ワークを把持して持ち上げ移載場所に移動させた後に解放するロボットハンドを制御するコンピュータに、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を取得する第1の3次元座標取得手順と、
取得した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出手順と、
検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出手順と、
検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御手順と、
を実行させることを特徴とする。
A program according to the third aspect of the present invention is:
To the computer that controls the robot hand that is released after gripping and lifting the workpiece and moving it to the transfer location,
A first three-dimensional coordinate acquisition procedure for acquiring three-dimensional coordinates of the surface of one or more of the workpieces loaded or the contents of the workpieces;
Based on the acquired three-dimensional coordinates of the surface, an uppermost point detection procedure for detecting the uppermost point in the substantially vertical direction of the surface;
A handling area detection procedure for detecting a handling area for gripping by the robot hand, which is an area of a predetermined size or more that continues smoothly from the detected uppermost point;
Move the gripping part for gripping the workpiece provided in the robot hand so as to face the surface in the detected handling area, grip the workpiece with the gripping part, and move it to the transfer location. A robot hand control procedure for controlling the operation of the robot hand so as to release from
Is executed.

本発明によれば、積載されたワークを確実に持ち上げ、移載することが可能になる。   According to the present invention, it is possible to reliably lift and transfer a loaded workpiece.

実施の形態に係るハンドリングシステムを側方から見た図である。It is the figure which looked at the handling system concerning an embodiment from the side. 実施の形態に係るハンドリングシステムを上方から見た図である。It is the figure which looked at the handling system concerning an embodiment from the upper part. 吸着ハンドからなる把持部を示した図である。(a)は把持部を側面から見た図である。(b)は把持部を(a)のA方向から見た図である。It is the figure which showed the holding part which consists of a suction hand. (A) is the figure which looked at the holding part from the side. (B) is the figure which looked at the holding part from the A direction of (a). (a)ロボットハンドがワークを把持して持ち上げた状態を示す図である。(b)ロボットハンドがワークをケース上部に移動させた状態を示す図である。(c)ロボットハンドがワークをケース内部に格納した状態を示す図である。(A) It is a figure which shows the state which the robot hand hold | gripped and lifted the workpiece | work. (B) It is a figure which shows the state which the robot hand moved the workpiece | work to the case upper part. (C) It is a figure which shows the state which the robot hand stored the workpiece | work inside the case. ロボットハンドと制御装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of a robot hand and a control apparatus. 最上点とハンドリング領域を検出する処理を説明するための図である。(a)はワークを把持する前の状態を側面から見た図である。(b)はワークを上方から見た図である。(c)はワークを把持した時の状態を側面から見た図である。It is a figure for demonstrating the process which detects the highest point and a handling area | region. (A) is the figure which looked at the state before holding a workpiece | work from the side surface. (B) is the figure which looked at the workpiece | work from the upper direction. (C) is the figure which looked at the state when the workpiece | work was hold | gripped from the side surface. 姿勢判定の処理を説明するための図である。(a)は、ワークの姿勢が正常である状態を示した図である。(b)はワークの姿勢が正常でない状態を示した図である。It is a figure for demonstrating the process of attitude | position determination. (A) is the figure which showed the state in which the attitude | position of a workpiece | work is normal. (B) is the figure which showed the state in which the attitude | position of a workpiece | work is not normal. ワーク移載処理を示すフローチャートである。It is a flowchart which shows a workpiece transfer process. リトライ処理を示すフローチャートである。It is a flowchart which shows a retry process. 指状体からなる把持部を示した図である。(a)は把持部を側面から見た図である。(b)は把持部を(a)のA方向から見た図である。It is the figure which showed the holding part which consists of fingers. (A) is the figure which looked at the holding part from the side. (B) is the figure which looked at the holding part from the A direction of (a). 多数の吸着部からなる把持部を示した図である。(a)は把持部を側面から見た図である。(b)は把持部を(a)のA方向から見た図である。It is the figure which showed the holding part which consists of many adsorption | suction parts. (A) is the figure which looked at the holding part from the side. (B) is the figure which looked at the holding part from the A direction of (a).

(実施の形態)
本発明の実施の形態について図面を参照して詳細に説明する。
(Embodiment)
Embodiments of the present invention will be described in detail with reference to the drawings.

本実施の形態に係るハンドリングシステム1は、略水平な積載面を有する積載台11上に積載された複数のワーク10をロボットハンド20で把持し、持ち上げ、別の場所に移載させるシステムである。ハンドリングシステム1は、図1、図2に示すように、ロボットハンド20と、第1センサ30と、第2センサ40と、制御装置50と、通信線60と、移載先のケース70と、カメラ80を有する。ロボットハンド20、第1センサ30、第2センサ40、カメラ80は、通信線60を介して制御装置50に接続されており、制御装置50からの制御信号に基づいて駆動する。   The handling system 1 according to the present embodiment is a system in which a plurality of workpieces 10 loaded on a loading table 11 having a substantially horizontal loading surface are gripped by a robot hand 20, lifted, and transferred to another place. . As shown in FIGS. 1 and 2, the handling system 1 includes a robot hand 20, a first sensor 30, a second sensor 40, a control device 50, a communication line 60, a transfer destination case 70, A camera 80 is included. The robot hand 20, the first sensor 30, the second sensor 40, and the camera 80 are connected to the control device 50 via the communication line 60 and are driven based on a control signal from the control device 50.

ワーク10は任意の形状、大きさを有するものであり、例えば、粒状、ゲル状で、柔軟性、流動性を有する物質を詰めた袋状のものや、柔軟性を有し積載状態により形状が変化するものでもよい。この場合、袋は、例えば、透明体、反射体でもよい。ワーク10は、積載台11の上に任意の方向に多段に積まれている。   The workpiece 10 has an arbitrary shape and size. For example, the workpiece 10 has a granular shape, a gel shape, a bag shape filled with a material having flexibility and fluidity, and a shape having flexibility depending on a loaded state. It may change. In this case, the bag may be a transparent body or a reflector, for example. The workpieces 10 are stacked in multiple directions on the loading table 11 in an arbitrary direction.

ロボットハンド20は、ワーク10を把持する把持部21と、把持部21の位置、向きを変更するために伸縮、回転等の動作を行うアーム22を備える。本実施の形態では把持部21は、アーム22の先端近傍に備えられている。   The robot hand 20 includes a gripper 21 that grips the workpiece 10 and an arm 22 that performs operations such as expansion and contraction and rotation in order to change the position and orientation of the gripper 21. In the present embodiment, the grip portion 21 is provided near the tip of the arm 22.

把持部21は、任意の方法でワーク10を把持する機能を有するものである。本実施の形態における把持部21は、複数の吸気口211を有し、吸気口211をワーク10の表面に充てた状態で吸気口から吸気することにより、ワーク10を把持する吸着ハンドである。   The gripping part 21 has a function of gripping the workpiece 10 by an arbitrary method. The grip portion 21 in the present embodiment is a suction hand that grips the work 10 by having a plurality of air intakes 211 and sucking air from the air intakes with the air intakes 211 being applied to the surface of the work 10.

吸着ハンドから構成される把持部21は、図3(a)、(b)に示すように、台座212の中央に位置する主吸気部213と、主吸気部213の周囲に位置する複数の補助吸気部214を有する。主吸気部213と、複数の補助吸気部214とはそれぞれ別の吸気系統に接続されており、互いに独立に吸気される。主吸気部213、補助吸気部214の先端に吸気口211が開口しており、吸気口211の台座212側にバネ等が備え付けられており、吸気方向に伸縮可能な構造になっている。これは、ワーク10の表面が平坦でない場合、ワーク10の表面に各吸気口211が密着できるようにするためである。   As shown in FIGS. 3 (a) and 3 (b), the grip portion 21 composed of a suction hand includes a main intake portion 213 positioned at the center of the base 212 and a plurality of auxiliary units positioned around the main intake portion 213. It has an air intake part 214. The main intake section 213 and the plurality of auxiliary intake sections 214 are connected to different intake systems, and intake is performed independently of each other. An intake port 211 is opened at the tips of the main intake unit 213 and the auxiliary intake unit 214, and a spring or the like is provided on the pedestal 212 side of the intake port 211, so that the structure can expand and contract in the intake direction. This is to allow each intake port 211 to be in close contact with the surface of the workpiece 10 when the surface of the workpiece 10 is not flat.

ロボットハンド20は、制御装置50からの制御信号に基づいて駆動する。ロボットハンド20の駆動内容の概要を図4に示す。まず、図4(a)に示すように、ワーク10を把持部21で把持して持ち上げる。その後、図4(b)のように、移載先のケース70の上部までワーク10を移動させ、図4(c)に示すように、ケース70の内部にワーク10を下ろした後にワーク10を解放する。ワーク10の移載先はこのようなケースの内部に限られず任意の場所でよいが、本実施の形態では、図4に示すような持ち運び可能な樹脂ケースとする。   The robot hand 20 is driven based on a control signal from the control device 50. An outline of the driving contents of the robot hand 20 is shown in FIG. First, as shown in FIG. 4A, the workpiece 10 is grasped by the grasping portion 21 and lifted. Thereafter, the workpiece 10 is moved to the upper part of the transfer destination case 70 as shown in FIG. 4B, and the workpiece 10 is lowered after being lowered into the case 70 as shown in FIG. 4C. release. The transfer destination of the workpiece 10 is not limited to the inside of such a case, but may be an arbitrary place. In the present embodiment, a portable resin case as shown in FIG. 4 is used.

ロボットハンド20は、図5に示すようにCPU(Central Processing Unit:中央処理装置)201、通信部202を更に備える。通信部202は、制御装置50から制御信号を受信する。また、ロボットハンド20の駆動状況を制御装置50に送信してもよい。CPU201は、通信部202が受信した制御信号に基づいて、把持制御部2011が把持部21の把持、解放を制御し、アーム制御部2012がアーム22の回転、伸縮等を制御する。   As shown in FIG. 5, the robot hand 20 further includes a CPU (Central Processing Unit) 201 and a communication unit 202. The communication unit 202 receives a control signal from the control device 50. Further, the driving status of the robot hand 20 may be transmitted to the control device 50. In the CPU 201, based on the control signal received by the communication unit 202, the grip control unit 2011 controls the grip and release of the grip unit 21, and the arm control unit 2012 controls the rotation and expansion / contraction of the arm 22.

第1センサ30と第2センサ40は、対象物の3次元座標を計測するための情報を出力するセンサであり、例えば、対象物にパターン光を照射する光照射部とカメラから構成される。第1センサ30又は第2センサ40と、これらのセンサ出力データに基づいて三角測量の原理により3次元座標を算出する、制御装置50内の3次元座標算出部5012と、が3次元座標計測部を構成する。   The first sensor 30 and the second sensor 40 are sensors that output information for measuring the three-dimensional coordinates of the object, and include, for example, a light irradiation unit that irradiates the object with pattern light and a camera. The first sensor 30 or the second sensor 40 and a three-dimensional coordinate calculation unit 5012 in the control device 50 that calculates a three-dimensional coordinate based on the triangulation principle based on the sensor output data are a three-dimensional coordinate measurement unit. Configure.

第1センサ30は積載されたワーク10の表面の3次元座標を計測するもので、第1センサ30の出力は、ロボットハンド20の把持部21が把持するワーク10の表面上の位置を決定するために用いられる。一方、第2センサ40は、ロボットハンド20がワーク10を把持して持ち上げた時のワーク10の表面の3次元座標を計測するもので、第2センサ40の出力は、ロボットハンド20が持ち上げたときのワーク10の姿勢が正常か否かを判定するために用いられる。   The first sensor 30 measures the three-dimensional coordinates of the surface of the loaded workpiece 10, and the output of the first sensor 30 determines the position on the surface of the workpiece 10 held by the holding unit 21 of the robot hand 20. Used for. On the other hand, the second sensor 40 measures the three-dimensional coordinates of the surface of the workpiece 10 when the robot hand 20 grips and lifts the workpiece 10, and the output of the second sensor 40 is lifted by the robot hand 20. This is used to determine whether or not the posture of the workpiece 10 is normal.

第1センサ30と第2センサ40の設置位置、計測方向は任意の位置、方向で良いが、互いに異なる方向で設置されることが望ましい。本実施の形態では、第1センサ30は、積載台11の積載面の上方に位置し、ほぼ鉛直方向の下向き、つまり積載面にほぼ垂直な方向に向けて設置される。また、第2センサ40は、図1の紙面手前から見てワーク10の積載位置の後方に位置し、ロボットハンド20の把持部21を斜め下方から見上げるような方向に設置される。   The installation positions and measurement directions of the first sensor 30 and the second sensor 40 may be arbitrary positions and directions, but are preferably installed in different directions. In the present embodiment, the first sensor 30 is located above the loading surface of the loading table 11 and is installed downward in a substantially vertical direction, that is, in a direction substantially perpendicular to the loading surface. Further, the second sensor 40 is located behind the loading position of the workpiece 10 as viewed from the front of the sheet of FIG. 1 and is installed in a direction to look up the grip 21 of the robot hand 20 from obliquely below.

ここで、第1センサ30と第2センサ40から出力するセンサ出力データは、ワーク10の表面に対応するものであるが、ワーク10が袋状であり、その袋が透明な場合等には、袋の内容物の表面に対応するデータが出力される場合もある。   Here, the sensor output data output from the first sensor 30 and the second sensor 40 corresponds to the surface of the workpiece 10, but when the workpiece 10 is in a bag shape and the bag is transparent, Data corresponding to the surface of the contents of the bag may be output.

カメラ80は、対象物の2次元画像を撮影する撮影装置である。カメラ80は、図1、図2に示すように、鉛直方向の下方から上方に向かって、ロボットハンド20が把持しているワーク10を撮影する。カメラ80は、水平面におけるワーク10の姿勢を示す画像データを制御装置50に送信し、制御装置50はその画像データに基づいて、ワーク10の回転と移動を調整して、移載先のケース70内におけるワーク10の方向と位置が、一定の方向と位置になるようにロボットハンド20を制御する制御信号をロボットハンド20に送信する。   The camera 80 is a photographing device that photographs a two-dimensional image of an object. As shown in FIGS. 1 and 2, the camera 80 takes an image of the workpiece 10 held by the robot hand 20 from the lower side to the upper side in the vertical direction. The camera 80 transmits image data indicating the posture of the workpiece 10 in the horizontal plane to the control device 50, and the control device 50 adjusts the rotation and movement of the workpiece 10 based on the image data, and transfers the transfer destination case 70. A control signal for controlling the robot hand 20 is transmitted to the robot hand 20 so that the direction and position of the workpiece 10 in the inside become a constant direction and position.

制御装置50は、第1センサ30、第2センサ40から受信したセンサ出力データや、カメラ80から受信した画像データに基づいて制御信号を生成し、ロボットハンド20に生成した制御信号を送信する情報処理装置であり、パーソナルコンピュータ等から構成される。   The control device 50 generates control signals based on sensor output data received from the first sensor 30 and the second sensor 40 and image data received from the camera 80 and transmits the generated control signals to the robot hand 20. It is a processing device and is composed of a personal computer or the like.

制御装置50は、図5に示すように、CPU(Central Processing Unit:中央処理装置)501、通信部502、RAM(Random Access Memory)503、記憶部504と、を備える。   As illustrated in FIG. 5, the control device 50 includes a CPU (Central Processing Unit) 501, a communication unit 502, a RAM (Random Access Memory) 503, and a storage unit 504.

CPU501は、制御装置50の各構成部の制御を行うとともに、記憶部504に保存されているプログラムを実行することにより、ワーク移載処理等の各処理を実行する。   The CPU 501 controls each component of the control device 50 and executes each process such as a workpiece transfer process by executing a program stored in the storage unit 504.

通信部502は、ロボットハンド20、第1センサ30、第2センサ40、カメラ80と通信線60を介して信号を送受信する機能を有する。通信部502は、第1センサ30、第2センサ40が出力したセンサ出力データや、カメラ80が出力した画像データを受信してCPU501に出力し、また、CPU501から出力されたロボットハンド20への制御信号を送信する。   The communication unit 502 has a function of transmitting and receiving signals via the communication line 60 with the robot hand 20, the first sensor 30, the second sensor 40, and the camera 80. The communication unit 502 receives the sensor output data output from the first sensor 30 and the second sensor 40 and the image data output from the camera 80 and outputs the data to the CPU 501, and outputs the data to the robot hand 20 output from the CPU 501. Send a control signal.

RAM503は、高速にデータの読み書きが可能なメモリであり、通信部502が受信したセンサ出力データや画像データ、記憶部504から読み出した画像データ等をデータ処理のために一時保存する。   A RAM 503 is a memory capable of reading and writing data at high speed, and temporarily stores sensor output data and image data received by the communication unit 502, image data read from the storage unit 504, and the like for data processing.

記憶部504は、ハードディスク、メモリカード、フラッシュメモリ等の大容量の記憶装置からなり、通信部502が受信したセンサ出力データや画像データ、受信したデータ信号に対して計算処理を施して得たデータ、移載場所等の位置情報データ、ワーク移載処理等を実行するためのプログラム等の各種データを記憶する。   The storage unit 504 is a large-capacity storage device such as a hard disk, a memory card, or a flash memory, and is obtained by performing calculation processing on the sensor output data and image data received by the communication unit 502 and the received data signal. Various data such as position information data such as a transfer location, a program for executing a workpiece transfer process, and the like are stored.

制御装置50のCPU501は、ワーク移載処理を実行するために、図5に示すように、データ取得部5011、3次元座標算出部5012、最上点検出部5013、ハンドリング領域検出部、姿勢判定部5015、方向・重心位置検出部5016、ロボットハンド制御信号生成部5017の各機能部を有する。   As shown in FIG. 5, the CPU 501 of the control device 50 performs a workpiece transfer process, as shown in FIG. 5, a data acquisition unit 5011, a three-dimensional coordinate calculation unit 5012, an uppermost point detection unit 5013, a handling area detection unit, and an attitude determination unit. 5015, a direction / gravity position detection unit 5016, and a robot hand control signal generation unit 5017.

データ取得部5011は、通信部502が第1センサ30、第2センサ40、カメラ80から受信し、又は、記憶部504から読み出して、RAM503に一時保存しているセンサ出力データ、画像データ等のうち、処理に必要なデータを特定し取得する。   The data acquisition unit 5011 includes sensor output data, image data, and the like received by the communication unit 502 from the first sensor 30, the second sensor 40, and the camera 80, or read from the storage unit 504 and temporarily stored in the RAM 503. Among them, data necessary for processing is identified and acquired.

3次元座標取得部5012は、第1センサ30、第2センサ40が出力したセンサ出力データをデータ取得部5011から取得し、これに基づいてワーク10の表面の3次元座標を算出して出力する。   The three-dimensional coordinate acquisition unit 5012 acquires the sensor output data output from the first sensor 30 and the second sensor 40 from the data acquisition unit 5011, and calculates and outputs the three-dimensional coordinates of the surface of the workpiece 10 based on the sensor output data. .

例えば、第1センサ30と第2センサ40が、対象物にパターン光を照射する光照射部とカメラから構成される場合には、各センサの光照射部が出力するパターンの特徴点と、そのセンサのカメラから出力される画像データが示す特徴点をそれぞれ対応付けて、三角測量の原理により各特徴点の3次元座標を算出することができる。このとき、光照射部が照射する光のパターンの情報は、記憶部504に予め記憶しておき、必要なときに記憶部504から取得しても良い。   For example, when the first sensor 30 and the second sensor 40 are composed of a light irradiation unit and a camera that irradiates the object with pattern light, the feature points of the pattern output by the light irradiation unit of each sensor, The feature points indicated by the image data output from the camera of the sensor are associated with each other, and the three-dimensional coordinates of each feature point can be calculated by the principle of triangulation. At this time, information on the pattern of light emitted by the light irradiation unit may be stored in advance in the storage unit 504 and acquired from the storage unit 504 when necessary.

3次元座標取得部5012は、第1センサ30からのセンサ出力データを取得した場合には、3次元座標のデータを最上点検出部5013に出力する。また、3次元座標取得部5012は、第2センサ40からのセンサ出力データを取得した場合には、3次元座標のデータを姿勢判定部5015に出力する。   When the three-dimensional coordinate acquisition unit 5012 acquires the sensor output data from the first sensor 30, the three-dimensional coordinate acquisition unit 5012 outputs the three-dimensional coordinate data to the highest point detection unit 5013. In addition, when the sensor output data from the second sensor 40 is acquired, the three-dimensional coordinate acquisition unit 5012 outputs the three-dimensional coordinate data to the posture determination unit 5015.

最上点検出部5013は、3次元座標取得部5012から入力された3次元座標のデータに基づいて、積載されたワーク10の最上点を検出する。例えば、図6(a)のようにワーク10が袋状であって内容物が袋の中で流動するものであり、最上段のワーク10が段差のある部分に積まれたために、ワーク表面が湾曲する場合があるが、この場合、鉛直方向Gにおいて最上点である点Pを検出する。最上点検出部5013は、その最上点Pの位置データをハンドリング領域検出部5014に出力する。また、ワーク10の表面の3次元座標のデータもハンドリング領域検出部5014に出力する。   The highest point detection unit 5013 detects the highest point of the loaded workpiece 10 based on the three-dimensional coordinate data input from the three-dimensional coordinate acquisition unit 5012. For example, as shown in FIG. 6 (a), the workpiece 10 has a bag shape and the contents flow in the bag. Since the uppermost workpiece 10 is stacked on a stepped portion, the workpiece surface is In this case, the point P that is the highest point in the vertical direction G is detected. The uppermost point detection unit 5013 outputs the position data of the uppermost point P to the handling region detection unit 5014. In addition, the three-dimensional coordinate data on the surface of the workpiece 10 is also output to the handling area detection unit 5014.

ハンドリング領域検出部5014は、最上点検出部5013から出力された最上点Pの位置データと、ワーク10の表面の3次元座標のデータに基づいて、最上点Pから滑らかに連続する領域で、且つ、ロボットハンドの把持部21が把持するのに十分な予め定めておいた大きさの領域をハンドリング領域として検出して出力する。ここで、「滑らかに」連続するとは、例えば、所定値以下の変化率で連続することを意味する。   The handling region detection unit 5014 is a region that smoothly continues from the top point P based on the position data of the top point P output from the top point detection unit 5013 and the data of the three-dimensional coordinates of the surface of the workpiece 10, and An area of a predetermined size sufficient for the robot hand gripping part 21 to grip is detected and output as a handling area. Here, “smoothly continuous” means continuous, for example, at a change rate of a predetermined value or less.

例えば、図6の例では、領域Qをハンドリング領域として検出する。ここで、ロボットハンドの把持部21が把持するのに十分な大きさとは、把持部21の大きさに基づいて定められた大きさである。例えば、把持部21が図3に示す吸着ハンドである場合には、主吸気部213と補助吸気部214の吸気口全てを塞ぐことのできる大きさ、あるいはその大きさを一定の割合で拡大した大きさである。   For example, in the example of FIG. 6, the area Q is detected as a handling area. Here, the size sufficient for the grip portion 21 of the robot hand to grip is a size determined based on the size of the grip portion 21. For example, when the gripping portion 21 is the suction hand shown in FIG. 3, the size that can block all the intake ports of the main intake portion 213 and the auxiliary intake portion 214, or the size is increased at a certain rate. It is a size.

姿勢判定部5015は、3次元座標取得部5012から出力された3次元座標のデータに基づいて、ロボットハンド20に持ち上げられたワーク10の姿勢が正常か否か、つまりハンドリングに適しているか否かを判定する。   The posture determination unit 5015 determines whether or not the posture of the workpiece 10 lifted by the robot hand 20 is normal based on the three-dimensional coordinate data output from the three-dimensional coordinate acquisition unit 5012, that is, whether or not it is suitable for handling. Determine.

姿勢判定について図7を用いて説明する。第2センサ40で計測できる空間を図7に示すXYZ座標で表す。Z軸は鉛直方向であり、XY面が水平面である。図中、破線で示すように、ロボットハンド20の把持部21より低く、且つ、積載されたワーク10を含まない高さに、上下2つの互いに接した検出空間、A空間とB空間を設定する。   Posture determination will be described with reference to FIG. A space that can be measured by the second sensor 40 is represented by XYZ coordinates shown in FIG. The Z axis is the vertical direction, and the XY plane is a horizontal plane. In the figure, two upper and lower detection spaces, A space and B space, are set at a height lower than the gripping portion 21 of the robot hand 20 and not including the loaded work 10. .

A空間は、ワーク10がロボットハンド20によって正常にハンドリングされているときの、起こりうる姿勢のワーク10全体が入るのに必要十分な大きさの空間である。B空間は、X座標、Y座標の範囲がA空間と同じ範囲であり、Z座標の範囲がA空間の下でかつ積載されたワーク10を含まない高さの範囲である。   The A space is a space that is large enough to allow the entire work 10 in a possible posture to enter when the work 10 is normally handled by the robot hand 20. In the B space, the range of the X coordinate and the Y coordinate is the same as that of the A space, and the range of the Z coordinate is a range of the height below the A space and not including the loaded work 10.

3次元座標取得部5012から出力されたワーク10の表面の3次元座標のうち、A空間に含まれるX座標、Y座標の最大値と最小値から占有面積を求め、占有面積が予め設定した第1閾値より小さい場合は、姿勢が正常でないと判断する。また、占有面積が第1閾値以上の場合であっても、B空間に含まれる3次元座標の計測数に対する、A空間に含まれる3次元座標の計測数の比が、予め設定した第2閾値より小さいときには、姿勢が正常でないと判定する。   Of the three-dimensional coordinates of the surface of the workpiece 10 output from the three-dimensional coordinate acquisition unit 5012, the occupied area is obtained from the maximum and minimum values of the X and Y coordinates included in the A space, and the occupied area is set in advance. If it is smaller than one threshold, it is determined that the posture is not normal. In addition, even if the occupied area is equal to or larger than the first threshold, the ratio of the number of three-dimensional coordinates included in the A space to the number of three-dimensional coordinates included in the B space is set to the second threshold set in advance. When it is smaller, it is determined that the posture is not normal.

それ以外の、A空間における占有面積が第1閾値以上で、且つ、B空間の3次元座標の計測数が0である場合又はA空間とB空間の3次元座標の計測数の比が第2閾値以上の場合は正常であると判定する。   Other than that, when the occupied area in the A space is equal to or larger than the first threshold and the measurement number of the three-dimensional coordinates in the B space is zero, the ratio of the measurement numbers of the three-dimensional coordinates in the A space and the B space is the second If it is equal to or greater than the threshold, it is determined to be normal.

図7の例においては、(a)に示すように、ワーク10の全ての3次元座標がA空間に含まれている場合には、ワーク10の姿勢が正常と判断される。一方、(b)に示すように、3次元座標の多くがB空間に含まれ、A空間に含まれるX座標、Y座標の最大値と最小値から求めた占有面積が予め設定した第1閾値より小さい、あるいは、占有面積が第1閾値以上であるが、B空間に含まれる3次元座標の計測数に対する、A空間に含まれる3次元座標の計測数の比が、第2閾値より小さかった場合には、ワーク10の姿勢は正常でないと判断される。   In the example of FIG. 7, as shown in FIG. 7A, when all three-dimensional coordinates of the workpiece 10 are included in the A space, it is determined that the posture of the workpiece 10 is normal. On the other hand, as shown in (b), most of the three-dimensional coordinates are included in the B space, and the occupied area obtained from the maximum and minimum values of the X and Y coordinates included in the A space is a preset first threshold value. The ratio of the measured number of the three-dimensional coordinates included in the A space to the measured number of the three-dimensional coordinates included in the B space is smaller than the second threshold, although the occupied area is less than or equal to the first threshold value. In this case, it is determined that the posture of the workpiece 10 is not normal.

姿勢判定部5015は上記のような判定基準により正常か否かを判定し、その判定結果をロボットハンド制御信号生成部5017に出力する。   The posture determination unit 5015 determines whether or not it is normal based on the determination criteria as described above, and outputs the determination result to the robot hand control signal generation unit 5017.

方向・重心位置検出部5016は、ロボットハンド20によって持ち上げられ、カメラ80の上方の所定場所に移動されてきたワーク10を、カメラ80で撮影した画像データがデータ取得部5011から入力されると、その画像データに基づいて、ワーク10の方向、重心位置を検出する。そして、ワーク10の方向と重心位置がケース70内における予め定めた方向と位置になるよう回転量と移動量を微調整する調整値を含む信号をロボットハンド制御信号生成部5017に出力する。   The direction / centroid position detection unit 5016 receives image data obtained by capturing the workpiece 10 lifted by the robot hand 20 and moved to a predetermined location above the camera 80 with the camera 80 from the data acquisition unit 5011. Based on the image data, the direction of the workpiece 10 and the position of the center of gravity are detected. Then, a signal including an adjustment value for finely adjusting the rotation amount and the movement amount is output to the robot hand control signal generation unit 5017 so that the direction and the position of the center of gravity of the workpiece 10 become a predetermined direction and position in the case 70.

ロボットハンド制御信号生成部5017は、ハンドリング領域検出部5014からハンドリング領域の位置情報が入力されたときには、入力された位置情報が示すハンドリング領域内のワーク10の表面に対向するように、把持部21を移動させ、把持部21がワーク10を把持し、持ち上げるようにロボットハンド20を制御する制御信号を生成し出力する。ここで、ロボットハンド20に送信する制御信号は、ロボットハンド20の駆動の基準となるロボット座標系における値を含むものである。   When the handling area position information is input from the handling area detection unit 5014, the robot hand control signal generation unit 5017 faces the surface of the workpiece 10 in the handling area indicated by the input position information. , And a control signal for controlling the robot hand 20 is generated and output so that the gripper 21 grips and lifts the workpiece 10. Here, the control signal transmitted to the robot hand 20 includes a value in the robot coordinate system that is a reference for driving the robot hand 20.

また、ロボットハンド制御信号生成部5017は、姿勢判定部5015からワーク10の持ち上げられたときの姿勢が正常であることを示す信号が入力された場合には、カメラ80の上部の所定の場所にワーク10を移動させるようにロボットハンド20を制御する制御信号を生成し出力する。ここで所定の場所は、ワーク10の方向と重心位置を検出するための場所である。   Also, when a signal indicating that the posture when the workpiece 10 is lifted is input from the posture determination unit 5015 to the robot hand control signal generation unit 5017, the robot hand control signal generation unit 5017 puts the robot hand control signal generation unit 5017 at a predetermined location above the camera 80. A control signal for controlling the robot hand 20 so as to move the workpiece 10 is generated and output. Here, the predetermined location is a location for detecting the direction of the workpiece 10 and the position of the center of gravity.

一方、姿勢判定部5015からワーク10の持ち上げられたときの姿勢が正常でないことを示す信号が入力された場合には、リトライをするためのリトライ平面12にワーク10を移動させ、ワーク10を解放するようにロボットハンド20を制御する制御信号を生成し出力する。ここで、リトライ平面12は、図2の破線で示したように、第1センサ30又は第2センサ40の出力に基づいて検出した、平坦で且つワーク10を置くのに十分な広さの平面である。   On the other hand, when a signal indicating that the posture when the workpiece 10 is lifted is not normal is input from the posture determination unit 5015, the workpiece 10 is moved to the retry plane 12 for retrying and the workpiece 10 is released. A control signal for controlling the robot hand 20 is generated and output. Here, the retry plane 12 is a plane that is detected based on the output of the first sensor 30 or the second sensor 40 as shown by the broken line in FIG. It is.

また、ロボットハンド制御信号生成部5017は、方向・重心位置検出部5016から出力された、ワーク10の回転量と移動量を微調整する調整値を含む信号に基づいて、ワーク10をケース70内における予め定めた位置、方向に移動、回転するようにロボットハンド20を制御する制御信号を生成し出力する。   Further, the robot hand control signal generation unit 5017 places the workpiece 10 in the case 70 based on a signal output from the direction / gravity position detection unit 5016 and including an adjustment value for finely adjusting the rotation amount and the movement amount of the workpiece 10. A control signal for controlling the robot hand 20 so as to move and rotate in a predetermined position and direction is generated and output.

ロボットハンド制御信号生成部5017が出力した制御信号は、通信部502を介して、ロボットハンド20へ送信される。   The control signal output from the robot hand control signal generation unit 5017 is transmitted to the robot hand 20 via the communication unit 502.

以上のように構成されたハンドリングシステム1におけるワーク10を移載する動作について、図8、9のフローチャートに沿って説明する。図8、9のフローチャートは、制御装置50のCPU501が実行するワーク移載処理を示したものである。   The operation of transferring the workpiece 10 in the handling system 1 configured as described above will be described with reference to the flowcharts of FIGS. The flowcharts of FIGS. 8 and 9 show the workpiece transfer process executed by the CPU 501 of the control device 50.

CPU501は、まず、第1センサ30を用いて、積載されたワーク10の表面の3次元計測を行う(ステップS101)。具体的には、データ取得部5011が、第1センサ30のセンサ出力データを取得し、3次元座標算出部5012が、ワーク10の表面の3次元座標を算出する。   First, the CPU 501 performs three-dimensional measurement of the surface of the loaded workpiece 10 using the first sensor 30 (step S101). Specifically, the data acquisition unit 5011 acquires sensor output data of the first sensor 30, and the three-dimensional coordinate calculation unit 5012 calculates the three-dimensional coordinates of the surface of the workpiece 10.

次に最上点検出部5013が、3次元座標のうち鉛直方向において最上の位置に在る最上点を検出する(ステップS102)。ハンドリング領域検出部5014は、最上点検出部5013が検出した最上点から滑らかに連続する領域を検出する(ステップS103)。   Next, the highest point detection unit 5013 detects the highest point at the highest position in the vertical direction among the three-dimensional coordinates (step S102). The handling area detection unit 5014 detects an area that continues smoothly from the highest point detected by the highest point detection part 5013 (step S103).

最上点から滑らかに連続する領域であって、一定の大きさ以上であるハンドリング領域を検出できたか否かを判定する(ステップS104)。ハンドリング領域を検出できた場合には(ステップS104:Yes)、ステップS106に進む。一方、ハンドリング領域が検出できなかった場合には(ステップS104:No)、ハンドリング領域検出部5014が一度検出した、最上点から滑らかに連続し且つ一定の大きさ未満の領域を探索領域から除外して(ステップS105)、最上点と最上点から滑らかに連続する領域を再検出し、ハンドリング領域が検出できるまで、ステップS102からステップS105までの処理を繰り返す。   It is determined whether or not a handling area that is smoothly continuous from the highest point and has a certain size or more has been detected (step S104). If the handling area can be detected (step S104: Yes), the process proceeds to step S106. On the other hand, if the handling area cannot be detected (step S104: No), the handling area detection unit 5014 once excludes the area that is smoothly continuous from the top point and less than a certain size from the search area. (Step S105), the uppermost point and the area that continues smoothly from the uppermost point are detected again, and the processing from Step S102 to Step S105 is repeated until the handling area can be detected.

ステップS106では、ロボットハンド制御信号生成部5017が、検出されたハンドリング領域の位置情報が示す領域内のワーク10の表面に対向するように、把持部21を移動させ、把持部21にワーク10を把持させ、持ち上げるようにロボットハンド20を制御する制御信号を生成し出力する(ステップS106)。   In step S106, the robot hand control signal generation unit 5017 moves the gripping part 21 so as to face the surface of the work 10 in the area indicated by the detected position information of the handling area, and moves the work 10 to the gripping part 21. A control signal for controlling the robot hand 20 to be gripped and lifted is generated and output (step S106).

その後、第2センサを用いて、積載されたワーク10の表面の3次元計測を行う(ステップS107)。具体的には、データ取得部5011が、第2センサのセンサ出力データを取得し、3次元座標算出部5012が、ワーク10の表面の3次元座標を算出する。   Thereafter, using the second sensor, three-dimensional measurement of the surface of the loaded workpiece 10 is performed (step S107). Specifically, the data acquisition unit 5011 acquires sensor output data of the second sensor, and the three-dimensional coordinate calculation unit 5012 calculates the three-dimensional coordinates of the surface of the workpiece 10.

次に姿勢判定部5015が、第2センサを用いて得たワーク10の表面の3次元座標に基づいて、ワーク10の姿勢が正常か否かを判定する(ステップS108)。判定した結果、ワーク姿勢が正常であると判定された場合には(ステップS109:Yes)、ステップS111に進む。ワーク姿勢が正常でないと判定された場合には(ステップS109:No)、図9に示すリトライ処理を実行する(ステップS110)。   Next, the posture determination unit 5015 determines whether or not the posture of the workpiece 10 is normal based on the three-dimensional coordinates of the surface of the workpiece 10 obtained using the second sensor (step S108). As a result of the determination, when it is determined that the workpiece posture is normal (step S109: Yes), the process proceeds to step S111. If it is determined that the workpiece posture is not normal (step S109: No), the retry process shown in FIG. 9 is executed (step S110).

リトライ処理では、まず、第1センサ30又は第2センサ40を用いた3次元計測を行い(ステップS201)、一定の大きさ以上の平坦な面であるリトライ平面12を検出する(ステップS202)。   In the retry process, first, three-dimensional measurement using the first sensor 30 or the second sensor 40 is performed (step S201), and the retry plane 12 which is a flat surface having a certain size or more is detected (step S202).

そして、ロボットハンド制御信号生成部5017は、ワーク10を把持した把持部21をリトライ平面12の上部に移動させるようにロボットハンド20を制御する制御信号を生成し出力する(ステップS203)。その後、把持部21がワーク10を解放するように制御する制御信号を生成し出力する(ステップS204)。   Then, the robot hand control signal generation unit 5017 generates and outputs a control signal for controlling the robot hand 20 so as to move the holding unit 21 holding the workpiece 10 to the upper part of the retry plane 12 (step S203). Thereafter, a control signal for controlling the gripper 21 to release the workpiece 10 is generated and output (step S204).

次に、第1センサ30を用いて、リトライ平面上のワーク10の表面の3次元計測を行い(ステップS205)、最上点検出部5013が、計測した3次元座標のうち鉛直方向において最上の位置に在る最上点を検出する(ステップS206)。ハンドリング領域検出部5014は、最上点検出部5013が検出した最上点から滑らかに連続するハンドリング領域を検出する(ステップS207)。   Next, three-dimensional measurement of the surface of the workpiece 10 on the retry plane is performed using the first sensor 30 (step S205), and the highest point detection unit 5013 has the highest position in the vertical direction among the measured three-dimensional coordinates. Is detected (step S206). The handling area detection unit 5014 detects a handling area that continues smoothly from the highest point detected by the highest point detection part 5013 (step S207).

ステップS207で検出したハンドリング領域に把持部21を移動させ、把持部21にリトライ平面12の上のリトライ対象のワーク10を把持させ、持ち上げるようにロボットハンド20を制御する制御信号を出力して(ステップS208)、リトライ処理を終了する。   The grip portion 21 is moved to the handling area detected in step S207, the grip portion 21 is caused to grip the workpiece 10 to be retried on the retry plane 12, and a control signal for controlling the robot hand 20 is output so as to lift ( Step S208), the retry process is terminated.

リトライ後は、ステップS107に戻り、ワーク10の姿勢が正常か否かを再度判定する。   After the retry, the process returns to step S107, and it is determined again whether or not the posture of the workpiece 10 is normal.

ワーク10の姿勢が正常であると判定された場合には(ステップS109)、ロボットハンド制御信号生成部5017は、カメラ80の上部の方向・重心位置検出場所にワーク10を移動させるようにロボットハンド20を制御する制御信号を生成し出力する(ステップS111)。   If it is determined that the posture of the workpiece 10 is normal (step S109), the robot hand control signal generator 5017 moves the robot hand so that the workpiece 10 is moved to the upper direction / gravity position detection location of the camera 80. A control signal for controlling 20 is generated and output (step S111).

カメラ80は、ワーク10を下方から撮影し、データ取得部5011は、カメラ80が撮影した画像データを取得する(ステップS112)。   The camera 80 captures the workpiece 10 from below, and the data acquisition unit 5011 acquires image data captured by the camera 80 (step S112).

カメラ80が撮影した画像データに基づいて、方向・重心位置検出部5016は、ワーク10の方向、重心位置を検出する。そして、ワーク10の方向と重心位置がケース70内における予め定めた方向と位置になるよう回転量と移動量を微調整する調整値を含む信号をロボットハンド制御信号生成部5017に出力する(ステップS113)。   Based on the image data captured by the camera 80, the direction / centroid position detection unit 5016 detects the direction and the center of gravity position of the workpiece 10. Then, a signal including an adjustment value for finely adjusting the amount of rotation and the amount of movement is output to the robot hand control signal generation unit 5017 so that the direction and the position of the center of gravity of the workpiece 10 are in the predetermined direction and position in the case 70 (step). S113).

ロボットハンド制御信号生成部5017は、方向・重心位置検出部5016から出力された、ワーク10の回転量と移動量を微調整する調整値を含む信号と、記憶部504に記憶していたケース70の場所を示す情報に基づいて、ワーク10をケース70内における予め定めた位置、方向に移動、回転するようにロボットハンド20を制御する制御信号を生成し出力する。(ステップS114)。   The robot hand control signal generation unit 5017 outputs a signal including an adjustment value output from the direction / gravity center position detection unit 5016 and finely adjusts the rotation amount and movement amount of the workpiece 10 and the case 70 stored in the storage unit 504. Based on the information indicating the location, a control signal for controlling the robot hand 20 so as to move and rotate the workpiece 10 in a predetermined position and direction in the case 70 is generated and output. (Step S114).

その後、把持部21がケース70内でワーク10を解放するように、ロボットハンド20を制御する制御信号を生成し出力して(ステップS115)、処理を終了する。   Thereafter, a control signal for controlling the robot hand 20 is generated and output so that the gripping part 21 releases the workpiece 10 in the case 70 (step S115), and the process is terminated.

このようにして、ワーク10を積載台11の上から移載先のケース70内部まで移載させることができる。   In this manner, the workpiece 10 can be transferred from the loading table 11 to the inside of the transfer destination case 70.

以上説明したように、本実施の形態においては、第1センサ30を用いて計測したワーク10の表面の3次元座標に基づいて、ロボットハンド20の把持部21が把持するのに適したハンドリング領域を検出し、その領域を把持部21が把持して持ち上げてワーク10を移動させることとした。これにより、ワーク10の内容物、形状によらず、また、ワーク10の積載状態によらず、確実にワーク10を把持することができる。   As described above, in the present embodiment, the handling area suitable for the gripping portion 21 of the robot hand 20 to grip based on the three-dimensional coordinates of the surface of the workpiece 10 measured using the first sensor 30. Is detected, the gripping part 21 grips and lifts the area to move the workpiece 10. Accordingly, the workpiece 10 can be reliably gripped regardless of the contents and shape of the workpiece 10 and regardless of the loading state of the workpiece 10.

また、ロボットハンド20がワーク10を把持して持ち上げた状態を、第2センサ40を用いて3次元計測し、得られたワーク10の表面の3次元座標に基づいて、ワーク10の姿勢が正常か否か判定し、正常でなかった場合には、リトライ平面12上でワーク10を一旦解放して、その後再度ワーク10を把持して持ち上げることとした。これにより、ワーク10を正常に持ち上げられず、移動途中で落ちるような危険性がある場合にも、ワーク10を確実に把持しなおすことができる。   Further, the state in which the robot hand 20 grips and lifts the workpiece 10 is three-dimensionally measured using the second sensor 40, and the posture of the workpiece 10 is normal based on the obtained three-dimensional coordinates of the surface of the workpiece 10. If it is not normal, the workpiece 10 is once released on the retry plane 12, and then the workpiece 10 is gripped and lifted again. Thereby, even when there is a risk that the workpiece 10 cannot be lifted normally and falls during movement, the workpiece 10 can be reliably gripped again.

また、ロボットハンド20がワーク10を把持して持ち上げた状態を、下方からカメラ80で撮影して、得られた画像に基づいて、ワーク10の重心位置と方向が予め定めた位置と方向になるように移動、回転させることとした。これにより、把持時のワーク10の位置や方向によらず、移載先のケース70内に位置と方向をそろえて収めることができる。   Further, the state in which the robot hand 20 grips and lifts the work 10 is photographed from below by the camera 80, and based on the obtained image, the position and direction of the center of gravity of the work 10 become a predetermined position and direction. It was decided to move and rotate. Accordingly, the position and direction can be aligned in the transfer destination case 70 regardless of the position and direction of the workpiece 10 at the time of gripping.

このように本発明は、積載された状態の1以上のワークの表面の3次元座標を計測した結果に基づいてワークの表面のうち鉛直方向における最上点の位置を検出し、最上点から滑らかに連続する所定の大きさ以上の領域であって、ロボットハンドが把持するためのハンドリング領域を検出し、ハンドリング領域内のワークの表面に対向するように、ロボットハンドの把持部を移動させて、ワークを把持し、移載させることとしたため、積載されたワークを確実に持ち上げ、移載することが可能になる。   As described above, the present invention detects the position of the highest point in the vertical direction on the surface of the workpiece based on the result of measuring the three-dimensional coordinates of the surface of one or more workpieces in the loaded state, and smoothly from the highest point. Detect a handling area for the robot hand to grip, and move the grip part of the robot hand so that it faces the workpiece surface in the handling area. Since the workpiece is gripped and transferred, the loaded workpiece can be reliably lifted and transferred.

なお、本発明は、上記実施の形態に限定されず、本発明の要旨を逸脱しない範囲での種々の変更は勿論可能である。   In addition, this invention is not limited to the said embodiment, Of course, the various change in the range which does not deviate from the summary of this invention is possible.

例えば、第1センサ30、第2センサ40の例として、パターン光照射部とカメラからなる構成について説明したが、これに限られず、ステレオカメラやレーザレーダ等、任意の3次元計測用のセンサでよい。   For example, as an example of the first sensor 30 and the second sensor 40, the configuration including the pattern light irradiation unit and the camera has been described. However, the configuration is not limited to this, and any three-dimensional measurement sensor such as a stereo camera or a laser radar may be used. Good.

また、ロボットハンド20の把持部21の例として吸着タイプの構成について説明したが、これに限られず、把持機能を持つ任意の構成でよい。例えば、把持部21は、図10に示すような、吸着部215と複数の指状体216からなり、互いに異なる方向から複数の指状体216がワーク10を支持する構成の指状ハンドでもよい。この場合、指状体216に代わり、針状体でワークを刺して把持する構成でも良い。   Further, although the suction-type configuration has been described as an example of the grip portion 21 of the robot hand 20, the configuration is not limited thereto, and any configuration having a grip function may be used. For example, as shown in FIG. 10, the grip portion 21 may be a finger-shaped hand that includes a suction portion 215 and a plurality of finger bodies 216, and a plurality of finger bodies 216 support the workpiece 10 from different directions. . In this case, instead of the finger-like body 216, a configuration may be adopted in which a workpiece is stabbed and held with a needle-like body.

また、把持部21は、図11に示すような、多数の吸着部217が配列され吸着部217の先端部がワークに密着できるような首振り機構218を設けるとともに、吸着部217が台座219に対して位置を変動させることができ、適切な位置で位置保持する機構を有する位置保持型吸着ハンドでよい。   Further, as shown in FIG. 11, the gripping portion 21 is provided with a swing mechanism 218 in which a large number of suction portions 217 are arranged so that the tip portion of the suction portion 217 can be in close contact with the work, and the suction portion 217 is attached to the base 219. On the other hand, a position holding type suction hand having a mechanism capable of changing the position and holding the position at an appropriate position may be used.

また、最上点検出部5013で検出する最上点は鉛直方向において最上の点としたが、鉛直方向に対して一定の角度ずれた方向に対して最上の点を検出するようにしてもよい。   Further, although the highest point detected by the highest point detection unit 5013 is the highest point in the vertical direction, the highest point may be detected in a direction that is deviated from the vertical direction by a certain angle.

また、方向・重心位置検出部5016が、ワーク10の回転量と移動量を微調整する調整値を算出して、ロボットハンド制御信号生成部5017が、その調整値に基づいてワーク10の移動、回転をするようにロボットハンド20を制御する制御信号を生成し出力するとしたが、カメラ80の上部で、ワーク10を回転、移動させた後にカメラ80で再度撮影し、その撮影データに基づいて、再度方向と重心位置を検出し、回転量、移動量を再調整してもよい。また、所定の方向と重心位置となるまで、上記のワーク10の撮影からワーク10の回転、移動までの処理を繰り返してもよい。   Further, the direction / centroid position detection unit 5016 calculates an adjustment value for fine adjustment of the rotation amount and the movement amount of the workpiece 10, and the robot hand control signal generation unit 5017 moves the workpiece 10 based on the adjustment value. The control signal for controlling the robot hand 20 so as to rotate is generated and output. However, the work 10 is rotated and moved on the upper part of the camera 80, and then the camera 80 takes an image again. The direction and the center of gravity position may be detected again, and the rotation amount and the movement amount may be readjusted. Moreover, you may repeat the process from imaging | photography of the said workpiece | work 10 to rotation and a movement of the workpiece | work 10 until it becomes a predetermined direction and a gravity center position.

また、カメラ80が撮影した画像データに基づいて、ワーク10の大きさを検出し、大きさ毎に分類して、複数のケースに振り分けて移載するようにしてもよい。   Alternatively, the size of the workpiece 10 may be detected based on the image data captured by the camera 80, classified by size, and transferred to a plurality of cases.

また、制御装置50のCPUが実行したワーク移載処理等のプログラムを、既存のコンピュータ等の情報端末で実行させることにより、当該情報端末を本発明に係る制御装置50として機能させることも可能である。   In addition, by executing a program such as a workpiece transfer process executed by the CPU of the control device 50 on an information terminal such as an existing computer, the information terminal can also function as the control device 50 according to the present invention. is there.

このようなプログラムの配布方法は任意であり、例えば、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical Disk)、メモリカード等のコンピュータ読み取り可能な記録媒体に格納して配布してもよいし、インターネット等の通信ネットワークを介して配布してもよい。   Such a program distribution method is arbitrary, for example, a computer-readable recording medium such as a CD-ROM (Compact Disk Read-Only Memory), a DVD (Digital Versatile Disk), an MO (Magneto Optical Disk), or a memory card. It may be stored and distributed in the network, or distributed via a communication network such as the Internet.

1…ハンドリングシステム
10…ワーク
11…積載台
20…ロボットハンド
201…CPU
2011…把持制御部
2012…アーム制御部
202…通信部
21…把持部
211…吸気口
212…台座
213…主吸気部
214…補助吸気部
215…吸着部
216…指状体
217…吸着部
218…首振り機構
219…台座
22…アーム
30…第1センサ
40…第2センサ
50…制御装置
501…CPU
5011…データ取得部
5012…3次元座標算出部
5013…最上点検出部
5014…ハンドリング領域検出部
5015…姿勢判定部
5016…方向・重心位置検出部
5017…ロボットハンド制御信号生成部
502…通信部
503…RAM
504…記憶部
60…通信線
70…ケース
80…カメラ
DESCRIPTION OF SYMBOLS 1 ... Handling system 10 ... Workpiece | work 11 ... Loading platform 20 ... Robot hand 201 ... CPU
2011 ... Grip control unit 2012 ... Arm control unit 202 ... Communication unit 21 ... Gripping unit 211 ... Intake port 212 ... Base 213 ... Main intake unit 214 ... Auxiliary intake unit 215 ... Adsorption unit 216 ... Finger-shaped body 217 ... Adsorption unit 218 ... Swing mechanism 219 ... pedestal 22 ... arm 30 ... first sensor 40 ... second sensor 50 ... control device 501 ... CPU
5011 ... Data acquisition unit 5012 ... 3D coordinate calculation unit 5013 ... Top point detection unit 5014 ... Handling area detection unit 5015 ... Posture determination unit 5016 ... Direction / gravity center position detection unit 5017 ... Robot hand control signal generation unit 502 ... Communication unit 503 ... RAM
504 ... Storage unit 60 ... Communication line 70 ... Case 80 ... Camera

Claims (13)

ワークを移載するロボットハンドを備えるハンドリングシステムであって、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第1の3次元座標計測部と、
前記第1の3次元座標計測部が計測した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出部と、
前記最上点検出部が検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出部と、
前記ハンドリング領域検出部が検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御部と、
を有することを特徴とするハンドリングシステム。
A handling system including a robot hand for transferring a workpiece,
A first three-dimensional coordinate measuring unit that measures the three-dimensional coordinates of the surface of one or more of the workpieces loaded or the contents of the workpieces;
Based on the three-dimensional coordinates of the surface measured by the first three-dimensional coordinate measurement unit, an uppermost point detection unit that detects an uppermost point in a substantially vertical direction of the surface;
A handling area detecting unit for detecting a handling area for holding by the robot hand, which is an area of a predetermined size or more smoothly continuous from the top point detected by the top point detecting unit;
The gripping part that grips the workpiece provided in the robot hand is moved so as to face the surface in the handling area detected by the handling area detection unit, and the workpiece is gripped and transferred by the gripping part. A robot hand control unit for controlling the operation of the robot hand so as to be released after being moved to a mounting place;
A handling system comprising:
前記ハンドリング領域検出部が、前記所定の大きさ以上のハンドリング領域を検出できなかった時には、前記最上点検出部は、前記ハンドリング領域を検出できなかった時の前記最上点を含む前記所定の大きさ未満の領域以外の領域で、略鉛直方向における最上点を再検出し、前記ハンドリング領域検出部は、再検出した前記最上点から滑らかに連続する領域を再検出し、所定の大きさ以上のハンドリング領域を検出できるまで、前記最上点検出部の前記最上点の検出と、前記ハンドリング領域検出部の前記ハンドリング領域の検出を繰り返す、
ことを特徴とする請求項1に記載のハンドリングシステム。
When the handling area detection unit cannot detect a handling area larger than the predetermined size, the uppermost point detection unit includes the predetermined size including the uppermost point when the handling area cannot be detected. The uppermost point in a substantially vertical direction is re-detected in a region other than the region less than the region, and the handling region detection unit re-detects a region that smoothly continues from the re-detected uppermost point, and the handling is greater than a predetermined size. Until the region can be detected, the detection of the top point of the top point detection unit and the detection of the handling region of the handling region detection unit are repeated.
The handling system according to claim 1.
前記ロボットハンドが前記ワークを把持し持ち上げた状態の、前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第2の3次元座標計測部と、
前記第2の3次元座標計測部が計測した、前記表面の3次元座標に基づいて、前記ワークの姿勢が正常か否かを判定するワーク姿勢判定部と、を更に有し、
前記ワーク姿勢判定部が、前記ワークの姿勢が正常でないと判定した場合には、前記ロボットハンド制御部が、前記ワークを略平坦なスペースに下ろして解放するように制御し、前記第1の3次元座標計測部が、前記スペースの上部における前記表面の3次元座標を再計測し、前記最上点検出部は、前記スペースの上部において前記最上点を再検出し、前記ハンドリング領域検出部が、前記スペースの上部において前記ハンドリング領域を再検出し、前記ロボットハンド制御部が、再検出したハンドリング領域内の前記表面に対向するように前記把持部を移動させて、前記把持部で前記ワークを把持し、移載場所に移動させてから解放するように制御する、
ことを特徴とする請求項1又は2に記載のハンドリングシステム。
A second three-dimensional coordinate measuring unit that measures the three-dimensional coordinates of the surface of the workpiece or the contents of the workpiece in a state where the robot hand grips and lifts the workpiece;
A workpiece posture determination unit that determines whether or not the posture of the workpiece is normal based on the three-dimensional coordinates of the surface measured by the second three-dimensional coordinate measurement unit;
When the workpiece posture determining unit determines that the posture of the workpiece is not normal, the robot hand control unit controls the first workpiece to lower the workpiece into a substantially flat space and release it. A three-dimensional coordinate measurement unit remeasures the three-dimensional coordinates of the surface in the upper part of the space, the uppermost point detection unit redetects the uppermost point in the upper part of the space, and the handling region detection unit The handling area is redetected in the upper part of the space, and the robot hand control unit moves the gripping part so as to face the surface in the redetected handling area, and grips the workpiece by the gripping part. , Control to release after moving to the transfer location,
The handling system according to claim 1 or 2.
前記ワーク姿勢判定部は、前記把持部の下方で且つ積載された前記ワークを含まない位置に想定した、上下2つの互いに接する検出空間のうち上方の検出空間に存する、前記ワーク、又は、前記ワークの内容物の表面の面積が、所定の値以上であるときに、姿勢が正常であると判定する、
ことを特徴とする請求項3に記載のハンドリングシステム。
The workpiece posture determination unit is located in an upper detection space of two upper and lower detection spaces that are assumed to be below the gripping portion and do not include the loaded workpiece, or the workpiece or the workpiece When the area of the surface of the contents of is equal to or greater than a predetermined value, the posture is determined to be normal.
The handling system according to claim 3.
前記ワーク姿勢判定部は、前記把持部の下方で且つ積載された前記ワークを含まない位置に想定した、上下2つの互いに接する検出空間のうち、下方の検出空間に含まれる、前記ワーク、又は、前記ワークの内容物の表面を示す3次元座標の計測数に対する、上方の検出空間に含まれる、前記ワーク、又は、前記ワークの内容物の表面を示す3次元座標の計測数の比が、所定の値以上であるときに、姿勢が正常であると判定する、
ことを特徴とする請求項3に記載のハンドリングシステム。
The work posture determination unit is included in a lower detection space among two upper and lower detection spaces, assuming a position below the gripping part and not including the loaded work, or The ratio of the measured number of the three-dimensional coordinates indicating the surface of the workpiece or the contents of the workpiece included in the upper detection space to the measured number of the three-dimensional coordinates indicating the surface of the contents of the workpiece is predetermined. When the value is greater than or equal to the value, it is determined that the posture is normal.
The handling system according to claim 3.
前記第2の3次元座標計測部は、前記第1の3次元座標計測部とは異なる方向から前記表面の3次元座標を計測する、
ことを特徴とする請求項3乃至5のいずれか1項に記載のハンドリングシステム。
The second three-dimensional coordinate measuring unit measures the three-dimensional coordinates of the surface from a different direction from the first three-dimensional coordinate measuring unit;
The handling system according to any one of claims 3 to 5, characterized in that:
前記第1の3次元座標計測部又は前記第2の3次元座標計測部による前記表面の3次元座標の計測の結果から、前記ワークを置くことが可能な広さを有する略平坦面を、前記スペースとして検出するスペース検出部を更に有する、
ことを特徴とする請求項3乃至6のいずれか1項に記載のハンドリングシステム。
From the result of measurement of the three-dimensional coordinates of the surface by the first three-dimensional coordinate measurement unit or the second three-dimensional coordinate measurement unit, a substantially flat surface having an area where the workpiece can be placed, It further has a space detection unit for detecting as a space,
The handling system according to any one of claims 3 to 6, characterized in that:
前記ハンドリング領域検出部が検出するハンドリング領域の大きさは、前記把持部の大きさに基づいて定められた大きさである、
ことを特徴とする請求項1乃至7のいずれか1項に記載のハンドリングシステム。
The size of the handling area detected by the handling area detection unit is a size determined based on the size of the gripping part.
The handling system according to any one of claims 1 to 7.
前記把持部が複数の吸気口を含み、前記複数の吸気口を前記ワークにあてた状態で、前記吸気口から吸気することにより前記ワークを把持する吸着ハンドである、
ことを特徴とする請求項8に記載のハンドリングシステム。
The gripping portion includes a plurality of air intake ports, and is a suction hand that grips the work by sucking air from the air intake ports in a state where the plurality of air intake ports are applied to the work.
The handling system according to claim 8.
前記把持部が、複数の指状体を含み、前記複数の指状体が互いに異なる方向から前記ワークを支持することにより前記ワークを把持する指状ハンドである、
ことを特徴とする請求項8に記載のハンドリングシステム。
The gripping portion includes a plurality of finger-like bodies, and the plurality of finger-like bodies are finger-like hands that grip the workpiece by supporting the workpiece from different directions.
The handling system according to claim 8.
前記ロボットハンドが前記ワークを持ち上げた後に、前記ワークを下方から撮影する撮影部と、
前記撮影部が撮影した画像に基づいて、前記ワークの水平面上での前記ワークの方向と重心位置を検出する方向・重心位置検出部と、を更に有し、
前記ロボットハンド制御部は、前記方向・重心位置検出部の検出結果に基づいて、前記ワークの重心位置が前記移載場所における所定の位置にあり、前記ワークの方向が前記移載場所における所定の方向を向いている状態で、前記ワークを解放するように、前記ロボットハンドを制御する、
ことを特徴とする請求項1乃至10のいずれか1項に記載のハンドリングシステム。
After the robot hand lifts the workpiece, an imaging unit that images the workpiece from below;
Based on the image photographed by the photographing unit, further comprising a direction / center of gravity position detection unit for detecting the direction and the center of gravity position of the workpiece on the horizontal plane of the workpiece,
The robot hand control unit is configured such that, based on the detection result of the direction / centroid position detection unit, the center of gravity position of the workpiece is at a predetermined position at the transfer location, and the direction of the workpiece is a predetermined position at the transfer location. Controlling the robot hand to release the workpiece while facing the direction;
The handling system according to any one of claims 1 to 10, wherein
ワークを把持して持ち上げ移載場所に移動させた後に解放するロボットハンドにより前記ワークを移載させるハンドリング方法であって、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を計測する第1の3次元座標計測ステップと、
計測した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出ステップと、
検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出ステップと、
検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御ステップと、
を有することを特徴とするハンドリング方法。
A handling method of transferring the workpiece by a robot hand that is released after the workpiece is lifted and moved to the transfer location,
A first three-dimensional coordinate measurement step of measuring three-dimensional coordinates of the surface of the one or more workpieces loaded or the contents of the workpiece;
Based on the measured three-dimensional coordinates of the surface, an uppermost point detecting step of detecting the uppermost point in the substantially vertical direction of the surface;
A handling area detecting step of detecting a handling area for the robot hand to hold, which is an area of a predetermined size or more smoothly continuous from the detected uppermost point;
Move the gripping part for gripping the workpiece provided in the robot hand so as to face the surface in the detected handling area, grip the workpiece with the gripping part, and move it to the transfer location. A robot hand control step for controlling the operation of the robot hand so as to release from
A handling method characterized by comprising:
ワークを把持して持ち上げ移載場所に移動させた後に解放するロボットハンドを制御するコンピュータに、
積載された状態の1以上の前記ワーク、又は、前記ワークの内容物の表面の3次元座標を取得する第1の3次元座標取得手順と、
取得した前記表面の3次元座標に基づいて、前記表面のうち略鉛直方向における最上点を検出する最上点検出手順と、
検出した前記最上点から滑らかに連続する所定の大きさ以上の領域であって、前記ロボットハンドが把持するためのハンドリング領域を検出するハンドリング領域検出手順と、
検出した前記ハンドリング領域内の前記表面に対向するように、前記ロボットハンドに備えられた前記ワークを把持する把持部を移動させて、前記把持部で前記ワークを把持し移載場所に移動させてから解放するように、前記ロボットハンドの動作を制御するロボットハンド制御手順と、
を実行させるためのプログラム。
To the computer that controls the robot hand that is released after gripping and lifting the workpiece and moving it to the transfer location,
A first three-dimensional coordinate acquisition procedure for acquiring three-dimensional coordinates of the surface of one or more of the workpieces loaded or the contents of the workpieces;
Based on the acquired three-dimensional coordinates of the surface, an uppermost point detection procedure for detecting the uppermost point in the substantially vertical direction of the surface;
A handling area detection procedure for detecting a handling area for gripping by the robot hand, which is an area of a predetermined size or more that continues smoothly from the detected uppermost point;
Move the gripping part for gripping the workpiece provided in the robot hand so as to face the surface in the detected handling area, grip the workpiece with the gripping part, and move it to the transfer location. A robot hand control procedure for controlling the operation of the robot hand so as to release from
A program for running
JP2012198192A 2012-09-10 2012-09-10 Handling system, handling method and program Expired - Fee Related JP6000029B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012198192A JP6000029B2 (en) 2012-09-10 2012-09-10 Handling system, handling method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012198192A JP6000029B2 (en) 2012-09-10 2012-09-10 Handling system, handling method and program

Publications (2)

Publication Number Publication Date
JP2014050936A true JP2014050936A (en) 2014-03-20
JP6000029B2 JP6000029B2 (en) 2016-09-28

Family

ID=50609906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012198192A Expired - Fee Related JP6000029B2 (en) 2012-09-10 2012-09-10 Handling system, handling method and program

Country Status (1)

Country Link
JP (1) JP6000029B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144841A (en) * 2015-02-06 2016-08-12 ファナック株式会社 Transportation robot system equipped with three-dimensional sensor
JP2018103317A (en) * 2016-12-27 2018-07-05 株式会社イシダ Suction device and robot incorporating the same
US10053305B2 (en) 2015-05-28 2018-08-21 Kabushiki Kaisha Toshiba Article handling apparatus and method of operating the same
US10315865B2 (en) 2015-11-12 2019-06-11 Kabushiki Kaisha Toshiba Conveying device, conveying system, and conveying method
US10370201B2 (en) 2015-11-13 2019-08-06 Kabushiki Kaisha Toshiba Transporting apparatus and transporting method
JP2019141971A (en) * 2018-02-22 2019-08-29 ファナック株式会社 robot
JP2019181687A (en) * 2018-04-04 2019-10-24 キヤノン株式会社 Information processing device, information processing method and program
CN110497401A (en) * 2018-05-18 2019-11-26 发那科株式会社 Take out the robot system of workpiece in bulk and the control method of robot system
JP2019217608A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Information processing device, information processing method and program
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus
JP2020132422A (en) * 2019-02-26 2020-08-31 株式会社ダイフク Article transfer device
CN111985293A (en) * 2019-05-21 2020-11-24 丰田自动车株式会社 Workpiece recognition method
JP2021091036A (en) * 2019-12-10 2021-06-17 株式会社東芝 Picking robot, picking method and program
JP2021183363A (en) * 2020-05-21 2021-12-02 株式会社デンソー Control device of robot and control method of robot
CN114800483A (en) * 2021-01-29 2022-07-29 精工爱普生株式会社 Robot control method and robot system
JP7398763B2 (en) 2021-09-01 2023-12-15 株式会社Mujin Robot system equipped with overlap processing mechanism and its operating method
CN110497401B (en) * 2018-05-18 2024-05-17 发那科株式会社 Robot system for taking out bulk work and control method of robot system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09272090A (en) * 1996-04-04 1997-10-21 Mitsubishi Electric Corp Robot system
JPH09285985A (en) * 1996-04-23 1997-11-04 Mitsubishi Electric Corp Automatic cargo unloading device
JPH11123681A (en) * 1997-10-24 1999-05-11 Mitsubishi Electric Corp Picking-up device and picking-up method
JP2001213521A (en) * 2000-02-01 2001-08-07 Okura Yusoki Co Ltd Load transferring device and recording medium readable by computer
JP2002166383A (en) * 2000-11-29 2002-06-11 Mitsubishi Heavy Ind Ltd Tactile system for robot arm mechanism
JP2007021635A (en) * 2005-07-14 2007-02-01 Komatsu Engineering Corp Automatic handing method for workpiece and automatic handling system for workpiece
JP2009248214A (en) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd Image processing device and robot control system
JP2010069542A (en) * 2008-09-16 2010-04-02 Ihi Corp Workpiece picking method in bulk picking device
JP2011224695A (en) * 2010-04-19 2011-11-10 Toyota Motor Corp System for controlling holding of robot, and robot
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09272090A (en) * 1996-04-04 1997-10-21 Mitsubishi Electric Corp Robot system
JPH09285985A (en) * 1996-04-23 1997-11-04 Mitsubishi Electric Corp Automatic cargo unloading device
JPH11123681A (en) * 1997-10-24 1999-05-11 Mitsubishi Electric Corp Picking-up device and picking-up method
JP2001213521A (en) * 2000-02-01 2001-08-07 Okura Yusoki Co Ltd Load transferring device and recording medium readable by computer
JP2002166383A (en) * 2000-11-29 2002-06-11 Mitsubishi Heavy Ind Ltd Tactile system for robot arm mechanism
JP2007021635A (en) * 2005-07-14 2007-02-01 Komatsu Engineering Corp Automatic handing method for workpiece and automatic handling system for workpiece
JP2009248214A (en) * 2008-04-03 2009-10-29 Kanto Auto Works Ltd Image processing device and robot control system
JP2010069542A (en) * 2008-09-16 2010-04-02 Ihi Corp Workpiece picking method in bulk picking device
JP2011224695A (en) * 2010-04-19 2011-11-10 Toyota Motor Corp System for controlling holding of robot, and robot
JP2012055999A (en) * 2010-09-07 2012-03-22 Canon Inc System and method for gripping object, program and robot system

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9844882B2 (en) 2015-02-06 2017-12-19 Fanuc Corporation Conveyor robot system provided with three-dimensional sensor
JP2016144841A (en) * 2015-02-06 2016-08-12 ファナック株式会社 Transportation robot system equipped with three-dimensional sensor
US10053305B2 (en) 2015-05-28 2018-08-21 Kabushiki Kaisha Toshiba Article handling apparatus and method of operating the same
US10315865B2 (en) 2015-11-12 2019-06-11 Kabushiki Kaisha Toshiba Conveying device, conveying system, and conveying method
US10370201B2 (en) 2015-11-13 2019-08-06 Kabushiki Kaisha Toshiba Transporting apparatus and transporting method
JP2018103317A (en) * 2016-12-27 2018-07-05 株式会社イシダ Suction device and robot incorporating the same
US10589422B2 (en) 2017-01-11 2020-03-17 Fanuc Corporation Article conveying apparatus
US10807249B2 (en) 2018-02-22 2020-10-20 Fanuc Corporation Robot
JP2019141971A (en) * 2018-02-22 2019-08-29 ファナック株式会社 robot
US11260534B2 (en) 2018-04-04 2022-03-01 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2019181687A (en) * 2018-04-04 2019-10-24 キヤノン株式会社 Information processing device, information processing method and program
CN110497401A (en) * 2018-05-18 2019-11-26 发那科株式会社 Take out the robot system of workpiece in bulk and the control method of robot system
CN110497401B (en) * 2018-05-18 2024-05-17 发那科株式会社 Robot system for taking out bulk work and control method of robot system
JP2019217608A (en) * 2018-06-21 2019-12-26 キヤノン株式会社 Information processing device, information processing method and program
JP7107249B2 (en) 2019-02-26 2022-07-27 株式会社ダイフク Goods transfer device
US11458633B2 (en) 2019-02-26 2022-10-04 Daifuku Co., Ltd. Article transfer apparatus
TWI829874B (en) * 2019-02-26 2024-01-21 日商大福股份有限公司 Article transfer apparatus
JP2020132422A (en) * 2019-02-26 2020-08-31 株式会社ダイフク Article transfer device
CN111985293B (en) * 2019-05-21 2023-12-29 丰田自动车株式会社 Workpiece identification method
CN111985293A (en) * 2019-05-21 2020-11-24 丰田自动车株式会社 Workpiece recognition method
JP2021091036A (en) * 2019-12-10 2021-06-17 株式会社東芝 Picking robot, picking method and program
US11850748B2 (en) 2019-12-10 2023-12-26 Kabushiki Kaisha Toshiba Picking robot, picking method, and computer program product
JP7286524B2 (en) 2019-12-10 2023-06-05 株式会社東芝 Picking robot, picking method and program
JP2021183363A (en) * 2020-05-21 2021-12-02 株式会社デンソー Control device of robot and control method of robot
CN114800483B (en) * 2021-01-29 2023-12-22 精工爱普生株式会社 Robot control method and robot system
CN114800483A (en) * 2021-01-29 2022-07-29 精工爱普生株式会社 Robot control method and robot system
JP7398763B2 (en) 2021-09-01 2023-12-15 株式会社Mujin Robot system equipped with overlap processing mechanism and its operating method

Also Published As

Publication number Publication date
JP6000029B2 (en) 2016-09-28

Similar Documents

Publication Publication Date Title
JP6000029B2 (en) Handling system, handling method and program
JP6704154B2 (en) Automated package registration system, device, and method
JP6678911B1 (en) Method of operating transfer robot, system for operating transfer robot, tangible non-transitory computer readable medium
JP6710622B2 (en) Transfer device and transfer method
JP5642759B2 (en) Article take-out device and article take-out method
US20180085923A1 (en) Robot control device, robot, and robot system
CN108827154B (en) Robot non-teaching grabbing method and device and computer readable storage medium
JP2013154457A (en) Workpiece transfer system, workpiece transfer method, and program
JP6879238B2 (en) Work picking device and work picking method
JP5088278B2 (en) Object detection method, object detection apparatus, and robot system
JP2010012567A (en) Article picking device
CN112123342B (en) Robot system and measurement and control method
CN109775376A (en) The robot de-stacking method of irregular random material
CN105632997B (en) The safe pick-up method and system of silicon chip in silicon wafer carrying device
JP2022066611A (en) Information processing device, information processing method, program, and unloading system
TWI702179B (en) Fetching system and method
JP2020083584A (en) Unloading device, unloading method and program
JP2020040796A (en) Picking system
WO2022202655A1 (en) Three-dimensional measurement system
JP5332873B2 (en) Bag-like workpiece recognition device and method
US11850748B2 (en) Picking robot, picking method, and computer program product
JP7192682B2 (en) inspection system
US20230111819A1 (en) Workpiece holding apparatus, workpiece holding method, program, and control apparatus
WO2020230250A1 (en) Controller
KR20230167184A (en) Automatic grip method of probe bonding device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160518

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160830

R150 Certificate of patent or registration of utility model

Ref document number: 6000029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees