JPS63174890A - Method of recognizing body - Google Patents

Method of recognizing body

Info

Publication number
JPS63174890A
JPS63174890A JP62007912A JP791287A JPS63174890A JP S63174890 A JPS63174890 A JP S63174890A JP 62007912 A JP62007912 A JP 62007912A JP 791287 A JP791287 A JP 791287A JP S63174890 A JPS63174890 A JP S63174890A
Authority
JP
Japan
Prior art keywords
recognition
tolerance range
taken out
parts
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62007912A
Other languages
Japanese (ja)
Inventor
天野 肇
秀一 砂原
堀 秀樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP62007912A priority Critical patent/JPS63174890A/en
Publication of JPS63174890A publication Critical patent/JPS63174890A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は物体の認識方法、特に容器内にばら積み収納さ
れた物体をTV右カメラ用いて撮影しその認識取出作業
を行う物体の認識方法の改良に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an object recognition method, particularly an object recognition method in which objects stored in bulk in a container are photographed using a TV right camera, and the recognition and extraction work is performed. Regarding improvements.

[従来の技術] 容器内にばら積み収納された部品を認識しロボットハン
ドを用いて取り出すため、TV右カメラ用いた物体の認
識方法が今日広く用いられている。
[Prior Art] An object recognition method using a TV right camera is widely used today to recognize parts stored in bulk in a container and take them out using a robot hand.

このような認識は、TV右カメラ、その信号を画像処理
する装置と、を用いて行なわれており、前記画像処理装
置は、TV右カメラら出力される映像信号を二値化処理
、グレー処理又は距離画像処理などを施し前述した各種
画像の認識を行うよう形成されている。
Such recognition is performed using a TV right camera and a device that performs image processing on the signal, and the image processing device performs binarization processing and gray processing on the video signal output from the TV right camera. Alternatively, it is formed to perform distance image processing or the like to recognize the various images described above.

ところで、今日工場などの製造工程においては、その自
動化が強く望まれており、そのためのライン自動化は進
んでいるが、ラインに部品を自動供給するための物体の
認識技術が遅れており、その有効な対策が望まれていた
By the way, there is a strong desire for automation in manufacturing processes in factories today, and line automation is progressing for this purpose, but object recognition technology for automatically supplying parts to the line is lagging behind, and its effectiveness is limited. countermeasures were desired.

(・  すなわち、ラインの入口に搬入される部品、特
に鋳造部品などは、パレット内にランダムにばら積みさ
れている。このため、その中から1つ1つの部品を正確
に認識して取り出し、ラインに整列供給する作業は技術
的に極めて自動化が困難であり、このような物体の認識
取出作業は人手に頼らざるを得ないという問題があった
(In other words, parts, especially cast parts, etc., that are brought into the line entrance are randomly stacked on pallets. Therefore, each part must be accurately recognized and taken out from among them and placed on the line.) There is a problem in that the work of arranging and supplying objects is technically extremely difficult to automate, and the work of recognizing and extracting such objects must rely on manual labor.

とりわけ、このような認識取出作業は1.単調な繰返し
作業であり、また取り出す部品が重量物である場合も多
いため、この面からもその自動化が強く望まれていた。
Among other things, such recognition extraction work requires 1. Since this is a monotonous and repetitive work, and the parts to be removed are often heavy, there is a strong desire to automate this process.

このため、従来より画像処理の技術とロボット技術とを
用いたばら積み部品の取出ロボットシステムの開発が進
められており、TV右カメラ用いてパレット内の状態を
撮影し、画像処理によって取出し可能な部品の位置、姿
勢を計測する認識作業を行い、このようにして認識され
た部品の位置、姿勢データをロボットに与え、該ロボッ
トを用いてその部品を把持し定められた姿勢で製造ライ
ンに供給しようとする試みが進められている。
For this reason, the development of a robot system for picking up bulk parts using image processing technology and robot technology has been progressing. Perform recognition work to measure the position and orientation of the part, give the position and orientation data of the part recognized in this way to the robot, and use the robot to grasp the part and feed it to the production line in the determined orientation. Efforts are underway to do so.

第3図には、このようなロボットシステムの一例が示さ
れており、第4図にはこのロボットシステムに用いられ
る物体認識方法の一例が示されている。
FIG. 3 shows an example of such a robot system, and FIG. 4 shows an example of an object recognition method used in this robot system.

このロボットシステムは、パレット10内にばら積み収
納された部品12をTV左カメラ4を用いて映し出し、
その映像信号を画像処理装置16へ向は出力している。
This robot system uses a TV left camera 4 to project parts 12 stored in bulk on a pallet 10.
The video signal is outputted to the image processing device 16.

このとき、TV左カメラ4の視野内に、ロボット20の
ハンド24またアーム28がある場合には、これをTV
左カメラ4の視野外へ移動した後、物体の認識作業を開
始する。
At this time, if the hand 24 or arm 28 of the robot 20 is within the field of view of the TV left camera 4, it is
After moving out of the field of view of the left camera 4, object recognition work is started.

そして、画像処理装置16は、TV左カメラ4から入力
される映像信号に基づき、パレット10内内にばら積み
された部品から取出し可能な所望部品12の座標、形状
及び姿勢を認識し、該データをロボット制御装置18へ
向は出力している。
Based on the video signal input from the TV left camera 4, the image processing device 16 recognizes the coordinates, shape, and orientation of the desired part 12 that can be taken out from the parts stacked in bulk on the pallet 10, and uses the data. The signal is output to the robot control device 18.

すなわち、この画像処理装置16は、人力される映像信
号に画像処理を施し、パレット10内の取出し可能な部
品12の位置、姿勢を認識し、ロボットコントローラ1
8に向は認識完了信号を出力するとともに、認識した部
品12の位置、姿勢をロボット座標系の値に変換しロボ
ット制御装置18に向けて送信の準備を行う。
That is, the image processing device 16 performs image processing on a human-powered video signal, recognizes the position and orientation of the removable parts 12 in the pallet 10, and controls the robot controller 1.
8 outputs a recognition completion signal, converts the recognized position and orientation of the part 12 into values in the robot coordinate system, and prepares for transmission to the robot control device 18.

ロボット制御装置18は、前記認識完了信号が出力され
たことを確認した後、画像処理装置16から認識データ
を受信し、該データに基づき多関節ロボット20を制御
し、アーム28の先端に設けられたハンド24を用いて
当該所望部品12をパレット10から拾い上げ、コンベ
ア26上へ載置している。
After confirming that the recognition completion signal has been output, the robot control device 18 receives recognition data from the image processing device 16 and controls the articulated robot 20 based on the data. The desired part 12 is picked up from the pallet 10 using a hand 24 and placed on a conveyor 26.

すなわち、このロボット制御装置18は、画像処理装置
16からデータ、特に部品位置データを受信すると、該
データに基づきロボットハンド24を当該部品12の上
方へ移動し、その後目的とする部品12へ向は接近を開
始する。
That is, upon receiving data, particularly component position data, from the image processing device 16, the robot control device 18 moves the robot hand 24 above the component 12 based on the data, and then moves the robot hand 24 toward the target component 12. Start approaching.

このとき、ロボット制御装置18は、ロボットハンド1
8に設けられたワーク確認センサの信号を監視しながら
接近を続け、ワーク確認信号がオン(ワーク有り)とな
ったところでハンド24の接近を停止し、当該部品12
を把持する。
At this time, the robot control device 18 controls the robot hand 1.
The hand 24 continues to approach while monitoring the signal from the workpiece confirmation sensor installed at part 8, and when the workpiece confirmation signal turns on (work present), the hand 24 stops approaching and moves the hand 24 toward the part 12.
grasp.

そして、ハンド24を用いて把持された部品12を部品
供給コンベア26へ向は移動し、コンベア26上に載置
する。
Then, the component 12 gripped by the hand 24 is moved toward the component supply conveyor 26 and placed on the conveyor 26 .

このとき、このロボットシステムは、TV左カメラ4の
視野からロボット20のハンド24及びアーム28が外
れたところで、次の部品12に対する認識動作を再開し
、当該部品をパレット10からコンベア26へ向は取り
出す一連の作業を繰り返して行う。
At this time, when the hand 24 and arm 28 of the robot 20 are removed from the field of view of the TV left camera 4, the robot system resumes the recognition operation for the next part 12 and moves the part from the pallet 10 to the conveyor 26. Repeat the process of extracting the item.

[発明が解決しようとする問題点] このような従来のシステムでは、パレット10内にばら
積み収納された部品12が取出し可能であるか否かの判
断を、映像信号を画像処理して得゛られた部品寸法と、
予め設定しておいた実際の部品寸法と比較し、両者が所
定の認識許容範囲内で一致するか否かに基づき行うよう
形成されていた。
[Problems to be Solved by the Invention] In such a conventional system, a judgment as to whether or not parts 12 stored in bulk on a pallet 10 can be taken out is obtained by image processing a video signal. The part dimensions and
The actual dimensions of the component are compared with preset dimensions, and the determination is performed based on whether or not the two match within a predetermined recognition tolerance.

しかし、映像信号を画像処理することによって得られた
寸法は、パレット10内に実際に収納されている部品の
寸法と異なる場合が多く、(イ)パレット10内に他の
部品と重なり合って収納され、取出し不可能な部品12
を、誤って取出し可能と判断してしまい、ロボット20
が取り出しに行き取出作業の失敗を繰り返したり、(ロ
)パレット10内において複雑に少しずつ重なり合った
部品を、全て取出し不可能と判定してパレット10内に
取り残してしまったりする、などの結果を招き、パレッ
ト10内に収納され°た部品12を正確に認識しこれを
効率良く取出すことができず、部品12の取出供給能力
が低下する大きな原因となってしまうという問題があっ
た。
However, the dimensions obtained by image processing the video signal are often different from the dimensions of the parts actually stored in the pallet 10, and (a) some parts are stored in the pallet 10 overlapping with other parts. , unremovable parts 12
was mistakenly determined to be removable, and the robot 20
(b) The parts that overlap each other in a complicated manner little by little on the pallet 10 may be judged as impossible to take out and are left behind on the pallet 10. Therefore, there is a problem in that the parts 12 stored in the pallet 10 cannot be accurately recognized and efficiently taken out, which is a major cause of a decrease in the part 12 removal and supply capability.

本発明者らは、このような認識誤差がどのようにして発
生するかについての解析を行ったところ、次のような原
因が考えられ、以下第5図に示すシャフト形状をした部
品12を例にとりその発生原因を簡単に説明する。
The inventors analyzed how such recognition errors occur and found the following causes. Let us briefly explain the cause of this occurrence.

まず、第6図に示すように、シャフト部品12(前記第
5図に示す)がバレッ1−10の底板上(第6図におけ
るAの位置)に置かれている場合に、TV左カメラ4と
該物品12との距離がり。
First, as shown in FIG. 6, when the shaft part 12 (shown in FIG. 5) is placed on the bottom plate of the barre 1-10 (position A in FIG. 6), the TV left camera 4 and the distance between the article 12 and the article 12.

であると想定し、該パレット1oの底板からり。Assuming that, the bottom plate of the pallet 1o.

の高さを基準高さく第6図におけるBの位置)とする。Let the height be the reference height (position B in FIG. 6).

そして、/ルット10内の基準高さり。位置にシャフト
部品12が水平に置かれたとき、これをTV左カメラ4
から見た長さを1とすると、TV左カメラ4から見たシ
ャフト部品12の長さが違って見える原因は大きく分け
て次の3つの原因に分類される。
And the standard height within /rut10. When the shaft part 12 is placed horizontally in the position, the TV left camera 4
Assuming that the length seen from the TV left camera 4 is 1, the reasons why the length of the shaft component 12 looks different when seen from the TV left camera 4 can be broadly classified into the following three reasons.

■まず第1の原因は、シャフト部品12が第7図に示す
ように水平面に対し角度θだけ傾いている場合であり、
例えばシャフト部品12が基準高さり。において、水平
面に対しθM□だけ傾くと、その長さがfl cosθ
MAXと短く見えることが理解される。
■The first cause is when the shaft component 12 is tilted at an angle θ with respect to the horizontal plane, as shown in FIG.
For example, the shaft component 12 has a reference height. , when it is tilted by θM□ with respect to the horizontal plane, its length becomes fl cosθ
It is understood that it looks short as MAX.

■第2の原因としては、パレット10内に収納された各
シャフト部品12のTVガメラ14に対する距離が異な
る場合であり、例えばシャフト部品12が基準高さより
り。高い位置(第6図におけるCの位置)では、その長
さは、 J (hc−ho)/ (h。−2ho)=と長く見え
、また基準高さ位置よりり。低い位置(′:j56図に
おけるAの位置)では、J!(hc−ho)/h。
■The second cause is when the distances of the shaft parts 12 stored in the pallet 10 with respect to the TV camera 14 are different; for example, the shaft parts 12 are higher than the standard height. At a high position (position C in Fig. 6), the length appears longer as J (hc-ho)/(h.-2ho), and is also longer than the reference height position. At a low position (': position A in the j56 figure), J! (hc-ho)/h.

と短く見える。It looks short.

すなわち、シャフト部品12が、基準高さCB>より高
い位置にある場合にはTV左カメラ4から見た部品12
の長さは実際の部品の長さより長く見え、また基準高さ
くB)より低い位置にある場合には実際の部品の長さよ
り短く見えることが理解されよう。
That is, when the shaft component 12 is located at a higher position than the reference height CB, the component 12 as seen from the TV left camera 4
It will be understood that the length of B) appears to be longer than the actual length of the part, and also appears shorter than the actual length of the part if it is located lower than the reference height B).

■第3の原因としては、複数のシャフト部品12が互い
に重なり合っている場合である。
■The third cause is when a plurality of shaft parts 12 overlap each other.

例えば第8図に示すようにシャフト部品どうしが重なり
合っている場合には、実際の部品12の長さが1である
にもかかわらずTVカメラ14から見た部品の長さは1
″と誤って認識されてしまうことになる。
For example, when shaft parts overlap each other as shown in FIG. 8, the length of the part as seen from the TV camera 14 is 1 even though the actual length of the part 12 is 1.
It will be mistakenly recognized as ``.

このような■〜■の原因により発生する問題を解決する
ために、例えば映像信号を画像処理し、シャフト部品1
2の寸法1を判別する際、前記■。
In order to solve the problems caused by these causes, for example, the video signal is image-processed, and the shaft part 1
When determining dimension 1 of item 2, refer to (■) above.

■の原因により発生する誤差を見込んで、認識されたシ
ャフト部品12の寸法が実際の部品の寸法lと多少異な
っても、これを取出し可能部品と認識するような対策を
施すことも考えられる。
In anticipation of the error caused by the cause of (2), it is conceivable to take measures such that even if the recognized dimension of the shaft component 12 is somewhat different from the actual dimension 1 of the component, it is recognized as a removable component.

しかし、誤差許容範囲を±20ないし30%にとると、
結果として、前記■の原因で示したように、他の部品が
上に重なって取出し不可能な状態にある部品を誤って取
出し可能と判定してしまい、ロボットハンド24による
取出作業ミスが頻繁に発生してしまうという問題が生ず
る。
However, if the error tolerance is set to ±20 to 30%,
As a result, as shown in the cause of (■) above, a part that cannot be taken out due to overlapping other parts is mistakenly determined to be able to be taken out, and the robot hand 24 frequently makes mistakes in taking out the work. A problem arises in that this occurs.

これに対し、前記誤差許容範囲を厳しく設定すると、第
9図に示すように、幾つかのシャフト部品が互いに少し
ずつ重なり合ったり或いは立っているような場合には、
パレット1δ内に取出し可能なシャフト部品12がある
にもかかわらず、いずれの部品12も許容誤差範囲外の
短いものとして全て取出し不可能と判定し、パレット1
0内の取出し可能な部品を取り残してしまうという問題
が発生する。
On the other hand, if the error tolerance range is set strictly, as shown in FIG. 9, if some shaft parts overlap each other little by little or stand up,
Even though there are shaft parts 12 that can be taken out within the pallet 1δ, it is determined that all the parts 12 are short outside the tolerance range and cannot be taken out, and the pallet 1
A problem arises in that removable parts within 0 are left behind.

このため、従来よりこのように相反する2つの要求を同
時に満足し、パレット10内にばら積みされた部品を正
確に認識し、その取出し作業を行うことが可能な物体の
認識方法の開発が要求されていた。
For this reason, there has traditionally been a demand for the development of an object recognition method that simultaneously satisfies these two conflicting demands, that can accurately recognize parts stacked in bulk on the pallet 10, and that can perform the task of removing the parts. was.

[関連技術] 本発明の関連技術としては、特開昭59−198307
号に係る出願が知られており、この出願は棒状物体が接
触したり重なり合って散在している状態であっても適確
な判断ができる装置物体の追跡判定方法に関するもので
あり、その判定にTVカメラによって撮影された映像信
号を使用するという点においては本発明と共通するかも
しれない。
[Related technology] As a related technology to the present invention, Japanese Patent Application Laid-open No. 59-198307
This application relates to a tracking determination method for apparatus objects that can make accurate judgments even when rod-shaped objects are in contact with each other, overlap each other, and are scattered. This method may be similar to the present invention in that a video signal taken by a TV camera is used.

しかし、この出願は、棒状物体の横断位置から該棒状物
体を斜め方向に棒状物体を追跡探査することを特徴とす
るものであり、認識の対象となる物体の基準寸法に対す
る認識許容範囲を複数段階設けておき、適宜最適な許容
範囲に基づき容器内にばら積み収納された物体をロボッ
トハンドを用いて取り出す本発明とは明らかに相違する
ものである。
However, this application is characterized in that a bar-shaped object is tracked and searched diagonally from a transverse position of the bar-shaped object, and the recognition tolerance range for the reference dimension of the object to be recognized is set in multiple stages. This is clearly different from the present invention, in which a robot hand is used to take out objects stored in bulk in a container based on an appropriate and optimal tolerance range.

[発明の目的] 本発明は、このような従来の課題に鑑みなされたもので
あり、その目的は、容器内にばら積み収納された物体の
認識を正確に行い、ロボットハンドを用いてこれを効率
良く取り出すことを可能とする物体の認識方法を提供す
ることによる。
[Object of the Invention] The present invention was made in view of the above-mentioned conventional problems, and its purpose is to accurately recognize objects stored in bulk in a container and to efficiently recognize objects using a robot hand. By providing a method for recognizing objects that allows them to be easily retrieved.

[問題を解決するための手段コ 前記目的を達成するため、本発明は、容器内にばら積み
収納された物体をTVカメラを用いて撮影し、その映像
信号に基づき以下の各工程に従って容器内から取出し可
能な所望の物体を認識し、該認識物体をロボットハンド
を用いて容器外の所定位置へ取り出す一連の作業を繰り
返して行うことを特徴とする。
[Means for solving the problem] In order to achieve the above-mentioned object, the present invention uses a TV camera to photograph objects stored in bulk in a container, and based on the video signals, images are taken from inside the container according to the following steps. It is characterized by repeatedly performing a series of operations in which a desired removable object is recognized and the recognized object is taken out to a predetermined position outside the container using a robot hand.

(イ)認識対象となる物体の基準寸法に対し、最も厳し
い許容範囲、比較的緩い許容範囲、最も緩い許容範囲の
少なくとも三段階以上の認識範囲を設定しておき、映像
信号を画像処理することにより得られた物体寸法に基づ
き、ロボットハンドによって容器内から取出しすること
ができる物体が存在すると認識されるまで、その認識作
業を前記認識許容範囲を順次引き下げながら行う第1の
工程。
(b) Image processing of video signals is performed by setting recognition ranges in at least three levels: the strictest tolerance range, the relatively loose tolerance range, and the loosest tolerance range, with respect to the standard dimensions of the object to be recognized. A first step in which the recognition work is performed while sequentially lowering the recognition tolerance range until it is recognized that there is an object that can be taken out from the container by the robot hand, based on the object dimensions obtained by the robot hand.

(ロ)前記第1の工程において、 最も厳しい認識許容範囲に基づき、取出し可能な物体が
存在すると判断された場合には、当該物体をロボットハ
ンドを用いて容器外の所定位置へ取り出し、その後前記
第1の工程に戻り同様の作業を繰り返して行い、 また比較的緩い認識許容基準に基づき、取出し可能な物
体が存在すると判断された場合には、当該物体をロボッ
トハンドを用いて容器外の所定位置へ取り出すとともに
、該取出物体の認識作業時に得られた物体寸法が、前記
各許容範囲のいずれに該当するかの判断を行い、その後
前記第1の工程に戻り、判断された許容範囲から次の物
体に対する認識作業を再開させる第2の工程。
(b) In the first step, if it is determined that there is an object that can be taken out based on the strictest recognition tolerance, the object is taken out to a predetermined position outside the container using a robot hand, and then the Returning to the first step, the same operation is repeated, and if it is determined that there is an object that can be taken out based on the relatively loose recognition acceptance criteria, the object is moved to a predetermined location outside the container using a robot hand. At the same time, it is determined which of the above-mentioned tolerance ranges the object dimensions obtained during the recognition process of the taken-out object correspond to, and then the process returns to the first step and the next step is performed from the determined tolerance range. The second step is to restart the recognition task for the object.

(ハ)前記第1の工程において、 最も緩い認識許容範囲に基づき、取出し可能な物体が存
在すると認識された場合には、ロボットハンドを用いて
その物体の取出撹拌作業を行うとともに、 該取出撹拌物体の認識作業時に得られた物体寸法が、前
記各許容範囲のいずれに該当するかの判断を行い、その
後前記第1の工程に戻り、判断された許容範囲から次の
物体に対する認識作業を再開させ、 また前記第1の工程において、最も緩い認識許容範囲に
基づいても取出し可能な物体が存在しな゛いと認識され
た場合には、物体の認識作業を終了する第3の工程。
(c) In the first step, if it is recognized that there is an object that can be taken out based on the loosest recognition tolerance, a robot hand is used to take out and stir the object, and the removal and stirring It is determined which of the above-mentioned tolerance ranges the object dimensions obtained during object recognition work fall under, and then the process returns to the first step and restarts the recognition work for the next object from the determined tolerance range. and a third step of terminating the object recognition task if it is recognized in the first step that there is no retrievable object even based on the loosest recognition tolerance range.

[作用] このように、本発明によれば物体の認識許容範囲を状況
に合わせて流動的に設定することにより、それぞれの条
件下で最も取り出しやすい物体から順に取り出す畳とが
でき、その取出作業を確実かつ効率的に行うことができ
る。
[Operation] As described above, according to the present invention, by fluidly setting the permissible object recognition range according to the situation, it is possible to sequentially take out objects starting from the one that is easiest to take out under each condition. can be carried out reliably and efficiently.

また、従来であれば容器内に取出し可能な物体がなくな
ったと判定されるような場合でも、ロボットハンドを用
いて物体をかきまぜることによって、物体どうしが絡み
合った状態を解消し、容器内に収納された物体を取出可
能な状態にすること°ができ、これにより容器内に取出
し可能な物体が収納されているにもかかわらず、これを
取り残すような作業ミスの発生を防止することができる
In addition, even when conventionally it would be determined that there are no more removable objects in the container, by stirring the objects using a robot hand, the objects can be untangled and stored in the container. This makes it possible to make a removable object removable, thereby preventing work errors such as leaving a removable object behind even though the removable object is stored in the container.

[実施例〕 次に本発明に係る物体の認識方法を、前記第3図に示す
ばら積み部品取出しロボットシステムに適用した場合を
例にとり説明する。なお前記第3図ないし第9図に対応
する部材には同一符号を付しその説明は省略する。
[Embodiment] Next, the object recognition method according to the present invention will be explained by taking as an example the case where it is applied to the bulk parts retrieval robot system shown in FIG. 3. Components corresponding to those shown in FIGS. 3 to 9 are designated by the same reference numerals, and their explanations will be omitted.

本実施例のシステムは、パレット10内にばら積み収納
されたシャフト部品12をTV左カメラ4を用いて撮影
し、この映像信号を画像処理して認識したシャフト部品
12がロボットによって取出し可能であるか否かを判定
し、取出し可能部品12をロボットハンド24を用いて
パレット10からコンベア26上に取り出すよう形成さ
れている。
The system of this embodiment photographs the shaft parts 12 stored in bulk on a pallet 10 using the TV left camera 4, and processes this video signal to determine whether the shaft parts 12 recognized can be taken out by a robot. The robot hand 24 is configured to take out the removable parts 12 from the pallet 10 onto a conveyor 26 by using a robot hand 24.

本発明において、パレット10内のシャフト部品12が
取出し可能であるか否かの判定は、映像信号により画像
処理して認識されたシャフト部品12の全体の長さ、す
なわち第5図に示すように、シャフト部品12の円筒形
状部分の長さが予め設定された物体の認識許容範囲にお
さまるか否かに基づき行っている。
In the present invention, the determination as to whether or not the shaft component 12 in the pallet 10 can be taken out is based on the entire length of the shaft component 12 recognized through image processing using a video signal, that is, as shown in FIG. , based on whether the length of the cylindrical portion of the shaft component 12 falls within a preset object recognition tolerance range.

しかし、前述したようにTV左カメラ4から見ると、仮
に部品12の全体が見えていても、既に述べたように、 (1)TV左カメラ4から部品12までの距離、(2)
部品12の傾き、 によって部品12の円筒部分の長さは異なって見える。
However, as mentioned above, even if the entire part 12 is visible when viewed from the TV left camera 4, as already mentioned, (1) the distance from the TV left camera 4 to the part 12, (2)
The length of the cylindrical portion of the component 12 appears to be different depending on the inclination of the component 12.

このため、本実施例のシステムにおいても、第6図に示
すように、深さdのパレット10の底面からh の位置
にTV左カメラ4を設置し、パレツー・の底からhoの
高さを基準高さく第6図のBの位置)とし、この基準高
さ位置に水平に設置されたシャフト部品12の長さJを
基準長さとして画像処理装置16内に予め登録しておく
For this reason, in the system of this embodiment, as shown in FIG. The reference height is set to the position B in FIG. 6), and the length J of the shaft component 12 installed horizontally at this reference height position is registered in advance in the image processing device 16 as the reference length.

また、本発明者は、パレット10内にばら積み収納され
た部品12が水平面に対し最大σMAXまで傾いてもロ
ボットハンド24により取出し可能である場合に、TV
右カメラ4から見た取出し可能なシャフト部品12の寸
法はどのように変化するかについての解析を行った。
Further, the present inventor has proposed that when the parts 12 stored in bulk in the pallet 10 can be taken out by the robot hand 24 even if the parts 12 are tilted up to the maximum σMAX with respect to the horizontal plane, the TV
An analysis was performed on how the dimensions of the removable shaft component 12 as seen from the right camera 4 change.

第2図には、この解析結果が示されており、同図におい
て横軸はパレット10内におけるシャフト部品12の収
納位置(高さ)を表し、縦軸はTV右カメラ4から見た
シャフト部品12の寸法が表されている。
The results of this analysis are shown in FIG. 2, in which the horizontal axis represents the storage position (height) of the shaft component 12 within the pallet 10, and the vertical axis represents the shaft component as viewed from the TV right camera 4. Twelve dimensions are shown.

同図において、ロボットハンド24により取出し可能な
シャフト部品12は、同図において斜線で示される範囲
をとることが幾何学的関係から容易に求められる。また
、パレット内におけるシャフト部品12の収納位置が低
くなると、その一端がパレット10の底に当たるので、
とり得る傾き角が小さくなることも同図に示さ杵ている
In the figure, the shaft component 12 that can be taken out by the robot hand 24 can be easily determined from geometrical relationships to occupy the range shown by diagonal lines in the figure. Moreover, when the storage position of the shaft component 12 in the pallet is lowered, one end of the shaft component 12 hits the bottom of the pallet 10.
The same figure also shows that the possible inclination angle becomes smaller.

本発明にかかる物体認識方法の第1の特徴的事項は、シ
ャフト部品12の基準寸法1に対する認識許容範囲を複
数段階設けておき、対象となるシャフト部品12が認識
されるまで前記許容範囲の段階を順次下げながらシャフ
ト部品12の認識を行うことにある。
The first characteristic feature of the object recognition method according to the present invention is that a plurality of recognition tolerance ranges are provided for the reference dimension 1 of the shaft component 12, and the recognition tolerance range is set in multiple stages until the target shaft component 12 is recognized. The purpose is to recognize the shaft parts 12 while lowering them sequentially.

本実施例においては、画像処理装置16の認識した部品
12が取出し可能であるかを判定するために、長さの許
容範囲を次にように三段階設けている。
In this embodiment, in order to determine whether the part 12 recognized by the image processing device 16 can be taken out, three allowable length ranges are provided as follows.

(イ)許容範囲1 ;  (J!−0)ないしくj!+
a)の範囲 (第2図においてAで示される範囲) (ロ)許容範囲2 ;  (J!−b)ないしくJ!+
a)(第2図においてBで示す範囲) (ハ)許容範囲3;ロボットハンドの幅W以上でかつ(
Jl+a)以下の範囲 そして、これら三段階の許容範囲を状況に応じて切り替
えながら部品12の認識作業を進める。
(a) Tolerance range 1; (J!-0) or j! +
Range a) (range indicated by A in Figure 2) (b) Tolerance range 2; (J!-b) or J! +
a) (Range indicated by B in Figure 2) (c) Tolerance range 3: Width W of the robot hand or more and (
Jl+a) The recognition work for the part 12 is continued while switching between these three levels of allowable ranges depending on the situation.

第1図には、本発明に係る物体の認識方法の好適な一例
が示されており、実施例によればまず一番厳しい認識許
容範囲1を選択しくステップ1)、パレット10から取
出し可能な部品12があるか否かの認識作業を行う(ス
テップ2.3)。
FIG. 1 shows a preferred example of the object recognition method according to the present invention. A recognition operation is performed to determine whether or not there is a part 12 (step 2.3).

そして、取出し可能な部品12があると認識された場合
には、ロボットハンド24を用いて当該部品12の取出
作業を行い(ステップ4)、しかもこのような一連の物
品認識取出作業(ステップ2.3.4)を、許容範囲1
に基づき取出し可能な部品12がなくなったと判断され
るまで繰り返して行う。
When it is recognized that there is a part 12 that can be taken out, the robot hand 24 is used to take out the part 12 (step 4), and a series of such article recognition and removal work (step 2. 3.4), tolerance range 1
This process is repeated until it is determined that there are no more parts 12 that can be taken out.

ここにおいて、前記許容範囲1に基づき取出し可能と判
断される部品12は、第2図のAの範囲に示される長さ
を有する部品、すなわちパレット10内の基準高さり。
Here, the part 12 that is determined to be removable based on the tolerance range 1 is a part having a length shown in the range A in FIG. 2, that is, the reference height within the pallet 10.

におかれた部品の長さ1よりも長い部品のみであり、従
って前記許容範囲1に基づき認識取出作業が行なわれる
部品12は、パレット10内において基準高さhoより
高い位置にありかつ傾きの小さい取出しの容易なものの
みが対象となることが理解される。
Therefore, the parts 12 that are longer than the length 1 of the parts placed on the pallet 10 and for which the recognition and extraction work is performed based on the above-mentioned tolerance range 1 are located at a position higher than the reference height ho in the pallet 10 and have a slope. It is understood that only small and easily removable items are covered.

このようにして、本発明によれば、パレット10内にば
ら積みされた部品12から、パレット10の上の方に積
まれた部品でかつ傾きの小さな、確実に取り出せるもの
から順に取り出すという極めて合理的な作業が可能とな
り、部品の取出しミスを大幅に減らしその作業効率を上
げることが可能となる。
In this way, according to the present invention, from the parts 12 stacked in bulk on the pallet 10, parts stacked at the top of the pallet 10, with a small inclination, and which can be taken out reliably are taken out in order, which is extremely rational. This makes it possible to greatly reduce parts removal errors and improve work efficiency.

そして、許容範囲1に基づく認識作業では、もはや取出
し可能な部品12かみつからないと判断された場合(ス
テップ3)には、次にその許容範囲を1ランク下げ、許
容範囲2に基づき取出し可能な部品が存在するか否かの
認識を行う(ステップ5.6)。
Then, in the recognition work based on tolerance range 1, if it is determined that the removable parts 12 are no longer found (step 3), the tolerance range is lowered by one rank, and the removable parts 12 are no longer found based on tolerance range 2. It is determined whether the part exists or not (step 5.6).

そして、取出し可能な部品12が存在すると認識された
場合(ステップ7)には、ロボットハンド24を用いて
同様に当該部品の取出作業を行う(ステップ8)。
If it is recognized that there is a part 12 that can be taken out (step 7), the robot hand 24 is used to similarly take out the part (step 8).

ここにおいて、前記許容範囲2に基づき取出し可能であ
ると判断される部品12は、第2図においてBの範囲に
示される長さの部品である。従って、この種の部品は、
パレット10内のあらゆる高さ位置にまんべんなく存在
し、しかもその傾き角θがロボットハンド24の制約か
ら決まる最大傾き角OMAX以内のものであることが理
解されよう。
Here, the part 12 that is determined to be removable based on the allowable range 2 is a part with a length shown in the range B in FIG. Therefore, this kind of parts are
It will be understood that they exist evenly at all height positions within the pallet 10, and that their inclination angle θ is within the maximum inclination angle OMAX determined by the constraints of the robot hand 24.

そして、許容範囲2に基づき取出し可能と判断された部
品12に対する取出作業が終了すると、該取出作業時に
ロボットハンド24が他の部品にぶつかったり、部品が
互いにぶつかり合ったりすることにより、互いに重なり
合ったり又は立ったりしている部品どうしの荷姿が変化
し、パレット10内に取り出しやすい姿勢の部品12が
現れることも考えられる。
When the extraction work for the component 12 that has been determined to be removable based on the tolerance range 2 is completed, the robot hand 24 collides with other parts during the extraction operation, or the parts collide with each other, causing the parts to overlap each other. Alternatively, it is conceivable that the packaging state of the parts that are standing may change, and the parts 12 may appear in the pallet 10 in a position that is easier to take out.

本発明の第2の特徴的事項は、このような点に若目し物
体の認識取出作業を行うようにしたことにある。
The second characteristic feature of the present invention is that the object recognition and extraction work is performed with a view to this point.

すなわち、一番厳しい許容範囲以外の許容範囲(実施例
においては許容範囲2、許容範囲3)に基づき部品の認
識取出作業が行われた場合には、その認識作業時に得ら
れた部品12の寸法(画像処理により得られた寸法)が
、前記許容範囲1.2、または3のいずれに該当するか
を判断する(ステップ9、ステップ15、ステップ16
)。
In other words, if the part recognition and extraction work is performed based on a tolerance range other than the strictest tolerance range (tolerance range 2 and tolerance range 3 in the example), the dimensions of the part 12 obtained during the recognition work are (dimensions obtained by image processing) falls within the tolerance range 1.2 or 3 (step 9, step 15, step 16).
).

その後、次の部品12に対する認識取出作業を、このよ
うにして判断された許容範囲から開始することを特徴と
するものである。
Thereafter, the recognition and extraction work for the next part 12 is started from the allowable range determined in this way.

実施例においては、許容範囲2に基づく部品の認識取出
作業(ステップ6.7)を実行する際、取出の対象とな
る部品12の長さを一時的に記憶しておく。
In the embodiment, when performing the component recognition and extraction work (step 6.7) based on the tolerance range 2, the length of the component 12 to be extracted is temporarily stored.

そして、当該部品の認識取出作業が終了すると(ステッ
プ8)、次に取り出された部品12の長さが許容範囲1
に属するか否かを判断する(ステップ9)。
When the recognition and extraction work for the part is completed (step 8), the length of the next extracted part 12 is within the tolerance range 1.
(Step 9).

この結果、許容範囲1に属する長さの部品12が存在し
ないと判断された場合には、許容範囲2に基づく認識取
出作業(ステップ6.7.8)を同様にして行い、この
取出作業終了後、取り出された部品12の長さが許容範
囲1に属するか否かの判断を行う(ステップ9)。
As a result, if it is determined that there is no part 12 with a length that belongs to tolerance range 1, the recognition and extraction work based on tolerance range 2 (step 6.7.8) is performed in the same way, and this extraction work is completed. Thereafter, it is determined whether the length of the part 12 taken out falls within the tolerance range 1 (step 9).

本実施例によれば、このような一連の作業を繰り返して
行い、パレット10から許容範囲2に基づき認識された
部品12を順次取り出していく。
According to this embodiment, such a series of operations is repeated to sequentially take out the parts 12 recognized based on the tolerance range 2 from the pallet 10.

ところで、このようにして部品12の取出作業を続行し
ていくと、前述したようにパレット10内の荷姿が次第
に変化していき、パレット10内に、より取り出しやす
い姿勢の部品12が現れることが多い。
By the way, as the work to take out the parts 12 is continued in this way, the packaging condition inside the pallet 10 gradually changes as described above, and parts 12 in positions that are easier to take out appear on the pallet 10. There are many.

本発明によれば、取り出された部品12が許容範囲1に
属するか否かの判断をも同時に行っているため(ステッ
プ9)、パレット10内の荷姿が変化しより取り出しや
すい姿勢の部品12が現れると、次の認識作業は1ラン
ク上の許容範囲、すなわち許容範囲1に基づき行われる
ことになる。
According to the present invention, since it is also determined at the same time whether or not the removed part 12 belongs to the tolerance range 1 (step 9), the packing appearance in the pallet 10 changes and the part 12 is placed in a position that makes it easier to take out the part 12. appears, the next recognition task will be performed based on the tolerance range one rank higher, that is, tolerance range 1.

従って、この場合にはパレット10内にばら積みされた
部品12から、パレット10の上の方に積まれた部品で
かつ傾きの小さな、確実に取り出せるものから順に取り
出すという極めて合理的な作業を再開することができ、
その作業効率を更に高めることが可能となる。
Therefore, in this case, we restart the extremely rational work of taking out the parts 12 stacked in bulk on the pallet 10 in order of parts that are stacked at the top of the pallet 10, have a small slope, and can be taken out reliably. It is possible,
It becomes possible to further improve the work efficiency.

また、実施例の認識方法によれば、許容範囲2に基づく
認識によっても、取出し可能な部品12が存在しないと
判断された場合(ステップ7)には、更に認識レベルを
1ランク下げ、許容範囲3に基づき取出し可能な部品1
2が存在するか否かの認識作業を行う(ステップ11)
Further, according to the recognition method of the embodiment, if it is determined that there is no removable part 12 even by recognition based on the tolerance range 2 (step 7), the recognition level is further lowered by one rank, and the recognition level is further lowered by one rank. Parts 1 that can be removed based on 3.
Perform recognition work to determine whether or not 2 exists (step 11)
.

すなわち、許容範囲2に基づき取出し可能な部品12が
存在しないと判断されるような場合は、パレット10内
に収納されている部品12が第9図に示すように互いに
重なり合ったり立ったりしているような場合か、或いは
パレット10からすべての部品を取りつくしてしまった
場合かのいずれかである。
That is, if it is determined that there are no parts 12 that can be taken out based on the tolerance range 2, the parts 12 stored in the pallet 10 may overlap or stand on top of each other as shown in FIG. Either this is the case, or all the parts from the pallet 10 have been used up.

このため、本実施例によれば、このような場合に一旦物
品の認識レベルを1ランク下げ、許容範囲3を選択し取
出し可能な物品が存在するか否かの認識を行う(ステッ
プ11.12.13)。
Therefore, according to the present embodiment, in such a case, the recognition level of the article is lowered by one rank, the tolerance range 3 is selected, and it is recognized whether or not there is an article that can be taken out (steps 11 and 12). .13).

この認識範囲3は、パレット10内に部品のほんの一部
でも見えていれば取出し可能と判断するよう設定されて
いるため、この許容範囲3で取出し可能な部品が存在し
ないと判断された場合には(ステップ13)、パレット
10内に既に部品12が存在しない場合であり、このよ
うな場合には速やかに物品の認識取出し作業を終了する
This recognition range 3 is set so that if even a small part of a part is visible in the pallet 10, it is determined that it can be taken out, so if it is determined that there is no part that can be taken out within this tolerance range 3, (Step 13) is a case where there is no component 12 already in the pallet 10, and in such a case, the article recognition and extraction work is promptly completed.

また、許容範囲3に基づき取出し可能と判断される部品
12が存在すると認識された場合には(ステップ13)
、ロボットハンド24は当該部品を取り出しに行く (
ステップ14)。
Further, if it is recognized that there is a part 12 that is determined to be removable based on the tolerance range 3 (step 13)
, the robot hand 24 goes to take out the part (
Step 14).

この場合、取出し可能であると判断された部品は、実際
にはパレット10内において重なり合ったり、立ったり
しているため、ロボットハンド24による取出し作業は
必ずしも成功しないが、その取出し作業時に部品の山を
崩し、その荷姿を部品12の取出しが容易な形に変化さ
せることができる。
In this case, the parts that are judged to be removable actually overlap or stand on the pallet 10, so the retrieval operation by the robot hand 24 is not necessarily successful; It is possible to change the packing form into a shape that makes it easy to take out the parts 12.

特に、この許容範囲3に基づき取出し可能と判断された
部品12をロボットハンド24を用いて取出す場合には
、前記許容範囲1、許容範囲2の場合とは異なり、部品
12自体を撹拌するようロボットハンド24を制御する
ことが好ましく、このようにすることにより部品の荷姿
を大きく変化させパレット10内に収納された部品を取
出し容易なものとすることができる。
In particular, when the robot hand 24 is used to take out the component 12 that has been determined to be removable based on the tolerance range 3, unlike the cases of the tolerance range 1 and tolerance range 2, the robot stirs the component 12 itself. It is preferable to control the hand 24, and by doing so, the packing form of the parts can be greatly changed and the parts stored in the pallet 10 can be easily taken out.

そして、このような許容範囲3に基づく部品の認識取出
作業が終了した場合には、この認識取出作業時に画像処
理により求められた部品12の寸法が、許容範囲1に属
するか、許容範囲2に属するかあるいは許容範囲3に属
するかの判断を行う(ステップ15.16)。
When the part recognition and extraction work based on the tolerance range 3 is completed, the dimensions of the part 12 determined by image processing during the recognition and extraction work belong to the tolerance range 1 or fall within the tolerance range 2. A judgment is made as to whether it belongs to the tolerance range 3 or not (steps 15 and 16).

そして、前回取り出した部品12が許容範囲3に属する
と判断された場合には、前述したようにステップ12な
いし15の一連の認識取出作業を繰り返して行う。
If it is determined that the previously extracted component 12 falls within the tolerance range 3, the series of recognition and extraction operations in steps 12 to 15 are repeated as described above.

また、許容範囲2に属すると判断された場合には、許容
範囲を1ランク上げ、ステップ5ないし9で示すように
許容範囲2に基づく物品の認識取出作業を同様にして行
う。
If it is determined that the item belongs to tolerance range 2, the tolerance range is raised by one rank, and the recognition and extraction work for the article based on tolerance range 2 is performed in the same manner as shown in steps 5 to 9.

また、許容範囲1に属すると判断された場合には、許容
範囲を2ランク上げ、ステップ1ないし4に示すように
許容範囲1に基づく、一連の認識取出作業をおこなう。
Further, if it is determined that the object belongs to the tolerance range 1, the tolerance range is raised by two ranks, and a series of recognition extraction operations based on the tolerance range 1 are performed as shown in steps 1 to 4.

このように、本発明の認識方法によれば、認識の対象と
なる物品の基準寸法に対する認識許容範囲を少なくとも
三段階以上設けておき、常に一番厳しい認識許容範囲か
ら順次許容範囲を下げながら取出しが可能な物品が存在
するか否かの認識を行うため、パレット10内にばら積
みされた部品12の中から、上のほうに積まれかつ傾き
の小さな部品、すなわち確実に取り出せる部品から順に
その取出作業を行うという極めて合理的な作業が可能と
なり、部品の取出しミスが大幅に減少することが理解さ
れよう。
As described above, according to the recognition method of the present invention, at least three or more recognition tolerance ranges are set for the reference dimensions of the object to be recognized, and the recognition tolerance range is always lowered from the strictest recognition tolerance range in order. In order to recognize whether or not there are items that can be removed, the parts 12 stacked in bulk on the pallet 10 are taken out in order from the parts 12 that are stacked on top and have a small slope, that is, the parts that can be taken out reliably. It will be understood that this makes it possible to carry out the work in an extremely rational manner, and that errors in taking out parts are greatly reduced.

更に、本発明によれば、パレット10から部品12が容
易に取出しできないような状況になった場合、すなわち
実施例においては許容範囲3に基づいてしか取出し可能
な部品が認識できなくなったような場合には、ロボット
ハンド24を用いてパレット10内の部品の山をかきま
ぜ取出し容易な荷姿を作りだすことができるため、パレ
ット10内に存在する物品の認識取出作業を確実かつ効
率的に行うことが可能となり、特にパレット10内に部
品12が完全になくなるまでその認識取出作業を行うこ
とができるという優れた効果を発揮することができる。
Further, according to the present invention, when a situation arises in which the parts 12 cannot be easily taken out from the pallet 10, that is, in the embodiment, when parts that can be taken out only based on the tolerance range 3 can be recognized. Since the robot hand 24 can be used to stir the pile of parts on the pallet 10 to create a package that is easy to take out, it is possible to recognize and take out the items present on the pallet 10 reliably and efficiently. In particular, it is possible to achieve an excellent effect in that the recognition and extraction work can be performed until the parts 12 are completely removed from the pallet 10.

従って、本発明の方法を第3図に示すようなロボットシ
ステムに適用することにより、コンベア26への部品供
給タイムサイクルを短縮することができ、また取出しミ
スの減少により取出周期が一定になる。この結果、コン
ベア26を介して生産ラインに部品を供給する場合に、
後工程と同期するための余分なバッファや、取出し能力
の余裕度の設定が容易になり、生産ラインにおけるコス
ト低減に大幅に寄与することが可能となる。
Therefore, by applying the method of the present invention to a robot system such as that shown in FIG. 3, the time cycle for supplying parts to the conveyor 26 can be shortened, and the unloading errors can be reduced to make the unloading cycle constant. As a result, when supplying parts to the production line via the conveyor 26,
It becomes easy to set extra buffers for synchronization with post-processing and allowances for takeout capacity, making it possible to significantly contribute to cost reduction on the production line.

更に、本発明によれば、パレット10内に取出しができ
ずに残ってしまう部品12がほとんどなくなるため、例
えば第3図に示すようなロボットシステムでは、コンベ
ア26に対する部品供給能力を大幅に高めることが可能
となる。
Furthermore, according to the present invention, there are almost no parts 12 left on the pallet 10 that cannot be taken out, so in a robot system as shown in FIG. 3, for example, the ability to supply parts to the conveyor 26 can be greatly increased. becomes possible.

なお、本実施例においては、認識の対象として、パレッ
ト10内にばら積み収納されたシャフト部品を例にとり
説明したが、本発明はこれに限らず、これ以外の形状を
した他の物品の認識作業も同様に行うことができる。
In this embodiment, shaft parts stored in bulk on a pallet 10 are used as an example to be recognized. However, the present invention is not limited to this, and can be applied to recognition work for other objects having shapes other than this. can be done similarly.

また、本実施例においては、物品に対する認識許容範囲
を三段階設けた場合を例にとり説明したが、本発明はこ
れに限らず、必要に応じて認識許容段階を四段階以上設
けることも可能である。
Furthermore, in this embodiment, the case where the recognition tolerance range for an article is provided in three stages is explained as an example, but the present invention is not limited to this, and it is also possible to provide four or more recognition tolerance stages as necessary. be.

[発明の効果コ 以上説明したように、本発明によれば、容器内にばら積
み収納された物品の認識を正確に行い、ロボットハンド
を用いてこれを効率良く取り出すことができるため、各
種生産設備及びその他の用途に幅広く用いることができ
、特に製造工程における自動化を図る上で極めて効果的
なものとなる。
[Effects of the Invention] As explained above, according to the present invention, it is possible to accurately recognize articles stored in bulk in a container and efficiently take them out using a robot hand. It can be used for a wide range of purposes, and is particularly effective in automating manufacturing processes.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る物品の認識方法の好適な実施例を
示すフローチャート図、 第2図は本実施例において用いられる認識許容範囲の説
明図、 第3図は本発明の方法が適用されるばら積み部品取出し
ロボットシステムの説明図、 第4図は第3図に示すロボットシステムの一般動作を示
すフローチャート図、 第5図は取出し対象となる物品の一例を示す説明図、 第6図は画像処理により認識される物品の長さがTV左
カメラらの距離によりどのように変化するかを表す説明
図、 第7図ないし第9図は第3図に示すパレット内にばら積
み収納された部品の状態を示す説明図である。 10 ・・・パレット 12 ・・・ 部品 14 ・・・ TV左カメ ラ6 ・・・ 画像処理装置 18 ・・・ ロボット制御装置 20 ・・・ ロボット 24 ・・・ ロボットハンド 26 ・・・ コンベア 28 ・・・ アーム 第3図 第4図
FIG. 1 is a flowchart showing a preferred embodiment of the article recognition method according to the present invention, FIG. 2 is an explanatory diagram of the recognition tolerance range used in this embodiment, and FIG. 3 is a flow chart showing a preferred embodiment of the article recognition method according to the present invention. An explanatory diagram of a robot system for taking out parts from a bulk stack; Figure 4 is a flowchart showing the general operation of the robot system shown in Figure 3; Figure 5 is an explanatory diagram showing an example of an article to be taken out; Figure 6 is an image. An explanatory diagram showing how the length of the object recognized through processing changes depending on the distance from the TV left camera. Figures 7 to 9 show parts stored in bulk on the pallet shown in Figure 3. It is an explanatory diagram showing a state. 10 ... Pallet 12 ... Parts 14 ... TV left camera 6 ... Image processing device 18 ... Robot control device 20 ... Robot 24 ... Robot hand 26 ... Conveyor 28 ...・Arm Fig. 3 Fig. 4

Claims (1)

【特許請求の範囲】[Claims] (1)容器内にばら積み収納された物体をTVカメラを
用いて撮影し、その映像信号に基づき以下の各工程に従
って容器内から取出し可能な所望の物体を認識し、該認
識物体をロボットハンドを用いて容器外の所定位置へ取
り出す一連の作業を繰り返して行うことを特徴とする物
体の認識方法。 (イ)認識対象となる物体の基準寸法に対し、最も厳し
い許容範囲、比較的緩い許容範囲、最も緩い許容範囲の
少なくとも三段階以上の認識範囲を設定しておき、映像
信号を画像処理することにより得られた物体寸法に基づ
き、ロボットハンドによって容器内から取出しすること
ができる物体が存在すると認識されるまで、その認識作
業を前記認識許容範囲を順次引き下げながら行う第1の
工程。 (ロ)前記第1の工程において、 最も厳しい認識許容範囲に基づき、取出し可能な物体が
存在すると判断された場合には、当該物体をロボットハ
ンドを用いて容器外の所定位置へ取り出し、その後前記
第1の工程に戻り同様の作業を繰り返して行い、 また比較的緩い認識許容基準に基づき、取出し可能な物
体が存在すると判断された場合には、当該物体をロボッ
トハンドを用いて容器外の所定位置へ取り出すとともに
、該取出物体の認識作業時に得られた物体寸法が、前記
各許容範囲のいずれに該当するかの判断を行い、その後
前記第1の工程に戻り、判断された許容範囲から次の物
体に対する認識作業を再開させる第2の工程。 (ハ)前記第1の工程において、 最も緩い認識許容範囲に基づき、取出し可能な物体が存
在すると認識された場合には、ロボットハンドを用いて
その物体の取出撹拌作業を行うとともに、 該取出撹拌物体の認識作業時に得られた物体寸法が、前
記各許容範囲のいずれに該当するかの判断を行い、その
後前記第1の工程に戻り、判断された許容範囲から次の
物体に対する認識作業を再開させ、 また前記第1の工程において、最も緩い認識許容範囲に
基づいても取出し可能な物体が存在しないと認識された
場合には、物体の認識作業を終了する第3の工程。
(1) Objects stored in bulk in a container are photographed using a TV camera, and based on the video signal, a desired object that can be taken out from the container is recognized according to the following steps, and the recognized object is transferred to a robot hand. A method for recognizing an object, the method comprising repeatedly performing a series of operations in which an object is used and taken out to a predetermined position outside a container. (b) Image processing of video signals is performed by setting recognition ranges in at least three levels: the strictest tolerance range, the relatively loose tolerance range, and the loosest tolerance range, with respect to the standard dimensions of the object to be recognized. A first step in which the recognition work is performed while sequentially lowering the recognition tolerance range until it is recognized that there is an object that can be taken out from the container by the robot hand, based on the object dimensions obtained by the robot hand. (b) In the first step, if it is determined that there is an object that can be taken out based on the strictest recognition tolerance, the object is taken out to a predetermined position outside the container using a robot hand, and then the Returning to the first step, the same operation is repeated, and if it is determined that there is an object that can be taken out based on the relatively loose recognition acceptance criteria, the object is moved to a predetermined location outside the container using a robot hand. At the same time, it is determined which of the above-mentioned tolerance ranges the object dimensions obtained during the recognition process of the taken-out object correspond to, and then the process returns to the first step and the next step is performed from the determined tolerance range. The second step is to restart the recognition task for the object. (c) In the first step, if it is recognized that there is an object that can be taken out based on the loosest recognition tolerance, a robot hand is used to take out and stir the object, and the removal and stirring It is determined which of the above-mentioned tolerance ranges the object dimensions obtained during object recognition work fall under, and then the process returns to the first step and restarts the recognition work for the next object from the determined tolerance range. and a third step of terminating the object recognition task if it is recognized in the first step that there is no retrievable object even based on the loosest recognition tolerance range.
JP62007912A 1987-01-16 1987-01-16 Method of recognizing body Pending JPS63174890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62007912A JPS63174890A (en) 1987-01-16 1987-01-16 Method of recognizing body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62007912A JPS63174890A (en) 1987-01-16 1987-01-16 Method of recognizing body

Publications (1)

Publication Number Publication Date
JPS63174890A true JPS63174890A (en) 1988-07-19

Family

ID=11678752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62007912A Pending JPS63174890A (en) 1987-01-16 1987-01-16 Method of recognizing body

Country Status (1)

Country Link
JP (1) JPS63174890A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179669A (en) * 1999-12-21 2001-07-03 Meidensha Corp Control device for robot
JP2005111619A (en) * 2003-10-08 2005-04-28 Tsubakimoto Chain Co Method and apparatus for arranging article
JP2010012567A (en) * 2008-07-04 2010-01-21 Fanuc Ltd Article picking device
JP2020163502A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Object detection method, object detection device, and robot system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179669A (en) * 1999-12-21 2001-07-03 Meidensha Corp Control device for robot
JP2005111619A (en) * 2003-10-08 2005-04-28 Tsubakimoto Chain Co Method and apparatus for arranging article
JP2010012567A (en) * 2008-07-04 2010-01-21 Fanuc Ltd Article picking device
US8295975B2 (en) 2008-07-04 2012-10-23 Fanuc Ltd Object picking device
JP2020163502A (en) * 2019-03-28 2020-10-08 セイコーエプソン株式会社 Object detection method, object detection device, and robot system

Similar Documents

Publication Publication Date Title
JP4199264B2 (en) Work picking apparatus and method
EP1413404A2 (en) Object conveying system and conveying method using two robots
CA2887261C (en) Vision-assisted system and method for picking of rubber bales in a bin
JP4655309B2 (en) Picking order determination method, apparatus and program thereof, and picking system
JP6088563B2 (en) Work picking robot system having position and orientation conversion operation function, and work picking method
JP2012024903A (en) Workpiece removing device and workpiece removing method
JP2008087074A (en) Workpiece picking apparatus
EP2581178A1 (en) Workpiece takeout system, robot apparatus, and method for producing a to-be-processed material
JP2007203406A (en) Workpiece take-out device
JP2010120141A (en) Picking device for workpieces loaded in bulk and method for controlling the same
CN109592433B (en) Goods unstacking method, device and system
US20240043227A1 (en) Depalletizer system and controlling method for the same
EP4032663A1 (en) Work robot and work system
JPH0753054A (en) Automatic unloading device
CN113269085A (en) Linear conveyor belt tracking control method, system and device and storage medium
JPS63174890A (en) Method of recognizing body
CN114131615A (en) Robot unstacking and stacking system based on visual guidance and unstacking and stacking method thereof
JP2010032258A (en) Apparatus and method for recognizing position of work for depalletizing
JPH01183395A (en) Robot provided with visual device
JPH09203612A (en) Position detector for stacked core
CN114332220A (en) Automatic parcel sorting method based on three-dimensional vision and related equipment
JP7261597B2 (en) Work storage system to be transferred
JP7436170B2 (en) robot system
JPH03202290A (en) Take-up device for articles loaded in bulk
JP3198704B2 (en) Step balancing device