JP3151906B2 - Handling method in robot system - Google Patents

Handling method in robot system

Info

Publication number
JP3151906B2
JP3151906B2 JP01616492A JP1616492A JP3151906B2 JP 3151906 B2 JP3151906 B2 JP 3151906B2 JP 01616492 A JP01616492 A JP 01616492A JP 1616492 A JP1616492 A JP 1616492A JP 3151906 B2 JP3151906 B2 JP 3151906B2
Authority
JP
Japan
Prior art keywords
work
robot
image processing
measurement
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01616492A
Other languages
Japanese (ja)
Other versions
JPH05212690A (en
Inventor
常悦 高橋
清秀 阿部
悟 野村
克浩 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP01616492A priority Critical patent/JP3151906B2/en
Publication of JPH05212690A publication Critical patent/JPH05212690A/en
Application granted granted Critical
Publication of JP3151906B2 publication Critical patent/JP3151906B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はロボットシステムにおけ
るハンドリング方法に関し、ワークの映像情報を処理す
る画像処理装置を有するロボットシステムに適用して有
用なものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a handling method in a robot system and is useful when applied to a robot system having an image processing device for processing video information of a work.

【0002】[0002]

【従来の技術】鋳物のバリ取りを行なうロボットシステ
ムとして画像処理装置とロボットとを組合せたものが提
案されている(例えば、日本産業用ロボット工業会、ロ
ボットNo. 81 第32頁〜第37頁「鋳バリ取りロボ
ットと適用例」)。
2. Description of the Related Art As a robot system for deburring a casting, a combination of an image processing apparatus and a robot has been proposed (for example, Japan Industrial Robot Association, Robot No. 81, pages 32 to 37). “Robot and application examples”).

【0003】この種のロボットシステムは、バリ取り作
業のワークであるパレット上に任意に載置された鋳物
を、カメラで撮影し、このカメラが送出する映像情報を
画像処理装置で処理することによりワークの位置姿勢を
認識し、この値をロボット座標に変換してロボットに送
信する。このことによりロボットは前記値を基にワーク
を把持し、研磨機によりバリを取るように構成してあ
る。
A robot system of this kind captures a casting arbitrarily placed on a pallet, which is a work for deburring work, with a camera, and processes image information transmitted from the camera with an image processing device. Recognize the position and orientation of the work, convert this value into robot coordinates, and send it to the robot. Thus, the robot is configured to hold the work based on the above values and to remove burrs by the polishing machine.

【0004】[0004]

【発明が解決しようとする課題】上記従来技術におい
て、ワークの位置姿勢は、ワークの1個がカメラの視野
に入るような状態で検出している。これは、パレットに
ランダムに載置された複数のワークを1視野中で撮影す
ると計測精度が荒くなり、特にワーク同志が接触してい
る場合には、ワークの外周円等、検出すべき部位を検出
することができないからであるが、このようにワークを
1個づつカメラの視野に入れてワークの位置姿勢を検出
する場合には、パレットの所定位置に1個づつワークを
搬入しなければならず、多くのワークがパレット上にラ
ンダムに載置されている場合に対応できないという不便
がある。
In the above prior art, the position and orientation of the work are detected in such a state that one of the works is in the field of view of the camera. This is because measuring a plurality of works randomly placed on a pallet in a single field of view results in poor measurement accuracy. Particularly when works are in contact with each other, the area to be detected, such as the outer circumference of the work, is determined. However, in order to detect the position and orientation of the workpieces one by one in the field of view of the camera, it is necessary to carry the workpieces one by one to a predetermined position on the pallet. Inconveniently, it is not possible to cope with a case where many works are randomly placed on a pallet.

【0005】本発明は、上記従来技術に鑑み、パレット
上に多くのワークがランダムに載置されている場合でも
良好に所定のデータを得ることができるロボットシステ
ムにおけるハンドリング方法を提供することを目的とす
る。
The present invention has been made in view of the above-mentioned prior art, and has as its object to provide a handling method in a robot system capable of obtaining predetermined data satisfactorily even when many works are randomly placed on a pallet. And

【0006】[0006]

【課題を解決するための手段】上述の目的を達成する本
発明の構成は、撮像手段を介して取り込んだワークの映
像情報を処理する画像処理装置と、この画像処理装置の
処理データに基づきロボットを制御するロボットコント
ローラとを有するロボットシステムにおけるハンドリン
グ方法において、パレット上に載置した複数のワークを
撮影する第1の撮像手段を介して取り込んだワークの映
像情報を処理して得られる特定の1個のワークの位置情
報に基づきロボットのハンドでこの特定のワークを把持
し、この状態でワークを計測箱の挿入口からこの計測箱
の内部に挿入するとともに、ロボットのハンドに装着し
た閉塞部材で前記挿入口を閉塞してワークを計測箱内に
密閉し、さらにこの計測箱内に配設した第2の撮像手段
光源からの光の照射の下でワークを撮影し、この撮影
に伴なうワークの形状に関する映像情報を前記画像処理
装置で処理してワークの型違いを検出するようにしたこ
とを特徴とする。
According to a first aspect of the present invention, there is provided an image processing apparatus for processing video information of a work taken through an image pickup means, and a robot based on processing data of the image processing apparatus. In a robot system having a robot controller for controlling a plurality of workpieces placed on a pallet, the video information of the workpiece taken through a first imaging unit for capturing a plurality of workpieces, the specific one being obtained by processing the video information. This specific work is grasped by the robot hand based on the position information of each work, and in this state, the work is inserted into the measurement box from the insertion hole of the measurement box, and the closing member attached to the robot hand is used. to close the insertion port and sealing the workpiece in the measurement box, yet the light from the light source in the second imaging means is disposed within this measurement box Photographing the workpiece under morphism, characterized in that to detect the type difference of the work image information about the shape of the accompanying work in this shooting processing by the image processing apparatus.

【0007】[0007]

【作用】上記構成の本発明によれば、第1の撮像手段の
映像情報に基づきパンフレット上にランダムに多数載置
されたワークの特定の1個をロボットのハンドで把持
し、このワークを計測箱内に挿入して第2の撮像手段で
撮影し、この第2の撮像手段の映像情報に基づきワーク
に関する所定のデータを得る。
According to the present invention having the above structure, a specific one of a large number of works randomly placed on a pamphlet is held by a robot hand based on the video information of the first imaging means, and the work is measured. It is inserted into the box and photographed by the second imaging means, and predetermined data on the workpiece is obtained based on the video information of the second imaging means.

【0008】[0008]

【実施例】以下本発明の実施例を図面に基づき詳細に説
明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】図1は本発明の実施例を実現するロボット
システムを示すブロック線図である。同図に示すよう
に、ロボット1はロボットコントローラ2によりその動
作を制御されて所定の動作を行なう。画像処理装置3は
第1の撮像手段であるカメラ4及び第2の撮像手段であ
るカメラ5,6が送出する映像情報に基づき所定の画像
処理を行ない、その結果をロボットコントローラ2及び
モニタ7に送出する。パレット8は、光の反射を可及的
に少なくするための黒色の平板であるゴム板8aを介し
てワーク13(図1にはロボット1のロボットアーム1
aで把持した状態を示している)を載置する水平面を有
する台で、その水平面上のワーク13は照明9で照らす
ように構成してある。前記カメラ4はパレット8の上方
に配設してあり、したがってこのパレット8に載置され
たワーク13の平面的な映像を撮影するように構成して
ある。また、カメラ5,6は、先端部に照明10,11
がそれぞれ取り付けてあり、それぞれのレンズの光軸が
直交するよう計測箱12内に配設してある。すなわち、
カメラ5,6は直交する二平面に投影されるワーク13
の像を撮影する。
FIG. 1 is a block diagram showing a robot system for implementing an embodiment of the present invention. As shown in FIG. 1, the operation of the robot 1 is controlled by a robot controller 2 to perform a predetermined operation. The image processing device 3 performs predetermined image processing based on video information transmitted by the camera 4 as the first imaging unit and the cameras 5 and 6 as the second imaging unit, and sends the result to the robot controller 2 and the monitor 7. Send out. The pallet 8 is provided with a work 13 (a robot arm 1 of the robot 1 in FIG. 1) through a rubber plate 8a which is a black flat plate for minimizing light reflection.
The work 13 on the horizontal surface is configured to be illuminated by the illumination 9. The camera 4 is disposed above the pallet 8, and is configured to capture a planar image of the work 13 placed on the pallet 8. Cameras 5 and 6 have illuminations 10 and 11 at the tip.
Are mounted in the measuring box 12 so that the optical axes of the lenses are orthogonal to each other. That is,
The cameras 5 and 6 are works 13 projected on two orthogonal planes.
Take an image of.

【0010】前記ロボット1はそのロボットハンド1a
でワーク13を把持して所定の作業を行なうのである
が、その1つに計測箱12にワークを挿入してカメラ
5,6による映像情報の採取に資する作業がある。この
作業のためロボットハンド1aは、図2(a)に示す計
測箱12の開口部である挿入口12aを閉塞する平板状
の閉塞部材14を把持している。かくして、ロボット1
はそのロボットハンド1aでワーク13を把持し、図2
(a)に示すように、挿入口12aを介してワーク13
を計測箱12内に挿入するとともに閉塞部材14で挿入
口12aを閉塞する。この結果形成される外部からの光
を遮断した図2(b)に示す密閉状態で、照明10,1
1の光によりカメラ5,6を用いてワーク13の映像情
報を採取する。
The robot 1 has a robot hand 1a.
One of the operations is to insert the work into the measuring box 12 and to contribute to the collection of video information by the cameras 5 and 6. For this operation, the robot hand 1a holds a flat closing member 14 that closes the insertion opening 12a, which is the opening of the measurement box 12 shown in FIG. Thus, Robot 1
2 grasps the work 13 with the robot hand 1a, and FIG.
As shown in (a), the work 13 is inserted through the insertion port 12a.
Is inserted into the measuring box 12, and the insertion port 12a is closed by the closing member 14. In the sealed state shown in FIG.
The video information of the work 13 is collected by using the cameras 5 and 6 with the light 1.

【0011】上記ロボットシステムにより実現するハン
ドリング方法は次の通りである。
The handling method realized by the robot system is as follows.

【0012】パレット8のゴム板8a上にはワーク13
がランダムに載置してある。このワーク13には大,
中,小がある。
The work 13 is placed on the rubber plate 8a of the pallet 8.
Are randomly placed. This work 13 has a large
There are medium and small.

【0013】ロボットコントローラ2から画像処理装置
3に対してワーク13の大,中,小の指令を送信する。
このとき、パレット8上にワーク13がなければ、画像
処理装置3はロボットコントローラ2に対して終了を送
信する。正常な場合、ロボットコントローラ2からハン
ドリング要求を画像処理装置3に対して送信する。
The robot controller 2 sends large, medium, and small commands for the work 13 to the image processing device 3.
At this time, if there is no work 13 on the pallet 8, the image processing device 3 transmits an end to the robot controller 2. If normal, the robot controller 2 sends a handling request to the image processing device 3.

【0014】画像処理装置3はカメラ4の映像情報を処
理してワーク13の位置を計測し、水平面内のX,Y方
向の移動量をロボットコントローラ2に送信し、ロボッ
ト1に(X,Y)でハンドリング(後に詳述する)を行
ない、計測箱12にワーク13を挿入する。
The image processing apparatus 3 processes the image information of the camera 4 to measure the position of the work 13, transmits the movement amount in the X and Y directions in the horizontal plane to the robot controller 2, and sends the (X, Y ), And the work 13 is inserted into the measuring box 12.

【0015】その後閉塞部材14で計測箱12の挿入口
12aを閉塞し、図2(b)に示すような密閉状態とし
てロボットコントローラ2からの計測指令でカメラ5に
より角度計測(後に詳述する)を行ない、ワーク13を
ロボット1の正規の角度に回転させる。
Thereafter, the insertion port 12a of the measurement box 12 is closed with the closing member 14, and the camera 5 is angle-measured by the camera 5 in response to a measurement command from the robot controller 2 in a closed state as shown in FIG. Is performed, and the work 13 is rotated at a regular angle of the robot 1.

【0016】次に、同様の密閉状態でカメラ6によりワ
ーク13の側面から型違いを検査し(後に詳述する)、
正常の場合、通常のパレタイズを行なう一方、型違いの
場合、排出を行なう。
Next, in the same closed state, the type difference is inspected from the side of the work 13 by the camera 6 (to be described in detail later).
Normal palletizing is performed if normal, while discharging is performed if the type is wrong.

【0017】かかる一連の動作をロボット1側と画像処
理装置3側とに分けて表わしたのが図3及び図4に示す
フローチャートである。
FIG. 3 and FIG. 4 are flow charts showing a series of such operations separately for the robot 1 and the image processing device 3.

【0018】前述のハンドリング(概略計測)、角度計
測及び型違い検査の具体的な内容は次の通りである。
The specific contents of the above-described handling (approximate measurement), angle measurement, and type difference inspection are as follows.

【0019】 ハンドリング(概略計測) 画像処理装置3は、カメラ1でパンフレット8のゴム板
8aの全体を撮影し、このときの映像情報に基づきワー
ク13の(X,Y)座標を計測する。さらに詳言する
と、映像情報を2値化し、ロボット1によるワーク13
の把持部である円筒部の重心を求める。図5はカメラ1
で撮影したゴム板8a上のワーク13(本例では7個)
を示す平面図である。同図中、13aはワーク13の円
筒部、Gは重心である。
Handling (Rough Measurement) The image processing apparatus 3 captures the entire rubber plate 8 a of the pamphlet 8 with the camera 1 and measures the (X, Y) coordinates of the work 13 based on the video information at this time. More specifically, the video information is binarized and the work 13
The center of gravity of the cylindrical part which is the gripping part is obtained. FIG. 5 shows the camera 1
13 (seven pieces in this example) on rubber plate 8a photographed in step
FIG. In the figure, 13a is a cylindrical portion of the work 13, and G is the center of gravity.

【0020】 角度計測 ロボット1はハンド中心(把持中心)をカメラ5の中心
(光軸上)に移動させる。このことにより、図6に示す
ように、画面中心(X0 ,Y0 )にワーク13の円筒部
13aが位置したことになるので、画面中心(X0 ,Y
0 )より放射状に計測ラインl1 ,l2 ,l3 を引き、
外周円cの中心の座標(a,b)を求め、この中心の座
標(a,b)と前記画面中心(X0 ,Y0 )から角度θ
を計算する。すなわち、図6において、外周円cと計測
ラインl1 ,l2 ,l3 の交点である計測点の座標を
(X1 ,Y1 )、(X2 ,Y2 )、(X3 ,Y3 )とす
ると、円の方程式(X+a)2 +(Y+b)2 =R2
基づき外周円cの中心の座標(a,b)を計算すること
ができる。次に、画面中心(X0 ,Y0 )と座標(a,
b)とに基づき角度θは、θ=tan -1(Y0 −b/X0
−a)として計算できる。
Angle Measurement The robot 1 moves the center of the hand (center of grip) to the center of the camera 5 (on the optical axis). Thus, as shown in FIG. 6, since the cylindrical portion 13a of the screen center (X 0, Y 0) in the work 13 will be positioned, the screen center (X 0, Y
0 ) Draw measurement lines l 1 , l 2 , l 3 more radially from
The coordinates (a, b) of the center of the outer circumference circle c are obtained, and the angle θ is calculated from the coordinates (a, b) of the center and the center of the screen (X 0 , Y 0 ).
Is calculated. That is, in FIG. 6, the coordinates of the measurement point, which is the intersection of the outer circumferential circle c and the measurement lines l 1 , l 2 , l 3 , are (X 1 , Y 1 ), (X 2 , Y 2 ), (X 3 , Y 3 ), the coordinates (a, b) of the center of the outer circumference circle c can be calculated based on the equation of the circle (X + a) 2 + (Y + b) 2 = R 2 . Next, the screen center (X 0 , Y 0 ) and coordinates (a,
b), θ = tan −1 (Y 0 −b / X 0)
−a).

【0021】したがって、角度θは、画面中心(X0
0 )と座標(a,b)とに基づき、θ=tan -1(Y0
−b/X0 −a)として計算できる。
Therefore, the angle θ is set at the center of the screen (X 0 ,
Θ = tan −1 (Y 0 ) based on Y 0 ) and the coordinates (a, b).
−b / X 0 −a).

【0022】さらに、計測結果を安定させるため、計測
ラインl1 〜l3 の角度を変えて同様の計測処理をし、
異常な計測点を除去するようにしても良い。また、外周
円cの中心は外周の境界追跡を行ない重心を求めること
によっても計測可能である。
Further, in order to stabilize the measurement result, the same measurement processing is performed by changing the angles of the measurement lines l 1 to l 3 .
An abnormal measurement point may be removed. The center of the outer circumference circle c can also be measured by tracking the outer circumference boundary and obtaining the center of gravity.

【0023】 型違い検査 カメラ6によりワーク13の側面からの映像を撮影し、
この映像情報を画像処理装置3で処理することにより同
種類で型違いワーク13の検査を行なう。すなわち、図
7に示すように、例えば特定エリア(図中の斜線部)E
の面積を比較することによりワーク13が型違いである
か否かを判別する。このときワーク13はロボット1に
より回転することができるので、360°回転した全範
囲で前記面積を検査する。
An image of the work 13 is photographed from the side of the work 13 by the camera 6
The video information is processed by the image processing device 3 to inspect the same type of work 13 of different type. That is, as shown in FIG. 7, for example, a specific area (hatched portion in the figure) E
It is determined whether or not the work 13 is of a different type by comparing the areas of. At this time, since the work 13 can be rotated by the robot 1, the area is inspected in the entire range rotated by 360 °.

【0024】上記実施例によればワークの同種型違いの
判別を容易に実施し得る。
According to the above-described embodiment, it is possible to easily determine the same type difference of the work.

【0025】[0025]

【発明の効果】以上実施例とともに具体的に説明したよ
うに、本発明によれば、パレット上にランダムに載置さ
れた複数のワークのハンドリングが可能となる。また、
各種の測定を密閉した計測箱内で撮影した映像情報に基
づき行なうことができるので、この場合には外乱等の影
響を受けることがない安定した計測を行なうことができ
る。
As described above in detail with the embodiments, according to the present invention, it is possible to handle a plurality of works randomly placed on a pallet. Also,
Since various measurements can be performed based on video information captured in a closed measurement box, stable measurements can be performed without being affected by disturbances or the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例を実現するロボットシステムを
示すブロック線図である。
FIG. 1 is a block diagram showing a robot system for implementing an embodiment of the present invention.

【図2】本実施例における計測時の態様を示す説明図で
ある。
FIG. 2 is an explanatory diagram showing a mode at the time of measurement in the present embodiment.

【図3】本実施例を示すフローチャートの前半部分であ
る。
FIG. 3 is a first half of a flowchart showing the embodiment.

【図4】本実施例を示すフローチャートの後半部分であ
る。
FIG. 4 is a latter half of a flowchart illustrating the present embodiment.

【図5】カメラで撮影したパレット上の平面的な映像を
示す説明図である。
FIG. 5 is an explanatory diagram showing a two-dimensional image on a palette taken by a camera.

【図6】本実施例における角度計測時の態様を示す説明
図である。
FIG. 6 is an explanatory diagram showing a mode at the time of angle measurement in the present embodiment.

【図7】本実施例における型違い検査時の態様を示す説
明図である。
FIG. 7 is an explanatory diagram showing an aspect at the time of a type mismatch inspection in the present embodiment.

【符号の説明】[Explanation of symbols]

1 ロボット 1a ロボットハンド 2 ロボットコントローラ 3 画像処理装置 4,5,6 カメラ 8 パレット 12 計測箱 13 ワーク 14 閉塞部材 DESCRIPTION OF SYMBOLS 1 Robot 1a Robot hand 2 Robot controller 3 Image processing device 4, 5, 6 Camera 8 Pallet 12 Measurement box 13 Work 14 Closure member

───────────────────────────────────────────────────── フロントページの続き (72)発明者 林 克浩 東京都品川区大崎二丁目1番17号 株式 会社 明電舍内 (56)参考文献 特開 昭60−42841(JP,A) 特開 平2−152635(JP,A) 特開 昭63−163975(JP,A) 特開 平3−214006(JP,A) (58)調査した分野(Int.Cl.7,DB名) B25J 13/08 B25J 9/10 B25J 19/04 G01N 21/95 G05B 19/19 ──────────────────────────────────────────────────続 き Continuation of the front page (72) Katsuhiro Hayashi 2-1-1-17 Osaki, Shinagawa-ku, Tokyo Inside Meidensha Co., Ltd. (56) References JP-A-60-42841 (JP, A) JP-A Heihei 2-152635 (JP, A) JP-A-63-163975 (JP, A) JP-A-3-214006 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) B25J 13/08 B25J 9/10 B25J 19/04 G01N 21/95 G05B 19/19

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像手段を介して取り込んだワークの映
像情報を処理する画像処理装置と、この画像処理装置の
処理データに基づきロボットを制御するロボットコント
ローラとを有するロボットシステムにおけるハンドリン
グ方法において、 パレット上に載置した複数のワークを撮影する第1の撮
像手段を介して取り込んだワークの映像情報を処理して
得られる特定の1個のワークの位置情報に基づきロボッ
トのハンドでこの特定のワークを把持し、この状態でワ
ークを計測箱の挿入口からこの計測箱の内部に挿入する
とともに、ロボットのハンドに装着した閉塞部材で前記
挿入口を閉塞してワークを計測箱内に密閉し、さらにこ
の計測箱内に配設した第2の撮像手段で光源からの光の
照射の下でワークを撮影し、この撮影に伴なうワークの
形状に関する映像情報を前記画像処理装置で処理してワ
ークの型違いを検出するようにしたことを特徴とするロ
ボットシステムにおけるハンドリング方法。
1. A handling method in a robot system, comprising: an image processing device for processing video information of a work taken in through an imaging unit; and a robot controller for controlling a robot based on processing data of the image processing device. Based on the position information of one specific work obtained by processing the video information of the work taken through the first imaging means for photographing a plurality of works placed on the work, the robot hand uses the specific work. While inserting the work into the measurement box from the insertion opening of the measurement box in this state, closing the insertion opening with a closing member attached to the hand of the robot to seal the work in the measurement box, Further, the light from the light source is emitted by the second imaging means disposed in the measurement box.
By photographing the work under the irradiation, the accompanying work in this shoot
The image information about the shape is processed by the image processing device and
A handling method in a robot system, wherein a difference in the shape of a workpiece is detected .
JP01616492A 1992-01-31 1992-01-31 Handling method in robot system Expired - Fee Related JP3151906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01616492A JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01616492A JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Publications (2)

Publication Number Publication Date
JPH05212690A JPH05212690A (en) 1993-08-24
JP3151906B2 true JP3151906B2 (en) 2001-04-03

Family

ID=11908872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01616492A Expired - Fee Related JP3151906B2 (en) 1992-01-31 1992-01-31 Handling method in robot system

Country Status (1)

Country Link
JP (1) JP3151906B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5698789B2 (en) 2013-04-18 2015-04-08 ファナック株式会社 Robot control device that transports workpieces
WO2015080669A1 (en) * 2013-11-29 2015-06-04 K-One Industries Pte Ltd Flexible vision inspector
CN104897053A (en) * 2014-03-05 2015-09-09 泰科电子(上海)有限公司 Programmable digital machine vision detection platform

Also Published As

Publication number Publication date
JPH05212690A (en) 1993-08-24

Similar Documents

Publication Publication Date Title
JP4461203B2 (en) Stocker robot teaching method, stocker robot teaching apparatus, and recording medium
KR20060132713A (en) Method for determining the position of an object in a space
US7502504B2 (en) Three-dimensional visual sensor
JPH06137828A (en) Detecting method for position of obstacle
EP0050935B1 (en) Method and apparatus for examining a workpiece
JP3151906B2 (en) Handling method in robot system
JP2921449B2 (en) Golf ball appearance inspection method and appearance inspection device
JP3181729B2 (en) Method and apparatus for detecting lens contamination in coating film defect detection
JP2910520B2 (en) Rubber stopper inspection equipment
CN114408532A (en) Method, device and system for adjusting code bits of impact sample blank
JPH0471673B2 (en)
JP2740630B2 (en) Non-contact measurement device
JP2669685B2 (en) Inspection equipment for linear objects
CN216051338U (en) Small-aperture inner cavity detection and identification system
JP2824851B2 (en) Moving image recording method of test object in wafer foreign matter inspection device
JP2527233Y2 (en) Work position detector
JP2900564B2 (en) Parts suction detector
JPH0763537A (en) Surface defect inspecting device
JP3325191B2 (en) Shellfish identification method
JPH04113243A (en) Apparatus for inspecting lens
JPS6129704A (en) Measuring method
JPH01191043A (en) Surface defect inspecting device
Korayem et al. Determining Position and Orientation of 6R Robot using Image Processing
JPH0882603A (en) Method and apparatus for inspecting surface
JPH09210659A (en) Automatic material-defect inspection device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001226

LAPS Cancellation because of no payment of annual fees