JPH0724585U - ワークハンドリング装置 - Google Patents

ワークハンドリング装置

Info

Publication number
JPH0724585U
JPH0724585U JP5266693U JP5266693U JPH0724585U JP H0724585 U JPH0724585 U JP H0724585U JP 5266693 U JP5266693 U JP 5266693U JP 5266693 U JP5266693 U JP 5266693U JP H0724585 U JPH0724585 U JP H0724585U
Authority
JP
Japan
Prior art keywords
work
laser sensor
robot
measurement
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5266693U
Other languages
English (en)
Inventor
浩也 服部
常悦 高橋
清秀 阿部
伯彦 川島
悟 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP5266693U priority Critical patent/JPH0724585U/ja
Publication of JPH0724585U publication Critical patent/JPH0724585U/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

(57)【要約】 【目的】 ランダムに置かれたワークであっても確実に
ハンドリングを行なう。 【構成】 レーザーセンサ5を利用して画像処理装置3
で三次元的な画像認識を行なうに際し、レーザーセンサ
5による距離情報を複数の検索点で得るようにし、ワー
クの向きを判別して精度の高い最適ハンドリング位置を
検索して正確なハンドリングを実現し、ランダムに置か
れたワークであっても確実にハンドリングを行なう。

Description

【考案の詳細な説明】
【0001】
【産業上の利用分野】
本考案は画像処理によるワークハンドリング装置に関し、ワークの向き及び位 置認識の確実性を高め精度の高いハンドリングの実現を企図したものである。
【0002】
【従来の技術】
鋳バリ取り作業は、粉塵、騒音等悪環境下での重労働作業である。その為、従 来より、ロボット導入による自動化が積極的に推進されてきている。 例えば、形状が複雑で、バリの発生を製品の各部にわたる自動車用鋳物に対し て、手作業と同じように重切削ができるように、手首に3自由度を持たせたロボ ットが開発されている(日本産業用ロボット工業会、「ロボット」No.81,p32〜3 7, “鋳バリ取りロボットと適用例”)。
【0003】 更に、このロボットは、位置姿勢が不安定になるパレット上の鋳物を画像認識 するための視覚装置を装備している。 この為、ワークがパレット上に載せられ搬送されてくると、視覚装置は順次ワ ークの位置姿勢を認識し、その値をロボット座標に変換する。そして、視覚装置 からロボットにそのデータを送信すると、ロボットは、そのデータを基に、ワー クを把持して、研磨機によりバリ取り作業を行う。
【0004】
【考案が解決しようとする課題】
しかし、上述した従来のロボットにおける視覚装置は、カメラ視野に一つのワ ークが置かれた状態での計測であり、パレット上にワークがランダムに置かれた 状態ではなかった。また、画像認識も二次元的な計測であり、三次元的な計測は 行われていなかった。 本考案は、上記従来技術に鑑みてなされたものであり、パレット上に不規則に 並べられたワークを確実に認識し、且つ、精度の高いハンドリングを実現するこ とができるワークハンドリング装置を提供することを目的とする。
【0005】
【課題を解決するための手段】
上記目的を達成するための本考案の構成は、ワークの画像を撮影するカメラと 、該カメラの深度方向の前記ワークの任意部位の距離を計測するレーザーセンサ と、前記カメラからの前記ワークの二次元情報及び複数点を検索した前記レーザ ーセンサからの複数点の距離情報に基づいて前記ワークの三次元的な位置姿勢を 計算して前記ワークの向き及び位置認識を行なう画像処理装置と、該画像処理装 置からの前記ワークの向き及び位置認識情報に基づいて動作されて前記ワークの ハンドリングを行なうハンドリングロボットとを備えたことを特徴とする。
【0006】
【作用】
カメラによりワークを撮影した画像情報と共にレーザーセンサによりこのカメ ラの深度方向のワークの複数点の距離を検索計測することにより、画像処理装置 によりワークの向き及び三次元的な位置傾斜を認識する。ワークの向き及び位置 認識情報に基づいてハンドリングロボットを動作させ、ワークのハンドリングを 行なう。
【0007】
【実施例】
以下、本考案について、図面に示す実施例を参照して詳細に説明する。 本考案の一実施例を図1に示す。図中に示すように、1はロボット、2はロボ ットコントローラ、3は画像処理装置、4はカメラ、5はレーザー距離センサ、 6はモニタ、7はシーケンサ、8は照明、9はパレット、10はシステム制御盤 である。
【0008】 カメラ4としては、本実施例では4台とし、カメラ視野はオーバーラップして いる。パレット9は鉄製であり、錆、傷が付着し、バリが散乱している。このた め、パレット9上に載置されるワークの位置姿勢は不規則となる。パレット9上 に載置されるワークとして、本実施例では、シリンダブロックを用いた。シリン ダブロックは、数種類あるが、ボア位置は共通である。 本実施例に係る画像処理によるハンドリング装置の動作を、図2に示すフロー チャートに基づいて説明する。
【0009】 (1)先ず、ロボット1、画像処理装置2を初期設定し、その後、コンベアによ りワークの載ったパレットが計測位置(ハンドリング位置)まで到達すると、そ の到達信号により、ロボット1は画像処理装置3に対し、RS−422を経由し て計測指令を出力する。 (2)画像処理装置3は、この計測指令を受信し、カメラ4より映像信号を入力 し、ワークのX,Y座標及びXY平面内の傾斜角度θの計測を行う。計測方法は 後述する。カメラ4は、ワークであるシリンダブロックのボアの設けられている 面(以下、正面という)を撮影するものとする。
【0010】 (3)画像処理装置3は、計測したX,Y,θをRS−422を経由してロボッ ト1に送信する。 (4)ロボット1は、X,Y,θを受信した後、X,Y,θに基づいて特殊ハン ド10に取り付けられたレーザーセンサ5をレーザ計測ポイントへ移動させる。 (5)計測ポイントでロボット1はレーザーセンサ5からのアナログ信号を入力 する。
【0011】 (6)得られた情報が有効でない場合、図5、図6に示すように、計測点を微小 ずつずらし、有効計測値が得られる点を検索する(詳細は後述する)。 (7)3点のレーザー計測のうち1点でも有効値が得られない場合は、逆向きワ ークと判断し、前述の(5),(6)を繰り返す。
【0012】 (8)3点の有効測定値及び検索距離の積算によりZ方向姿勢を計算する。計算 方法は後述する。 (9)ロボット1は、Z方向姿勢を受信し、ハンドリング位置へ移動してワーク をハンドリングする。 (10)ロボット1は、ハンドリングしたワークをバリ取機(図示省略)に移載 する。 (11)この動作を1パレットについて行なう。通常は4回である。
【0013】 次に、ワークのX,Y座標及びXY平面内の傾斜角度θの計測について、図3 (a)に示すフローチャートに基づいて説明する。 先ず、カメラ4からの映像信号を入力する。ここでは、基準値レベルでの取り 込みとする。 次に、外形による概略位置計測を行う。即ち、で得られた2値画像により、 図3(b)のように或る面積値のものを検出する。パレットの傷、散乱したバリ 等はワークに比べて小さいものを除去するためである。
【0014】 形状が異常の場合、例えば、面積値が異なる時には、取り込み値をレベルを変 えて、を再び行う。本実施例では、4回繰り返し行うものとし、それでも計 測出来ない時には、ワーク無しと判断する。 上記ワーク外形により計測エリアを決定する。このエリアは、ワークに外接す るエリアとする。次の計測は、ボアとなるため、計測対象が小さくなる。この時 のパレットの影響を少なくするためである。
【0015】 上記エリアにおいて、特徴量抽出により、図3(c)のようにボアの位置を計 測する。ボア中心は、等価楕円に置き換えた中心の為、真の中心ではない。特に ボア内にバリ等が出ている場合の影響が大である。
【0016】 レーザ計測によるZ方向姿勢の計測について、図4(a)のフローチャートに 基づいて説明する。Z方向は、カメラ視野に対して被写界深度方向である。 (i)ロボット1からの計測指令により、レーザーセンサ5からのアナログ入力 を行う。レーザーセンサ5は、図4(c)に示すように、シリンダブロックまで のZ方向距離を計測してアナログ値として出力する。 (ii)画像処理装置3は、レーザーセンサ5からのアナログ値を、距離に変換す る。
【0017】 (iii)上記(i)(ii)を、図4(b)に示すように3点A,B,Cに対して行 なう。 (iv)1点でも有効値が得られない場合逆向きワークと判定する。 (v)Z方向の姿勢及び距離Z計算は次式で求められる。
【0018】 通常向きの場合 α=tan-1{(1a−1c)/(1x−ΔXa+ΔXc)} β=tan-1{(1a−1b)/(1y−ΔYa+ΔYb)} z=(1b+1c)/2
【0019】 逆向きの場合 α=tan-1{(1b−1d)/(1x−ΔXb+ΔXd)} β=tan-1{(1c−1d)/(1y−ΔYc+ΔYd)} z=(1b+1c)/2
【0020】 ただし、 1x : 測定治具サイズ X軸方向 1y : 測定治具サイズ Y軸方向 1a : PaにおけるAI(ch2)の値 1b : PbにおけるAI(ch1)の値 1c : PcにおけるAI(ch4)の値 1d : PdにおけるAI(ch3)の値 ΔXa: Pa点のdxトータル ΔXb: Pb点のdxトータル ΔXc: Pc点のdxトータル ΔXd: Pd点のdxトータル ΔYa: Pa点のdyトータル ΔYb: Pb点のdyトータル ΔYc: Pc点のdyトータル ΔYd: Pd点のdyトータル dx : X軸方向の検索移動距離 dy : Y軸方向の検索移動距離
【0021】 このように、本実施例では、カメラ4による二次元的位置姿勢を計測すると共 にレーザーセンサ5によりワークの複数点を検索して距離計測を行なうので、ワ ークの向き及び三次元的な位置姿勢を計算することが可能となる。 従って、パレット上に錆、傷、散乱したバリ等のため、ワークが不規則に載置 されたとしても、ワークを確実にハンドリングしてバリ取機へ移載することがで きる。
【0022】
【考案の効果】
本考案のワークハンドリング装置は、カメラ及びレーザーセンサを利用して三 次元的な画像認識を行なうに際し、レーザーセンサによる距離情報を複数の検索 点で得るようにしたので、ワークの向きを判別して精度の高い最適ハンドリング 位置を検索しミスのない正確なハンドリングを実現することができる。この結果 、ランダムに置かれたワークであっても確実にハンドリングを行なうことができ る。
【図面の簡単な説明】
【図1】本考案の一実施例に係る画像処理によるハンド
リング装置の外観図である。
【図2】本考案の一実施例に係るハンドリングの工程を
示すフローチャートである。
【図3】同図(a)はワークの位置計測の工程を示すフ
ローチャート、同図(b)は外形による概略位置計測を
示す説明図、同図(c)は特徴量によるボア位置計測の
説明図である。
【図4】同図(a)はワークのZ方向姿勢の計測工程を
示す説明図、同図(b)はレーザーセンサの計測ポイン
トを示す説明図、同図(c),(d)はワークの傾斜角
度α,βを示す説明図である。
【図5】レーザーセンサの検索状況説明図である。
【図6】レーザーセンサの検索状況説明図である。
【符号の説明】
1 ロボット 2 ロボットコントローラ 3 画像処理装置 4 カメラ 5 レーザーセンサ 6 シーケンサ 7 照明 8 パレット 9 システム制御盤
───────────────────────────────────────────────────── フロントページの続き (72)考案者 川島 伯彦 東京都品川区大崎二丁目1番17号 株式会 社明電舎内 (72)考案者 野村 悟 東京都品川区大崎二丁目1番17号 株式会 社明電舎内

Claims (1)

    【実用新案登録請求の範囲】
  1. 【請求項1】 ワークの画像を撮影するカメラと、該カ
    メラの深度方向の前記ワークの任意部位の距離を計測す
    るレーザーセンサと、前記カメラからの前記ワークの二
    次元情報及び複数点を検索した前記レーザーセンサから
    の複数点の距離情報に基づいて前記ワークの三次元的な
    位置姿勢を計算して前記ワークの向き及び位置認識を行
    なう画像処理装置と、該画像処理装置からの前記ワーク
    の向き及び位置認識情報に基づいて動作されて前記ワー
    クのハンドリングを行なうハンドリングロボットとを備
    えたことを特徴とするワークハンドリング装置。
JP5266693U 1993-09-29 1993-09-29 ワークハンドリング装置 Pending JPH0724585U (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5266693U JPH0724585U (ja) 1993-09-29 1993-09-29 ワークハンドリング装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5266693U JPH0724585U (ja) 1993-09-29 1993-09-29 ワークハンドリング装置

Publications (1)

Publication Number Publication Date
JPH0724585U true JPH0724585U (ja) 1995-05-09

Family

ID=12921203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5266693U Pending JPH0724585U (ja) 1993-09-29 1993-09-29 ワークハンドリング装置

Country Status (1)

Country Link
JP (1) JPH0724585U (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997024206A1 (fr) * 1995-12-27 1997-07-10 Fanuc Ltd Systeme robotique composite de detection
JP2019219378A (ja) * 2018-04-04 2019-12-26 ザ・ボーイング・カンパニーThe Boeing Company 移動式目視検査システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997024206A1 (fr) * 1995-12-27 1997-07-10 Fanuc Ltd Systeme robotique composite de detection
JP2019219378A (ja) * 2018-04-04 2019-12-26 ザ・ボーイング・カンパニーThe Boeing Company 移動式目視検査システム

Similar Documents

Publication Publication Date Title
JP6687591B2 (ja) 物品搬送装置、ロボットシステムおよび物品搬送方法
US20050273199A1 (en) Robot system
JP4235214B2 (ja) ロボットプログラムを作成するための装置、プログラム、記録媒体及び方法
Kosler et al. Adaptive robotic deburring of die-cast parts with position and orientation measurements using a 3D laser-triangulation sensor
Princely et al. Vision assisted robotic deburring of edge burrs in cast parts
US11992962B2 (en) Robot and robot system
JP2007021634A (ja) ワークの自動加工方法およびワークの自動加工システム
CA2385541A1 (en) Micropositioning system
JP4274558B2 (ja) キャリブレーション方法
JP2006082171A (ja) 多関節ロボットのツール位置補正方法
CN109916346B (zh) 一种基于视觉系统的工件平整度的检测装置及检测方法
JPS6332306A (ja) 無接触三次元自動寸法測定方法
CN109732601B (zh) 一种自动标定机器人位姿与相机光轴垂直的方法和装置
JP2003136465A (ja) 検出対象物の3次元位置・姿勢決定方法とロボット用視覚センサ
JP3517529B2 (ja) 画像入力型ロボットシステム
Prabhu et al. Dynamic alignment control using depth imagery for automated wheel assembly
JPH0724585U (ja) ワークハンドリング装置
JPH0724586U (ja) ワークハンドリング装置
JP2007021635A (ja) ワークの自動ハンドリング方法およびワークの自動ハンドリングシステム
JP7477633B2 (ja) ロボットシステム
WO2022091767A1 (ja) 画像処理方法、画像処理装置、ロボット搭載型搬送装置、及びシステム
JP2007025991A (ja) ワークの自動加工方法およびワークの自動加工システム
JP3171509B2 (ja) ロボットへの教示方法
JPS60116005A (ja) ロボットにおける動作プログラム制御方法
JP3334238B2 (ja) 画像処理による位置認識装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19981013