JPS62286189A - 高速視覚認識装置 - Google Patents

高速視覚認識装置

Info

Publication number
JPS62286189A
JPS62286189A JP61130490A JP13049086A JPS62286189A JP S62286189 A JPS62286189 A JP S62286189A JP 61130490 A JP61130490 A JP 61130490A JP 13049086 A JP13049086 A JP 13049086A JP S62286189 A JPS62286189 A JP S62286189A
Authority
JP
Japan
Prior art keywords
visual
visual sensor
visual recognition
support mechanism
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61130490A
Other languages
English (en)
Other versions
JPH07120416B2 (ja
Inventor
Kosaku Inagaki
稲垣 耕作
Kazuo Mikami
和夫 三上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Tateisi Electronics Co filed Critical Omron Tateisi Electronics Co
Priority to JP61130490A priority Critical patent/JPH07120416B2/ja
Publication of JPS62286189A publication Critical patent/JPS62286189A/ja
Publication of JPH07120416B2 publication Critical patent/JPH07120416B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Character Input (AREA)
  • Image Input (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 3、発明の詳細な説明 〈産業上の利用分野〉 この発明は、例えば産業用ロボット等に適用実施される
技術であって、観測対象を視覚センサで撮像してこれを
高速に認識する高速視覚認識装置に関する。
〈従来の技術〉 例えばテーブル上のワークをロボットハンドで把持して
所定位置へ移動させるのに、そのワークの位置や姿勢を
予め視覚認識装置により確認した上で、ロボットハンド
を作動させるという自動化システムが提案されている。
従来のこの種のシステムにおいて、ワーク観測用の視覚
センサは、テーブル上方の所定位置に固定して取り付け
てあり、その観測視野内でワークを撮像し、視覚認識部
にて画像演算を実行することにより、ワークの位置や傾
きを検出している。
第23図〜第26図は、従来システムにおける視覚セン
サ(この場合、テレビカメラ)の設置状況を具体的に示
しており、第23図および第24図は、テーブル1の上
方位置に1台のテレビカメラ2を下向きに固定し、テレ
ビカメラ2の観測視野3内に静止状態のワーク4を位置
させて、ワーク4の位置や傾きを観測している。
また第25図は、テーブル1の上方位置に複数台のテレ
ビカメラ2a〜2cを下向きに固定して、各テレビカメ
ラ23〜2cの観測視野3a〜3cを組み合わせて、静
止状態のワーク4a、4bを観測している。
さらに第26図は、第25図のものと同様、複数台のテ
レビカメラ23〜2fを下向きに設置して、各テレビカ
メラ2a〜2Cの観測視野3a〜3fを組み合わせて、
移動するワーク4を追跡しつつ観測している。
〈発明が解決しようとする問題点〉 ところが第23図に示す例では、ワーク4がら遠く離れ
た位置にテレビカメラ2が設置しであるから、広い観測
視野3が得られる一方、ワーク4の画像5 (第27図
に示す)が小さくなるため、fi測精度が低いという欠
点がある。
また第24図に示す例では、ワーク4に近い位置にテレ
ビカメラ2が設置しであるから、大きな画像5 (第2
8図に示す)が得られて観測精度は高まる一方、観測視
野が著しく狭められるという欠点がある。
なお第27図および第28図中、6はテレビカメラ2の
撮像面を示す。
さらに第25図に示す例では、複数の観測視野3a〜3
cが組み合わさって拡大されるが、複数台のテレビカメ
ラ2a〜2cが必要であるため、設備費用が高価となる
。しかも各テレビカメラ2a〜2cで得た画(象を単一
の視覚認識部をもって画像演算処理するには、時分割処
理による必要があり、処理時間が長くかかる等の問題が
ある。
さらに第26図に示す例では、同様に複数の観測視野3
a〜3fが組み合わさって拡大されるが、複数台のテレ
ビカメラ28〜2fが必要であり、設備費用が高価とな
る。しかも各テレビカメラ2a〜2fをワーク4の動き
に追随させるには、各テレビカメラで得た画像を個別の
視覚認識部を用いて並列処理する必要があり、コスト面
の負担が一層大きなものとなる。
上記各別のようなテレビカメラを固定状態で設置する方
式以外に、例えばロボットアームにテレビカメラを取り
付けて、任意の位置でワークの観測を可能とした方式の
ものも提案されている7この方式は、観測に際しロボッ
トアームの動きを止め、テレビカメラを静止状態に設定
した上でワークを観測し、この−回の観測でワークの位
置や傾きを認識した後、ロボットハンドをワークに接近
させて作業を行わせるものである。
ところがこの方式の場合、テレビカメラを静止状態に設
定して観測および認識処理を実施する必要があるため、
処理の速度が遅く、殊に第26図のような移動するワー
クに追随して、ワークの観測を行う等は到底不可能であ
る。
この発明は、上記問題を一挙に解消するためのものであ
って、視覚センサを自在に動かしつつ最適位置から観測
動作を行わせることによって、高精度かつ高速度の認識
処理を可能とじた安価な高速視覚認識装置を提供するこ
とを目的とする。
く問題点を解決するための手段〉 上記目的を達成するためのこの発明の構成を、一実施例
に対応する第1図を用いて説明すると、この発明の高速
視覚認識装置では、 観測対象(第1図では、ワーク16)を撮像してビデオ
信号を出力する視覚センサ10と、視覚センサ10を支
持すると共に視覚センサ10の位置および姿勢を可変設
定するための支持機構部11と、 視覚センサ10よりビデオ信号を入力しリアルタイムの
画像演算を実行して観測対象を認識するための視覚認識
部12と、 視覚認識部12の演算結果に基づき前記支持機構部11
の動作を制御して視覚センサ10を観測最適位置へ移行
させるための位置・姿勢制御部13とを具備させること
にした。
すなわちこの発明の装置においては、視覚認識部12で
の認識結果が支持機構部11の動きに直接影響を与える
ことを特徴とし、視覚センサ10と支持機構部11とが
一体化し、位置・姿勢制御部13は視覚センサ10およ
び支持機構部11の位置と姿勢とをリアルタイムで常時
認識しつつ支持機構部11を動かすものである。
く作用〉 視覚センサ10は観測対象を撮像して視覚認識部12へ
入力画像のビデオ信号を出力する。
視覚認識部12では、入力画像につきリアルタイムの画
像演算を実行して、入力画像の基準位置に対する位置ず
れ量や回転ずれ量1面積1輪郭等の特徴パラメータを生
成し、或いは観測対象の絶対座標情報等とともにこれを
位置・姿勢制御部13に与える。位置・姿勢制御部13
では特徴パラメータや座標情報に基づき支持機構部11
の動作を制御して視覚センサ10を観測最適位置へ移行
させる。
この一連の動作はビデオレートで行われるもので、従っ
て視覚センサ10は観測対象を観測しつつ観測最適位置
へ移動するという人間の視覚系と同等の作用を行うこと
になる。
〈実施例〉 第1図は、この発明の一実施例にかかる高速視覚認識装
置の全体概略構成を示すもので、視覚センサ10と、支
持機構部11と、制御回路部14とから成り、制御回路
部14は視覚センサ10や支持機構部11に対し電気的
に接続されている。
図示例の視覚センサ10は、2次元CCDのような固体
撮像素子より成るテレビカメラであって、テーブル15
上に位置するワーク16を真上或いは斜めより撮像して
入力画像のビデオ信号を出力する。
支持機構部11は、ワーク16に対する視覚センサ10
の位置や姿勢を可変設定するためのものであって、6自
由度の首振り機構を有する可動アーム17と、この可動
アーム17の下端に首部19を介して一体連結された支
持部18とから成る。図示例の支持部18は平板状であ
って、その下面中央に一個の視覚センサ10が取付は固
定されている。
制御回路部14は、視覚認識部12と位置・姿勢制御部
13とを含んでおり、前記視覚認識部12は視覚センサ
10よりビデオ信号を入力し、リアルタイムの画像演算
を実行してワーク16の位置や傾き1面積1輪郭等を検
出する機能或いは位置・姿勢を絶対座標系に変換する機
能を有する。
第6図は、この視覚認識部12の具体構成例であって、
その詳細は後述するが、入力画像の重心位置と主軸角を
求め、さらにこれから入力画像の基準位置に対する位置
ずれ量や回転ずれ量をビデオレートで検出している。
第1図に戻って、位置・姿勢制御部13は、視覚認識部
12の演算結果に基づき前記支持機構部11の動作を制
御して視覚センサ10の位置および姿勢を観測最適状態
へ移行させる。例えば第6図に示す視覚認識部12によ
れは、入力画像の位置ずれ量や回転ずれ量を検出するか
ら、入力画像が撮像面の中心位置にくるよう且つその傾
きがゼロとなるよう視覚センサ10の位置および姿勢を
決定する。また視覚センサ10をワーク16に対し自在
に接近または離反させ、これを所定の高さ位置へ導くこ
とによって、視覚センサ10を観測最適位置に位置決め
できる。
第2図は、この発明の他の実施例を示し、前記支持機構
部11の支持部1日にワーク16を把持するだめのハン
ド部22.22を取り付けたものである。すなわち前記
支持部18は、下面の両側位置に突出部2Q、2Qを一
体に備えており、各突出部20.20内にそれぞれハン
ド部22.22を一斉に開閉動作させるハンド駆動機構
が組み込んである。このハンド駆動機構の駆動はハンド
制御部23Gこより制御され、このハンド制御部23は
視覚認識部12や位置・姿勢制御部13とともに制御回
路部14を構成している。前記各突出部20..20間
の凹部21には視覚センサ10が配備され、この視覚セ
ンサ10はその視軸を可動アーム17の軸芯に一致させ
である。
第3図は、更に他の実施例を示す。この実施例では、視
覚センサ10を支持機構部11の首部19の側面位置に
取り付け、その視軸を可動アーム17の軸芯から適当距
離位置ずれさせると共に、ハンド部22を支持部18の
側面位置に開閉可能に取り付けたものである。
なお第3図中、先の実施例と同様の構成については、対
応する構成に同じ符号をつけて、その説明を省略するが
、このことは以下の説明においても同様である。
第4図および第5図は、更に他の実施例を示す。この実
施例は、支持機構部11の可動アーム17に第2の可動
アーム24を分岐して設け、この第2の可動アーム24
の先端にハンド部22を取り付けたものである。このハ
ンド部22および第2の可動アーム24はハンド制御部
23によりその動作が制御されるもので、この実施例の
場合、ハンド部23の動きを視覚センサ10の動きから
独立させることができ、またワーク16のハンドリング
を視覚センサ10が確認できるという利点がある。
第6図は、視覚認識部12の具体回路構成例であって、
この実施例では入力画像の基準位置に対する位置ずれ量
や回転ずれ量をビデオレート(16,6ナノ秒)で算出
する。
以下、第7図〜第」0図に基づき入力画像の基準位置に
対する位置ずれ量や回転ずれ量の検出原理を説明した後
、第6図に示す回路の構成並びにその動作を説明する。
一般に物体画像の位置ずれや回転ずれを検出する場合、
まず視覚センサで基準モデルの画像41 (第7図(旧
こ示す)を得た後、XY座標上でのその画像41の重心
G。の座、漂Cxc。。
yG、)および主軸角θ。を求める。つぎに視覚センサ
で観測対象の画像42 (第7図(2)に示す)を得、
同様にその重心Gの座標(XG、YG)および主軸角θ
を求めた後、その位置ずれ量ΔX。
ΔYや回転ずれ量Δθを次式で算出する。
ΔX=Xr、o  Xc、・・・・■ ΔY=Y、。−Yo・・・・■ Δθ=θ0−θ  ・・・・■ ところで画(象ノイズの多い物体画像につき、その位置
ずれや回転ずれを検出するのに、画像のモーメントを利
用してその重心の座標や主軸角を算出する方式が採用さ
れる。
第8図は、この方式による重心および主軸角の検出理論
を説明するための図であり、図中、升目は縦購各256
ビソトより成る各画素を示し、物体画像43を構成する
各画素の位置はXY座標によって規定されている。
同図において、任意の画素44の座標を(Xi、YJ)
(ただしi、j=1.2.・・・・。
256)、その画素44の濃度の重み関数をf  (X
、、Y、)とすると、画像43のモーメントM’pq 
(ただしp、(1=0.1.2.  ・・・・)はつぎ
の0式で与えられ、また画像43の重心Gの座標(XG
、YG )および主軸角θは、前記モーメントを利用し
て、つぎの■〜■弐で与えられる。
M二、= f:f二:’X’   ・ X’   ・ 
f  (X、Y)  dXdY−・ −■2     
M2゜−MO22Nウ −N7ただし、Mニ。、は被測
定パターンの面積。
XG、YGは被測定パターンの重心のX座標。
Y座標である。
かくして上記0〜0式の演算を実行すれは、画像44の
重心Cの座標(XGIYG)や主軸角θが検出できる。
ところが上記各式は、二重積分5乗除算、逆三角関数を
含んでおり、これらの演算をソフト的に実施すると、多
大の時間(秒オーダ)がかかり、特に1画面分のビデオ
信号出力期間以内に演算を終了させる等、到底不可能で
ある。
そこで第6図に示す回路構成をもって、ビデオ信号の1
水平走査期間毎に1水平走査ライン分の0次、1次、2
次の各モーメントを求め、各ラインの総和を有効垂直走
査期間にわたり演算し、次の帰線消去期間に重心および
主軸角を演算することにより、ビデオ信号期間を無駄な
くフルに利用して、物体画像の重心位置やその傾きをリ
アルタイムで検出している。
第9図はこの実施例についての理論脱明を行うだめの図
である。
第9図において、縦横の各升目は画素を示し、各画素に
は水平座標アドレスX1.Xz ・・・・。
X 216および、垂直座標アドレスY、、Y、。
・・・・、  Yxsbが割り当てられる0画像45は
、物体を撮像して得たビデオ信号を2値化処理して求め
た2値画像であって、例えば物体部分が黒画素、背景部
分が白画素より構成される。図中、Gは画像45の重心
を示し、その座標(XG/YG)や主軸角θは、つぎの
■〜[相]式で示す如く、Σの関数式として表される。
ΣX1芥f (XL、YJ) λ); f  (Xi、Yj)     ΣNJなお画
像45は2値画像であるから、前記した濃度の重み関数
f  (Xi、Yl は、次式で示す如(、rOJ  
rljのいずれか値をとる。
かくして上記■〜[相]式において、ΣYJ −N。
およびΣy、” N、は垂直座標アドレスに関する1次
モーメントおよび2次モーメント、Σ N。
=M ’o n 、  ΣΣ粘およびΣΣX、′は水平
座標アドレスに関する0次モーメント、1次モーメント
垂直座標アドレスに関する相関モーメントであり、第9
図に示す実施例において、それぞれモーメントの具体例
が図の左右両側にあられしである。
この実施例の場合、ビデオ信号の各水平走査ライン毎に
2値画像45の水平座標アドレスに関するO次モーメン
トNJ、1次モーメントΣXiおよび、2次モーメント
ΣX五をハード的に求め、つぎの水平走査ラインで垂直
座標アドレスに関する1次モーメントYJNJおよび2
次モーメントYJ” NJ、さらに水平・垂直座標アド
レスに関する相関モーメントYLΣx1をソフト的に算
出すると共に、各水平走査ライン毎に有効垂直走査期間
にわたる累積加算値ΣN1.ΣY、N、。
2゛ ΣYJN、、  ΣΣX、・ΣΣX、、Σy、ΣX。
をそれぞれ求め、つぎの垂直帰線消去期間に前記累積加
算値に基づき■〜[相]弐の演算を実行して、重心Gの
座標(XG、¥、)および主軸θをソフト的に算出する
第10図は、この実施例におけるビデオ信号VD、のタ
イムチャートを示す。同図において、と半分の図は、垂
直走査期間にかがるビデオ信号VD、を、下半分の図は
水平走査期間にががるビデオ信号VD、を、それぞれ示
している。
図中、VDは垂直同期信号、HDは水平同期信号を示し
、■垂直走査期間(16,7ミリ秒)は20J((ただ
し1Hはl水平走査期間を意味し63.5マイクロ秒で
ある)の垂直帰線消去期間と、残りの有効垂直走査期間
とから構成されている。この有効垂直走査期間には、2
42本の水平走査ラインを含み、また各水平走査ライン
には、256個の画素データを含んでいる。
なお図中、Y、、yz、ys 、  ・・・・、Y24
□は前記第9図における垂直座標アドレスに、またX 
r + X ffi+ X ff+・・・・、XZS&
は水平座標アドレスにそれぞれ対応する。
つぎに第6図の回路構成を説明するに、図中、視覚セン
サ10は、ワーク16を真上或いは斜め上より憑像し、
濃淡画像を構成するところのビデオ信号VD、を出力す
る。同期分離回路48は、ビデオ信号VD、より水平同
期信号HD、垂直同期信号VD、クロック信号CK等を
分離して、これを2値化回路49へ出力する。2Il!
化回路49は、ビデオ信号VD、に対し一定のスレシュ
ホールドレベルを設定することにより、ビデオ信号VD
、を白黒2値化して2値化画像を生成する。画素カウン
タ50は、ビデオ信号VD、の1水平走査ライン毎に、
物体部分を構成する画素(この実施例では黒画素)の数
を計数するためのもので、その計数値NJは110(I
 npu t/ Ou tpu t)ポート51を介し
てCPU(Central  Processing 
Unit )  52に取り込まれるようになっている
水平カウンタ53は、前記の水平座標アドレスを割り当
てるためのもので、水平同期信号HDの立下がりから例
えば10画素分に相当する時間経過後よりクロック信号
CKの計数を開始する。加算器54およびバッファ55
は、黒画素が存在位置する水平座標アドレスにつき、そ
の累積加算値ΣX、を求めてCPU52へ出力するだめ
のもので、水平カウンタ53の内容X1とバッファ55
の内容とが加算器54に入力されて累積加算処理される
テーブル変換ROM 56は、水平カウンタ53の内容
X、を、その2乗(iX、′に変換するだめのテーブル
TI  (第11図に示す)が格納されたものであり、
水平カウンタ53の内容X、でテーブル変換ROM56
のアドレスがアクセスされて、その2乗値X、′が加算
器57へ出力される。この加算器57およびバッファ5
8は、黒画素が存在位置する水平座種子ドレスにつき、
その2乗値X、′の累積加算値ΣX、2を求めてCPt
J52へ出力するためのもので、テーブル変iROM5
6の出力Xi ”とバッファ58の内容とが加算器57
に入力されて累積加算処理される。
上記カウンタ50の計数値N、や各バッファ55.58
の内容ΣXL、ΣXi”は1水平走査毎に■/○ポート
51を介してCPU52に取り込まれ、CPU52はこ
れらのデータに基づき所定の演算処理を実行して、画像
の重心Gの座i (x+、 、 YG )および主軸角
θを求める。
なお図中、FROM59は位置ずれ検出等の一連のプロ
グラムを格納し、またRAM60は各種データを格納す
る他、処理実行のためのワークエリアを有する。
つぎに第6図の回路につき、その動作を説明する。
まず同図の回路のモードを学習モードに設定した上で、
視覚センサ10で例えば基準モデルを撮像すると、同期
分離回路48で同期信号等が分離され、さらに2値化回
路49でビデオ信号VD、の2 (i比処理が実行され
て、2値画像が生成される。この2値画像出力は、画素
カウンタ50および各加算器54.57へ送られるもの
で、この画素カウンタ50や各加算器54゜57におい
ては、前記した所定の計数ないしは演算が実行される。
そして各水平走査期間毎に、CPU52に対し水平同期
信号HDによる割込みLNTが発生せられ、その都度、
画素カウンタ50の内容や、各加算器54.57による
加算結果がCPU52取り込まれる。
第12図はCPU52における割込み制御動作を示す。
なお同図中、YJはCPU52が内部に有する垂直カウ
ンタの計数値(前記垂直座標アドレスに相当する)を示
しており、この垂直カウンタは前記割込みINTの発生
がある毎に歩進されるものであって、垂直同期信号VD
の立下がりより20Hに相当する時間経過後より計数を
開始する。
今、YJ@巳の水平走査ラインにつき、画素カウンタ5
0による黒画素計数動作が完了した時点を想定すると、
まずCPU52はステップ1で画素カウンタ50の内容
N、を読み取った後、つぎのステップ2でその累積加算
値N(前記ΣN、に対応する)を演算して、RAM60
へ格納する。さらにステップ3では、CP 052内の
垂直カウンタの内容YJが読み取られ、つぎのステ・7
プ4でCPU52はその累積加算値NT、  (前記Σ
N、Y、に対応する)を演算して、演算結果をRAM6
Qへへ格納する。続くステップ5では、垂直カウンタの
内容YJをその2乗値Y、′に変換するため、FROM
59に格納された変換テーブル(図示せず)が参照され
て2乗値Y、′が求められる。そしてつぎのステップ6
では、YJ” N、の累積加算値NY (前記ΣY、”
 Njに対応する)が演算されて、その演算結果がRA
M60へ格納される。
さらにステップ7では、バッファ55の内容ΣXLがC
PU52に取り込まれて、つぎの基テップ8で、その累
積加算(直NT、L (前記ΣΣX、に対応する)が演
算されると共に、つぎのステップ9で、YJΣX、の累
積加算(直Nxy(前記ΣYJΣXLに対応する)が演
算さて、それぞれ演算結果がRAM60へ格納される。
さらにステップ10では、バッファ58の内容ΣX12
がCPU52に取り込まれ、続くステップ11で、CP
U52はその累積加算値N、(前記ΣΣX、!対応する
)を演算して、その結果をRAM60へ格納する。つぎ
のステップ12は、前記垂直カウンタの内容YJがr2
42Jに達したか否か、すなわち最終242番目の水平
走査ラインについてのステップ1〜11の処理が完了し
たか否かを判定しており、もしその判定が“NO”のと
き、つぎの割込みINTに待機し、以下の水平走査ライ
ンについての上記各処理が繰返し実行される。
かくして最終の水平走査ラインについてのステップ1〜
11の処理が終了すると、ステップ12の判定が“YE
S”となり、つぎの基テップ13.14において、前記
累積加算値N 、 N T + 。
NT、を用いて、重心G@の座標(XGO,Yl、o)
が算出され、その結果がRAM60の所定エリアに格納
される。またつぎのステップ15.16゜]7において
、前記累積加算値Nx 、 Ny!’lxyを用いて、
それぞれNv = NY  N YG(1” 。
Nxy=Nxy  NXaoYt、o、 Nx =Nx
  NX2G。
を演算して主軸角θ。が算出され、その結果がRAM6
Qの所定エリアに格納される(ステップ20)、この場
合この実施例では、まずつぎの0式を換算してZの値を
求め、この2を10倍または1/10倍した値でFRO
MI 9に格納された変換テーブル(第14図および第
15図)のアドレスをアクセスして、主軸角θ。の算出
を行っている。
なお第14図は主軸角θ。がO〜22−5’である場合
の変換テーブルT2およびtanθ。
の変換曲線を、また第15図は主軸角θ。が22.5〜
45°である場合の変換テーブルT3およびC0keo
の変換曲線をそれぞれ示し、この変換テーブルT2.T
3は主軸角θ。の大きさに応じて用いわけられる。
上記重心G0の座標(Xco、 Yt、o)および主軸
角θ。の算出が終わると、最後にステップ21でRAM
60より各累積加算値N、NT、、NT2゜NX、Ny
、Nつ、がクリアされ、基準パターンについての一連の
処理を終了する。なお座標データX、。+  Yr、o
や主軸角θ。は絶対座標系に変換することもでき、この
変換は位置・姿勢制御部13で行うこともできる。
つぎにモードを計測モードに設定した上で、視覚センサ
10でワーク16を逼像する。この場合も、上記基準モ
デルの場合と同様の画像処理、さらには画素カウンタ5
0および各加算器54.57の計数ないしは演算が実行
される。
そして各水平走査毎に、CPU52に対し水平同期信号
HDによる割込みINTが発生せられ、画素カウンタ5
0の内容や各加算器54.57による加算結果がその都
度読み込まれる。
第13図はこの場合のCPU52における割込み制御動
作を示す。同図において、久テップ41〜51は累積加
算値N、 NT’+、 Ny 、NT2 。
NXY、NXを算出するステップであって、これは第1
2図のステップ1〜11と全く同様である。
そして最終の水平走査ラインについてのステップ41〜
51の処理が済むと、ステップ52の判定が“YES”
となり、ステップ53〜60において、重心Gの座標(
Xa 、 YG )および主軸角θが算出される。ここ
で座標データXa。
Y、や主軸角θは絶対座標系に変換することもでき、ま
たこの変換は位置・姿勢制御部13で行うこともできる
。しかる後、CPU52ば〜これらデータおよび学習モ
ードで得た基準モデルについてのデータを用いて前記0
〜0式の演算が実行され、画像の位置ずれ量Δx1 Δ
Y。
および回転ずれ量Δθが算出される。(ステップ61〜
63)。そしてつぎのステップ64でこの算出結果が位
置・姿勢制御部13へ出力された後、ステップ65にお
いて、RAM60より各累積加算値N 、 N T 、
 、 N T z 、 N x 、 N v 。
NXyがクリアされて、一連の処理を終了する。
つぎに第1図に示す実施例(第2図〜第5凹の実施例も
同様である)につき、その使用法並びに動作を第16図
〜第18図に基づき説明する。
第16図において、視覚センサ10はテーブル15上方
の遠く離れた位1(図中、a位置)に位置し、広いH’
15A視野3aでテーブル15上のワーク16をとらえ
ている。いま装置が作動して視覚センサ10より視覚認
識部12へ入力画像のビデオ信号が入力されると視覚認
識部12は前記の演算・処理を行って、入力画像5の重
心位置や主軸角を求め、さらに位置ずれ量ΔX。
ΔYおよび回転ずれlΔθをビデオレートで算出して、
これを位置・姿勢制御部13へ出力する。位置・姿勢制
御部13では、これらずれ量ΔX1  ΔY、Δθがゼ
ロになるよう視覚センサ10の位置や姿勢を補正すると
共に、視覚センサ10を図中、矢印Sで示す方向へ移動
させてワーク16に接近させてゆき、狭い観測視野3b
の最適位置く図中、b位りにてワーク16を詳細に観測
して、認識その他の処理を実行する。なお観測量適位置
は、テーブル」5上の所定高さ位置Sこ設定するのもよ
く、また画(&5の面積(前記累積加算値N)等を視覚
認識部12より取り込み、これを判断要素に用いてその
都度決定するのもよい。
上記動作において、視覚認識部12はビデオレートで入
力画像5の位置ずれ量ΔX、ΔYや回転ずれ量Δθ等を
検出して、これを時々刻々位置・姿勢制御部13に与え
るから、装置全体としては視覚センサ10がワーク16
を見ながら観測最適位置へ移動し、或いは視覚センサ1
0がワーク16に近づきつつワークL6を常時観測する
という人間の視覚系と同等の作用が得られる。
第17図は、この装置例の他の使用法を示す。
同図において、視覚センサ10はテーブル15上の適当
高さ位置に位置しており、この視覚センサ10がその観
測視野3に移動ワーク16をとらえたとき、視覚センサ
10がワーク16を追尾して、a位置よりb −e位置
を経てf位置に至っている。この装置によれは、ワーク
16のずれ量ΔX、ΔY、Δθが視覚認識部12のリア
ルタイム演算で検出されて、時々刻々位置・姿勢制御部
13に与えられるから、視覚センサ10をワーク16の
動きに追随させることができる。この場合は基準の座標
データX、。。
Y、oや主軸角θ。は前回のデータであって、現データ
との差から次に移動する座標系を予測して位1・姿勢制
御部13へ伝える。
第18図は、この装置例の他の使用法を示すもので、視
覚センサ10にである決められた追跡ライン25を観測
しつつ、この追跡ライン25に沿って視覚センサ10を
移動させている。同図中、6は視覚センサの撮像面を示
し、この撮像面6に生成される追跡ライン25の画像に
つきそのずれ量を視覚認識部X2がリアルタイム演算で
検出し、これを位置・姿勢制御部13に時々刻々与えて
いる。これにより視覚センサ10は、その位置や姿勢を
常に補正し、追跡ライン25を追跡しつつ移動するもの
である。
第19図〜第22図は、この発明にかかる高速視覚認識
装置の応用例を示す。
第19図は、この発明を両眼立体視装置に応用した例で
あり、左右一対の視覚センサLQA。
10Bがテーブル15上の遠く離れたa位置に配置され
ている。図示の装置では、まず2Jmの視覚センサIO
A、IOBを用いてワーク16をとらえ、三角測量の原
理によってワーク16までの距諦をおよそ測定する。つ
ぎに2個の視覚センサLOA、LOBを観測最適位置(
b位置)まで移動させた後、再度三角測量の原理による
三次元位置・姿勢測定を行って正確な位置・姿勢情報を
得ている。
第20図は、支持猿構部11の首部19に一対の視覚セ
ンサIOA、IOBを、また支持部22下面にハンド部
22を、それぞれ取り付けた例である。図示例の場合、
各視覚センサ10A。
LQBのビデオ出力は切換部26を介して視覚認識部1
2に与えられており、視覚認識部12は各視覚センサ1
0A、LOBからの入力画像につき交互に演算・処理を
実行するものである。
第21図は、第20図の具体例についての動作を示すが
、視覚認識動作は前記第19図と同様であり、ここでは
その説明を省略する。
なお第19図〜第21図は、ひとつの支持機構部11に
つき2個の視覚センサLQA、IQBを取り付けた例を
示すが、これに限らず、ひとつの支持機構部11にさら
に多数個の視覚センサを取り付けて、三次元位置・姿勢
等の測定済度を向上させることもできる。
第22図は、2個の視覚センサIOA、IOBとハンド
部22とを有する視覚機構系を複数個(同図の例では、
3個の視覚機構系T、、T、。
T、)具備した装置例を示している。この装置例の場合
、各視覚機構系T1.Tz 、T3の視覚センサ10A
、JOBのビデオ出力は切換部27を介して1個の視覚
認識部12へ与えられており、視覚P1.八部へ2は各
視覚センサ10A。
10Bからの入力画像につき交互に演算処理を実行し、
その結果を出力切換部28を介して順次対応する位置・
姿勢制御部13へ出力する。
この装置例によれは、ワーク16を複数の方向から遠近
自在に観測できるから、ワーク16の全体形状を細部に
わたりて認識する必要のある場合等に特に有効であり、
その認識結果に応じて最適な方向からワーク16をいず
れかハンド部22にて把持することができる。
なお上記の各実施例や各応用例は、この発明の一実施態
様に過ぎず、必要に応じて他の応用例に展開したり、構
成の一部を設計変更したり、或いは必要な構成を付加し
たりすることができる。
例えば上記の実施例においては、視覚認識部12は入力
画像の位置ずれ量や回転ずれ量を検出して、位置・姿勢
制御部13ヘフイードバツクしているが、これに限らず
、任意の画像の他の特徴パラメータを検出して、その時
数パラメータに基づく制御を行うこともできる。
さらに特徴パラメータの検出やそのデータ処理に際し、
必要に応じて制御回路部14中に座標変換手段を設けて
、検出座標データを絶対座標に写像する等の演算・処理
を含ませることもできる。
〈発明の効果〉 この発明は上記の如く構成したから、視覚センサをリア
ルタイムかつ自在に動かしつつ最適な位置から観測対象
を観測することができ、高精度且つ高速度の認識処理を
実現できる。しかも単一の視覚センサをもって観測視野
を自在に設定できるから、複数個の視覚センサを必要と
した従来方式に比較して設備費用を大幅に軽減できる等
、発明目的を達成した顕著な効果を奏する。
【図面の簡単な説明】
第1図はこの発明の一実施例にかかる高速視覚認識装置
の全体概略構成を示す図、第2図および第3図はハンド
部を備えた他の実施例の全体概略構成を示す図、第4図
はハンド部を独立させた他の実施例の外観図、第5図は
第4図の実施例の全体概略構成を示す図、第6図は視覚
認識部の具体例を示す回路ブロック図、第7図は画像の
位置ずれ量や回転ずれ量を説明するための図、第8図は
重心および主軸角の検出理論を説明するだめの図、第9
図は第6図の具体回路例の動作理論を説明するための図
、第10図はビデオ信号のタイムチャート、第11図は
テーブル変換ROMの内容を示す図、第12図および第
13図は画像入力処理部の割込み制御動作を示すフロー
チャート、第14図および第15図は変換テーブルおよ
び変換曲線を示す図、第16図〜第18図はこの発明に
かかる装置の使用法を説明するための図、第19図はこ
の発明にかかる装置の応用例の動作を示す図、第20図
は他の応用例の全体概略構成を示す図、第21図は第2
0図の応用例の動作を示す図、第22図はさらに他の応
用例の全体概略構成を示す図、第23図〜第26図は従
来システムにおける視覚センサの設置状況を示す図、第
27図は第23図の視覚センサによる入力画像を示す図
、第28図は第24図の視覚センサによる入力画像を示
す図である。 10、1ON、10B・・・・視覚センサ11・・・・
支持機構部 12・・・・視覚認識部 13・・・・位置・姿勢制御部 特許 出願人  立石電機株式会社 @ 7 +21   高4束、イは粒量や1ヨ転ずれ量
す説胡OMの図tl)               
 121ジノz2 一2’rlj +B   史、b−r−nr−thar
蕨*p*etsesthr:r、+wフ7f’10 1
B   と゛チーIヂを号げイAfp−ト−A1元カt =Σゴ′ノ2+”23.   g1gモーF 7−ch
 ”l・1Δノナ軸」ンhph作!子tフ。−ブフート
7す/L IZI   便イ英テールしhJひ丈J貞曲
崩■示?+21ら−にΔ5)23  変#鼾−2・しお
よ、−責J灸藺糸馴に示t122しIゝ/6に211 
 gi、イ史iロ、去を示す12N→+/フ1z 襞し
ルイ史用シh元41Z”21   i♂1ΔLリイとZ
のイj七用シジ1求示t@−,卜 7)/ ’/ lb   :、taJe明nli: 月
弓4J−+alnlV t74+2寸23121 →271a          →281217F23
1’ZJ41’ttz>’fyJ4         
           →2ム+3s#2’th>7x
J6へq幽R2;I’ ? 121         
        入力画イ考1、す1a→251”;E
J 2Bシステムkhする了見覚セ、グー設置J大゛7兄2
〒−rlz”+zc+zl    従東ンステAン4ら
寸a定右7プめ74ラズ刀示ttδ2ρ

Claims (7)

    【特許請求の範囲】
  1. (1)観測対象を撮像してビデオ信号を出力する視覚セ
    ンサと、 視覚センサを支持すると共に視覚センサの位置および姿
    勢を可変設定するための支持機構部と、 視覚センサよりビデオ信号を入力しリアルタイムの画像
    演算を実行して観測対象を認識するための視覚認識部と
    、 視覚認識部の演算結果に基づき前記支持機構部の動作を
    制御して視覚センサを観測最適位置へ移行させるための
    位置・姿勢制御部とを具備して成る高速視覚認識装置。
  2. (2)前記視覚センサは、固体撮像素子より成るテレビ
    カメラである特許請求の範囲第1項記載の高速視覚認識
    装置。
  3. (3)前記視覚センサは、単一の支持機構部につき1個
    宛設けられている特許請求の範囲第1項記載の高速視覚
    認識装置。
  4. (4)前記視覚センサは、単一の支持機構部につき複数
    個設けられている特許請求の範囲第1項記載の高速視覚
    認識装置。
  5. (5)前記支持機構部は、観測対象を把持するためのハ
    ンド部を含んでいる特許請求の範囲第1項記載の高速視
    覚認識装置。
  6. (6)前記支持機構部には、観測対象を把持するための
    ハンド部が外部接続されている特許請求の範囲第1項記
    載の高速視覚認識装置。
  7. (7)前記視覚認識部は、入力画像の位置ずれ量および
    回転ずれ量をビデオレートで検出する機能をもち、前記
    位置・姿勢制御部は位置ずれ量および回転ずれ量がゼロ
    となるよう支持機構部の動作をリアルタイムで制御する
    特許請求の範囲第1項記載の高速視覚認識装置。
JP61130490A 1986-06-04 1986-06-04 高速視覚認識装置 Expired - Lifetime JPH07120416B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61130490A JPH07120416B2 (ja) 1986-06-04 1986-06-04 高速視覚認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61130490A JPH07120416B2 (ja) 1986-06-04 1986-06-04 高速視覚認識装置

Publications (2)

Publication Number Publication Date
JPS62286189A true JPS62286189A (ja) 1987-12-12
JPH07120416B2 JPH07120416B2 (ja) 1995-12-20

Family

ID=15035505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61130490A Expired - Lifetime JPH07120416B2 (ja) 1986-06-04 1986-06-04 高速視覚認識装置

Country Status (1)

Country Link
JP (1) JPH07120416B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01135570U (ja) * 1988-03-08 1989-09-18
JPH0652348A (ja) * 1992-07-28 1994-02-25 Sumitomo Metal Ind Ltd マーク読み取りの際の搬送誤差補償方法及びシステム
JPH0973543A (ja) * 1995-09-06 1997-03-18 Toshiba Corp 画像処理装置
JP2002098650A (ja) * 2000-09-26 2002-04-05 Matsushita Electric Works Ltd 透明体検出方法およびそのシステム
JP2008257353A (ja) * 2007-04-02 2008-10-23 Advanced Telecommunication Research Institute International 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム
WO2014054753A1 (ja) * 2012-10-04 2014-04-10 アルプス電気株式会社 画像処理装置及び車両前方監視装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5697177A (en) * 1979-12-29 1981-08-05 Fuji Electric Co Ltd Matching type pattern inspection device using normalization method
JPS6015780A (ja) * 1983-07-08 1985-01-26 Hitachi Ltd ロボット制御装置
JPS60123974A (ja) * 1983-12-09 1985-07-02 Hitachi Ltd 多段階視野認識方式

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5697177A (en) * 1979-12-29 1981-08-05 Fuji Electric Co Ltd Matching type pattern inspection device using normalization method
JPS6015780A (ja) * 1983-07-08 1985-01-26 Hitachi Ltd ロボット制御装置
JPS60123974A (ja) * 1983-12-09 1985-07-02 Hitachi Ltd 多段階視野認識方式

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01135570U (ja) * 1988-03-08 1989-09-18
JPH0652348A (ja) * 1992-07-28 1994-02-25 Sumitomo Metal Ind Ltd マーク読み取りの際の搬送誤差補償方法及びシステム
JPH0973543A (ja) * 1995-09-06 1997-03-18 Toshiba Corp 画像処理装置
JP2002098650A (ja) * 2000-09-26 2002-04-05 Matsushita Electric Works Ltd 透明体検出方法およびそのシステム
JP2008257353A (ja) * 2007-04-02 2008-10-23 Advanced Telecommunication Research Institute International 物体の視覚的表現を学習するための学習システム及びコンピュータプログラム
WO2014054753A1 (ja) * 2012-10-04 2014-04-10 アルプス電気株式会社 画像処理装置及び車両前方監視装置

Also Published As

Publication number Publication date
JPH07120416B2 (ja) 1995-12-20

Similar Documents

Publication Publication Date Title
JP5282717B2 (ja) ロボットシステム
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
JP7022076B2 (ja) 産業機器用の画像認識プロセッサ及びコントローラ
JP5897624B2 (ja) ワークの取出工程をシミュレーションするロボットシミュレーション装置
JP5310130B2 (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5904676B2 (ja) マシンビジョンシステムおよびロボットの間のロバストな較正の装置および方法
US9715730B2 (en) Three-dimensional measurement apparatus and robot system
CN112518748B (zh) 面向运动物品的视觉机械臂自动抓取方法与系统
CN106485746A (zh) 基于图像无标定的视觉伺服机械手及其控制方法
JP2015212629A (ja) 検出装置およびこの装置を具えたマニプレータの動作制御
US20160184998A1 (en) Robot identification system
JP5093058B2 (ja) ロボットの座標の結合方法
JPH0780790A (ja) 三次元物体把持システム
JPS62286189A (ja) 高速視覚認識装置
Han et al. Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning
TWI274845B (en) Equipment for detecting the object corner and distance using a sole lens
Khan et al. On the calibration of active binocular and RGBD vision systems for dual-arm robots
CN113012238A (zh) 一种多深度相机快速标定与数据融合的方法
Wu et al. Kinect-based robotic manipulation: From human hand to end-effector
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP2007171018A (ja) 物体位置認識方法及び物体位置認識装置
CN112074868A (zh) 基于结构光的工业机器人定位方法和装置、控制器、介质
WO2022124232A1 (ja) 画像処理システム及び画像処理方法
JPH1177568A (ja) 教示支援方法及び装置
Huang et al. Vision based 3-D position control for a robot arm