JPS6344104A - ワ−クの位置及び姿勢の認識方法 - Google Patents

ワ−クの位置及び姿勢の認識方法

Info

Publication number
JPS6344104A
JPS6344104A JP61187877A JP18787786A JPS6344104A JP S6344104 A JPS6344104 A JP S6344104A JP 61187877 A JP61187877 A JP 61187877A JP 18787786 A JP18787786 A JP 18787786A JP S6344104 A JPS6344104 A JP S6344104A
Authority
JP
Japan
Prior art keywords
image
workpiece
work
pattern
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61187877A
Other languages
English (en)
Inventor
Hitoshi Nagakura
永倉 均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP61187877A priority Critical patent/JPS6344104A/ja
Publication of JPS6344104A publication Critical patent/JPS6344104A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、例えば自動車等のエンジン部品で必るシリン
ダブロックのように、複数の円形状の孔を有するワーク
の位置及び姿勢の認識方法に関する。
(従来の技術) 近年では、コンピュータの驚異的な発展に伴って、産業
用ロボット等にカメラを設け、人間と同;策の視覚機能
を与えることによって、被加工物の形状、位置、姿勢等
を計測、認識させ、柔軟性のめる作業を行なえる産業用
ロボットが実用化されている。
ところで、産業用ロボットに接続されたカメラから入力
した画像の処理方法としては、一般的に、設定された処
理対象領域内における当該画像の濃淡度に応じて、前記
画像を二値化する二値化思埋が最も広く用いられている
このような二値化処理によって、例えば第11図に示す
ようなワークであるシリンダブロック1の位置及び姿勢
を&2識する場合の技術には、特開昭59−12147
5号公報に記載されでいるような技術がおり、その認識
は具体的には次のように行なわれる。
まず、第11図(A)に示すような複数の円形形状の孔
2a、 2b、・・・・・・、2q、2rを有するシリ
ンダブロック1の画像を、図示しないカメラによって取
込む。尚、この場合の画像の処理対象領域は、同図中の
枠内の饋!戊でおり、これは、前記カメラの蹟酸領域と
同等である。
次に、この画像を、一般的に用いられているp−タイル
法やモード法等によって閾値を算出することによって二
値化し、これによって第11図(B)に示すような二値
化された画像を得る。
さらに、この二値化された画像内の特徴点を、予め用意
されている特徴点のパターンと比較するパターンマツチ
ング処理を行ない、第11図(C)に示すような画像を
得て、明確に認識することができなかった特徴点38〜
3eを認識することかできた特徴点4a〜4gから弁出
し、最終駒に算出された画像に基づい−Cシリンダブロ
ック1の位置及び姿勢を認識している。
(発明が解決しようとする問題点) しかしながら、このような従来のワークの位置及び姿勢
の認識方法にあっては、カメラから入力した画像を一定
の閾値をもって二値化処理をし、パターンマツチング処
理を行なって特徴点を抽出し、また、明確に認識できな
かった特徴点を有する場合には、ざらに前記閾値を変更
して当該画像を二値化処理し、上述と同様にして特徴点
を抽出するようにし−Cいたために、ワークに対ザる照
明条件の不均一性の影響(例えば、ワークにおける液比
像面の面積が大きい場合には、その被1最像而の微小領
域における照度は常に一定とは限らない。
)によって、例えば、当該ワークの特徴点であるポア孔
2a、2b、−−−−−・、2q、2rの形状が第11
図(B)に示す二値化画像のように変化してしまい、こ
の画像に基づいてパターンマツチング処理を行なうと、
この画像内に存在するノイズ5を、予め用意されている
前記ワークの特徴点のパターンに対し、比較的相関度の
低い特徴点と誤認識する場合があり、最悲の場合には、
ワークの位置が第11図(C)に示す6の位置か、7の
位置か、また、8の位置かを判断することが不可能にな
る。
また、上記した問題(ワークに対する照明条件の不均一
性)を解決するために、カメラから入力した画像の処理
対象領域を狭く設定する方法も考えられるか、この方法
では、ワークの特徴点の誤認1裁を避けることは容易で
おるが、これに反して、ワークの特徴点をとらえ難いと
いう欠点がある。
本発明(:ヨ、以−ヒのような従来の問題点に鑑みて成
されてものであり、カメラから入力したワークの画像の
全領域を処理対象領域として二値化処理し、この処理に
よって得られたワークの特徴点のパターンを分類して当
該ワークのおおよその位置及び姿勢を予測し、次に、こ
の位置及び姿勢に基づい−C当該迅埋封象領域を狭く設
定して二値化処理し、この領域内の特徴点を九名識する
ことによって当該ワークの位置及び姿勢を照明条件等に
拘らず正確に認識できるようにすることを目的とする。
(問題点を解決するための手段) 前記目的を達成するために、本考案では、夫々一列に配
列された少なくとも2以上の大円を有する第1認識部と
第2認識部との間に、一列に配列された少なくとも2以
上の小円を有する第3九2識部を備えた被搬像面を有す
るワークの画像を画像メモリに記憶し、当該画像メモリ
に記憶されている当該画像から前記夫々の大円の中心候
補点座標を算出すると共に当該夫々の中心候補点間の距
離を算出し、当該夫々の中心候補点座標及び当該夫々の
中心候補点間の距離に関する情報によって作成されるべ
きパターンを予め設定されているパターンと比較して前
記第1認識部及び前記第2iffi識部における大円の
配列方向を予測し、前記夫々の大円の中心候補点座標及
び当該配列方向の予測に基づいて前記夫々の小円を包含
する処理対象領域を設定し、当該処理対象領域内にd3
ける小円の夫々の中心候補点座標を算出し、当該夫々の
中心候補点座標から前記ワークの位置と姿勢とを算出す
るようにしたことを特徴とする。
(作用) 以上のような方法によれば、まず、カメラから入力した
ワークの画像の全領域を処理対象領域とし、当該画像の
入力状態が変化しても比較的安定して得られる特徴点を
抽出して当該ワークのおおよその位置及び姿勢を予測し
、次に、処理対象領域を狭めて、その領域内に存在する
特徴点を抽出し、その特徴点の座標値等に基づいて前記
ワークの位置及び姿勢を認識することになるので、照明
条件等の均一でない現場等においても常に正確な前記ワ
ークの位置及び姿勢を認識することが可能になる。
(実施例) 以下に、本発明の実施例を図面に基づいて詳細に説明す
る。
第1図には、本発明に係る認識方法によってワークの位
置及び姿勢を算出する画像処理装置のブロック図が示さ
れている。
同図に示すように、この画像処理装置は、ワークの被b
’i m nを取込むテレビカメラ9と、テレビカメラ
9から出力された前記被Iid像面の画像をデジタルデ
ータに変換するA/D変換器10と、A/D変換器10
から出力された前記デジタルデータを格納する画像メモ
リ11とを備えており、画像メモリ11は、テレビカメ
ラ9から取込んだ画像をデジタルデータとして記憶する
ことになる。
さらに、この画像処理装置には、画像メモリ11内に記
憶されているデジタルデータを二値化灰理する濃淡画像
処理部12と、予め前記ワークの二値化処理後における
所定のパターンを格納するパターン格納部13と、濃淡
画像処理部12によって処理された後の前記ワークの画
像のパターンを、パターン格納部13に記憶されている
パターンと比較し分類するパターン分類部14とを(4
hえており、テレビカメラ9によって1収込まれた[ワ
ークの画像のパターンは、パターン格納部13に記憶さ
れているパターンに基づいてパターン分類部14によっ
て分類されることになる。
そして、ざらに、この画像処理装置には、パターン分類
部14によって分類されたパターンに基づいて前記ワー
クのおおよその位置を予測する位置予測部]5と、位置
予測部15によって予測された前記ワークの位置に基づ
いて、さらにもう一度二埴化処理するための処理対象領
域を算出する異形処理領域設定部16と、画像メモリ1
1内に記憶されているデジタルデータを、位置予測部1
5によって予測されたワークのおおよその位置及び異形
処理領域設定部16によって算出された処理対象領域等
に基づいて二値化する二値化処理部17と、二値イヒ処
理部17から出力された処理後のデジタルデータに塞づ
いて前記ワークの位置及び姿勢を咋出する認識部18と
、この算出された前記ワークの位置及び姿勢に関するデ
ータをCR1−、プ1ノン夕等に出力する出力部19と
を備えて・ちり、位置予11111部15て弾出された
前記ワークのおおよその位置に基づいて、異形処理領域
設定部16によって処理対象領域を設定し、この設定さ
れた処理対象領域に対応する画像メモリ11内に記憶さ
れているデジタルデータを二値化処理部17によって三
直化処理し、認識部18で最終的な前記ワークの位置及
び姿勢を認識し、この結果を出力部1つによって外部に
出力するようになっている。
このように構成された画像α埋装置によって、ワークの
位置及び姿勢は、第2図に示されているメイン処理プロ
グラムによって、以下のようにして認識される。このプ
ログラムの動作を第1図及び第3図を参照して説明する
ステップ1 まず、テレビカメラ9から第3図(△)に示すような処
理対象となるワーク1(シリンダブロック)における被
11面の画像を入力1−るっステップ2 この画像を、A/D変換器10によって画索毎にその濃
淡度に応じたデジタルデータに変換し、このデータを画
像メモリ11に記nするっそして、この記憶されている
デジタルデータは、濃淡画像処理部12によってラプラ
シアン等を用いて二値化処理されると共にこの処理デー
タに基づいて第3図(B)に示すようなノイズが除去さ
れた線画を作成し、この線画から第3図(C)及び(D
>に示すような前記ワークの特徴点2でおる円の中心候
補点20・・・20.21・・・21を抽出する。尚、
この円の中心候補点抽出方法には、従来から用いられて
いる種々の公知の方法が必り、また、本発明の要旨とは
直接関係がないので、以降においてもこの抽出方法の詳
細な説明は省略する。
ステップ3 パターン分類部14は、パターン格納部13内に記・呟
されている二値化処理後における前記ワークの所定のパ
ターンを人力する。
ステップ4 パターン分類部14は、パターン格納部13から入力し
たパターンと、濃淡画像処理部12から出力された前記
ワークの第3図(E)に示すような二値化処理後の画像
のパターンとを比較し、分類する。この処理の詳細な説
明は後述する。
ステップ5 パターン分類部14は、ステップ4の処理の結果、一致
するパターンが存在するかどうかを判断する。一致する
パターンが存在すればステップ6に進み、一致するパタ
ーンがなければステップ/lに戻りパターン分類の処理
を継続する。
ステップ6 位置予測部15は、パターン分類部14にJ一つて一致
するパターンが確認されると、このパターンに基づいて
前記ワークのおおよその位置を予測する。この処理も以
降に詳細に説明する。
ステップ7 異形処理順1g、設定部16は、ステップ6において算
出された前記ワークの位置の予測データに基づいて、第
3図([)に示すような処理対象領域(ウィンドウ)2
2を設定する。この処理も以降に詳細に説明する。
ステップ8 二値化処理部17は、画像メモリ11内に記・口されて
いる前記ワークの被撮像面のデジタルデータを、位置予
測部15によって予測された前記ワークの位置及び異形
処理領域設定部16によって算出された処理対象領域等
に基づいて二値化処理をし、第3図(G)に示すような
この領域内における特徴点23・・・23を認識する。
この処理も以降に詳細に説明する。
ステップ9 認識部18は、ステップ7の処理において認識された特
徴点23・・・23の位置データに基づいて、前記ワー
クの中心立置を決定する。
次に、以上に記したメイン灰理プログラム中の各サブル
ーチンプログラムを説明する。
まず、第4図乃至第6図に示ずサブルーチンプ[Jグラ
ムを第7図及び第8図を参照し一〇説明する。
第4図に示すザブルーチンプログラムは、メイン処理プ
ログラムのステップ4におけるパターン分類処理プログ
ラムて必り、次のように動作する。
ステップ10 パターン分類部14は、濃淡画像処理部12から出力さ
れた二値イヒ想理後の画像に塁づいて算出したワークの
特徴点であるボア孔の中心候補点座標[例えば、第7図
に示すPl (xl、yl) 〜P1B(xl8、yl
8) ]を入力する。
ステップ11 ステップ10において算出した前記中心候補点座標間(
例えば、第7図に示ずPl−P2点聞の距離であるB、
P2−P3点間の距離である△。
以下同様にり、E、H,I、に、L、〜1等)における
距離を順次算出する。
ステップ12 ステップ10においてね出した前記中心候補熱間の距離
について、パターン格納部13内に予め記憶されている
2点間距離L1に十分近いものを判別する。
ステップ13 ス′テップ]2において判別さ机lこ2点(、!+lえ
は、Pi −1”2 、 P2−P3等)を2連ベアと
してh己憶する。
ステップ14 ステップ11からステップ13の処理が前1.d仝ての
特徴点に対して行なわれたかどうかの判断がされる。こ
の判断の結果、全ての特徴点でおる中心候補点に対して
行なわれていなければステップ11に戻り、全ての前記
特徴点に対して行なわれていればステップ15に進む。
ステップ15 次に、例えば、第7図中B、△で表わされるPl −P
2 、P2−Paのような2組の2連ペアを入力する。
ステップ16 例えば、Pi −P2 、P2−Paのような2組の2
連ペアについて、Pi−P2の線分のベクトル量とP2
−Paの線分とのベクトル量とに塁づいて、それらの線
分の傾きが同一で、かつ、一点を共有するかどうかの判
断がされる。この判断の結末、それらの線分の傾きが同
一で、かつ、一点を共有する場合には、ステップ17に
進み、この条件を満たさない場合にはステップ15に戻
る。
ステップ17 ステップ16において判別された2点(例えば、第7図
中Cで表わされるPI −Pa 、以下同様に表わされ
るF、J、N>を3連ペアとして記憶する。
ステップ18 ステップ15からステップ17の処理が前記仝−(の2
連ペアに対して行なわれたかどうかの判断がされる。こ
の判断の結果、全ての2連ペアに対して行なわれていな
ければステップ15に戻り、全ての2連ペアに対して行
なわれていればステップ19に進む。
ステップ19 例えば、第7図中C,Fで表わされるPI−Pa、Pa
−P6のような2組の3連ペアを人力覆る。
ステップ20 PI −Pa 、Pa−P6のような2組の3連ペアに
ついて、Pl−Paの線分のベクトル潤とビ4−P6の
線分のベクトル量、とを求め、これらのベクトル量から
Pl−Paの線分とPit−1”6の線分との傾きが同
一であるかどうかの判断をする。
この傾きが同一であればステップ21に進み、同一でな
ければステップ19に戻る。
ステップ21 傾きが同じもの同志の3連ペアの夫々のベクトル量から
、この3連ペア間の平行距離を算出する。
ステップ22 ステップ21で算出された平行距離がL2に十分近いか
どうかの判断がされる。平行距離がL2に十分近ければ
ステップ23に進み、3[1行距離がし2に十分近くな
ければステップ19に戻る。
ステップ23 ステップ22で判別された3連ペアを一致パターンとし
て記憶する。
このようにパター分類類部14は、以上のような型理を
行なって、濃淡画像処理部12によって処理された後の
前記ワークの画像のパターンを、パターン格納部13に
記憶されているパターンと比較し分類することになる。
次に第5図に示すサブルーチンプログラムは、メイン処
理プログラムのステップ6にあげる位置予測処理プログ
ラムでおり、次のように動作する。
ステップ25 前記した第4図に示されているパターン分類ザブルーチ
ンプログラムに基づいて算出された3;土ペアを構成す
るボア孔の中心候補点座標(第7図に示づP1〜P 6
. P7〜p12. P13〜P18)を記憶する。
ステップ26 第7図に示ずPi 、P6とPa、F)4の中心11父
補点座標を結ぶPl−Pa及びPa−1−)4夫々の線
分の中点座標G (X(] 、 YCI )を算出りる
。また、同様に、Pl3. Pl8とPl5. Pl6
の中心候補点座標を結ぶPl3−Pl8及びPl5−i
’16夫々の線分の中点座標G” (xg’、Yg’)
を算出りる。
以上のようにして、位置予測部15は、1ノークのおお
よその位置を予測する。
さらに、第6図に示1サブルーチンプログラムは、メイ
ン処理プログラムのステップ7にお(づる処理対象領域
(ウィンドウ)設定プログラムであり、次のように動作
り゛る。
ステップ30 異形思理領賊設定部16は、まず、前記した第5図に示
されている位置予測サブルーチンプログラムに旦づいて
算出された中点比(wG(xq、yg)及び中点座、標
G−(xg’、Y(]’)等のデータから、第7図に示
すように、これらの中点座標を通り、これらの中点座標
を算出する元となった3連ペアに平行な直線を引き、こ
れを中心線とし、これらの中心線と永き12線との交差
角θを算出する。
ステップ31 ステップ30で求めた交差角θが、45度以上であるか
どうかの判断がされる。45度以上でおればステップ3
2に進み、45度未満でおればステップ33に夫々進む
ステップ32 定数δの値をrとし、定数Tの値をOとする。
ステップ33 定数δの1直をOとし、定数丁の値をrとする。
ステップ34 第8図に示すように、処理対象領域22を構成する四隅
の内の1の座標Q1  (Xl 、 Yl )を以下の
式によって算出する。
xi =xg+Rccsθ−δ Vl =’y/g十Rsrr+θ+γ ステップ35 処理対象領域を、構成する四隅の内の1の座標Q2(x
2.y2)を以下の式によって算出Jる。
x2 =xg 十Rcosθ+δ y2=yg+R5lTlθ−γ ステップ36 処理対象領域を構成する四隅の内の1の座標Q3(X3
.y3)を以下の式によって算出づる。
x3 =xg−Rcosθ−δ yJ = y’J  Rs*uθ+γ ステップ37 処理対象領域を構成する四隅の内の1の座(弘Q4(X
4.V4)を以下の式によって緯出暇る。
x4 =X(] −RCO9O+δ V4=¥g Rs;uθ−T このような処理を行なうことによって、異形α理領域ル
2定部16は、最適な処理対象領域22を設定すること
ができる。
また、第9図に示すサブルーチンプログラムは、メイン
処理プログラムのステップ8における二値化処理プログ
ラムであり、このプログラムの動作を第10図を参照し
なからI説明する。
ステップ40 まり゛、二値化α連部17は、第6図に示すウィン]〜
設定り゛ブルーチンプログラムによて算出された第10
図(△)に示すような処理対象領域22内の量子化を行
ない、第10図(B)に示すようなヒストグラムを作る
。つまり、当該処理対象領1戎22内における画素の夫
々の濃度(直を調べ、この深度値の低いiMlに並へて
ビス1〜グラムを作成すると、第10図(B)に示づに
うな曲線aかlE7られる。
ステップ41 次に、ステップ40で得られた曲線aは、同図に示11
ように、前記処理対象領域22内の背県部分とコアホー
ル部分とではその濃l宴埴に差がおるので、この背景部
分とコアホール部分との間には、必然的に窪みの部分が
存在するため、この窪みを村11成する頻度の少ない濃
度値を算出する。そして、この濃度値を最適二値化レベ
ル(閾値)tとする。
ステップ42 ステップ41で算出された閥1tQtに基づいて、処理
対象領域22内を二値化処理する。
ステップ43 ステップ42の処理によって得られた画像を、−次モー
メント処理し、第10図(C)に示すような夫々のコア
ホール24の重心座標r1〜r3を算出する。
ステップ44 求められた夫々のコアホール24の市心座、IJW r
1〜r3から、コアホール重心座標間の距離を算出する
ステップ45 ステップ44において算出したコアホール重心座標間(
例えば、線分子l −r2 、  r2−r3 >の距
離について、その距離がL3に十分近いがどうかの判断
をする。この判断の結果、L3に十分近ければステップ
46に進み、L3に十分近くなければステップ44に戻
る。
ステップ46 ステップ45において判別されたコアホール小心用(票
間の距離が13に十分近い線分(例えば、1腺分子1−
r2 、 r2−r3 )は、コアホール24の候補ペ
アとじ−C記巳される。
ステップ47 ステップ44からステップ46までのlが前記全てのコ
アホール24の候補ペアについて行なわれたかどうかの
判断がされる。この判断の結果、全てのコアホール24
の候補ペアについて行なわれていな(プればステップ4
4に戻り、全てのコアホール24の候補ペアについて行
なわれていればステップ48に進む。
ステップ48 次に、例えば、第10図(C)に示ずrl −r2、r
2−r3のJζうな2連ペアを作成する。
(これらは、同図中線分0.Pで表わされる。)ステッ
プ49 例えば、rl −r2 、r2−r3のような2組の2
連ペアについて、rl−r2の線分のベタ1〜ル砒とr
2−r3線分のベクトル最とに阜づいて、それらの線分
の傾きが同一で、かつ、一点を共イ1するかどうかの判
断がされる。この判断の結果、それらの線分の傾きが同
一で、かつ、一点を共有する場合には、ステップ50に
進み、この条イ′1を満たさない場合にはステップ48
に戻る。
ステップ50 ステップ49において判別された2点(例えば、第10
図(C)中Qで表わされる線分子l −r3 >を3連
ペアとして記1意する。
ステップ51 ステップ50において記憶した3連ペアを構成する3点
の内の中心座標、すなわち第10図(D)に示される座
標r2をワークの中心座標と覆る。
以上のような処理を行なうことによって、前記3連ペア
を構成する線分(例えば、rl−r’3)のベクトルd
に塁づいて最終的なワークの姿勢及び位置を認識するこ
とができる。
(発明の効果) 以上の説明により明らかなように、本発明によれば、カ
メラから入力したワークの画像の全領域を処理対象領域
として二値化処理し、この処理によって得られたワーク
の特徴点のパターンを分類して当該ワークのおおよその
位置及び姿勢を予測し、次に、この位置及び姿勢に基づ
いて当該処理対象領域を狭く設定して二値化処理し、こ
の領域内の特徴点を認識するようにしたので、照明条件
の悪い現場等においても当該ワークの位置及び姿勢をき
わめて高′精度にΔ2識することができる。
【図面の簡単な説明】
第1図は、本発明に関する画像処理装置のブロック図、
第2図は、本発明に係るワークの位置及び姿勢の認識方
法のメイン処理フローチャート、第3図は、第2図に示
した98理フローチヤートの動作説明に供する図、第4
図乃至第6図及び第9図は、第2図に示した処理フロー
チャートにおけるサブルーチンフローチャート、第7図
、第8図及び第10図は、第4図乃至第6図に示したサ
ブルーチンフローチャートの動作β1明に供する図、第
11図は、従来の画像処理方法の動作説明に供する図で
必る。 1・・・ワーク(シリンダブロック)、2a〜2r・・
・ボア孔、 3a〜3e、48〜4g・・・特徴点、5・・・ノイズ
、 20,21・・・中心(1久袖点、22・・・処理
対象領域(ウィンl’ 1〕)、23・・・1ぞ1徴点
。 特許用1領人     口片自動(11株式会礼代理人
弁理士八田幹雄(外2名) 第1図 第2図 Oり 第 4 図 第5図  笥6図 第7図 一3− 再 03  図 第9図 1−一一一一・ 第1e図 (A)              (B)(C)  
            α刃車if図 (A) (C)

Claims (1)

    【特許請求の範囲】
  1. 夫々一列に配列された少なくとも2以上の大円を有する
    第1認識部と第2認識部との間に、一列に配列された少
    なくとも2以上の小円を有する第3認識部を備えた被撮
    像面を有するワークの画像を画像メモリに記憶し、当該
    画像メモリに記憶されている当該画像から前記夫々の大
    円の中心候補点座標を算出すると共に当該夫々の中心候
    補点間の距離を算出し、当該夫々の中心候補点座標及び
    当該夫々の中心候補点間の距離に関する情報によって作
    成されるべきパターンを予め設定されているパターンと
    比較して前記第1認識部及び前記第2認識部における大
    円の配列方向を予測し、前記夫々の大円の中心候補点座
    標及び当該配列方向の予測に基づいて前記夫々の小円を
    包含する処理対象領域を設定し、当該処理対象領域内に
    おける小円の夫々の中心候補点座標を算出し、当該夫々
    の中心候補点座標から前記ワークの位置と姿勢とを算出
    するようにしたことを特徴とするワークの位置及び姿勢
    の認識方法。
JP61187877A 1986-08-12 1986-08-12 ワ−クの位置及び姿勢の認識方法 Pending JPS6344104A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61187877A JPS6344104A (ja) 1986-08-12 1986-08-12 ワ−クの位置及び姿勢の認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61187877A JPS6344104A (ja) 1986-08-12 1986-08-12 ワ−クの位置及び姿勢の認識方法

Publications (1)

Publication Number Publication Date
JPS6344104A true JPS6344104A (ja) 1988-02-25

Family

ID=16213769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61187877A Pending JPS6344104A (ja) 1986-08-12 1986-08-12 ワ−クの位置及び姿勢の認識方法

Country Status (1)

Country Link
JP (1) JPS6344104A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210204A (ja) * 1988-06-29 1990-01-16 Matsushita Electric Ind Co Ltd 物体検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0210204A (ja) * 1988-06-29 1990-01-16 Matsushita Electric Ind Co Ltd 物体検出方法

Similar Documents

Publication Publication Date Title
JP3864945B2 (ja) 路面走行レーン検出装置
CN111260683A (zh) 一种三维点云数据的目标检测与跟踪方法及其装置
CN106548520A (zh) 一种点云数据去噪的方法和系统
JPH1139493A (ja) 距離及び方向に鑑みたパターン整合装置及びその方法
Kortli et al. Efficient implementation of a real-time lane departure warning system
Mayr et al. Self-supervised learning of the drivable area for autonomous vehicles
CN111062971A (zh) 一种基于深度学习多模态的跨摄像头泥头车追踪方法
Stević et al. Vision-based extrapolation of road lane lines in controlled conditions
JP2020177648A (ja) 遺留物誤検出の認識方法、装置及び画像処理装置
KR100691855B1 (ko) 영상정보의 특징 추출장치 및 그 방법
Nakashima et al. Object detection by using interframe difference algorithm
JPS6344104A (ja) ワ−クの位置及び姿勢の認識方法
Boggavarapu et al. A robust multi color lane marking detection approach for Indian scenario
JP2022008108A (ja) 道路領域確定装置及び方法、電子機器
Thotapalli et al. Feature extraction of moving objects using background subtraction technique for robotic applications
JP2000132692A (ja) 曲線の特徴点抽出方法及びこの方法を記録した記録媒体
CN111127638A (zh) 利用三维模板库实现工件突出标志位定位抓取点方法
KR20200079070A (ko) 동영상에서 근접해오는 차량 검출 시스템 및 그 방법
CN111311696A (zh) 一种基于高光谱解混技术的车牌真伪检测方法
JP2001291105A (ja) パターン認識方法および装置
JP2010140082A (ja) 画像処理方法および画像処理装置
JPS59201180A (ja) 輪郭特徴検出方式
Yeh et al. Model quality aware ransac: A robust camera motion estimator
JP2937098B2 (ja) 領域検出方法および装置
Jeong et al. Fast Lamp Pairing–based Vehicle Detection Robust to Atypical and Turn Signal Lamps at Night