JPS60126775A - 物体検出方法 - Google Patents

物体検出方法

Info

Publication number
JPS60126775A
JPS60126775A JP58235350A JP23535083A JPS60126775A JP S60126775 A JPS60126775 A JP S60126775A JP 58235350 A JP58235350 A JP 58235350A JP 23535083 A JP23535083 A JP 23535083A JP S60126775 A JPS60126775 A JP S60126775A
Authority
JP
Japan
Prior art keywords
point
image
grid
camera
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP58235350A
Other languages
English (en)
Other versions
JPH024030B2 (ja
Inventor
Norio Aoki
青木 則夫
Saburo Tsuji
辻 三郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP58235350A priority Critical patent/JPS60126775A/ja
Publication of JPS60126775A publication Critical patent/JPS60126775A/ja
Publication of JPH024030B2 publication Critical patent/JPH024030B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、組立て、溶接ロボットなどの3次元物体を扱
う産業機器において、対象物体の位置。
形状等を認識する物体検出方法に関するものである。
従来例の構成とその問題点 近年、産業用ロボットの普及はめざましく、より高度な
機能が要求されるようになっている。工業用TVカメラ
などを用いた視覚機能も、その1つであり、視覚フィー
ド・ノくツクによるロボットの知能化が期待されている
しかし、現在までのところ、実用化レベルに至主に2次
元情報を利用したものが 1’Lとんどで、産業応用の対象として最も重要力3次
元物体の認識は盛んに研究されているが実用例は少ない
3次元物体の位置、形状等を認識するための一般的な従
来の方法は、2台のTV右カメラよって対象物を異なる
角度から撮像し、両眼立体視することにより、3次元的
な位置、形状をめるものであるが、次のような問題点が
ある。
(1)階調を有する入力画像の中から、エツジ、コーナ
点などの特徴を抽出するのに膨大な計算量が必要である
(2)左、右両画面間で特徴となる線2点間の対応関係
をめる必要があり、これが困難でちる。
゛ 問題点(2)は、両眼立体視する場合に特有の問題
点でアリ、アらかじめ対象となる物体の形状情報などが
なければ一意的にはめられない。
そこそ従来は上記(1)?”(2)の問題点に対する解
決策として、スリット光を利用する方法が研究されてき
た。
第1図には、従来のスリット光を用いた距離測定法の原
理図を示す。同図の例では、スリット光源1から照射さ
れるスリット光束2を回転ミラー4によって偏向させ、
対象となる3次元物体3vC照射し、その反射光をTV
左カメラで撮像する。
スリット光束面の角度情報と、カメラの位置情報(角度
、距離等)から、物体上のスリット光の3次元位置をめ
ることができる。3次元物体3の全体の距離情報を得る
ためには、回転ミラー4によってスリット光を順次走査
してゆき、その都度、距離を測定する0 同図に示す方法では、入力画像がスリット・ノくターン
であるため、容易ic2値化画像を得ることができ、ス
リット・パターンの屈折点などの特徴点の抽出も容易で
ある。また、ミラーの回転角度と、カメラの設定角度か
ら一意的に3次元の距離情報をめることができ、前述の
問題点(1)y (2)とも解決できる方法である。
しかし、この従来の方法では1画像入力に時間がかかる
という問題点が残っている。すなわち、1回の画像入力
によって得られるのは1本のスリット・パターンだけで
あるため%3次デ物体の全体にわたって距離情報を得る
ためには、ミラー4を回転させてスリット・パターンを
順次走査しながら走査の谷ステップごとに画像入力を行
なわねばならず、実用的な見地からは、その入力時間が
大きな問題となっている。一方複数本のスリット・パタ
ーンを3次元物体の全体に照射するようにすれば、画像
入力の回数は1回だけでよくなるが、対応づけの問題が
複雑になる。現在゛公知の方法ではないが、本出願人は
、複数本のスリット・パターンを照射した物体を、2台
のカメラによって撮像し、スリット光束面の距離・角度
情報から立体両眼視した2つの入力画像間で特徴点の対
応関係、をめ、物体の3次元位置をめる方法を提案して
いる。(特願昭58−158358号明細書及び特願昭
58−158359号明細書)第2図は、特願昭58−
158359号明細書に記載された対応づけの原理を説
明する図である。
同図の例では、第1のカメラの撮像面6上の撮像パター
ン中の任意の特徴点Pi と、カメラの焦点F1とを結
ぶ仮想的直線8′と、あらかじめ空間的位置をめ′(あ
る3枚のスリット光束面2−1〜2−3との交点Pi1
〜Pi3をめる。次に、P11〜Pigの第2のカメラ
の撮像面T上への投影点Pit’〜Pifをめ、撮像面
7上において、投影点Pit’〜Pi3′の各位置にお
ける入力画像パターンを調べることによって、第1のカ
メラの撮像パターン中の特徴点P主 に対応する第2の
カメラの撮像パターン中の特徴点Pifをめる。順次、
同様にして゛ 両面中の対応点のペアをめることによっ
て、対象である3次元物体の位置、形状等を検出するも
のである。このように、この方法では、スリット光束面
の情報を有効に利用して対応点の候補を限定してゆくこ
とによって対応づけの問題を解決しようとしている。し
かし、このような方法にも、偽の対応点が現われるとい
う問題と、それに対する解決策に問題点があった。すな
わち対象物体の形状、スリット光源および2台のカメラ
の設定角度などによっては、第2のカメラの撮像面上へ
の投影点群pi、/〜Pin’ の中に2つ以上の候補
点が現われ、対応関係が一意的に決定できない場合が生
ずる。照射するスリット・パターンの数が多くなるほど
、当然部の対応点が出現する可能性が大きくなり、大き
な問題となる。たとえば、入力画“ 像中の同一直線上
の点列など、いくつかの特徴点を組合せて検証すること
により偽の対応点の一部はりジェクトできるが、そのた
めには入力画像の解析を行なわねばならず、計算量が著
しく増加してしまう。
、発明の目的 本発明は1以上に述べたような3次元物体q位置、形状
をめるための方法において問題であった1画像入力時間
の問題と、両眼立体視した場合、の対応づけの問題を解
決し、より実用的な3次元物体の検出方法を提供するこ
とを目的とする。
発明の構成 本発明では、正方格子状のグリッド−パターン像を生成
するグリッド光源から、被検出物体にグリッド・パター
ンを照射し、物体表面上および床面上などにできたグリ
ッド・パターン像を、互いに異なる2つの方向力ら、第
1および第2のカメラによって撮像する。次に、グリッ
ド光源の光源点Sと、照射されるグリッド・パターン中
の任意の格子点Gと、第1のカメラのレンズ系の焦点F
1の3点によって決定される平面と、第1のカメラの撮
像面との交線である第1の投影線L1をめる。
同様に、光源点Sと、格子点Gと、第2のカメラのレン
ズ系の焦点F2の3点によって決定される平面と、第2
のカメラの撮像面との交線である第2の投影線L2をめ
る。次に、第1のカメラの撮像面上において、第1の投
影線L1上の入力画像ノくターンを調べ、グリッド・パ
ターンの格子点像Pを検出する。次に、検出された第1
のカメラの撮像面上の点Pと、第1および第2のカメラ
のレンズ系の焦点Fj+’2の3点によって決定される
平面と、第2のカメラの撮像面との交線である第3の投
影線L5をめる。次に、第2のカメラの撮像面上におい
て、2つの投影線L2.L5の交点近傍の入力画像パタ
ーンを調べ、そこにグリッド・ノくターンの格子点像P
′が存在すれば%2つの点PとP′を、第1および第2
のカメラの撮像パターン上の対応点として登録する。第
1の投影線上に、2つ以上の格子点像が存在する場合に
は、その各々について、第3の投影線をめ第2のカメラ
の撮像面上で、対応候補点の有無を調べ、対応点があれ
ば結果を登録する。
照射されるグリッド・パターン中のすべての格子点Gに
ついて、順次上記の操作を行ない、各格子点に相当する
、撮像面上の格子点像の対応点の組合せをめる。
次に、実施例の説明で述べるような方法によって格子点
像の対応点ペアの検証を行ない、偽の対応関係となる組
合せを排除する。
、上記の操作でめた。すべての対応点の組合せについて
、グリッド光源および2台のカメラの距離、角度情報か
ら、3次元物体の表面上にできたグリッド・パターン像
上の各点の3次元的な位置(座標)を検出する。
本発明は、以上に述べたような方法によって3次元物体
の表面上の点の3次元的位置を検出する物体検出方法で
ある。
実施例の説明 まず本発明の原理について、図面を用いながら詳細に説
明する。
第3図は、カメラ光学系と、撮像面、入力画像の関係を
示す図である。11は、lカメラのレンズ系を表わして
おり、点F12は、カメラ・レンズ系の光学的中心(以
下、焦点と呼ぶ)である。3次元空間中に置かれた3次
元物体3をカメラで撮像すると、カメラの撮像面13上
には、同図に示すような結像が得られる。flid、焦
点F12と、撮像面13との距離である。通常撮像面1
3は、レンズ系11の焦点面近傍に位置する。撮像面上
の結像を観測するためには、結像パターンを別のイメー
ジ面14に出力する必要がある。イメージ面14として
は、CRT画面、写真など任意のものが考えられるが、
通常計算機を用いて画像データを処理するためには、入
力画像を、画像メモリに記録格納することが一般的であ
るので、ここではイメージ面14として画像メモリを考
える。撮像面13上の結像パターンと、画像メモリ14
上の入力画像とは、撮像面上のX−Y平面と、イメージ
面上のX/ X/平面との平行移動量および拡大比率の
関係から、変換マトリクスTo (Toは3×3のマト
リクス)によって、次のように線型座標変換が可能であ
る。
(XI Yl 1 ):(X’、Y’、1 )−’r。
TOは、カメラおよび、画像メモリの設計仕様、あるい
は入力画像データの解析などによって、あらかじめめて
おくことができる。
16は、撮像面13を焦点F12を対称点として点対称
な位置に移した仮想的な撮像面である。
一方16ば、撮像面13上のX−Y平面の原点と、′イ
メージ面上の対応する点(平行移動がなければ原点)と
が、ともにカメラの光軸上にあると考えた時に、平行移
動量および拡大比率の関係から3次元空間中にめられる
イメージ面14を、同様に焦点F12を対称点として点
対称な位置に移した仮想的なイメージ面である。f2は
、この仮想的なイメージ面と焦点F12との距離である
。f2はイメージ面と、撮像面との拡大比率Pから、f
2=f1×Pとしてめられる。撮像面13と15%イメ
ージ面14と16とは、焦点F12を対称点と ・して
それぞれ点対称な位置にあるため、3次元物体3上の点
と、焦点F12とを結ぶ視線と、撮像面あるいは、イメ
二゛ジ面との交点の座標を考える上では等価である。た
だし、Z軸方向の座標および扱いは異なる。従って、説
明の簡単化のため以下の説明では、撮像面あるいはイメ
ージ面として16あるいは16を想定して説明する。
第4図は1本発明の画像入力部の構成を示す概略図であ
る。グリッド光源21からグリッド・パターンを3次元
物体3に照射する。これによって3次元物体3の表面上
、および床面上には、グリッド・パターン像22が形成
される。これを、第1のTV右カメラ3および、第2の
TVカメラ24によって撮像する。
第6図は、本発明の構成と原理を説明するための模式図
である。同図において、0は絶対空間中の座標原点であ
り、3次元物体3の置かれる床面上などに設定する。F
l、F2は、それぞれ第1゜第2のTV右カメラ3.2
4のレンズ系の光学的中心(焦点)である。26+26
は、それぞれ第1、第2のTV左カメラ撮像面である。
ただし、ここで考える撮像面は第3図において説明した
ように、実際の撮像面を、焦点を対称点として点対称な
位置に移動した平面である。l+、tbけ、それぞれ第
1および第2のTV左カメラ焦点と撮像面25.26と
の距離である。撮像面25. 26のかわりに、第3図
のイメージ面16に相当するものを考えても等価である
。ただし、その場合には(11,12としては、各イメ
ージ面と焦点との距離を考えなくてはならない。
・ 01け、撮像面26上に想定するX、−Y、−Z、
座標系(Z+軸方向は、01→F1の方向とする)の原
点である。02ば、撮像面26上に想定するx2−Y2
Z2座標系(Z2軸方向は02→F2の方向とする)の
原点である。同図の例では、第1のTV右カメラ3ば、
光軸が原点0を通り、絶対座標系の、r−z平面に対し
てα1 s !−2平面に対してθ1の角度をもって設
置されており、第2のカメラ24は、光軸が原点0を通
り、絶対座標系のX−Z平面に対してα2、y−Z平面
に対してθ2の角度をもって設置されているものとして
いる。
絶対座標系の原点0と、各焦点F1’+ 72との距離
をそれぞれdl+d2とすると、上記のようなカメラ系
の設定条件(α1.α2.θ1.”2+lj+4+d1
+d2・・・・・・以後カメラ・パラメータと呼ぶ)は
、2台のカメラ23,24を、絶対空間中に設置すると
きに、実測したり、基準入力画像を解析することによっ
て、あらかじめめておくことができる。
従って以後は、既知のデータとして扱う。
上記カメラ・パラメータがわかれば、撮像面25上のX
、−Yl−Z1座標系から絶対座標系への変換マトリク
スT1.および撮像面26上のX2−T2−Z2座標系
から絶対座標系への変換マトリクスT2も一意的に決定
できる。一般に’r1.’r2は4×4のマトリクスと
して表現できる。第5図の構成例における、T1を以下
に例示する。
Cxr’y+ Z+ 1)=(xj、 Yj+ zl、
 1 〕−T+T++’I’2についてもあらかじめめ
ておくものとする。
また、第6図には、グリッド光源821から照射された
グリッド・パターン像22についてモ示している。光源
21から照射されるグリッド・パターン光の光路は、グ
リッド光源21の設計仕様および、グリッド光源21の
3次元空間における設定位置および照射角度(以後光源
パラメータと称する)から一意的に決定できる。たとえ
ば、グリッド光源として最も簡便なスライド・プロジェ
クタ−を用いる場合には、グリッド・パターンを刻んだ
スライドのパターン(原パターン)のマウント位置と、
スライド光源の位置関係およびレンズ系の特性などから
めることができる。また、物体3を除いた床面上あるい
は、任意の位置に置いたスクリーン上に形成されるグリ
ッド・パターン像をあらかじめ計測しておくことによっ
てもめることが可能である。第6図には、グリッド・パ
ターンの光路の途中においた仮想的スクリーン2γも説
明のため併せて表示している。ここで、光源点Sを焦点
、仮想的スクリーン27を撮像面と考えれば、パターン
光源もカメラと同様の扱いをすることができる。
さて、上記の準備をした上で、第1.第2のTVカメラ
23+24によって、3次元物体3の表面上に形成され
るグリッド・パターン像を撮像すると、撮像面25.2
6上には、第5図に示すような入力画像が得られる。
投射されるグリッド・パターンには、仮想的スクリーン
27に示すように、01〜G4の4つの格子点があり、
物体3の表面上で、それぞれg1〜g4の格子点像を形
成する。g、〜g4の格子点像は、第1のカメラの入力
画像中では格子点像Q1〜Q4゜一方第2のカメラの入
力画像中では格子点像R1〜R4にそれぞれ対応してい
る。
本発明では、以下に示すような原理によって、格子点0
1〜G4と、入力画像中の格子点像Q1〜Q4+R1゛
〜R4の対応関係をめるものであり、Q1〜Q4とR1
−R4の間の対応関係がわかれば、カメラ・パラメータ
等から物体3の表面上の格子点像g1〜g4 の3次元
的位置をめる事ができる。
以下に、グリッド・パターン中から任意に1つの格子点
を選びこれについて入力画像中の対応点をめる操作を説
明する。あらかじめ、グリッドパターン像を計測しであ
る仮想的スクリーン27上において、1つの格子点a1
を選択する。光源点821から照射され格子点G1を通
る光線28は一意的に決定され、しかもSと01の位置
が共に既知であるため、計算によってめることができる
。゛一方光線28の照射によって物体3の表面上にでき
る格子点像g1の位置は、物体3の位置・形状に応じて
変化する。
まず、光線28の光路を、第1のカメラの撮像面26に
投影した第1の投影線L1をめる。Llは、光源点゛S
と、格子点G1および、第1のカメラの焦点F1の3点
を含む平面P1と、第1のカメラの撮像面25とが交わ
ってできる直線に相当し% 5yG1+F1 および撮
像面26の位置が、カメラ・パラメータ、光源パラメー
タなどによって既知であるため、計算によってめること
ができる。
同様にして、光線28の光路を第2のカメラの撮像面2
6に投影した第2の投影線L2もめる。
物体3の表面上にできる格子点像g1は、光線28の光
路上にあるため、当然、第1のカメラの撮像面26上の
入力画像中では、先にめた第1の投影線L1上に存在す
るはずである。そこで、撮像面26の入力画像パターン
を、第1の投影線L1に治って調べてゆき、格子点像が
あれば、それを01に対応する入力画像中の格子点像の
候補とする。通常は、投影線L1上に1つの格子点像(
Q1〕が検出サレル。glが、第1のカメラからは見え
ない位!(死角など)に存在する場合には投影線L1上
には。
格子点像が1つも存在しないことになり、第1のカメラ
による入力画隊中には、格子点G1から照射される光線
28によってできる格子点の画像は存在しないと判断す
る。逆に、投影線L1上に2つ以上の格子点像が検出さ
れる場合もある。これは、光源点Sと格子点G1および
第1のカメラの焦点F1を含む平面P1上に、2つ以上
の格子点像が偶然存在する場合である。第5図には、こ
のような場合の入力画像の例を示し−Cいる。物体3の
表面上に形成される格子点像のうちg、とG4が共に先
の平面P1上に存在するため、第1のカメラ230入力
画像中では、投影線L1上に2つの格子点画像Q1+9
4が検出され、候補が2つになる。
2つの候補のうち、正しい候補点を検出するため撮像面
26上の入力画像によって検証を行なう。
第1のカメラの撮像面26上で検出された候補点Q1と
、第1のカメラの焦点F1、および第2の力・メラの焦
点F2を含む平面P3をめ、平面P3と第2のカメラの
撮像面26との交線である第3の投影線L3−1をめる
。第3の投影線L5−1は、第1のカメラの焦点F1か
ら候補点Q1を通り、物体3の表面上に形成された格子
点像に至る視線29を第2のカメラの撮像面26上に投
影したものである。従って、その視線上にあって、格子
点像Q1に対応する点(gl)U、第2のカメラの入力
画像中にあっては、第3の投影線L5−1の上に像を結
んでいるはずである。別の候補点Q4についても同じよ
うにして第3の投影線L3−2をめる。当然格子点像Q
4に対応する物体3の表面上の格子点像g4は、第2の
カメラの入力画像中にあっては、第3の投影線L572
の上に像を結んでいるはずである。
以上のようにして、撮像面26上には、3本の投影線L
2+ ’L’5 1+L3 2がめられたわけである。
いま、第1のカメラの入力画像中から抽出された候補点
Q1が、格子点G1に対応する正しい候補点であるなら
ば、第2のカメラの入力画像中において、Qlに対応す
る格子点像が存在し、それは、第2の投影線の上にあっ
て、かつQlからめた第3の投影線L3−1の上にもあ
るはずである。
すなわち、−Qlに対応する格子点像は、2つの投影線
L2とL3−1の交点上になくてはならない。第2のカ
メラの入力画像中においては、L2と、L3−1の交点
付近に格子点像の候補点R1が存在するのでQlとR1
が、G1に相当する対応点のペアであるとみなすことが
できる〇 一方、G4については、2つの投影線−L2とL5−2
の交点付近に格子点像が存在しないため、偽の対応点候
補として却下することができる。これは。
G4に対応する格子点像g4が、光源点Sと格子点G1
および第2のカメラの焦点F2を含む平面P2の上には
存在しないためである。また、逆に平面P2上に別の格
子点像、たとえばG5が存在する場合もあり得る。この
時には第2の投影線L2上に、G5に対応する格子点像
R3が存在することになるが、R6はQl、G4からめ
た第3の投影線り、−11L、5−2のいずれの上にも
のっていないため、やはり偽の対応点候補として却下す
ることができる。当、然、格子点G1に相当する格子点
像g1が第2のカメラから見えない位置にあれば、正し
い対応点候補R1は検出できず、第2のカメラによる入
力画像中には、格子点G1から照射された光線28によ
ってできる格子点像(gl)の対応点画像は存在しない
ものと判断する。
上記の検証方法により、偽の対応点候補があった場合に
も、これを却下でき、格子点Cx1vC−相当する入力
画像中の対応点のペアQ1とR1を正しく検出すること
ができる。
以上に説明してきたような操作を、仮想的スクリーン2
7上の別の格子点02〜G4についても順次くり返すこ
とによって、全グリッド・パターン中のすべての格子点
について、入力画像中の対応点のペアをめることができ
る。
まれには、1つの格子点Glに相当する入力画像中の対
応点のペアが2組以上検出される可能性もある。これは
、物体30表面上に生成されたグリッド・パターン像と
、カメラの撮像角度による偶然の一致、あるいはカメラ
・パラメータ、光源パラメータの測定誤差や、入力画像
中の候補点抽出時の位置検出誤差が原因である。はとん
どの場合は、1組が正しい対応点ペアであり、他は却下
できなかった偽の対応点ペアである。この場合に゛は、
すべての検出された対応点ペアのデータをながめてみる
ことによって、大部分が解決できる。
すなわち、入力画像中の格子点像Q1〜Q4.+R1〜
R4はそれぞれ最大1回、対応点ペアの一方として検出
されるのが正しく、同じ点が2度以上対応点として現わ
れることはない。いま第1のカメラによる入力画像中の
格子点像Qiが二度対応点仁して現われていれば、その
うちの少なくとも一方は必ず誤りである。Qiを対応点
とする格子点のデータを調べ、もしある格子点Gj(j
\i)に相当する対応点のペアが2組以上検出されてい
て、その中に対応点としてQiが含まれていれば、その
ペアか偽の対応点ペアである確率が非常に高くなる。そ
の対応点Q1 とペアを成す格子点像Rkが、第2のカ
メラによる入力画像中でやはり2度以上対応点として検
出されていれば% QiとRkの対応点ペアは、格子点
Gj に相当する偽の対応点ペアであるとして却下する
ことができ、格子点%についても1組の対応点ペアが確
定する。
以上に説明したような構成と原理によって本発明では、
照射するグリッド・パターン中の格子点G1に相当する
入力画像中の格子点像の対応点ペアQi+Riを検出す
る。QiとR4の対応関係がめられれば、2台のカメラ
の設定条件(カメラ・パラメータ)等から、格子点Gi
の物体3表面上への投影点であるgi の3次元的位置
(絶対座標)を算出することができる。実施例では、上
記のようにして検出されたグリッド・パターン中の各格
子点に相当する対応点ペアの情報を利用して、格子点以
外のグリッド・パターン全体についても入力画像中の対
応点ペアを検出してゆく。この操作は、本出願人が既に
提案している特願昭58−158368号明細書および
特願昭58−158359号明細書に記載した方法等を
適用することによっても実現することが可能であるが、
ここでは、本発明の方法を格子点以外の部分についても
適用してグリッド・パターン全体について、物体表面上
の投影位置をめてゆく。
グリッド・パターン中の隣接する格子点、たとえばG1
と02を結ぶ線分(格子線と称する)上の任意の点(第
6図中の点A)について入力画像中の対応点ペアをめる
。手順は、格子点G1の時と同様であるが、この場合は
格子点像ではなく投影線上の格子線のパターン全体出し
ていく。ただし。
A点が、格子点G1と02を結ぶ格子線上の点であるこ
とがあらかじめわかっているので、入力画像中での探索
範囲は、最初からGIL G2に相当する対応点Q1と
G2、R1とR2を結ぶ格子線像の上、あるいハ、Ql
とG2、R1とR2をそれぞれ対角線の端点とする長方
形の領域付近に限定することができ、処理時間も短縮さ
れ、また偽の対応点ペアもほとんど発生しない。
次に、第6図を用いて、本実施例をフロー・チャートの
杉で説明する。
本実施例では、2つのカメラに↓る入力画像はそ些ぞれ
画像メモリに格納され、画像メモリ内のデータをCPU
がアクセスすることによって計算処理を行なう。
ここでは、カメラ・パラメータ、光源パラメータ、およ
び第6図の仮想的スクリーン27上において計測したグ
リッド・パターン上の各点の位置(座標)および、カメ
ラ座標系から絶対座標系への変換マトリクス’r1. 
、 T2などのデータは、既にめであるものとして説明
する。
また、以下の説明では、絶対座標系での座標を(、Z+
 !/ r z)、第1.第2のカメラの撮像面上にと
ったカメラ座標系(X+ −Y+−Z1座標系、x2−
 Y2− Z2座標系)での座標をそれぞれ(x、y。
Z)1.(xT Y、Z)2と表記する。
(1)グリッド・パターンの中から1つの格子点Gi(
、Zei l 、YGi ? Zai )を選択する。
(2)第1の投影線L1(D Xl −Yl−Z1座標
系テノ式をめる。
光源点S (4’+ 、Y5+ zs)と格子点Giを
、変換マトリクスT1の逆行列T〒1によってx、−y
、 −z。
座標系S(Xs+ Ys+ Zs )+ Gi (Xc
i+ YGi+ ZC,i)jに変換する。第1のカメ
ラの焦点F1(0+ Or (11)+と、S、Gi、
の3点の座標データから、この3点を含む平面P1の式
(カメラ座標系)をめる。第1のカメラの撮像面の式Z
−〇(カメラ座標系)と。
Pl の式を連立させれば、交線L1のカメラ座標系で
の式が得られる。
(3)第2の投影線L2ノx2−Y2−Z2座標系テノ
式をめる。
手順はs”1の時と同様である。
(4)第1の投影線L1上の格子点像Qj (j=1+
 2・・・・・・)を抽出する。
第1のカメラによる入力画像のデータを、投影線L1に
沿って、近傍の入力画像パターンを調べてゆ〈0格子点
像として特徴的な交点パターンが検出されれば、その交
点パターンの座標Qj (Xqj vYQj + Oh
 (コ=1.2. ・・・・・・)を候補点としてひ拍
出する。
(5) Qj から第2のカメラへの投影線L3−j(
j= 1+ 2+ −) (7)X2−Y2−Z2 F
l標系テノ式QjとFlの座標値をsで+によって絶対
座標系に変換し、さらにT2の逆行列T2 によってX
2− Y2−z2座標系Qj(Xqj t Yqj t
 Zqj h+ F+(Xy+ + YFl +Zy+
hに変換する。第2.のカメラの焦点F2(010+4
)zと、Q、] 6%21の3点の座標データから、こ
の3点を含む平面P3の式(X2−Y2Z2座標系)を
める。第2のカメラの撮像面の式Z”0(X2−Y21
22座標系)と、平面P3の式を連立させれば、交線L
5.−jのカメラ座標系での式が得られる。
(6)第2の投影線L2と第3の投影線Ls−j(]=
1+2、・・・・・・)の交点上の格子点像Rk(k=
1.2・・・・・・)を抽出する。
ステップ(3)+ (5)でめた投影線L2とL5−j
 の式を連立させて交点の座標をめ、交点近傍の入力画
像パターンに、格子点像として特徴的な交点パ゛ターン
が検出されれば、その交点パターンの座標Yk(XR)
c+ YnkjO)2 (k = 1 t 2s ・・
・・・・)を、Qjに対する対応点として抽出し%9j
とRkを、格子点Giに相当する対応点ペアとして登録
する。2組以上の対応点ペア(k≧2)が検出された場
合にも、それらのすべてを登録する。
(7)グリッド・パターン中から次の格子点Gif1を
選択し、すべての格子点についてステップ(2)〜(6
)をくり返す。
(8)すべての対応点ペアのデータを分析し、偽の対応
点ペアがあれば却下する。
対応点ペアとして登録された格子点像Qj あるいはR
1(のデータ集合の中で、同じ格子点像が2度以上登録
されていれば、その格子点像に該当する格子点Gl、G
m+ ・・・・・・のすべでの対応点ペアを分析し、偽
の対応点ペアと判断できるものを却下する。
(9)隣接する2つの格子点Gi t Gi+1を結ぶ
格子線上から任意の1点人を選択する。
(10)黒人に相当する入力画像中の対応点ペアB。
Cをめる。
′11)次の任意のA点についてステップ(9)〜(1
o)をくり返す。
(12)他のすべての、格子線上の各点についてもステ
ップ(9)〜(11)の操作をくり返して入力画像中の
対応点ペアをめる。
(13)上記の操作でめ冬対応点ペアに該当する物体3
の表面上の各点の位置(絶対座標)をめる0 第1.第2のカメラによる入力画像中の点QjとRkが
対応点ペアであるとすれば、点Qj と第1のカメラの
焦点F1を結ぶ直線と、点Rkと第2のカメラの焦点F
2を結ぶ直線の交点を絶対座標で一求めることにより、
物体3の表面上の投影点の位置を知ることができる。
なお、パターン光源も等測的にカメラと同様の扱いがで
きるので、第1のカメラの入力画像中の格子点像をGi
 とし、第2のカメラの撮像面上でQlを、仮想的スク
リーン27上でRj を検出するという構成方法をとる
ことも可能である。
発明の効果 以上の説明で述べてきたように1本発明の物体検出方法
によれば、簡単な構成で従来の手法のみでは困難であっ
た両眼立体視をした時の左右両画面間の対応づけの問題
を解決できると共に、3次元物体表面上のグリッド・パ
ターン像各点の3次元的位置を直接求めることができる
。対応づけの問題が解決されたことにより、画像入力は
1回ですむようになり、大幅な画像入力、前処理時間の
短縮が実現できる。実際のデータ処理も簡単な計算です
むため、本発明は実用的な3次元物体の検出装置を提供
するという意味で、産業的に非常に大きな効果が期待で
きるものである。
【図面の簡単な説明】
第1図は従来の1本のスリット光を用いた距離測定方法
を示す原理図、第2図は従来の複数本のスリット光を用
いた物体検出方法を説明する原理図、第3図はカメラ光
学系と撮像面、入力画像の関係を説明するための配置図
、第4図は本発明の° 一実施例における物体検出装置
の画像入力部を示す概念図、第5図は同実施例の構成と
原理を説明−モだめの概念図、第6図A、Bは同実施例
の動作を説明するフロー・チャートである。 21・・・・・・グリッド光源、−23,24・・団・
第1゜第2の画像入力装置、25.26・・・・・・第
1.第2の画像入力装置の撮像面、Fl、F2・・・・
・・第1.第2の画像入力装置の焦点、01〜G4・・
・・・グリッド・パターン中の格子点、Q1〜Q4・・
・・・・第1の画像入力装置の撮像面上の格子点像、R
1−R4・・・・・・第2の画像入力装置の撮像面上の
格子点像、Ll・・・・・・第1の投影線、L2・・・
・・・第2の投影線、L3・・・・・・第3の投影線。 代理人の氏名 弁理士 中 尾 敏 男 ほか1名第1
図 第 2 図 ! 第3図 I 第 4 (2) 第5図 21 S/ へ 第6図

Claims (1)

    【特許請求の範囲】
  1. 正方格子状のグリッド・パターンを生成するグリッド光
    源から、被検出物体に前記グリッド・パターンを照射し
    、前記被検出物体を互いに異なる2つの方向から第1お
    よび第2の画像入力装置によって撮像し、前記第1の画
    像入力装置の撮像面上においては、前記グリッド光源の
    光源点Sと、照射される前記グリッド・パターン中の任
    意の格子点Gと、前記第1の画像入力装置のレンズ系の
    焦点F1の3点を含んで成る平面と、前記第1の画像入
    力装置の撮像面との交線である第1の投影線をめ、前記
    第2の画像入力装置の撮像面上においては、前記光源点
    Sと、前記格子点Gと、前記第2の画像入力装置のレン
    ズ系の焦点F2の3点を含んでなる平面と、前記第2の
    画像入力装置の撮像面との交線である第2の投影線をめ
    、前記第1の画像入力装置の撮像面上において、入力画
    像中の格子点像のうち、前記第1の投影線の上に存在す
    る格子点像Pを検出し、撮像面上における前記格子点像
    Pと、前記第1の画像入力装置のレンズ系の焦点F1と
    、前記第2の画像入力装置のレンズ系の焦点F2の3点
    を含んで成る平面と、前記第2の画像入力装置の撮像面
    との交線である第3の投影線をめ、前記第2の画像入力
    装置の撮像面上において、前記第2および第3の投影線
    の交点近傍の入力画像パターンに格子点像P′が存在す
    れば、前記格子点像P′と、前記第1の画像入力装置の
    撮像面上の格子点像Pとを対応点候補とし、順次同様の
    操作によって前記第1お工び第2の画像入力装置の入力
    画像パターン中の格子点像の対応関係をめることによっ
    て、前記被検出物体表面上の点の3次元的位置を検出す
    ることを特徴とする物体検出方法。
JP58235350A 1983-12-13 1983-12-13 物体検出方法 Granted JPS60126775A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP58235350A JPS60126775A (ja) 1983-12-13 1983-12-13 物体検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP58235350A JPS60126775A (ja) 1983-12-13 1983-12-13 物体検出方法

Publications (2)

Publication Number Publication Date
JPS60126775A true JPS60126775A (ja) 1985-07-06
JPH024030B2 JPH024030B2 (ja) 1990-01-25

Family

ID=16984782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP58235350A Granted JPS60126775A (ja) 1983-12-13 1983-12-13 物体検出方法

Country Status (1)

Country Link
JP (1) JPS60126775A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6280846A (ja) * 1985-09-30 1987-04-14 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション 磁気記憶媒体及び書込み方法
JPS62206684A (ja) * 1986-03-07 1987-09-11 Nippon Telegr & Teleph Corp <Ntt> パタ−ン投影による位置形状計測方法
JPS63138384A (ja) * 1986-11-29 1988-06-10 Toppan Printing Co Ltd 平面型ホログラフイツクステレオグラムの原画作製方法
US4846576A (en) * 1985-05-20 1989-07-11 Fujitsu Limited Method for measuring a three-dimensional position of an object
JP2003504217A (ja) * 1999-07-13 2003-02-04 ヘンツェ,ヨアヒム ロボット用位置決め補助のための光線の生成

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4846576A (en) * 1985-05-20 1989-07-11 Fujitsu Limited Method for measuring a three-dimensional position of an object
JPS6280846A (ja) * 1985-09-30 1987-04-14 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション 磁気記憶媒体及び書込み方法
JPH0434217B2 (ja) * 1985-09-30 1992-06-05 Intaanashonaru Bijinesu Mashiinzu Corp
JPS62206684A (ja) * 1986-03-07 1987-09-11 Nippon Telegr & Teleph Corp <Ntt> パタ−ン投影による位置形状計測方法
JPS63138384A (ja) * 1986-11-29 1988-06-10 Toppan Printing Co Ltd 平面型ホログラフイツクステレオグラムの原画作製方法
JP2003504217A (ja) * 1999-07-13 2003-02-04 ヘンツェ,ヨアヒム ロボット用位置決め補助のための光線の生成

Also Published As

Publication number Publication date
JPH024030B2 (ja) 1990-01-25

Similar Documents

Publication Publication Date Title
JP5317169B2 (ja) 画像処理装置、画像処理方法およびプログラム
Grimstead et al. Creating solid models from single 2D sketches
US7430312B2 (en) Creating 3D images of objects by illuminating with infrared patterns
CN105960570B (zh) 来自两个相机的曲线组的结构化光匹配
KR20180014677A (ko) 3d 이미지 데이터에서 3d 포즈와 기생포인트 제거의 스코어링을 개선하는 시스템 및 방법
CN106875444A (zh) 一种目标物定位方法及装置
US20080237505A1 (en) Method and System for Image Processing for Profiling with Uncoded Structured Light
Porrill et al. TINA: a 3D vision system for pick and place
Xiao et al. A prism-based single-lens stereovision system: From trinocular to multi-ocular
Wang et al. Geometrical approach for rectification of single-lens stereovision system with a triprism
JPS60126775A (ja) 物体検出方法
Zetu et al. Data input model for virtual reality-aided facility layout
JPH024028B2 (ja)
JP3253328B2 (ja) 距離動画像入力処理方法
Furukawa et al. Shape from grid pattern based on coplanarity constraints for one-shot scanning
Bräutigam et al. A model-free voting approach for integrating multiple cues
Chabbi et al. Using projective geometry to recover planar surfaces in stereovision
Furukawa et al. Entire shape acquisition technique using multiple projectors and cameras with parallel pattern projection
Adán et al. Moving surface extraction based on unordered hexagonal perfect submaps projection: Applications to 3d feature tracking
Huynh Feature-based stereo vision on a mobile platform
JPH024029B2 (ja)
Leu et al. Vision system for three-dimensional position measurement based on stereo disparity
Amor et al. An improved 3D human face reconstruction approach based on cubic splines models
Aires et al. A Plane Segmentation System Based on Affine Homography and Optical Flow
Erdnüß A review of the one-parameter division undistortion model