JPH08145628A - Method for specifying position of object - Google Patents

Method for specifying position of object

Info

Publication number
JPH08145628A
JPH08145628A JP6284624A JP28462494A JPH08145628A JP H08145628 A JPH08145628 A JP H08145628A JP 6284624 A JP6284624 A JP 6284624A JP 28462494 A JP28462494 A JP 28462494A JP H08145628 A JPH08145628 A JP H08145628A
Authority
JP
Japan
Prior art keywords
positions
combination
reference point
image
pattern matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6284624A
Other languages
Japanese (ja)
Inventor
Takaichi Hiraga
▲高▼市 平賀
Yoshito Nanjo
義人 南條
Kenichi Arakawa
賢一 荒川
Eiji Mitsuya
英司 三ツ矢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP6284624A priority Critical patent/JPH08145628A/en
Publication of JPH08145628A publication Critical patent/JPH08145628A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Control Of Position Or Direction (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To eliminate the effect of fluctuation in the environmental illumination and an obstacle within the view by specifying the position of an object using a combination of most reliable results among a plurality of template pattern matching results. CONSTITUTION: An object for registration is set and a plurality of images of partial feature region, features and the positions of reference point are extracted from the images of the object being picked up by means of a camera 20 through an image pickup means 1 and stored at an image memory section 6 and position memory sections 9, 12, respectively. Subsequently, a pattern matching means 2 determines a plurality of partial region images in the memory section 6 from the images of the object having different position and attitude being picked up through the means 1. A means 3 generates a plurality of positional combinations of template for all positions of a matched template. The combination is then subjected to position/attitude conversion by a means 4 which evaluates the extent of matching of relative positional relationship. The combination at a position corresponding to a best evaluation is regarded as most reliable results, thus specifying the position of the object.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は,画像パターンマッチン
グを用いて対象物の位置を特定する方法に係り,特に環
境照明変動および視野内に在る障害物への耐性向上を図
った対象物位置特定方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for specifying the position of an object by using image pattern matching, and more particularly, the position of the object for improving resistance to environmental lighting fluctuations and obstacles in the visual field. Regarding the identification method.

【0002】例えば,これまでのロボットシステムにお
いては,その大半がティーチングプレイバック方式であ
ったため,ワークを固定する際に十分な取り付け精度が
必要とされていた。このため,頻繁な製品使用変更が生
ずる生産システムなどではジグのためのコストが問題と
なっていた。この問題に対して,ジグ共用化もしくは簡
素化によるコストダウンを図り,これに伴い発生するワ
ークの位置ずれはビジョンシステムなどを用いて吸収す
るという方式が考えられている。
For example, in most of the robot systems up to now, the teaching playback system has been used, so that sufficient attachment accuracy is required when fixing the work. For this reason, the cost for jigs has become a problem in production systems that frequently change product use. To solve this problem, a method has been considered in which the jig is shared or simplified to reduce the cost, and the positional deviation of the work that occurs due to this is absorbed using a vision system or the like.

【0003】本発明は,このような生産システムに限ら
れるわけではないが,画像を用いた対象物の位置特定に
おいて,見掛け画像上での影や障害物による不均一な明
暗変動に対しても対象物の正確な位置決めを可能とする
ものである。
The present invention is not limited to such a production system, but in specifying the position of an object using an image, it is possible to deal with uneven light and dark variations due to shadows and obstacles on an apparent image. This enables accurate positioning of the object.

【0004】[0004]

【従来の技術】従来は,パターンマッチングのためのテ
ンプレートとして対象物全体もしくはその一部を含む単
一の部分領域画像を用いていた。
2. Description of the Related Art Conventionally, a single partial area image including the whole object or a part thereof has been used as a template for pattern matching.

【0005】[0005]

【発明が解決しようとする課題】従来のパターンマッチ
ングの方法では,取り込んだ画像において,テンプレー
トに対応する部分領域内で,環境照明変動もしくはカメ
ラ視野内の障害物などに起因した見掛け画像上の変化が
生じた場合に,パターンマッチングが不可能もしくは誤
った結果になるという問題点があった。
According to the conventional pattern matching method, in the captured image, changes in the apparent image due to environmental illumination fluctuations or obstacles in the camera field of view within the partial region corresponding to the template. However, there is a problem in that pattern matching is impossible or gives an erroneous result.

【0006】本発明はこの問題点を解決することを目的
とする。
The present invention aims to solve this problem.

【0007】[0007]

【課題を解決するための手段】本発明は,複数個のテン
プレートのパターンマッチング結果のうち,最も信頼性
の高い結果の組み合わせを用いて対象物の位置特定を行
うことを主要な特徴とする。従来の技術とは,複数のテ
ンプレートを用いること,かつ最も信頼性の高い,結果
の組み合わせを用いる点が異なる。
The main feature of the present invention is that the position of an object is specified using a combination of the most reliable results of pattern matching results of a plurality of templates. It differs from the conventional technology in that it uses multiple templates and uses the most reliable combination of results.

【0008】[0008]

【作用】本発明では複数個のテンプレートを用いて,そ
の各々についてパターンマッチングを行う。このうちの
全てではない幾つかのテンプレートのパターンマッチン
グにおいて,正しく特定されたテンプレートの位置(以
降,特定された位置という)が得られれば,特定された
位置の組み合わせのうち,N個(Nは2以上の自然数)
以上の特定された位置からなる組み合わせの全てに対し
て,その各々の組み合わせの要素に対応するテンプレー
トの予め登録してある位置の相対的関係とこれら特定さ
れた位置の相対的関係との一致の程度に関する評価が得
られ,これらのうち最良の評価に対応する,特定された
位置の組み合わせを最も信頼性の高い結果とすることが
できる。
In the present invention, a plurality of templates are used and pattern matching is performed for each of them. In pattern matching of some, but not all, of these templates, if correctly specified template positions (hereinafter referred to as specified positions) are obtained, N (N is N) of combinations of specified positions. 2 or more natural number)
For all the combinations of the above specified positions, the correspondence between the relative relationship of the positions registered in advance of the template corresponding to the elements of each combination and the relative relationship of these specified positions An assessment of the extent is obtained, and the combination of identified positions that corresponds to the best of these can be the most reliable result.

【0009】同時に,この最良評価値と,パターンマッ
チングにおけるテンプレート位置特定時の誤差から導出
される特定の閾値との比較から,この最も信頼性の高い
結果に対して,さらに確度の高い信頼性評価を与えるこ
とができる。
At the same time, by comparing this best evaluation value with a specific threshold value derived from an error at the time of specifying the template position in the pattern matching, it is possible to evaluate the reliability with higher accuracy for the most reliable result. Can be given.

【0010】[0010]

【実施例】次に,本発明の実施例について図面を参照し
て詳細に説明する。図1は本発明を用いる対象物位置特
定装置の構成例を示す図,図2は本発明の一実施例処理
説明図,図3は対象物およびカメラの設置例を示す図,
図4は対象物画像の例を示す図,図5は各特徴の位置お
よび基準点位置の例を示す図,図6は特徴領域画像の例
を示す図である。
Embodiments of the present invention will now be described in detail with reference to the drawings. FIG. 1 is a diagram showing a configuration example of an object position specifying apparatus using the present invention, FIG. 2 is a process explanatory diagram of an embodiment of the present invention, FIG. 3 is a diagram showing an installation example of an object and a camera,
FIG. 4 is a diagram showing an example of an object image, FIG. 5 is a diagram showing an example of the position of each feature and a reference point position, and FIG. 6 is a diagram showing an example of a feature region image.

【0011】図中,20は対象物を撮像するカメラ,2
1は画像を用いて対象物の位置を特定する対象物位置特
定装置である。画像取り込み手段1は,カメラ20から
画像を取り込み記憶する処理手段である。パターンマッ
チング手段2は,取り込んだ画像上での予め登録してあ
る特徴の位置を特定する処理手段である。位置組み合わ
せ生成手段3は,パターンマッチング手段2によって特
定された複数個の特徴の位置から,N個以上の特定され
た位置の組み合わせを全て作る処理手段である。
In the figure, 20 is a camera for picking up an image of an object, 2
Reference numeral 1 is an object position specifying device that specifies the position of an object using an image. The image capturing means 1 is a processing means for capturing an image from the camera 20 and storing it. The pattern matching means 2 is a processing means for specifying the position of a feature registered in advance on the captured image. The position combination generating unit 3 is a processing unit that creates all combinations of N or more specified positions from the positions of the plurality of features specified by the pattern matching unit 2.

【0012】位置変換/評価手段4は,これら組み合わ
せの各々に対して,組み合わせを構成する特定された位
置についての回転並進変換により,これら特定された位
置に,それぞれ対応する特徴の予め登録してある位置を
なるべく一致するように合わせ,この一致の程度の評価
とこの変換とを記憶する処理手段である。基準点の位置
生成手段5は,位置変換/評価手段4による評価のうち
最良の評価に対応する変換を予め登録してある基準点の
位置に施し,新たな基準点の位置を作る処理手段であ
る。
The position conversion / evaluation means 4 pre-registers, for each of these combinations, features corresponding to the specified positions by rotational translational conversion for the specified positions constituting the combination. It is a processing means for aligning a certain position so as to match as much as possible, and storing the evaluation of the degree of matching and the conversion. The reference point position generation means 5 is a processing means for applying a conversion corresponding to the best evaluation among the evaluations made by the position conversion / evaluation means 4 to the position of a reference point registered in advance to create a new position of the reference point. is there.

【0013】また,特徴の登録画像記憶部6は,予め登
録してある図6に示すような特徴の部分領域画像に関す
る情報を記憶する手段である。特定された特徴の位置記
憶部7は,パターンマッチング手段2で得られた特定さ
れた特徴の位置を記憶する手段である。位置の組み合わ
せ記憶部8は,位置組み合わせ生成手段3により得られ
た特定された特徴の位置の組み合わせを記憶する手段で
ある。特徴の位置記憶部9は,予め登録してある特徴の
位置を記憶する手段である。
The feature registration image storage unit 6 is a means for storing information on a partial area image of a feature as shown in FIG. 6 which is registered in advance. The specified feature position storage unit 7 is a unit that stores the position of the specified feature obtained by the pattern matching unit 2. The position combination storage unit 8 is a unit that stores the position combination of the identified features obtained by the position combination generation unit 3. The feature position storage unit 9 is a unit that stores the position of a feature that is registered in advance.

【0014】評価記憶部10は,位置変換/評価手段4
で得られた特定された特徴の位置の組み合わせへの評価
を記憶する手段である。変換記憶部11は,特定された
特徴の位置の組み合わせへ施した変換に関する情報を記
憶する手段である。基準点の位置記憶部12は,予め登
録してある基準点の位置を記憶する手段である。特定さ
れた基準点の位置記憶部13は,基準点の位置生成手段
5で得られた特定された基準点の位置を記憶する手段で
ある。
The evaluation storage unit 10 includes a position conversion / evaluation means 4
It is a means for storing the evaluation for the combination of the positions of the identified features obtained in step. The conversion storage unit 11 is a unit that stores information about the conversion applied to the combination of the positions of the identified features. The reference point position storage unit 12 is means for storing the position of the reference point registered in advance. The specified reference point position storage unit 13 is means for storing the position of the specified reference point obtained by the reference point position generating means 5.

【0015】図1に示す装置の動作は以下のとおりであ
る。まず,予め対象物を登録するために,図3に示すよ
うに定盤23上の標準位置に対象物22を置き,その上
部のカメラ20から,画像取り込み手段1によって図4
に示すような対象物を含む画像を取り込む。そして,こ
の画像上における図6に示すような複数個の特徴の部分
領域画像と,図5に示すような,これらの特徴の位置と
基準点の位置とを,それぞれ特徴の登録画像記憶部6,
特徴の位置記憶部9,基準点の位置記憶部12に格納す
る。
The operation of the apparatus shown in FIG. 1 is as follows. First, in order to register an object in advance, the object 22 is placed at a standard position on the surface plate 23 as shown in FIG.
An image including an object as shown in FIG. Then, the partial image of a plurality of features as shown in FIG. 6 on this image and the positions of these features and the positions of the reference points as shown in FIG. ,
It is stored in the characteristic position storage unit 9 and the reference point position storage unit 12.

【0016】これらをもとに,新しく置かれた対象物の
位置を図2に示す処理によって特定する。そのため,ま
ず画像取り込み手段1によって,登録時とは位置および
姿勢が異なる対象物を含む画像を,カメラ20から取り
込み記憶する。この取り込んだ画像において,特徴の登
録画像記憶部6に記憶している図6に示すような複数個
の部分領域画像の位置を,パターンマッチング手段2に
より求める。
Based on these, the position of the newly placed object is specified by the processing shown in FIG. Therefore, first, the image capturing means 1 captures and stores an image including an object whose position and orientation are different from those at the time of registration from the camera 20. In the captured image, the pattern matching means 2 finds the positions of a plurality of partial area images as shown in FIG.

【0017】次に,パターンマッチングの成功したテン
プレートの位置の全てに対して,位置組み合わせ生成手
段3により,N個(N≧2)以上のテンプレートの位置
の組み合わせを生成する。
Next, the position combination generating means 3 generates N (N ≧ 2) or more template position combinations for all the template positions for which pattern matching has succeeded.

【0018】例えば2個以上の組み合わせを作る場合,
4個のテンプレートA(以降Aと表す),テンプレート
B(以降Bと表す),テンプレートC(以降Cと表
す),テンプレートD(以降Dと表す)のパターンマッ
チングが成功したときの組み合わせは,(A,B,C,
D)と,(A,B,C),(A,B,D),(A,C,
D),(B,C,D)と,(A,B),(A,C),
(A,D),(B,C),(B,D),(C,D)の位
置’の組となる。
For example, when making two or more combinations,
The combination of four templates A (hereinafter referred to as A), template B (hereinafter referred to as B), template C (hereinafter referred to as C), and template D (hereinafter referred to as D) when the pattern matching is successful is ( A, B, C,
D) and (A, B, C), (A, B, D), (A, C,
D), (B, C, D) and (A, B), (A, C),
(A, D), (B, C), (B, D), (C, D) position '.

【0019】位置変換/評価手段4により,その各々の
組み合わせを構成する特定された特徴の位置記憶部7に
記憶されているテンプレートの位置’と,これらテンプ
レートに関して予め特徴の位置記憶部9に登録してある
位置とに対し,回転並進による位置姿勢変換を施し,得
られた新たな位置についての各々の対応する位置の距離
の2乗和を最小にする変換を見つけ,その変換情報を変
換記憶部11に記憶し,同時にこの距離の2乗和を評価
記憶部10に記憶する。
The position conversion / evaluation means 4 registers the positions of the templates stored in the position storage unit 7 of the specified features constituting each combination thereof and the position storage unit 9 of the features in advance with respect to these templates. The position and orientation conversion by rotational translation is performed on a given position, a conversion that minimizes the sum of squares of the distances of the respective new positions obtained is found, and the conversion information is converted and stored. The sum of squares of this distance is stored in the evaluation storage unit 10 at the same time.

【0020】次に,基準点の位置生成手段5により,評
価記憶部10と変換記憶部11とから,距離の2乗和が
最小である変換を求め,基準点の位置記憶部12に登録
してある基準点に,求めた変換を施し,新たな基準点の
位置として特定された基準点の位置記憶部13に記憶す
る。同時に,例えばこの最小な距離の2乗和がパターン
マッチング手段2で求めた位置特定誤差の2乗の4倍以
内であるか否かにより,位置特定の成功を吟味する。
Next, the reference point position generating means 5 obtains the conversion having the smallest sum of squares of the distances from the evaluation storage unit 10 and the conversion storage unit 11, and registers it in the reference point position storage unit 12. The obtained reference point is converted and stored in the reference point position storage unit 13 identified as the position of the new reference point. At the same time, the success of the position identification is examined by, for example, whether the sum of squares of the minimum distance is within four times the square of the position identification error obtained by the pattern matching means 2.

【0021】なお,以上説明した画像取り込み手段1
は,例えばパーソナルコンピュータに搭載した画像取り
込みボードなどにより容易に実現可能である。また,パ
ターンマッチング手段2は,正規化相関パターンマッチ
ングなどにより容易に実現可能である。
The image capturing means 1 described above
Can be easily realized by, for example, an image capturing board mounted on a personal computer. Further, the pattern matching means 2 can be easily realized by a normalized correlation pattern matching or the like.

【0022】位置変換/評価手段4における回転並進変
換処理は,予め登録してある位置を(xi ,yi ),パ
ターンマッチングにより特定された位置を(x’i
y’i)とするとき, E=Σk {[(xk ・cos θ−yk ・sin θ+xs )−
x’k 2+[(xk ・sin θ+yk ・cos θ+ys
−y’k 2 } として,連立方程式(∂E/∂θ)=0,(∂E/∂x
s )=0,(∂E/∂y s )=0をニュートン法を用い
て解くことなどにより,容易に実現可能である。なお,
上記の式においてθが回転,(xs ,ys )が並進を表
す。
Rotational translational change in position conversion / evaluation means 4
In the conversion process, the position registered in advance is (xi, Yi),
The position specified by turn matching is (x 'i,
y ’i), E = Σk{[(Xk・ Cos θ−yk・ Sin θ + xs) −
x 'k]2+ [(Xk・ Sin θ + yk・ Cos θ + ys)
-Y 'k]2}, Simultaneous equations (∂E / ∂θ) = 0, (∂E / ∂x
s) = 0, (∂E / ∂y s) = 0 using the Newton method
It can be easily realized by solving the problem. In addition,
In the above equation, θ is rotated, (xs, Ys) Indicates translation
You.

【0023】[0023]

【発明の効果】以上説明したように,本発明によれば,
環境照明変動もしくはカメラ視野内の障害物などに起因
した見掛け画像上の変化がいくつかの特徴部位に生じた
場合でも,変化を受けない特徴部位が残っていれば,対
象物の位置を高精度で特定することが可能であるから,
画像を用いて対象物の位置を特定する際に従来のように
厳格に環境を整える必要がないという利点がある。
As described above, according to the present invention,
Even if changes in the apparent image due to environmental lighting fluctuations or obstacles in the camera's field of view occur in some characteristic parts, the position of the target object will be highly accurate if the characteristic parts that do not change remain. It is possible to specify with
There is an advantage that it is not necessary to rigorously prepare the environment when specifying the position of the object using the image as in the conventional case.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明を用いる対象物位置特定装置の構成例を
示す図である。
FIG. 1 is a diagram showing a configuration example of an object position specifying device using the present invention.

【図2】本発明の一実施例処理説明図である。FIG. 2 is an explanatory diagram of a process according to an embodiment of the present invention.

【図3】対象物およびカメラの設置例を示す図である。FIG. 3 is a diagram showing an installation example of an object and a camera.

【図4】対象物画像の例を示す図である。FIG. 4 is a diagram showing an example of an object image.

【図5】各特徴の位置および基準点位置の例を示す図で
ある。
FIG. 5 is a diagram showing an example of a position of each feature and a reference point position.

【図6】特徴領域画像の例を示す図である。FIG. 6 is a diagram showing an example of a characteristic region image.

【符号の説明】[Explanation of symbols]

1 画像取り込み手段 2 パターンマッチング手段 3 位置組み合わせ生成手段 4 位置変換/評価手段 5 基準点の位置生成手段 6 特徴の登録画像記憶部 7 特定された特徴の位置記憶部 8 位置の組み合わせ記憶部 9 特徴の位置記憶部 10 評価記憶部 11 変換記憶部 12 基準点の位置記憶部 13 特定された基準点の位置記憶部 20 カメラ 21 対象物位置特定装置 DESCRIPTION OF SYMBOLS 1 Image capturing means 2 Pattern matching means 3 Position combination generating means 4 Position conversion / evaluation means 5 Reference point position generating means 6 Feature registration image storage unit 7 Specified feature position storage unit 8 Position combination storage unit 9 Features Position storage unit 10 evaluation storage unit 11 conversion storage unit 12 reference point position storage unit 13 identified reference point position storage unit 20 camera 21 object position identification device

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/60 (72)発明者 三ツ矢 英司 東京都千代田区内幸町1丁目1番6号 日 本電信電話株式会社内─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification number Reference number within the agency FI Technical indication location G06T 7/60 (72) Inventor Eiji Mitsuya 1-6, Uchisaiwaicho, Chiyoda-ku, Tokyo Nihon Telegraph Phone Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 対象物を含む画像を取り込み記憶する第
1の過程と,予め登録してある対象物の複数個の特徴に
ついて,前記第1の過程により取り込んだ画像上での各
々の位置を特定する第2の過程と,前記複数個の特定さ
れた位置から,N個(N≧2)以上の特定された位置の
組み合わせを全て作る第3の過程と,前記N個以上の特
定された位置の全ての組み合わせの各々に対して,組み
合わせを構成する特定された位置についての回転並進変
換により,これら特定された位置とこれらに対応する特
徴の予め登録してある位置とをもっとも一致するように
合わせ,この一致の程度の評価とこの変換とを記憶する
第4の過程と,これら評価のうち最良の評価に対応する
変換を予め登録してある基準点の位置に施し新たな基準
点の位置を作る第5の過程とを有することを特徴とする
対象物位置特定方法。
1. A first step of capturing and storing an image including an object, and a plurality of characteristics of the object registered in advance, each position on the image captured by the first step is described. A second step of specifying, a third step of making all combinations of N (N ≧ 2) or more specified positions from the plurality of specified positions, and the N or more specified positions. For each and every combination of positions, the rotational and translational transformations of the identified positions that make up the combination ensure that these identified positions and the corresponding pre-registered positions of the features correspond best. In accordance with the above, the fourth process of storing the evaluation of the degree of coincidence and this conversion, and the conversion corresponding to the best evaluation among these evaluations is applied to the position of the reference point registered in advance, and a new reference point Fifth making position An object position specifying method, comprising:
JP6284624A 1994-11-18 1994-11-18 Method for specifying position of object Pending JPH08145628A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6284624A JPH08145628A (en) 1994-11-18 1994-11-18 Method for specifying position of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6284624A JPH08145628A (en) 1994-11-18 1994-11-18 Method for specifying position of object

Publications (1)

Publication Number Publication Date
JPH08145628A true JPH08145628A (en) 1996-06-07

Family

ID=17680878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6284624A Pending JPH08145628A (en) 1994-11-18 1994-11-18 Method for specifying position of object

Country Status (1)

Country Link
JP (1) JPH08145628A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (en) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Three-dimensional object recognition method and pin picking system using the method
US6625332B1 (en) 1999-10-05 2003-09-23 Nec Corporation Computer-implemented image registration
WO2004049923A1 (en) * 2002-12-05 2004-06-17 Olympus Corporation Image processing device and image processing method
JP2008051749A (en) * 2006-08-28 2008-03-06 Mitsutoyo Corp Light wave interference measurement device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000057129A1 (en) * 1999-03-19 2000-09-28 Matsushita Electric Works, Ltd. Three-dimensional object recognition method and pin picking system using the method
US6721444B1 (en) 1999-03-19 2004-04-13 Matsushita Electric Works, Ltd. 3-dimensional object recognition method and bin-picking system using the method
US6625332B1 (en) 1999-10-05 2003-09-23 Nec Corporation Computer-implemented image registration
WO2004049923A1 (en) * 2002-12-05 2004-06-17 Olympus Corporation Image processing device and image processing method
US7599533B2 (en) 2002-12-05 2009-10-06 Olympus Corporation Image processing system and image processing method
JP2008051749A (en) * 2006-08-28 2008-03-06 Mitsutoyo Corp Light wave interference measurement device

Similar Documents

Publication Publication Date Title
US6396942B1 (en) Method and apparatus for locating ball grid array packages from two-dimensional image data
CN102197412B (en) Spoofing detection system, spoofing detection method and spoofing detection program
US7847844B2 (en) Information processing apparatus and method for determining whether a detected index is an index included in sensed image data
US6721444B1 (en) 3-dimensional object recognition method and bin-picking system using the method
JP2944557B2 (en) Stripe pattern matching device
ATE249071T1 (en) DETECTION OF DISTORTED IMAGES THROUGH FAST CONvolution AND USING IMAGE CAPTURE OF SIGNIFICANT POINTS AND VOLUME INFORMATION
JP2007128374A (en) Object recognition method, program for object recognition and storage medium therefor, and object recognition device
CN111738320B (en) Shielded workpiece identification method based on template matching
WO2020164911A1 (en) An apparatus and a method for performing a data driven pairwise registration of three-dimensional point clouds
Dinh et al. Rectification using different types of cameras attached to a vehicle
JPH08145628A (en) Method for specifying position of object
US8045790B2 (en) Method for automatically de-skewing of multiple layer wafer for improved pattern recognition
CN112053401B (en) Chip splicing method, device, equipment and storage medium
Bodensteiner et al. Local multi-modal image matching based on self-similarity
JP2000047579A (en) Map data base updating device
JPH04242106A (en) Face recognizing apparatus
CN116563391A (en) Automatic laser structure calibration method based on machine vision
Tushev et al. Robust coded target recognition in adverse light conditions
KR100241088B1 (en) Signal processing method
JPH05108805A (en) Fingerprint collating device
JP2949787B2 (en) Fingerprint image rotation amount detection device
JP2929802B2 (en) Fingerprint matching system
JP2949788B2 (en) Fingerprint collation device
US7602941B2 (en) Component fusion for face detection
TWI715092B (en) Map information comparing and auxiliary positioning system and method thereof