JP2002157591A - 対象物認識システム及び方法 - Google Patents

対象物認識システム及び方法

Info

Publication number
JP2002157591A
JP2002157591A JP2001294512A JP2001294512A JP2002157591A JP 2002157591 A JP2002157591 A JP 2002157591A JP 2001294512 A JP2001294512 A JP 2001294512A JP 2001294512 A JP2001294512 A JP 2001294512A JP 2002157591 A JP2002157591 A JP 2002157591A
Authority
JP
Japan
Prior art keywords
model
image
level
discretization
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001294512A
Other languages
English (en)
Other versions
JP3776340B2 (ja
Inventor
Carsten Steger
カルステン・シュテガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MWTEC SOFTWARE GmbH
Original Assignee
MWTEC SOFTWARE GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from EP00120269A external-priority patent/EP1193642B1/en
Application filed by MWTEC SOFTWARE GmbH filed Critical MWTEC SOFTWARE GmbH
Publication of JP2002157591A publication Critical patent/JP2002157591A/ja
Application granted granted Critical
Publication of JP3776340B2 publication Critical patent/JP3776340B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 オクルージョン不変及びクラッタ不変の対象
物認識のための改善された視覚的認識システムを提供す
る。 【解決手段】 イメージ内のユーザが定義したモデル対
象物を認識する方法が提供され、それは、オクルージョ
ン(即ち、見つけられるべき対象物が部分的にのみ見え
る)、クラッタ(即ち、モデル対象物内ですらイメージ
内に他の対象物があり得る)、非線形照明変更及び大域
的又は局所的コントラスト反転に対して不変である。見
つけられるべき対象物は、ある一定のクラスの幾何学的
変換、例えば、平行移動、固定変換(平行移動及び回
転)、相似変換(平行移動、回転及び均一スケーリン
グ)、又は任意のアフィン変換により、モデルになぞら
えて歪まされてしまう。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、一般的に機械視覚
システムに関し、詳細には、部分オクルージョン(oc
clusion)、クラッタ、又は非線形コントラスト
変化の下での対象物の視覚認識に関する。
【0002】
【従来の技術】対象物の認識において、そして特に、多
くの機械視覚タスクにおいて、人は、イメージの中のユ
ーザ定義モデル対象物を認識することに関心がある。イ
メージの中の対象物は、ある一定クラスの幾何学的変換
の任意変換を受けてしまっている場合がある。変換のク
ラスが平行移動のクラスである場合、人は、イメージ中
のモデルの位置を得ることに関心がある。平行移動のク
ラスは、通常、モデルが常にイメージの中で同じ回転及
び大きさで生じることを保証することができる場合用い
られる。それは、例えば、モデルがx−yステージ上に
固定角度で取り付けられ、そしてカメラがそのステージ
に対して垂直の固定位置に取り付けられるからである。
変換のクラスが固定変換のクラスである場合、更にイメ
ージ中の対象物の回転が望まれる。このクラスの変換
は、例えば、カメラがステージに対して垂直に取り付け
られるが、しかし対象物の角度が固定状態に保つことが
できない場合用いることができる。変換のクラスが類似
の変換のクラスである場合、更にイメージ中の対象物の
サイズが変わり得る。このクラスの変換は、例えば、カ
メラと対象物との距離を固定状態に保つことができない
場合、又は対象物自体がサイズの変化を受け得る場合、
生じることができる。対象物に対するカメラの位置も3
D回転も固定状態に保つことができない場合、対象物
は、イメージの中で一般的透視変換を受けるであろう。
カメラの内部向きが未知である場合、2つの面(即ち、
対象物の表面及びイメージ面)間の透視投影は、同次座
標における3×3マトリックスにより表すことができ
る。即ち、
【0003】
【数1】 マトリックス及びベクトルは、全目盛係数まで決定され
るのみである(Hartley及びZisserman
n(2000)[Richard Hartley及び
Andrew Zissermann著「コンピュータ
・ビジョンにおける多重ビュー・ジオメトリ(Mult
iple View Geometryin Comp
uter Vision)」ケンブリッジ大学出版発
行、2000年]1.1−1.4章参照)。従って、対
象物の姿勢(ポーズ)を決定するマトリックスは、8の
自由度を有する。カメラの内部向きが既知である場合、
これらの8の自由度は、カメラに対する対象物の姿勢の
6の自由度(平行移動に対して3でそして回転に対して
3)に低減する。
【0004】多くの場合、このタイプの変換は、一般的
2Dアフィン変換、即ち出力点(x′,y′)Tが入力
点(x,y)Tから次の公式により得られる変換により
近似される。
【0005】
【数2】 一般的アフィン変換は、例えば、次の幾何学的直観的変
換、即ち、異なる目盛係数sx及びsyによる元のx及び
yのスケーリング、x軸に対するy軸のスキュー(斜
め)変換、即ちx軸が固定されたままでy軸の角度θの
回転、両方の軸の角度φの回転、そして最後にベクトル
(tx,tyTによる平行移動に分解されることができ
る。従って、任意のアフィン変換は次のように書くこと
ができる。
【0006】
【数3】 図1は一般的アフィン変換を図式的に示す。ここで、辺
の長さ1の正方形が、平行四辺形に変換される。相似変
換は、スキュー角θが0であり且つ両方の目盛係数が同
一である、即ち、sx=sy=sであるアフィン変換の特
別のケースである。同様に、固定変換は、目盛係数が
1、即ちs=1である相似変換の特別のケースである。
最後に、平行移動は、φ=0である固定変換の特別のケ
ースである。幾何学的変換のクラスの関連パラメータ
は、イメージ中の対象物の姿勢と称されるであろう。例
えば、固定変換に対して、姿勢は、回転角φ及び平行移
動ベクトル(tx,tyTから成る。従って、対象物認
識は、イメージ中のモデルの全インスタンス(inst
ances)の姿勢を決定することである。
【0007】幾つかの方法が、イメージの中の対象物を
認識するため当該技術において提案されてきた。それら
の大部分は、モデルが追加のクラッタ対象物により遮ら
れ又は劣化される場合そのモデルがイメージの中に見つ
けられないという制約を欠点として持っている。更に、
既存の方法の大部分は、イメージが非線形コントラスト
変化を、例えば照明の変化に起因して示す場合モデルを
検出しない。
【0008】全ての既知の対象物認識方法は、モデルが
発生される時点でメモリの中のモデルの内部表示を発生
する。イメージの中のモデルを認識するため、大部分の
方法においては、モデルは、対象物の姿勢に対する選定
されたクラスの変換の全ての許容可能な自由度を用いて
イメージと体系的に比較される(例えば、Borgef
ors(1988)[Gunilla Borgefo
rs著「階層的面取り部整合:パラメトリック・エッジ
整合アルゴリズム(Hierarchicalcham
fer matching:A parametric
edgematching algorithm)」
パターン解析及び機械知能についてのIEEEトランザ
クション(IEEE Transaction on
Pattern Analysis and Mach
ine Intelligence)10(6):84
9−865頁、1988年11月発行]、Brown
(1992)[Lisa Gottenfeld Br
own著「イメージ位置合わせ技術の調査(A Sur
vey of image registration
techniques)」ACM Computin
g Surveys、24(4):325−376頁、
1992年12月発行]、及びRucklidge(1
997)[William J.Rucklidge著
「ハウスドルフ距離を用いた対象物の効率的配置(Ef
ficiently locating object
s using the Hausdorff dis
tance)」International Jour
nal of Computer Vision、24
(3):251−270頁、1997年発行]参照)。
姿勢のパラメータの各組に対して、いかにうまくモデル
が考慮中の姿勢でイメージに対して適合するかの尺度を
与える整合メトリック(match metric)が
計算される。許容可能な変換の空間に対する探索を加速
するため、通常イメージ・ピラミッドがモデルとイメー
ジの両方について用いられて、調査される必要があるデ
ータ量を低減する(例えば、Tanimoto(198
1)[Steven L.Tanimoto著「ピラミ
ッドにおけるテンプレート整合(Template m
atching in pyramids)」Comp
uter Graphics and Image P
rocessing、16:356−369頁、198
1年発行]、Borgefors(1988)又はBr
own(1992)参照)。
【0009】最も単純なクラスの対象物認識方法は、モ
デル及びイメージそれ自体のグレー値に基づいており、
そして正規化された相互相関を整合メトリックとして用
いる(例えば、米国特許No.4972359、米国特
許No.5222155、米国特許No.558395
4、米国特許No.5943442、米国特許No.6
088483及びBrown(1992)参照)。正規
化された相互相関は、それが線形輝度変化に対して不変
であり、即ち、対象物が線形照明変化を受けた場合その
対象物を認識することができるという利点を有する。し
かしながら、正規化された相互相関は、幾つかの明らか
な欠点を有する。第1に、計算は費用がかかり、それは
このメトリックに基づく方法を非常に遅くさせる。これ
は、さもなければたとえイメージ・ピラミッドを用いた
としても探索がリアルタイム用途にとっては時間が余り
にかかり過ぎる理由だけで結局変換のクラスが通常平行
移動のクラスとして選定されることになる。第2に、メ
トリックは、対象物のオクルージョン(occlusi
on)に対してロバストでない、即ち、対象物は、たと
え対象物のほんの小さい部分がイメージの中に遮られた
場合でも通常見つけられないであろう。第3に、メトリ
ックは、クラッタに対してロバストでない、即ち、対象
物は、対象物についての外乱又は閉鎖がある場合通常見
つけられないであろう。
【0010】別のクラスのアルゴリズムはまた、モデル
及びイメージそれ自体のグレー値に基づいているが、し
かし二乗グレー値差の和又はグレー値差の絶対値の和の
いずれかを整合メトリックとして用いる(例えば、米国
特許No.5548326及びBrown(1992)
参照)。このメトリックは、線形輝度変化に対して不変
にすることができる(Lai及びFang(1999)
[Shang−Hong Lai及びMing Fan
g著「自動化された視覚検査のための正確で速いパター
ン局所化アルゴリズム(Accurate and f
ast pattern localization
algorithm for automated v
isual inspection)」Real−Ti
me Imaging、5:3−14頁、1999年発
行])。二乗差の和又は絶対値差の和を計算するのは正
規化された相互相関を計算する程費用がかかるわけでは
ないので、通常一層大きなクラスの変換、例えば固定変
換が許される。しかしながら、このメトリックは、相関
ベースの方法と同じ欠点を有し、即ち、それは、オクル
ージョン又はクラッタに対してロバストでない。
【0011】より複雑なクラスの対象物認識方法は、モ
デル及び対象物それ自体のグレー値を用いないが、しか
し整合のため対象物のエッジを用いる。モデルの生成の
間に、エッジ抽出が、モデル・イメージ及びその導出さ
れたイメージ・ピラミッドについて実行される(例え
ば、Borgefors(1988)、Rucklid
ge(1997)及び米国特許No.6005978参
照)。エッジ抽出は、グレー・レベル・イメージをバイ
ナリ・イメージに変換するプロセスであり、そこにおい
てエッジに対応する点のみが値1にセットされ、他方全
ての他のピクセルは値0を受け取り、即ち、イメージは
実際にエッジ領域の中にセグメント化される。勿論、セ
グメント化されたエッジ領域は、バイナリ・イメージと
して格納される必要はないが、しかしまた他の手段、例
えばランレングス符号化により格納されることができ
る。通常、エッジ・ピクセルは、勾配の大きさが勾配の
方向で最大であるイメージの中のピクセルとして定義さ
れる。エッジ抽出はまた、その中でモデルが認識される
ことになるイメージ及びその導出されたイメージ・ピラ
ミッドについて実行される。次いで、種々の整合メトリ
ックを用いて、モデルをイメージと比較することができ
る。1つのクラスの整合メトリックは、考慮中の姿勢の
下でのモデル・エッジのイメージ・エッジに対する距離
を測定することに基づいている。エッジの距離の計算を
容易にするため、距離変換がイメージ・ピラミッドにつ
いて計算される。Borgefors(1988)にお
ける整合メトリックは、モデル・エッジとイメージエッ
ジとの平均距離を計算する。この整合メトリックは、ク
ラッタ・エッジがモデル内で生じないで、従って、モデ
ルからイメージ・エッジまでの平均距離のみを低減する
ことができるので、クラッタ・エッジに対してロバスト
である。この整合メトリックの欠点は、モデルの一部の
エッジがイメージの中で欠落している場合最も近いエッ
ジに対する距離が著しく増大するので、その整合メトリ
ックがオクルージョンに対してロバストでないことであ
る。Rucklidge(1997)における整合メト
リックは、イメージ・エッジに対するモデル・エッジの
k番目に大きな距離を計算することによりこの欠点を取
り除こうとしている。モデルがn個の点を含む場合、メ
トリックは、100*k/n%オクルージョンに対して
ロバストである。別のクラスの整合メトリックは、単純
な2進相関に基づいていて、即ち、整合メトリックは全
ての点の平均であり、そこにおいて、現在の姿勢の下で
のモデル及びイメージの両方がエッジ・ピクセル・セッ
トを有する(例えば、米国特許No.6005978及
び米国特許No.6111984参照)。モデルの潜在
的インスタンスの探索を加速するため、米国特許No.
6005978においては、一般化されたハフ(Hou
gh)変換(Ballard(1981)[D.H.B
allard「任意の形状を検出するためのハフ変換の
一般化(Generalizingthe Hough
transform to detect arbi
trary shapes)」Pattern Rec
ogition、13(2):111−122頁、19
81年発行])が用いられる。この整合メトリックは、
モデルの中のエッジとイメージの中のエッジとの整列が
考慮中の姿勢の下で整合メトリックの正しい値を生じる
ため非常に良好であることを必要とするという欠点を有
する。複雑なスキームが、イメージの中のエッジをより
広くして正しい整合メトリックを得るため用いられる。
最後に、エッジは時に、相関ベースのアプローチに使用
のため関連の点を定義するため用いられる(米国特許N
o.6023530及び米国特許No.6154567
参照)。これらのアプローチは、整合メトリックが同じ
又は非常に類似しているので、前述の相関ベースのスキ
ームと同じ欠点を有することは明らかである。これら全
ての整合メトリックは、それらがエッジの方向を考慮し
ていない欠点を有する。米国特許No.6005978
においては、エッジ方向は、一般化されたハフ変換の使
用を通してその方法に入るが、しかし整合メトリックに
おいて無視されている。しかしながら、エッジ方向情報
を無視することは、結局イメージにおけるモデルの多く
の間違った決定的なインスタンス、即ち、モデルの真の
インスタンスでない見つけられたモデルにつながること
が周知である(Olson及びHuttenloche
r(1997)[Clark F.Olson及びDa
niel P.Huttenlocher著「方向付け
されたエッジ・ピクセルを整合させることによる自動目
標認識(Automatic target reco
giniton bymatching orient
ed edge pixels)」、イメージ処理につ
いてのIEEEトランザクション(IEEE Tran
ssaction on Image Process
ing)6(1):103−113頁、1997年1月
発行]。この理由のため、一部のアプローチは、エッジ
方向情報を整合メトリックの中に組み込む(例えば、米
国特許No.5550933、米国特許No.5631
981、米国特許No.6154566、及びHash
imoto他(1992)[Manabu Hashi
moto、Kazuhiko Sumi、Yoshik
azu Sakaue及びShinjiro Kawa
to著「輪郭点の情報を用いた高速テンプレート整合ア
ルゴリズム(High−Speed Template
Matching AlgorithmsUsing
Infomation of Contour Po
ints)」、システム及びコンピュータ(日本)23
(9):78−87頁、1992年発行]参照)。しか
しながら、これらのアプローチは、(中止させるのに十
分な程実行時間を大きくする)探索を加速するためイメ
ージ・ピラミッドを用いてなく、モデルの平行移動を計
算するだけである。前述の全てのアプローチにおいて
は、イメージ自体が2値化されるので、整合メトリック
は、狭い範囲の照明変化に対してのみ不変である。イメ
ージ・コントラストが低下される場合、徐々に少ないエ
ッジ点がセグメント化され、それは、徐々に大きいオク
ルージョンと同じ効果を有する。
【0012】
【発明が解決しようとする課題】対象物認識のための現
状技術の方法は幾つかの欠点を持つことは明らかであ
る。どのアプローチもオクルージョン、クラッタ及び非
線形なコントラストの変化に対して同時にロバストでな
い。更に、多くの場合、計算的に費用がかかる事前処理
オペレーション、例えば、距離変換又は一般化されたハ
フ変換は、対象物認識を容易にするため実行される必要
がある。多くの応用において、対象物認識ステップは、
前述のタイプの変化に対してロバストであることが必要
である。例えば、印刷品質検査において、モデル・イメ
ージは、例えば、ロゴの理想的プリントである。検査に
おいては、人は、現在のプリントが理想的なプリントか
らはずれているか否かを決定することに関心がある。そ
うするため、イメージの中のプリントは、(通常固定変
換により)モデルと整合されねばならない。対象物認識
(即ち、プリントの姿勢の決定)は、そのキャラクタ又
はパーツを欠落していること(オクルージョン)及びプ
リントの中の余分なインク(クラッタ)に対してロバス
トでなければならないことは明らかである。照明が視野
全体にわたり一定に保つことができない場合、対象物認
識はまた、非線形な照明変化に対してロバストでなけれ
ばならない。
【0013】従って、本発明の目的は、オクルージョン
不変及びクラッタ不変の対象物認識のための改善された
視覚的認識システム及び方法を提供することにある。本
発明の別の目的は、オクルージョン不変、クラッタ不変
及び照明不変の対象物認識のための視覚的認識システム
及び方法を提供することにある。
【0014】
【課題を解決するための手段】これらの目的は特許請求
の範囲の特徴により達成される。本発明は、オクルージ
ョン、クラッタ及び非線形のコントラスト変化に対して
ロバストである対象物認識のためのシステム及び方法を
提供する。
【0015】認識されるべき対象物のモデルは対応する
方向ベクトルを持つ複数の点から成り、それらは標準イ
メージ事前処理アルゴリズム、例えばライン又はエッジ
検出方法により得ることができる。モデルの生成時に、
モデルは、モデルを曲げ得る幾何学的変換のクラスから
の複数の変換、例えば固定変換によりモデル・イメージ
を変換することによりメモリに格納される。イメージの
中のモデルを認識するため、モデルの生成時に用いられ
た同じ事前処理オペレーションが、その中にモデルを見
つけることになるイメージに適用される。従って、例え
ば、ライン検出がモデルを構成するため用いられた場
合、ライン・フィルタリングが考慮中のイメージについ
て用いられる。対象物は、イメージの中のモデルの全て
のあり得る変換に対して整合メトリックを計算すること
により認識される。整合メトリックは、モデル及びイメ
ージの幾何学的情報、即ちモデル及びイメージの中の点
の位置及び方向を考慮する。整合メトリックは、例え
ば、(事前計算された)変換されたモデルのうちの1つ
と事前処理されたイメージとのドット積の和であり得
て、又は代替実施形態において、(事前計算された)変
換されたモデルのうちの1つと事前処理されたイメージ
との正規化ドット積の和であり得る。正規化されてない
ドット積は幾何学的情報のみに依拠するので、モデル・
イメージと、その中にモデルが見つけられことになるイ
メージとをセグメント化(2値化)することが必要がな
い。これは、本方法をオクルージョン及びクラッタに対
してロバストにする。正規化されたドット積が整合メト
リックとして用いられる場合、モデル・イメージをセグ
メント化して、方向情報が信頼できるそれらのポイント
を得ることが好ましい。再び、その中にモデルが見つけ
られることとなるイメージがセグメント化されないで、
結局任意の照明変化、並びにオクルージョン及びクラッ
タに対して真のロバストさにつながる。イメージの中の
モデルの位置は、整合メトリックがある一定のユーザ選
択可能しきい値より高い1組の変換(姿勢)により与え
られ、そして選択された変換のクラス内で極大である。
【0016】対象物認識プロセスを加速するため、許容
可能な変換の空間は、再帰的な粗から微細への方法(r
ecursive coarse−to−fine s
trategy)を用いて探索される。
【0017】イメージの中のモデルの見つけられたイン
スタンスのパラメータ、例えば、平行移動及び回転を用
いて、そのような幾何学的情報を用いるロボット又はい
ずれの他の装置を制御することができる。
【0018】本発明は、オクルージョン、クラッタ及び
非線形コントラスト変化に対してロバストである対象物
認識のための方法を提供する。以下の説明は、当業者が
本発明を作り及び使用するのを可能にするよう提供され
る。特定の応用の説明は例示としてのみ提供されてい
る。
【0019】
【発明の実施の形態】整合メトリック 対象物のモデルは、対応する方向ベクトルを備える複数
の点から成る。典型的には、モデルは対象物のイメージ
から発生され、そこにおいて任意の関心の領域(RO
I)は、その中に対象物が配置されるイメージのその部
分を指定する。ROIは、例えば、システムのユーザに
より対話的に指定されることができる。代替として、R
OIは、例えば、機械視覚方法、例えば、しきい値処
理、形態学のような種々のセグメント化操作の使用によ
りにより発生することもできる。モデル発生方法の詳細
が以下に説明されるであろう。
【0020】図2は、認識されるべき対象物のサンプル
・イメージ:即ち、明るい背景上の暗い十字記号を表示
する。図3は、対象物のモデルを表示し、それは、この
ケースにおいては、エッジ・フィルタを用いることによ
り発生される(以下のモデル発生についてのセクション
を参照)。モデルのポイントは矢印の尾により表され、
一方それらの方向は矢印の向きにより表される。モデル
としての対象物の別のあり得る表示が、図4に示されて
いる。そこでは、モデルのポイントを決定するためライ
ン抽出が用いられて、結局十字記号の中心線を表すモデ
ルということになる。モデルを発生する更に別の方法、
例えば、コーナー検出が、以下のモデル発生についての
セクションで説明される。
【0021】前述のことに照らして、モデルは、ポイン
トpi=(pi x、pi yT及び関連の方向ベクトルdi
(di x、di yT(i=1、…、n)から成り、ここで、
nはモデル内のポイントの数である。ポイントpiは、
ROI又はn個のポイントそれ自体の重心に関しての座
標であり、即ち、重心が、原点であり、そしてモデルの
基準点である。同様に、その中にモデルが認識されるこ
ととなるイメージは、方向ベクトルex,y=(ex x,y
y x,yTが各イメージ点(x、y)Tに対して得られる
表示に変換することができる。整合プロセスにおいて、
変換されたモデルは、イメージと特定の位置で比較され
ねばならない。最も一般的ケースにおいては、変換は透
視変換である。アルゴリズムの説明を単純にしておくた
め、アフィン変換を残りの説明全体にわたり用いる。し
かしながら、これは、アルゴリズムがこのクラスの変換
に制限されることを含意すると解釈すべきでない。アフ
ィン変換の平行移動部分を線形部分から分離することは
有効である。従って、線形変換されたモデルは、ポイン
トpi′=Api、及びそれで変換された方向ベクトルd
i′=Adiにより与えられ、ここでAは次式のとおりで
ある。
【0022】
【数4】 前述したように、変換されたモデルがイメージ内容と整
合メトリックにより比較されるが、その整合メトリック
はオクルージョン、クラッタ及び照明変化に対してロバ
ストでなければならない。本発明の一実施形態に従って
このゴールを達成する1つのあり得るメトリックは、変
換されたモデルの方向ベクトルとイメージとのモデルの
全ての点にわたる(正規化されてない)ドット積の和を
取って、整合スコアをイメージの特定のポイント(x、
y)Tで計算し、即ち、変換されたモデルの整合メトリ
ックをポイント(x、y)Tで計算することであり、そ
の和はアフィン変換の平行移動部分に対応して、次のよ
うに計算される。
【0023】
【数5】 この整合スコアの利点は、モデル・イメージも、その中
にモデルが認識されることとなるイメージもセグメント
化(2値化)される必要がないことであり、即ち、イメ
ージをまたセグメント化する抽出操作の代わりに方向ベ
クトルを生じるのみであるフィルタリング動作を用いる
ことで十分である。従って、モデルがエッジ又はライン
・フィルタリングにより発生され、且つイメージが同じ
要領で事前処理される場合、この整合メトリックは、オ
クルージョン及びクラッタに対するロバストさの要件を
満たす。対象物の部分がイメージの中で欠落している場
合、イメージの中のモデルの対応する位置にラインもエ
ッジも無い、即ち方向ベクトル
【0024】
【数6】 は、小さい長さを有し、従って上記和に対して殆ど寄与
しない。同様に、イメージの中にクラッタ・ライン又は
エッジが有る場合、モデルの中のクラッタ位置に点が無
いか、又はクラッタ・ライン又はエッジが小さい長さを
有するかのいずれかであり、それは、上記和に対して殆
ど寄与しないことを意味する。従って、上記整合メトリ
ックは、いかに良好に、相互に対応するイメージ及びモ
デルの中の点が幾何学的に位置合わせを行うかを表す。
【0025】しかしながら、上記の整合メトリックを用
いて、イメージの明るさが、例えば一定の係数だけ変化
された場合、整合メトリックは同じ量だけ変わる。従っ
て、変換されたモデルの方向ベクトルとイメージとのモ
デルの全ての点にわたる正規化されたドット積の和、即
ち、次式を計算することにより整合メトリックを修正す
ることが好ましい。
【0026】
【数7】 方向ベクトルの正規化のため、この整合メトリックは、
任意の照明変化に対して追加的に不変である。この好適
な実施形態においては、全てのベクトルは、1の長さに
スケーリングされ、そしてこのメトリックをオクルージ
ョン及びクラッタに対してロバストにさせることは、エ
ッジ又はラインが欠落している場合モデルの中又はイメ
ージの中のいずれかにおいて雑音がランダムな方向ベク
トルを引き起こし、それが平均して上記和に何も寄与し
ないことである。
【0027】モデルの全ての方向ベクトルとイメージと
が整列即ち同じ方向に向いている場合、上記整合メトリ
ックは高いスコアを戻す。エッジを用いてモデル及びイ
メージ・ベクトルを発生する場合、これは、モデル及び
イメージが各エッジに対して同じコントラスト方向を持
たねばならないことを意味する。このメトリックは、例
えば、モデルが背景より暗い十字記号から発生される場
合、背景より暗い十字記号のみを認識することができる
であろう。時には、たとえそのコントラストが逆にされ
た場合でも対象物を検出できることが望ましい。整合メ
トリックをそのようなコントラストの全体的な変化に対
してロバストにさせるため、正規化されたドット積の和
の絶対値を本発明の別の好適な実施形態に従って用いる
ことができ、即ち、整合メトリックは次式のようにな
る。
【0028】
【数8】 この整合メトリックは、幾何学的に、イメージの中の全
ての方向ベクトル(全体として)がモデルの中の方向ベ
クトルと同じ方向に向くか又は反対方向に向くかのいず
れかでなければならないことを意味する。
【0029】まれな環境において、例えば、認識される
べき対象物が中間のグレーのボディから成る場合、局所
的コントラスト変化すら無視することが必要なことがあ
り得る。なお、その中間のグレーのボディは、その上に
より暗い又はより明るいプリントを持つことができる。
このケースにおいては、更に別の実施形態に従って、整
合メトリックは、正規化されたドット積の絶対値の和で
あるよう修正されることができる。次式はその和であ
る。
【0030】
【数9】 幾何学的には、この整合メトリックは、イメージの中の
各方向ベクトルが個々にモデルの中の対応する方向ベク
トルと同じ方向か又は反対方向のいずれかに向かなけれ
ばならないことを意味する。
【0031】上記3つの正規化された整合メトリック
は、対象物がオクルージョンされた場合その対象物が見
つけられるという意味においてオクルージョンに対して
ロバストである。前述のように、これは、イメージの中
のモデルのインスタンス内の欠落している対象物のポイ
ントが平均して上記和に何も寄与しないことから生じ
る。イメージの中のモデルのいずれの特定のインスタン
スに対して、これは、例えば、イメージ内の雑音が非相
関ではないので、真ではない場合がある。これは、たと
えモデルがイメージの中で移動しなくても、モデルのイ
ンスタンスが異なるイメージにおける異なる姿勢の中に
見つけられるという望ましくないことを引き起こす。そ
れは、モデルの特定のイメージにおいてランダムな方向
ベクトルが上記和に対して僅かに異なる量寄与し、従っ
て整合メトリックの最大がランダムに変化するからであ
る。モデルの局在化をより微細にするため、イメージ内
の欠落しているモデル・ポイントの寄与をゼロにセット
することは有効である。これを行う最も容易な方法は、
イメージの中の方向ベクトルの長さ
【0032】
【数10】 がイメージ内の雑音レベルと、イメージの中の方向ベク
トルを抽出するため用いられる事前処理オペレーション
とに依存するしきい値より小さい場合、イメージの中の
方向ベクトルの逆数の長さ
【0033】
【数11】 をゼロにセットすることである。このしきい値は、ユー
ザにより指定される。整合メトリックのこの修正によ
り、モデルのオクルージョンされたインスタンスは、そ
れがイメージの中で移動しない場合、常に同じ姿勢の中
に見つけられることを保証することができる。
【0034】3つ全ての正規化された整合メトリック
は、それらが潜在的整合のスコアとして1より小さい数
を生じる特性を有する。全てのケースにおいて、1のス
コアは、モデルとイメージとの間の完全な整合を示す。
更に、スコアは、おおまかに、イメージの中に視認でき
るモデルの部分に対応する。例えば、対象物が50%オ
クルージョンされている場合、スコアは0.5を超える
ことができない。これは、対象物が認識された見なされ
るべきであるときに対して直観的しきい値を選択するた
めの手段をユーザ与えるので、極めて望ましい特性であ
る。
【0035】方向ベクトルのドット積は方向ベクトルが
逆余弦関数により囲む角度と関連付けられるので、上記
整合メトリックの幾何学的意味をも捕捉する他の整合メ
トリックが定義されることができる。1つのそのような
メトリックは、モデルの中の方向ベクトルとイメージの
中の方向ベクトルとが囲む角度の絶対値を合計すること
である。このケースにおいては、整合メトリックは、ゼ
ロより大きい又はそれに等しい値に戻すであろう。な
お、ゼロの値は完全な整合を示す。このケースにおい
て、モデルの姿勢は、整合メトリックの最小から決定さ
れねばならない。
【0036】対象物認識方法 イメージの中の対象物を見つけるため、アプリオリ無境
界探索空間が境界付けされる必要がある。これは、ユー
ザを介して探索空間のパラメータに対してしきい値を設
定することにより達成される。従って、アフィン変換の
場合、ユーザは、2つの目盛係数、スキュー角及び回転
角に対するしきい値を指定する。即ち、
【0037】
【数12】 平行移動パラメータに対する境界はまた各々2つのしき
い値により指定されることができるが、しかしこれは平
行移動の空間を長方形に制限するであろう。従って、本
発明の方法に従って、変換パラメータに対する境界は、
その中でモデルが認識されることとなるイメージの中の
任意の関心領域として一層都合良く指定される。
【0038】整合の最も単純な形式は、例えば、以下に
説明するように、境界付けされた探索空間を離散化し、
そしてそのように得られた変換パラメータの全ての組み
合わせによりモデルを変換し、更に全ての結果として生
じた変換されたモデルに対して整合メトリックを計算す
ることである。これは、全てのあり得るパラメータの組
み合わせに対して1つのスコアをもたらす。この後、全
ての有効な対象物インスタンスが、各組のパラメータで
のスコアがユーザにより選択された最小しきい値より上
である、即ちm≧mminであること、且つスコアが変換
空間において整合メトリックの極大であることを要求す
ることにより選択されることができる。
【0039】認識されるべき対象物が対称性、例えば図
2における十字記号の回転及び鏡映対称性を有する場
合、対象物の幾つかのインスタンスが見つけられ、それ
は、例えばそれらの回転及びスケーリング・パラメータ
の点で異なるが、しかし非常に近い平行移動パラメータ
を有するであろう、即ち認識された対象物は重なってい
るであろう。大部分のケースにおいては、最良のスコア
を有するインスタンスを除いて重なっている全てのイン
スタンスを取り除くことが望ましい。そうするため、見
つけられたインスタンスの相互重なりが、モデルの見つ
けられたインスタンスの任意の向きの最小包囲長方形と
2つの包囲長方形のうちの小さい方との交差範囲を比較
することにより計算される。重なりがユーザ選択可能な
小部分(フラクション)より多い場合、より小さいスコ
アを有するインスタンスが捨てられる。
【0040】オペレーションの通常のモードにおいて
は、スコア及び重なり基準を満たす全てのインスタンス
は、本発明の方法により戻される。時に、モデルのどの
くらい多くのインスタンスがイメージの中で見つけられ
る必要があるかは演繹的に知られる。従って、ユーザ
は、イメージの中で見つけられるべきモデルのインスタ
ンスの数oを指定する。このケースにおいては、重なっ
ているインスタンスの除去後のo個の最良インスタンス
のみが戻される。
【0041】探索空間の離散化 本発明で開示した全ての整合メトリックは、計算される
べき正しいスコアに対して、変換されたモデルとイメー
ジ中の対象物の大きな重なりを要求する。重なりの程度
は、方向情報を得るため取られた事前処理ステップによ
り影響を及ぼされる。ライン又はエッジ・フィルタリン
グ方法を用いて、方向情報を得る場合、モデルとイメー
ジにおけるインスタンスの重なりの程度は、ライン又は
エッジ・フィルタで用いられた平滑化の程度に直接依存
する。小さい平滑化を有するフィルタ、例えばソーベル
(Sobel)・エッジ・フィルタを用いた場合、変換
されたモデルの全てのポイントは、(カメラの光学素子
によりイメージの中で対象物のエッジがいかに不鮮明に
見えるかに依存して)イメージ中のインスタンスのほぼ
1個のピクセル内になければならなく、それにより正し
いスコアが得られる。エッジ又はライン抽出が実行され
る前にイメージが平滑化される場合、この距離は、適用
される平滑化量に比例してより大きくなる。それは、エ
ッジ又はラインが平滑化動作により広くされるからであ
る。例えば、サイズk×kの平均フィルタが特徴抽出
(例えば、ライン又はエッジ・フィルタリング)の前に
又はそれにおいて適用された場合、モデル・ポイント
は、インスタンスのk個のピクセル内になければならな
い。類似の結果が、他の平滑化フィルタ、例えばキャニ
ー(Canny)・エッジ抽出器及びステガー(Ste
ger)ライン検出器で用いられるガウス・フィルタに
対して当てはまる。
【0042】変換空間は、イメージ中のインスタンスか
ら多くてもk個のピクセルにある全てのモデル・ポイン
トの上記の要件が保証されることができる要領で離散化
される必要がある。図5は、離散化ステップ長を導出す
るため用いられるパラメータと共に鍵のサンプル・モデ
ルを示す。ポイントcは、モデルの基準点、例えばその
重心である。距離dmaxは、基準点からの全てのモデル
・ポイントの最大距離である。距離dxは、x方向のみ
測定した基準点からの全てのモデル・ポイントの最大距
離である。即ち、モデル・ポイントのx座標が距離を測
定するため用いられる。同様に、距離dyは、y方向の
み測定した基準点からの全てのモデル・ポイントの最大
距離である。モデルをx方向にスケーリングすることに
より生成された全てのモデル・ポイントがイメージの中
のインスタンスからk個のピクセル内に有ることを保証
するため、ステップ長ΔsxがΔsx=k/dxとして選
定されねばならない。同様に、Δsyは、Δsy=k/d
yとして選定されねばならない。スキュー角の離散化
は、x軸がスキュー操作において固定されたままである
ので、距離dyのみの依存する。従って、スキュー角の
ステップ長Δθは、Δθ=arccos(1−k2
(2d2 y))として選定されねばならない。同様に、回
転角のステップ長は、Δφ=arccos(1−k2
(2d2 max))として選定されねばならない。最後に、
平行移動パラメータにおけるステップ長は、両方共kに
等しく、即ちΔtx=Δty=kでなければならない。
【0043】認識方法の加速 前述の全数探索アルゴリズムは、対象物が存在する場合
イメージの中に対象物を見つけるが、しかしその方法の
実行時間は全く大きいであろう。種々の方法が、認識プ
ロセスを加速するため本発明の好適な実施形態に従って
用いられる。
【0044】最初に、ドット積の和が完全に計算されな
いのが好ましい。それは、スコアが潜在的インスタンス
が得られるように最小スコアmminより上でなければな
らないからである。mjがモデルのj番目の要素までド
ット積の部分的和を示すとする。正規化されたドット積
の和を用いる整合メトリックに対して、これは次のよう
になる。
【0045】
【数13】 和の残りの(n−j)個の項の全ては全て1より小さい
か又は1に等しい。従って、mj<mmin−1+j/nで
ある場合、部分的スコアmjは決して要求されたスコア
minに達することができなく、従って和の評価はこの
条件が満たされているときは常にj番目の要素の後で中
断することができる。この判定基準は、認識プロセスを
相当に加速する。それにも拘わらず、更なる加速が大い
に望ましい。別の判定基準は、全ての部分的和がmmin
より良いスコア、即ちmj≧mminであることを要求する
ことである。この判定基準を用いるとき、探索は、非常
に速いが、しかしもはや、この方法はモデルの正しいイ
ンスタンスを見つけることを保証することができない。
それは、モデルの欠落部分が最初にチェックされる場合
部分的スコアは要求スコアより低いからである。対象物
がイメージの中で視覚可能であるにも拘わらず対象物が
見つからないことが非常に低い確率である状態で認識プ
ロセスを加速するため、次の発見法を用いることができ
る。即ち、モデル・ポイントの第1の部分を比較的安全
な停止判定基準で検査し、一方モデル・ポイントの残り
の部分を厳しいしきい値mminを用いて検査する。ユー
ザは、モデル・ポイントのどの部分をパラメータgを有
する厳しいしきい値を用いて検査することを指定するこ
とができる。g=1の場合、全ての点が厳しいしきい値
を用いて検査され、一方g=0の場合は、全ての点が安
全な停止判定基準を用いて検査される。これを用いて、
部分的和の評価は、mj<min(mmin−1+fj/
n、mmin)(ここで、f=(1−gmmin)/(1−m
min))であるときは常に停止される。典型的には、パ
ラメータgは、イメージの中のインスタンスの欠落なし
で0.9程の高い値にセットされることができる。前述
の判定基準と同じ趣旨の他の停止判定基準を定義するこ
とができるは明らかである。
【0046】第2に、モデル・ポイントに対する勾配長
の正規化は、モデルが生成される時点、即ちモデル・ポ
イントが長さ1の方向ベクトルを有して格納される時点
に最良に行われることは明らかである。イメージ点の勾
配長の逆数
【0047】
【数14】 は、方向ベクトルの成分が取ることができる値の範囲が
制限される場合前もって計算することができる。このケ
ースにおいては、その勾配長の逆数は、1回のみ計算さ
れ、そして方向ベクトルの2つの成分により指標付けさ
れるマトリックスの中に格納される。例えば、方向ベク
トルを符号化するため符号を付された1バイト値を用い
る場合、マトリックスのサイズは256×256であろ
う。方向ベクトルの逆数長を格納することは、除法が乗
法により置換される追加の利点を有し、乗法は、殆ど全
てのマイクロプロセッサについてはるかに速い。逆数長
を格納する最後の利点は、前述した欠落する対象物ポイ
ントの寄与分の棄却がある一定の長さより下の全ての逆
数方向ベクトル長を0にテーブルで設定することにより
単純に行うことができることである。
【0048】別の大きな加速は、再帰的な粗から微細へ
の方法を用いて許容可能な変換の空間を探索することに
より得られる。前述の対象物認識方法は、最も微細なあ
り得る離散化を持つ探索空間における探索に対応し、そ
こにおいてステップ長は、k=1に対して得られる値に
設定される。これは、比較的遅い全数探索をもたらす。
その探索を加速するため、ステップ長が最も微細なレベ
ルでのステップ長の整数倍である探索空間において全数
探索を実行することができる。次いで、この粗く離散化
された探索空間の中で見つけられた整合は、その整合が
最も微細なレベルの離散化で見つけられるまで、前進的
により微細に離散化された探索空間を通して追跡されね
ばならない。全てのレベルの離散化において、探索空間
の離散化についてのセクションにおける平滑化について
のしるしが観察されねばならなく、即ち、各レベルの離
散化に対する一時的イメージが生成されねばならず、そ
こにおいては各イメージは、対象物が常に見つかること
を保証するため、対応する離散化レベルのステップ長に
対応する量だけ平滑化されねばならない。異なる離散化
レベルのためのステップ長パラメータに対する良好な選
定は、それらを、k=2l(ここで、l=0、…、
max)である場合得られる値に設定することである。
離散化レベルの数(lmax+1)がユーザにより選定さ
れるべきであり、それにより対象物は、k=2lmaxの対
応する値のため必要な平滑化の下で依然認識できる。一
例として、探索空間が固定変換の空間である場合で、そ
してモデルがdmax=100の最大を有する場合で、且
つlmax=3がユーザにより選定される場合、以下のス
テップ長が、「探索空間の離散化」のセクションで説明
される方法に従って異なる離散化レベルの探索空間に対
して得られる。
【0049】
【表1】 更なる加速のため、モデルの中の点の数がまた、異なる
離散化レベルの探索空間に対して係数k=2lにより低
減されることが好ましい(以下のモデル発生についての
セクション参照)。必要な平滑化は、平均フィルタを用
いることにより得られることが好ましい。それは、平均
フィルタが再帰的に実行されることができ、従ってイメ
ージを平滑化するための実行時間が平滑化パラメータに
依存しないからである。代替として、ガウス型平滑化フ
ィルタの再帰的実行を用いることができる。この離散化
及び平滑化方法が既に許容可能な実行時間を生成するに
も拘わらず、更なる加速は、各離散化レベルについて平
行移動ステップ長Δtx及びΔtyと同一である係数によ
りイメージをサブサンプリングすることよっても得られ
ることができる。このケースにおいては、平行移動パラ
メータに対するステップ長は、勿論、各レベルで1に設
定されねばならない。しかしながら、ここで、正しい平
行移動パラメータを離散化のレベルにわたって伝搬する
ことに注意しなければならない。前述したように、平行
移動ステップ長が各レベルの離散化空間において2倍に
なる場合、見つけられた対象物の平行移動パラメータ
は、次のより微細な離散化レベルを探索する前に2倍に
されねばならない。明らかに、イメージのサブサンプリ
ングは、アフィン変換の他の4つのパラメータに影響を
及ぼさない。平均フィルタを用いる場合、サブサンプリ
ング及び平滑化プロセスは、平均イメージ・ピラミッド
に対応する(Tanimoto(1981))。ガウス
・フィルタが平滑化のため用いられる場合、ガウス型イ
メージ・ピラミッドが得られる。
【0050】変換の空間が平行移動の空間又は固定変換
の空間である場合、前述の方法は、既に最適な実行時間
に近いであろう。変換の空間がより大きい、例えば、相
似性又はアフィン変換の空間である場合、一般化された
ハフ変換(Ballard(1981))又はRuck
lidge(1997)で説明された方法のような方法
を用いることにより探索を加速することが可能であり得
て、その方法は、潜在的に変換空間の大きな部分を迅速
に除いて、潜在的整合を最も粗いレベルの離散化空間に
おいてより迅速に識別する。間違った整合の潜在性がこ
れらの方法により一層高いので、潜在的整合を離散化空
間のレベルを通して検査し且つ追跡するため本明細書で
開示の方法を用いることは本質的である。更に、潜在的
整合の正確さが弱いので、事前処理ステップにより戻さ
れた姿勢は、本明細書で開示の方法に基づく真の整合が
見つけられることを保証するのに十分な量だけ変換空間
における領域に拡大されねばならない。
【0051】これらの原理の展開を用いて、好適な対象
物認識方法を図6に示す。第1のステップ(1)におい
て、その中にモデルが見つけられることとなるイメージ
が、外部装置、例えばカメラ又はスキャナから獲得され
る。
【0052】次いで、イメージは、探索空間の再帰的副
分割と一致する表示に変換される(ステップ2)。好適
な実施形態においては、ユーザは、パラメータlmax
指定することにより探索空間の最も粗い副分割を選択す
る。次いで、lmax個の一時的イメージが、元のイメー
ジに加えて生成される。好ましくは、これらのlmax
1個のイメージが次いで事前処理されて、元のイメージ
の平均イメージ・ピラミッドを増強し、それは、ピラミ
ッドの各レベルlにおけるイメージが次に低いピラミッ
ド・レベルにおけるイメージの側長の半分を有すること
を意味し、そこにおいてグレー・レベルは、ピラミッド
の次に低いレベルの適切な位置で2×2ブロックのグレ
ー値を平均化することにより得られる。代替として、一
時的イメージは、サブサンプリング・ステップを省略し
且つ元のイメージについての各離散化されたレベルに対
する適切なマスク・サイズを有する平均フィルタを用い
ることにより生成される。
【0053】このステップの後に、特徴抽出が、lmax
+1個のイメージの各々で実行される(ステップ3)。
特徴抽出は、例えば、エッジ又はライン・フィルタをイ
メージに適用することにより行って、イメージの中の方
向ベクトルを得ることができる。そのようなフィルタ・
オペレーションを用いる場合、セグメント化(2値化)
オペレーションは実行されない。イメージ・ピラミッド
を用いる場合、方向ベクトルもまた、任意の領域セグメ
ント化手順、例えばイメージをしきい値処理することか
ら得られることができ、そこにおいてしきい値は、例え
ば、ヒストグラム解析によりイメージから導出され、上
記の任意の領域セグメント化手順には、セグメント化さ
れた領域の境界に対する法線を計算することが続き、例
えば、特定の境界点の周りのある一定の数の境界点に適
合する最小方形ラインを計算し且つその境界点の方向と
して当該ラインの法線を用いることが続く。
【0054】続いて、最も粗いレベルlmaxの離散化空
間にわたり全数探索が実行される(ステップ4)。これ
は、パラメータ値の全ての組み合わせに対して、対応す
るパラメータ値を用いて変換されたモデルの整合メトリ
ックが、前述の整合メトリックの1つにより計算される
ことを意味する。モデル発生についてのセクションにお
いて後述されるように、変換されたモデルは、モデルが
発生される時点に事前計算され得る。これが行われなか
った場合、モデルは、このステップにおいて、アフィン
変換パラメータをモデルの点に適用し且つ線形変換パラ
メータをモデルの方向ベクトルに適用することにより変
換されねばならない。これは、パラメータ値の各あり得
る組み合わせに対するスコアをもたらす。次いで、スコ
アは、ユーザ選択可能しきい値mminと比較される。こ
のしきい値を超える全てのスコアは、探索空間内の領域
の中に組み合わされる。これらの領域において、整合メ
トリックの極大が、ある一定の組のパラメータのスコア
を隣接の変換パラメータのスコアと比較することにより
計算される。結果として生じる極大は、探索空間の最も
粗い離散化におけるモデルの見つけられたインスタンス
に対応する。見つけられたこれらのインスタンスは、イ
ンスタンスのリストに挿入され、そのインスタンスのリ
ストは、インスタンスのスコアにより分類される。
【0055】一旦最も粗い離散化レベルの徹底的な整合
(全数整合)が完結すると、見つけられたインスタンス
は、それらが最低レベルの離散化空間で見つけられるま
で、より微細なレベルの離散化空間を通して追跡される
(ステップ5)。その追跡は次のように実行される。即
ち、第1の未処理モデル・インスタンスがモデル・イン
スタンスのリストから除去される。これは、インスタン
スのリストがスコアにより分類されるので、最良のスコ
アを有する未処理インスタンスである。次いで、このイ
ンスタンスのポーズ・パラメータを用いて、次に低いレ
ベルの離散化における探索空間を定義する。理想的に
は、モデルは、ポーズ・パラメータの適切な変換により
与えられる位置に配置されるであろう。即ち、スケーリ
ング・パラメータsx及びsy、並びに角度φ及びθが、
次に微細なレベルの離散化において最も近いパラメータ
に丸められ、一方変換パラメータは、もしイメージ・ピ
ラミッドを用いる場合2の係数によりスケーリングされ
るか、又はもしサブサンプリングを用いない場合無修正
で通されるかのいずれかである。しかしながら、イメー
ジが次に微細なレベルにおける量よりその2倍の量だけ
平滑化されてしまった最も粗い離散化レベルにおいてイ
ンスタンスが見つけられたので、次に低いレベルの離散
化において探索空間を形成するとき考慮されねばならな
いポーズ・パラメータにおける不確定性がある。探索空
間に対する良好な選定は、伝搬される平行移動パラメー
タの周りにサイズ5×5の長方形を構成することにより
得られる。更に、他の4つのパラメータに対する探索空
間は、より微細なレベルにおける次に低い値及び次に高
い値のパラメータを探索空間の中に含むことにより構成
される。一例として、変換の空間が、固定変換から成る
と仮定すると、そのイメージ・ピラミッドが用いられて
しまい、そしてインスタンスは、次の姿勢、即ち
(tx、ty)=(34,27)、φ=55.020°を
有するレベルl=3の離散化において見つけられた。次
いで、より微細なレベルl=2における探索空間は、6
6≦tx≦70、52≦ty≦56、及び52.716°
≦φ≦57.300°により与えられる(上記の例にお
いて離散化ステップ長を有するテーブルを覚えているべ
きである。)。次いで、モデルは、最も粗い離散化につ
いての徹底的な整合に対して前述したのと同じ要領で整
合メトリックを計算することにより、全ての変換を用い
てより微細なレベルにおける探索空間で探索される。探
索空間内の最大スコアが識別される。対応する姿勢が探
索空間の境界にある場合、探索空間は、最大スコアを有
する姿勢が探索空間内に完全にあるようになるまで、即
ち探索空間の境界にないようになるまで、その境界で反
復的に拡大される。こうして得られた最大スコアがユー
ザ選択可能しきい値mminを超える場合、インスタンス
は、そのスコアに従った適切な場所で、見つけられたイ
ンスタンスのリストに加えられる。
【0056】最も微細なレベルの離散化空間について、
インスタンスがリストに挿入される時点に、見つけられ
たインスタンスが他のインスタンスとあまりに多く重な
る場合、それら見つけられたインスタンスがチェックさ
れる(ステップ6)。前述したように、インスタンス間
の重なりは、各対のインスタンスの周りの任意の向きの
最も小さい包囲長方形と、2つの長方形のうちの小さい
方との交差面積の比として計算される。重なりがユーザ
により供給された小部分より大きい場合、より良いスコ
アを有するインスタンスのみがリストの中に保持され
る。ユーザが見つけるべき最大数のインスタンスを指定
しなかった場合、もし全ての見つけられたインスタンス
が最も微細なレベルの離散化上にあるならば、モデルの
再帰的追跡は停止する。ユーザが見つけるべき最大数o
のインスタンスを指定した場合、もし最も微細な離散化
レベルで見つけられたインスタンスの数がoより小さい
ならば、且つもし全ての見つけられたインスタンスが最
も微細なレベルの離散化にあるならば、即ち、ユーザに
より指定された数よりイメージの中のインスタンスが少
ないならば、モデルの再帰的追跡は停止する。代替とし
て、o個のインスタンスが最も微細なレベルの離散化で
見つけられた場合、探索は停止する。次いで、この追跡
方法は、全ての未処理のインスタンスをより粗いレベル
の離散化でチェックすることにより、それらのスコアが
最も微細なレベルで見つけられた最悪のインスタンスの
スコアに十分に近接しているか否かを知る。それは、こ
れらのインスタンスが、これまで見つけられたo個の最
良のインスタンスより、一層微細なレベルの離散化での
より良いスコアに導くからである。未処理のインスタン
スが最も微細なレベルで見つけられた最悪スコアに定
数、例えば0.9を掛けたものより良いスコアを有する
場合、このインスタンスはまた、o個の最良の整合が見
つけられることを保証するため、前述の要領で探索空間
にわたり再帰的に追跡される。これは、全ての関係のな
いインスタンス、即ち、制限oを超えて見つけられた全
てのインスタンスがこのステップ6で除去されることを
意味する。
【0057】ユーザが、最も微細な離散化より一層良い
解像度を用いて姿勢を戻すべきであると指定した場合、
見つけられた各インスタンスに対応する最大の整合メト
リックがサブピクセル解像度を用いて外挿される(ステ
ップ7)。これは、例えば、選定された変換の空間のパ
ラメータに関して整合メトリックの1次及び2次導関数
を計算することにより行うことができる。1次及び2次
導関数は、例えば、適切な1次及び2次導関数マスク、
例えばn次元ファセット・モデル・マスク(n−dim
ensional facet moderl mas
ks)を用いた畳み込みにより最大スコアに隣接するス
コアから得ることができる(Steger(1998)
[Carsten Steger著「曲線構造の不偏検
出器(An unbaised detector o
f curvilinear structur
e)」、パターン解析及び機械知能のIEEEトランザ
クション(IEEE Transction on P
attern Analysisand Machin
e Intelligence)、20(2):113
−125頁、1998年2月発行](これらのマスクの
2次元バージョンに対するものである。それらは、直接
的な方法でn次元に一般化する。)参照)。これは、離
散的探索空間の最大スコア・セルにおけるテイラー多項
式を導き、そのテイラー多項式から最大は、1組の1次
方程式を解くことにより容易に計算することができる。
【0058】最後に、見つけられたインスタンスの抽出
された姿勢は、ユーザに戻される(ステップ8)。 モデル発生 モデルは、前述の整合方法に従って発生されねばならな
い。モデル発生の心臓部に、モデルのポイント及び対応
する方向ベクトルを計算する特徴抽出がある。これは、
多数の異なるイメージ処理アルゴリズムにより行うこと
ができる。本発明の一好適な実施形態においては、方向
ベクトルはモデル・イメージの勾配ベクトルであり、そ
れは、標準エッジ・フィルタ、例えば、ソーベル−キャ
ニー・フィルタ(the Sobel,Canny f
ilter)(Canny(1986)[John C
anny著「エッジ検出に対する計算的アプローチ(A
computational approach to
edge detection)」パターン解析及び
機械知能のIEEEトランザクション(IEEETra
nsction on Pattern Analys
is andMachine Intelligenc
e)、8(6):679−698頁、1996年6月発
行]参照)、又はデリチェ・フィルタ(Deriche
filter)(Deriche(1987)[Ra
chid Deriche著「キャニー判定基準を用い
た、再帰的に実行される最適エッジ検出器の導出(Us
ing Canny’s criteria to d
erive a recursively imple
mented optimal edge detec
tor)」、International Joura
nl of Computer Vision、1:1
67−187頁、1987年参照]から得られることが
できる。イメージがセグメント化されない場合、ROI
内の全ての点は、モデルに加えられるであろう。方向情
報は勾配の大きさが大きい範囲で最も正確で且つ最も信
頼できるので、且つROI内の点の数が通常非常に大き
い(従って探索がゆっくりしている)ので、モデル・イ
メージ内のポイントの数は、勾配イメージの標準セグメ
ント化アルゴリズム、例えば勾配の大きさのしきい値処
理を用いることにより、又はヒステリシスしきい値処
理、非最大抑制及びスケルトンの計算の組み合わせを用
いることにより低減される(Canny(198
6))。別の好適な実施形態においては、方向ベクトル
は、ライン検出アルゴリズム、例えば、イメージのヘッ
シアンマトリックス(2次偏微分から成るマトリック
ス)の最大強度の固有値に対応する固有ベクトルから得
られることができる(Steger(1998)又はB
usch(1994)[Andreas Busch著
「ユーザによる供給されるパラメータなしでのディジタ
ル・イメージ内のラインの高速認識(Fast rec
ognition of linesin digit
al images without user−su
pplied parameters)」、写真測量及
び遠隔検知の国際記録(International
Archives of Photogrammetr
y and Remote Sensing)におけ
る、XXX巻、パート3/1、91−97頁、1994
年参照]参照)。2つの引用されたアルゴリズムは、既
にイメージをセグメント化、即ち、エッジ検出で用いら
れる非最大抑制及びスケルトン動作に似て、1ピクセル
幅ラインを生じることに注目されたい。本発明の別の好
適な実施形態においては、方向情報は、コーナー検出
器、例えばフェルストナー(Foerstner(以
下、この文字の中の「oe」はドイツ文字のoウムラウ
トを表す。))の方法(1994)[Wolfgang
Foerstner著「低レベル特徴抽出のためのフ
レームワーク(A framework for lo
w level feature extractio
n)」、Jan−Olof Eklundh編集、コン
ピュータ・ビジョンについての第3回ヨーロッパ会議で
のコンピュータ科学における講演ノートの801巻、3
83−394頁、ベルリン、1994年、シュプリンガ
ー出版社(Springer−Verlag)発行]か
ら得られることができる。この方法は、非常に少ないポ
イントがモデルに対して発生される利点を有する。本発
明の別の好適な実施形態においては、セグメント化領域
の境界に対する法線を計算すること、例えば、特定の境
界点の周りのある一定数の境界点に適合される最小方形
ラインを計算し、且つそのラインの法線をその境界点の
方向として用いることが続く任意の領域セグメント化手
順、例えばイメージのしきい値処理から、方向情報は得
ることができる。
【0059】完全なモデル発生方法が図7に示されてい
る。最初に、モデルとして用いられるべき対象物を含む
イメージが、外部装置、例えば、カメラ又はスキャナか
ら獲得される(ステップ1)。このステップは、イメー
ジ内でモデルが存在する関心の領域の選択を含む。RO
Iは、ユーザにより対話的に指定されることができる。
代替として、ROIは、自動的にイメージ処理プログラ
ムにより、例えば、適切な方法、例えばしきい値オペレ
ーションにより対象物をセグメント化することにより、
且つ特徴抽出がROI内の全ての関連対象物ポイントを
見つけることを保証するため形態操作を用いてセグメン
ト化領域を拡大することにより発生されることができ
る。
【0060】次に(ステップ2)、イメージは、探索空
間の再帰的副分割と一致する表示に変換される。好適な
実施形態においては、ユーザは、パラメータlmaxを指
定することにより探索空間の最も粗い副分割を選択す
る。次いで、lmax個の一時的イメージは、元のイメー
ジに加えて生成される。次いで、これらlmax+1個の
イメージが事前処理され、元のイメージの平均イメージ
・ピラミッドを増強する。代替として、一時的イメージ
は、サブサンプリング・ステップを省略し、且つ元のイ
メージについての各離散化レベルに対する適切なマスク
・サイズを有する平均フィルタを用いることにより生成
される。
【0061】この後で、離散化の各レベルに対して、適
切なモデルが発生される(ステップ3)、即ち、図7の
ステップ(4)−(7)が各レベルの離散化に対して実
行される。各レベルの離散化に対してモデルを発生する
理由は、探索空間の各レベルにおける平行移動パラメー
タのステップ長に従ってデータ量を低減するためであ
る。イメージ・ピラミッドがイメージを変換するためス
テップ(2)で用いられた場合、モデル内のポイントの
数の低減は自動的に起こる。サブサンプリングが実行さ
れなかった場合、データ点の数は、以下のステップ
(6)における特徴抽出の後に低減される。
【0062】各レベルの離散化に対して、探索空間が、
前述の対象物認識方法の説明に従って、次の線形変換パ
ラメータについてユーザにより指定された境界を用いて
サンプリングされる。
【0063】
【数15】 平行移動パラメータはサンプリングされない、即ち、固
定の平行移動パラメータtx=ty=0が用いられる。そ
れは、平行移動パラメータは、モデルの形状を変えない
からである。ステップ(5)−(7)が、現在レベルの
離散化に対する、サンプリングされた探索空間からの各
組のパラメータに対して実行される。探索空間をサンプ
リングする理由は、許容可能な変換の下でモデルの全て
のあり得る形状を事前計算し且つそれをメモリに格納す
ることにあり、結果として対象物認識段階における実行
時間の著しい低減につながる。
【0064】ステップ(5)において、現在レベルの離
散化の変換されたイメージ、即ち、現在レベルのピラミ
ッドでのイメージ、又は適切に平滑化されたイメージ、
これはステップ(2)で発生されたものであるが、この
イメージは、現在の変換パラメータを用いて変換され
る。ここで、対象物が依然イメージ変換後にイメージ内
に完全にあることに注意しなければならない。必要なら
ば、平行移動が、これを達成するためその変換に加えら
れ、それは、抽出されたモデル・ポイントがステップ
(7)においてモデルに加えられるときにである。イメ
ージは、適切なアンチエイリアシング方法を用いて、例
えば双線形補間を用いて変換される。
【0065】イメージが変換された後に、選定された特
徴抽出アルゴリズが、変換されたイメージに適用される
(6)。前述のように、特徴抽出アルゴリズは、例え
ば、ライン、エッジ、又はコーナー検出、又は領域ベー
スのセグメント化アプローチであり得る。これは、特徴
点及びそれらの対応する方向ベクトルのリストをもたら
す。サブサンプリングが、現在レベルの離散化でイメー
ジを発生するため用いられた場合、モデル・ポイントが
ここでサブサンプリングされる。これは、例えば、モデ
ルの全てのk番目のポイントを選択することより行われ
る(ここで、kは現在レベルの離散化での平行移動パラ
メータのステップ長である。)。代替として、モデル・
ポイントは、現在レベルの離散化での平行移動パラメー
タのステップ長に対応する、側長kの各正方形に入る点
にグループ分けされることができる、即ち抽出された特
徴点が碁盤目状にされる。次いで、少なくとも1つのモ
デル・ポイントを持つ各碁盤目状にされた正方形の中心
に最も近いモデル・ポイントが、その正方形を表すモデ
ル・ポイントとして選択される。モデル・ポイントの数
は更に、対象物認識プロセスを後で加速するためこのス
テップで低減されることが任意にできる。これは、主
に、特徴ピクセルのチェインを戻す特徴抽出器、例え
ば、ライン、エッジ、及び領域境界セグメント化手順に
対して有効である。(必要ならば、サブサンプリングが
ステップ(2)において用いられなかった場合特徴点の
碁盤目状の配列を考慮して、)1つのそのような方法
は、例えば、抽出されたピクセルを接続されたピクセル
のチェインにリンクさせることであり、その結果対象物
の接続された輪郭を生じる。次いで、その輪郭は多角形
で近似でき、それはデータ量を相当に低減する。モデル
・ポイントは、このケースの場合多角形制御点である。
代替として、対象物の輪郭がサブサンプリングされ、よ
り少ないモデル・ポイントを有するモデルを発生するこ
とができる、即ち、輪郭の全てのk番目のポイントのみ
がモデルに加えられる。
【0066】最後に、ステップ(6)で得られたモデル
・ポイントは、変換されたモデルを発生するため用いら
れた変換パラメータと共に、現在の離散化レベルでのモ
デルの収集に加えられる。欲張りな探索方法が用いられ
る場合に整合をよりロバストにするため、モデルの第1
の数個のポイントがモデルにわたり良好に分布される程
度にポイントをモデルに加えることが有効である。これ
は欲張りな方法では必要である。それは、モデルの第1
の部分における全てのポイントがたまたまオクルージョ
ンされ、一方全ての他のポイントが存在する場合、その
整合方法はモデルのインスタンスを見つけないであろ
う。第1のモデル・ポイントの一様分布を達成するため
の最も単純な方法は、モデル・ポイントをモデルにラン
ダム化された順序で加えることである。
【0067】前述のモデル発生方法は、大きい許容可能
な変換の探索空間の非常に大きな数の事前計算されたモ
デルを発生し得る。これは、結局、事前計算されたモデ
ルを格納することを要求されたメモリが非常に大きいこ
とになり、それは、モデルがメモリ内に格納されること
ができないか、又は仮想メモリをサポートするシステム
上のディスクにページングされねばならないかのいずれ
かを意味する。第2のケースにおいては、認識段階にお
いて必要とされるモデルの部分がディスクからメイン・
メモリに戻すようにページングされねばならないので、
対象物認識が遅くされるであろう。従って、事前計算さ
れたモデルを格納するのに要求されるメモリが大きくな
りすぎる場合、代替のモデル発生方法は、上記の方法の
ステップ(4)を省略し、そして代わりに、対象物を変
更しないままにする、即ちsx=sy=1及びφ=θ=0
である変換パラメータに対応する、各レベルの離散化で
の対象物のただ1つの事前計算されたモデルを計算する
こととなる。このケースにおいては、モデルの変換は、
モデルが対象物認識方法に対して前述したようにイメー
ジと整合されるとき急いで行わなければならない。
【0068】上記のモデル発生方法は、各離散化レベル
において1組の変換の各許容可能な変換を用いてイメー
ジを変換する。それは、その方法が特徴抽出器のあり得
る異方性結果を考慮しようするから、即ち、特徴抽出器
が戻す方向ベクトルがイメージの特徴の向きに偏倚され
る方法で依存し得ることを考慮するからである。たとえ
それら方向ベクトルがイメージの中でどの向きに生じよ
うとも、特徴抽出器が等方性である、即ち特徴抽出器が
戻す方向ベクトルが正しいことが知られている場合、イ
メージ変換ステップを省略することができる。代わり
に、抽出された特徴点及び方向ベクトルそれら自体は、
変換されて、全てのあり得る変換に対して事前計算され
た1組のモデルを得る。このモデル発生方法が図8に示
されている。代替モデル発生方法のステップ(1)−
(3)は、図7の正常なモデル発生方法と同一である。
相違は、特徴抽出がここでは全ての離散化レベルに対し
て1回だけ実行されることである(4)。次いで、ステ
ップ(5)−(7)を用いて、モデル・ポイント及び方
向ベクトルが、現在レベルの離散化のに対して全てのあ
り得る変換により変換され、メモリに格納される。
【0069】本発明の幾つかの特定の実施形態が詳細に
説明されたが、好適な実施形態に対する種々の変更が本
発明の範囲を離れることなく行うことができる。
【図面の簡単な説明】
【図1】 図1は、一般的アフィン変換のパラメータを
示す。
【図2】 認識されるべき対象物のサンプル・イメージ
を示す。
【図3】 対象物のモデルがエッジ・フィルタを用いる
ことにより発生されることを示す。
【図4】 対象物のモデルがライン抽出を用いて発生さ
れることを示す。
【図5】 離散化長を導出するため用いられるパラメー
タと共に鍵のサンプル・モデルを示す。
【図6】 本発明に従った再帰的対象物認識方法の好適
な実施形態を示す。
【図7】 本発明に従ったモデル発生方法の好適な実施
形態を示す。
【図8】 本発明に従ったモデル発生方法の別の好適な
実施形態を示す。

Claims (17)

    【特許請求の範囲】
  1. 【請求項1】 (a)電子的メモリにモデル対象物のイ
    メージを獲得するステップと、 (b)マルチレベル表示が少なくともの元のイメージを
    含み、前記モデル対象物のイメージを、探索空間の再帰
    的副分割と一致する前記マルチレベル表示に変換するス
    テップと、 (c)事前計算されたモデルは、方向ベクトルを有する
    複数の対応する点から成り、ポイント及び方向ベクトル
    は、少なくとも各モデル・ポイントに対して方向ベクト
    ルを戻すイメージ処理オペレーションにより発生され、
    探索空間の離散化の各レベルに対して前記対象物の少な
    くとも1つの前記事前計算されたモデルを発生するステ
    ップと、 (d)電子的メモリに現在のイメージを獲得するステッ
    プと、 (e)前記マルチレベル表示が少なくとも元のイメージ
    を含み、現在のイメージを探索空間の再帰的副分割と一
    致する前記マルチレベル表示に変換するステップと、 (f)モデルを探索すべき平行移動範囲に対応する前記
    イメージ内のサブセットのポイントに対して方向ベクト
    ルを戻すマルチレベル表示の各変換されたイメージにイ
    メージ処理オペレーションを実行するステップと、 (g)探索空間の最も粗い離散化レベルにおけるモデル
    の全てのあり得る姿勢に対してモデルの方向情報及び変
    換されたイメージを用いる整合メトリックを計算するス
    テップと、 (h)これらのモデル姿勢の整合メトリックがユーザ選
    択可能しきい値を超え且つ極大である当該これらのモデ
    ル姿勢を決定し、且つ探索空間の最も粗い離散化レベル
    におけるモデルのインスタンスのリストを前記姿勢及び
    前記整合メトリックから発生するステップと、 (i)最も微細なレベルの離散化に到達するまで、探索
    空間の最も粗い離散化レベルにおける前記モデルのイン
    スタンスを探索空間の再帰的副分割にわたり追跡するス
    テップと、 (j)離散化の最も微細なレベルで対象物のインスタン
    スの姿勢を与えるステップとを備えるイメージ内の対象
    物を認識する方法。
  2. 【請求項2】 ステップ(c)において、ステップ
    (b)に従った各レベルの離散化に対して、且つステッ
    プ(b)に従った現在レベルの離散化での離散化探索空
    間における各変換に対して、 (c1)アンチエイリアス法を用いる現在の変換によ
    り、現在レベルの離散化のイメージを変換するステップ
    と、 (c2)前記の変換されたイメージの特徴抽出を実行す
    るステップと、 (c3)全てのセグメント化された特徴点をそれらの方
    向ベクトルと共に、変換されたモデルのリストに加える
    ステップとが実行される、請求項1記載の方法。
  3. 【請求項3】 ステップ(b)に従った各レベルの離散
    化に対して、 (c1)現在レベルの離散化のイメージでの特徴抽出を
    実行するステップと、 現在レベルの離散化での離散化された探索空間における
    各変換に対して、 (c2)前記の抽出されたモデル・ポイント及び方向ベ
    クトルを現在の変換により変換するステップと、 (c3)全ての変換されたモデル・ポイントをそれらの
    変換された方向ベクトルと共に変換されたモデルのリス
    トに加えるステップと、が実行される、請求項1記載の
    方法。
  4. 【請求項4】 ステップ(i)に、 (i′)重なっている及び/又は異質のモデル・インス
    タンスを捨てるステップが続く、請求項2又は3記載の
    方法。
  5. 【請求項5】 ステップ(i′)に、 (ii″)最も微細な離散化レベルより良い解像度に姿
    勢情報を微細化するステップが続く、請求項4記載の方
    法。
  6. 【請求項6】 ステップ(ii″)は、整合メトリック
    の最大を外挿するステップを備える請求項5記載の方
    法。
  7. 【請求項7】 ステップ(c)及び(f)は、変換され
    たイメージ表示の特徴抽出を実行するステップを備える
    請求項6記載の方法。
  8. 【請求項8】 ライン・フィルタリング、エッジ・フィ
    ルタリング、コーナー検出、又は領域ベースのセグメン
    ト化が、特徴抽出のため用いられる請求項7記載の方
    法。
  9. 【請求項9】 ステップ(g)において、変換されたモ
    デルの方向ベクトルとイメージとのモデルの全ポイント
    にわたるドット積の和が前記整合メトリックを計算する
    ため用いられる請求項8記載の方法。
  10. 【請求項10】 変換されたモデルの方向ベクトルとイ
    メージとのモデルの全ポイントにわたる正規化されたド
    ット積の和が前記整合メトリックを計算するため用いら
    れる請求項8記載の方法。
  11. 【請求項11】 正規化されたドット積の和の絶対値が
    前記整合メトリックを計算するため用いられる請求項8
    記載の方法。
  12. 【請求項12】 正規化されたドット積の絶対値の和が
    前記整合メトリックを計算するため用いられる請求項8
    記載の方法。
  13. 【請求項13】 ステップ(g)において、モデルにお
    ける方向ベクトル及びイメージにおける方向ベクトルが
    囲む角度の絶対値の和が前記整合メトリックを計算する
    ため用いられ、そこにおいて整合メトリックの極小が極
    大の代わりに姿勢情報を抽出するため用いられる請求項
    8記載の方法。
  14. 【請求項14】 雑音により生じられる方向ベクトルの
    寄与分が捨てられる請求項10から12のいずれか一項
    に記載の方法。
  15. 【請求項15】 (a)電子的メモリにモデル対象物の
    イメージを獲得する手段と、 (b)マルチレベル表示が少なくとも元のイメージを含
    み、前記モデル対象物のイメージを、探索空間の再帰的
    副分割と一致する前記マルチレベル表示に変換する手段
    と、 (c)事前計算されたモデルは方向ベクトルを有する複
    数の対応する点から成り、前記ポイント及びベクトルは
    少なくとも各モデル・ポイントに対して方向ベクトルを
    戻すイメージ処理オペレーションにより発生され、探索
    空間の離散化の各レベルに対して前記対象物の少なくと
    も1つの前記事前計算されたモデルを発生する手段手段
    と、 (d)電子的メモリに現在のイメージを獲得する手段
    と、 (e)前記マルチレベル表示が少なくとも元のイメージ
    を含み、前記現在のイメージを探索空間の再帰的副分割
    と一致するマルチレベル表示に変換する手段と、 (f)モデルを探索すべき平行移動範囲に対応する前記
    イメージ内のサブセットのポイントに対して方向ベクト
    ルを戻すマルチレベル表示の各変換されたイメージにイ
    メージ処理オペレーションを実行する手段と、 (g)探索空間の最も粗い離散化におけるモデルの全て
    のあり得る姿勢に対してモデルの方向情報及び変換され
    たイメージを用いる整合メトリックを計算する手段と、 (h)これらのモデル姿勢の整合メトリックがユーザ選
    択可能しきい値を超え且つ極大である当該これらのモデ
    ル姿勢を決定し、且つ探索空間の最も粗い離散化レベル
    におけるモデルのインスタンスのリストを前記姿勢及び
    前記整合メトリックから発生する手段と、 (i)最も微細なレベルの離散化に到達するまで、探索
    空間の最も粗い離散化レベルにおける前記モデルのイン
    スタンスを探索空間の再帰的副分割にわたり追跡する手
    段と、 (j)最も微細なレベルの離散化で対象物のインスタン
    スの姿勢を与える手段とを備えるイメージ内の対象物を
    認識するシステム。
  16. 【請求項16】 コンピュータ・プログラム製品がコン
    ピュータ上で動作するとき請求項1の方法を実行するた
    めに、コンピュータ読取可能媒体上に格納されたプログ
    ラム・コード手段を備えるコンピュータ・プログラム製
    品。
  17. 【請求項17】 コンピュータ・プログラムがコンピュ
    ータ上で動作するとき請求項1に従った方法の全ステッ
    プを実行するプログラム・コード手段を備えるコンピュ
    ータ・プログラム。
JP2001294512A 2000-09-27 2001-09-26 対象物認識システム及び方法 Expired - Lifetime JP3776340B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP00122069.6 2000-09-27
EP00120269A EP1193642B1 (en) 2000-09-27 2000-09-27 System and method for object recognition
EP00124295.7 2000-11-14
EP00124295 2000-11-14

Publications (2)

Publication Number Publication Date
JP2002157591A true JP2002157591A (ja) 2002-05-31
JP3776340B2 JP3776340B2 (ja) 2006-05-17

Family

ID=26071402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001294512A Expired - Lifetime JP3776340B2 (ja) 2000-09-27 2001-09-26 対象物認識システム及び方法

Country Status (2)

Country Link
US (1) US7062093B2 (ja)
JP (1) JP3776340B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886844B2 (ja) * 2006-03-29 2012-02-29 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2014056572A (ja) * 2012-09-11 2014-03-27 Sharp Laboratories Of America Inc 勾配方位のヒストグラムによるテンプレート・マッチング
US9805443B2 (en) 2014-07-09 2017-10-31 Canon Kabushiki Kaisha Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
JP2018195282A (ja) * 2017-05-19 2018-12-06 エムファウテック ソフトウェア ゲゼルシャフト ミット ベシュレンクテル ハフツングMVTec Software GmbH モデルを修正するためのシステムおよび方法
JP2019091493A (ja) * 2016-02-12 2019-06-13 コグネックス・コーポレイション ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法

Families Citing this family (76)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2160467C1 (ru) * 1999-07-08 2000-12-10 Яхно Владимир Григорьевич Способ адаптивного распознавания информационных образов и система для его осуществления
US6807286B1 (en) * 2000-04-13 2004-10-19 Microsoft Corporation Object recognition using binary image quantization and hough kernels
US7411593B2 (en) * 2001-03-28 2008-08-12 International Business Machines Corporation Image rotation with substantially no aliasing error
US7319943B2 (en) * 2002-12-16 2008-01-15 Canon Kabushiki Kaisha Optimum design method, and apparatus, and program for the same
US8200486B1 (en) * 2003-06-05 2012-06-12 The United States of America as represented by the Administrator of the National Aeronautics & Space Administration (NASA) Sub-audible speech recognition based upon electromyographic signals
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US7643703B2 (en) * 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
US7239751B1 (en) 2003-12-18 2007-07-03 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hypothesis support mechanism for mid-level visual pattern recognition
JP4428067B2 (ja) * 2004-01-28 2010-03-10 ソニー株式会社 画像照合装置、プログラム、および画像照合方法
JP4847685B2 (ja) * 2004-04-16 2011-12-28 株式会社日立ハイテクノロジーズ パターンサーチ方法
CN101685536B (zh) * 2004-06-09 2011-11-30 松下电器产业株式会社 图象处理方法
EP1759332A2 (en) * 2004-06-22 2007-03-07 Sarnoff Corporation Method and apparatus determining camera pose
US20060039627A1 (en) * 2004-08-21 2006-02-23 Xerox Corporation Real-time processing of grayscale image data
US7643665B2 (en) * 2004-08-31 2010-01-05 Semiconductor Insights Inc. Method of design analysis of existing integrated circuits
GB0427737D0 (en) * 2004-12-17 2005-01-19 Univ Cambridge Tech Method of identifying features within a dataset
US20060165292A1 (en) * 2005-01-26 2006-07-27 Xerox Corporation. Noise resistant edge detection
US7719543B2 (en) * 2005-09-08 2010-05-18 General Electric Company Methods and apparatus for method to optimize visual consistency of images using human observer feedback
JP4042780B2 (ja) * 2005-11-04 2008-02-06 オムロン株式会社 物体認識方法、物体認識用のプログラムならびにその記憶媒体、および物体認識装置
JP4991748B2 (ja) * 2005-11-21 2012-08-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 構造のモデルを作成する方法
US7734092B2 (en) * 2006-03-07 2010-06-08 Ancestry.Com Operations Inc. Multiple image input for optical character recognition processing systems and methods
EP1914666A3 (en) * 2006-03-24 2008-05-07 MVTec Software GmbH System and methods for automatic parameter determination in machine vision
US7885455B2 (en) * 2006-04-14 2011-02-08 UTC Fire & Security Americas Corporation, Inc Method of combining images of multiple resolutions to produce an enhanced active appearance model
KR100819027B1 (ko) * 2006-04-26 2008-04-02 한국전자통신연구원 얼굴 영상을 이용한 사용자 인증 방법 및 장치
US20090279778A1 (en) * 2006-06-23 2009-11-12 Koninklijke Philips Electronics N.V. Method, a system and a computer program for determining a threshold in an image comprising image values
GB0616293D0 (en) * 2006-08-16 2006-09-27 Imp Innovations Ltd Method of image processing
WO2008052278A1 (en) * 2006-11-02 2008-05-08 Canon Kabushiki Kaisha Mixed content image compression with two edge data representations
JP2008181216A (ja) * 2007-01-23 2008-08-07 Mitsubishi Electric Corp 判別器生成装置及び物体検出装置
US7792379B2 (en) * 2007-02-06 2010-09-07 Accenture Global Services Gmbh Transforming a submitted image of a person based on a condition of the person
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
ATE468572T1 (de) 2008-01-18 2010-06-15 Mvtec Software Gmbh System und verfahren zur erkennung verformbarer objekte
CN101965588A (zh) * 2008-01-31 2011-02-02 伊利诺伊大学评议会 经高维数据分类的识别
US8682056B2 (en) * 2008-06-30 2014-03-25 Ncr Corporation Media identification
JP5271031B2 (ja) 2008-08-09 2013-08-21 株式会社キーエンス 画像のデータ圧縮方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US20100246798A1 (en) * 2009-03-26 2010-09-30 General Motors Corporation System and method for determining a user request
JP5333344B2 (ja) * 2009-06-19 2013-11-06 株式会社安川電機 形状検出装置及びロボットシステム
JP5781743B2 (ja) * 2010-06-28 2015-09-24 ソニー株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US8873801B2 (en) * 2010-08-03 2014-10-28 Empire Technology Development Llc Identification of objects in a video
KR101395094B1 (ko) * 2010-09-29 2014-05-16 안동대학교 산학협력단 개체 검출 방법 및 시스템
US20120082385A1 (en) * 2010-09-30 2012-04-05 Sharp Laboratories Of America, Inc. Edge based template matching
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
DE102011010315A1 (de) * 2011-02-03 2012-08-09 Hönigsberg & Düvel Datentechnik GmbH Erkennung von Objekten
US8634654B2 (en) 2011-04-15 2014-01-21 Yahoo! Inc. Logo or image recognition
JP5906071B2 (ja) * 2011-12-01 2016-04-20 キヤノン株式会社 情報処理方法、情報処理装置、および記憶媒体
US9165187B2 (en) 2012-01-12 2015-10-20 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US11321772B2 (en) 2012-01-12 2022-05-03 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US10127636B2 (en) 2013-09-27 2018-11-13 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
US10783615B2 (en) * 2013-03-13 2020-09-22 Kofax, Inc. Content-based object detection, 3D reconstruction, and data extraction from digital images
US9569850B2 (en) 2013-10-16 2017-02-14 Cognex Corporation System and method for automatically determining pose of a shape
US9524432B1 (en) * 2014-06-24 2016-12-20 A9.Com, Inc. Fast interest point extraction for augmented reality
US11151630B2 (en) 2014-07-07 2021-10-19 Verizon Media Inc. On-line product related recommendations
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
JP6243827B2 (ja) * 2014-11-28 2017-12-06 本田技研工業株式会社 画像解析装置、画像特徴情報データベース作成方法並びに意匠類否判定装置及び方法
US10192283B2 (en) * 2014-12-22 2019-01-29 Cognex Corporation System and method for determining clutter in an acquired image
CN104751465A (zh) * 2015-03-31 2015-07-01 中国科学技术大学 一种基于lk光流约束的orb图像特征配准方法
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
US10467465B2 (en) 2015-07-20 2019-11-05 Kofax, Inc. Range and/or polarity-based thresholding for improved data extraction
DE102016120775A1 (de) 2015-11-02 2017-05-04 Cognex Corporation System und Verfahren zum Erkennen von Linien in einem Bild mit einem Sichtsystem
US10937168B2 (en) 2015-11-02 2021-03-02 Cognex Corporation System and method for finding and classifying lines in an image with a vision system
JP6785181B2 (ja) * 2017-04-12 2020-11-18 株式会社日立製作所 物体認識装置、物体認識システム、及び物体認識方法
US10803350B2 (en) 2017-11-30 2020-10-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach
WO2019175622A1 (en) * 2018-03-12 2019-09-19 Pratik Sharma Object recognition based on visual patterns in an image
US11562505B2 (en) 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
CN109087292B (zh) * 2018-07-27 2022-03-11 广东工业大学 一种基于机器视觉的热转印胶片胶水偏位检测方法
CN113228035A (zh) 2018-12-26 2021-08-06 浙江大华技术股份有限公司 用于对象识别的系统和方法
US10618172B1 (en) 2019-05-31 2020-04-14 Mujin, Inc. Robotic system with error detection and dynamic packing mechanism
US10696494B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system for processing packages arriving out of sequence
US10647528B1 (en) 2019-05-31 2020-05-12 Mujin, Inc. Robotic system for palletizing packages using real-time placement simulation
US10696493B1 (en) 2019-05-31 2020-06-30 Mujin, Inc. Robotic system with packing mechanism
US11077554B2 (en) 2019-05-31 2021-08-03 Mujin, Inc. Controller and control method for robotic system
US10679379B1 (en) * 2019-05-31 2020-06-09 Mujin, Inc. Robotic system with dynamic packing mechanism
KR20210030147A (ko) * 2019-09-09 2021-03-17 삼성전자주식회사 3d 렌더링 방법 및 장치
CN110909823B (zh) * 2019-12-03 2024-03-26 携程计算机技术(上海)有限公司 图片特征点提取及相似度的判断方法、系统、设备和介质
US11941863B2 (en) 2021-08-04 2024-03-26 Datalogic Ip Tech S.R.L. Imaging system and method using a multi-layer model approach to provide robust object detection

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4799270A (en) * 1986-03-20 1989-01-17 The Johns Hopkins University Image classifier
US4972359A (en) 1987-04-03 1990-11-20 Cognex Corporation Digital image processing system
US5323470A (en) * 1992-05-08 1994-06-21 Atsushi Kara Method and apparatus for automatically tracking an object
EP0663645A3 (en) 1994-01-13 1996-07-03 Eastman Kodak Co Bitmap registration through gradient descent.
US5550933A (en) 1994-05-27 1996-08-27 Duke University Quadrature shape detection using the flow integration transform
US6023530A (en) 1995-11-13 2000-02-08 Applied Intelligent Systems, Inc. Vector correlation system for automatically locating patterns in an image
US6005978A (en) 1996-02-07 1999-12-21 Cognex Corporation Robust search for image features across image sequences exhibiting non-uniform changes in brightness
CN1161710C (zh) * 1998-05-18 2004-08-11 数据立方公司 图象识别及相关系统
US6546137B1 (en) * 1999-01-25 2003-04-08 Siemens Corporate Research, Inc. Flash system for fast and accurate pattern localization

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4886844B2 (ja) * 2006-03-29 2012-02-29 コグネックス・コーポレイション マシンビジョンツールパラメータの自動決定
JP2014056572A (ja) * 2012-09-11 2014-03-27 Sharp Laboratories Of America Inc 勾配方位のヒストグラムによるテンプレート・マッチング
US9805443B2 (en) 2014-07-09 2017-10-31 Canon Kabushiki Kaisha Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
JP2019091493A (ja) * 2016-02-12 2019-06-13 コグネックス・コーポレイション ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
JP2021168143A (ja) * 2016-02-12 2021-10-21 コグネックス・コーポレイション ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
JP7133283B2 (ja) 2016-02-12 2022-09-08 コグネックス・コーポレイション ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
US11676301B2 (en) 2016-02-12 2023-06-13 Cognex Corporation System and method for efficiently scoring probes in an image with a vision system
JP2018195282A (ja) * 2017-05-19 2018-12-06 エムファウテック ソフトウェア ゲゼルシャフト ミット ベシュレンクテル ハフツングMVTec Software GmbH モデルを修正するためのシステムおよび方法

Also Published As

Publication number Publication date
US7062093B2 (en) 2006-06-13
JP3776340B2 (ja) 2006-05-17
US20020057838A1 (en) 2002-05-16

Similar Documents

Publication Publication Date Title
JP2002157591A (ja) 対象物認識システム及び方法
EP1693783B1 (en) Fast method of object detection by statistical template matching
Steger Similarity measures for occlusion, clutter, and illumination invariant object recognition
US6005978A (en) Robust search for image features across image sequences exhibiting non-uniform changes in brightness
US6873732B2 (en) Method and apparatus for resolving perspective distortion in a document image and for calculating line sums in images
Schmid et al. Local grayvalue invariants for image retrieval
CN106981077B (zh) 基于dce和lss的红外图像和可见光图像配准方法
Jung et al. A robust interest points matching algorithm
US8045804B2 (en) Method and apparatus for estimating vanish points from an image, computer program and storage medium thereof
Dibeklioglu et al. 3D facial landmarking under expression, pose, and occlusion variations
Rosin et al. Salience distance transforms
EP1193642B1 (en) System and method for object recognition
US6707932B1 (en) Method for identifying graphical objects in large engineering drawings
Fan et al. Skew detection in document images based on rectangular active contour
US20030210818A1 (en) Knowledge-based hierarchical method for detecting regions of interest
Musialski et al. Tiling of ortho-rectified facade images
Gupta et al. Facial range image matching using the complexwavelet structural similarity metric
Dal Poz et al. Active testing and edge analysis for road centreline extraction
Wang et al. A vision-based 2D-3D registration system
Goel et al. Automatic co-registration of aerial and satellite imagery using optimized minimum distance thresholds for matching
Dihl et al. A Content-aware Filtering for RGBD Faces.
Yaniv Edge Detection
Mahalakshmi et al. Improved Copy move forgery detection approach-A Comparative study
Gupta et al. A REVIEW ON SIGNATURE DETECTION AND SIGNATURE BASED DOCUMENT IMAGE RETRIEVAL 4
Palenichka et al. Detection of local objects in images with textured background by using multiscale relevance function

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050708

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20051007

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20051013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060222

R150 Certificate of patent or registration of utility model

Ref document number: 3776340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090303

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100303

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110303

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120303

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130303

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130303

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140303

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250