JP2009169934A - 可変形オブジェクト認識のためのシステムおよび方法 - Google Patents

可変形オブジェクト認識のためのシステムおよび方法 Download PDF

Info

Publication number
JP2009169934A
JP2009169934A JP2008258684A JP2008258684A JP2009169934A JP 2009169934 A JP2009169934 A JP 2009169934A JP 2008258684 A JP2008258684 A JP 2008258684A JP 2008258684 A JP2008258684 A JP 2008258684A JP 2009169934 A JP2009169934 A JP 2009169934A
Authority
JP
Japan
Prior art keywords
model
image
level
search
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008258684A
Other languages
English (en)
Other versions
JP4825253B2 (ja
JP2009169934A5 (ja
Inventor
Andreas Hofhauser
アンドレアス、ホフハウザー
Carsten Steger
カルステン、シュテガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MWTEC SOFTWARE GmbH
Original Assignee
MWTEC SOFTWARE GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MWTEC SOFTWARE GmbH filed Critical MWTEC SOFTWARE GmbH
Publication of JP2009169934A publication Critical patent/JP2009169934A/ja
Publication of JP2009169934A5 publication Critical patent/JP2009169934A5/ja
Application granted granted Critical
Publication of JP4825253B2 publication Critical patent/JP4825253B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Processing (AREA)

Abstract

【課題】部分遮蔽、クラッタおよび非線形照射変化の存在下においても、画像中の変形可能なオブジェクトを検出するシステムおよび方法を提供する。
【解決手段】モデル点の正規化された勾配方向に基づく一致測量、モデルの部分への分解、および、全ての部分の全検索結果を同時に算出する検索方法の、それぞれの利点を組み合わせた、変形可能なオブジェクトを検出するための全体論的な手法である。モデルが下位区分に分解されるにも関わらず、最高ピラミッドレベルでの検索に使用され、モデルの要部の大きさは縮小しない。したがって、ピラミッドレベルの数の減少によって生じる速度の限界の問題が回避される。
【選択図】図1

Description

本発明は、広くはマシン視覚システムに関し、具体的には、部分遮蔽、クラッタまたは非線形対比変化によって非線形に変換されたオブジェクトの視覚的認識に関する。
画像中における、既定の二次元オブジェクトテンプレートの高速で強く正確な位置測定は、多くのコンピュータ視覚アプリケーション、特に、マシン視覚アプリケーションにとって必要不可欠である。例えば、ピックアンドプレース・アプリケーションのためには、オブジェクト認識方法によって、画像化されたオブジェクトの位置を決定しなければならない。イメージングデバイスの既知の配置と共に、その位置が定まると、当該技術における周知の方法により、オブジェクトのポーズを計算できる。このポーズが定まると、ロボットが、例えば、ベルトコンベヤーからオブジェクトを掴むことが可能となる。様々な検査作業において、オブジェクトの位置を抽出することにより、画像中の検出領域の歪みが平らになり、光学式文字認識(OCR)を行ったり、例えば、起こり得る製造ミスを検出するために、画像の原型と比較することが容易になる。
当該技術においては、画像中のオブジェクトの位置を決定するために、幾つかの方法が提案されている。その殆どの方法において、一組の可能なオブジェクトのポーズの類似性と、画像とを比較している。閾値を超え、この類似性測定について極大となる位置が、オブジェクトの位置として選択される。
用いられる類似性測定によっては、不利なイメージング条件に対して、特定の不変性が実現される。例えば、類似性測定としての規格化された対応関係を用いて、モデル画像と検索画像との間における、線形の濃淡値変化に対する不変性が実現される。特に本発明と関連するのは、部分遮蔽、クラッタまたは非線形対比変化に対して不変である類似性測定である。この類似性測定は、米国特許第7,062,093号明細書、欧州特許第1,193,642号明細書、特許第3776340号公報に記載されている。前記測量の一般概念は、画像の規格化された方向の内積、および、モデルと画像との類似性の測定値としてのモデル特性を利用することである。
一般的に、ポーズの全てのパラメータを徹底的に捜索することは、電子計算上非常に高コストであり、リアルタイムで適用する殆どの場合において、費用が掛かりすぎる。先行技術の殆どの方法においては、モデルおよび検索画像の両方から画像・ピラミッドを作成することにより、この速度制限を克服している(例えば、Tanimoto(1981)〔Steven L.Tanimoto Template matching in pyramids.Computer Graphics and Image Processing、16:356−369、1981〕、または、Brown(1992)〔Lisa Gottesfeld Brown.A survey of image registration techniques.ACM Computing Surveys、24(4):325−376、1992年12月〕参照)。そして、最高ピラミッドレベルにおいてのみ、全検索範囲について類似性測定値が求められる。それよりも低いレベルにおいては、最低ピラミッドレベルに至るまで、一致する見込みのある候補のみをトラックする。ここで、用いられるピラミッドレベルの数は、オブジェクト認識方法のランタイムを直接左右するため、この数の決定は重要である。一般的には、ピラミッドレベルの数は、最高ピラミッド画像におけるオブジェクトの極小の大きさに基づいて選択される。当該画像において、オブジェクトが非常に小さい場合は、例えばクラッタからオブジェクトを区別するのは難しい。その場合、評価しなければならない、一致する可能性のある候補が多くなりすぎる。十分なピラミッドレベルが選択されなければ、最高ピラミッドレベルにおける検索が、非常に遅くなる。
検索速度を上げるための他の方法は、検査中のオブジェクトの運動パラメータを、線形アフィン変換によって近似できると仮定することである。線形アフィン変換は、入力点(x,y)Tから出力点(x’,y’)Tを、下記式に基づいてマッピングする。
Figure 2009169934
この一般式は、さらに、幾何学的に意味のあるパラメータに分解することが可能である。
Figure 2009169934
前記パラメータは、異なるスケーリングファクターsxおよびsyによって、最初のx軸およびy軸に対してスケーリングを行い、x軸に対してy軸を非対称変換し、すなわち、x軸を固定した状態でy軸を角度θだけ回転し、両軸を角度φだけ回転し、最後にベクトル(tx,tyTによって変換することを表わす。通常、オブジェクト認識システムは、より狭い部分集合、例えば、変換および回転のためだけに、これらのパラメータを評価する。さらに、パラメータは、特定の固定された範囲、例えば、より狭い回転範囲に限定される。これにより、オブジェクト認識システムが、最高ピラミッドレベルにおいて確認しなければならない、可能なポーズの空間が縮小されるため、検索速度が向上する。
しかしながら、様々な状況下において、検出しなければならないオブジェクトは、線形アフィン変換よりもさらに一般的な変換、もしくはその部分集合によって変換される。このような変換の一つとして、下記式により、異なるカメラ位置から撮影された平面オブジェクトのマッピングを表わす透視変換がある。
Figure 2009169934
この点につき、Hartley and Zisserman(2000)〔Richard Hartley and Andrew Zisserman,Multiple View Geometry in Computer Version.Cambridge University Press,2000〕参照。9つのパラメータが、スケールに規定され、自由度は8となる。
オブジェクト認識システムの最終作業が画像の修正のみである場合と、オブジェクトのポーズを決定しなければならない場合とが、明確に区別される。前者においては、透視変換が決定されれば十分である。ここでは、画像を修正するために、逆透視変換を用いる。
オブジェクトの三次元ポーズを決定する必要があり、カメラの内部のパラメータが与えられている場合において、ポーズを表わすのに十分な自由度は、高々6である(3は変換のため、3は回転のためである)。実際のポーズを得るためには、透視変換の8つのパラメータに対して、付加的に2つの非線形の束縛が働かなければならないため、透視変換は、常にポーズに直接変換可能であるわけでないことは、重要な留意点である(Berthold K.P.Horn,Projective Geometry considered Harmful,1999)。一旦有効な透視変換が得られれば、当該技術における既知の方法により、三次元ポーズに直接分解することが可能である(例えば、Oliver Faugeras、Three−dimensional computer vision:a geometric viewpoint.The MIT Press,2001,chapter 7.5)。好ましい方法は、三次元ポーズのパラメータについて直接検索することであり、まず透視変換を決定した後、それをポーズに分解することではない。
線形変換が不十分である他の例としては、オブジェクトの画像が非線形に変形される場合がある。これは、事前に補正することができないカメラレンズシステムによって引き起こされた歪みによるものであろう。さらなる例としては、湯気や水中における画像のように、不規則な歪みを生む媒体の中で、イメージングが行われる場合がある。その他の非線形変換の原因としては、オブジェクト自体が変形可能である場合、例えば、曲げられたり、しわのある表面上に印刷されたりする場合がある。ここでは、ポーズだけではなく、モデルの変形も同時に定めなければならない。非固定変形量の数学的表記においては、下記式によって点が変換されるよう、歪みW(x,y)が加えられる。
Figure 2009169934
Figure 2009169934
もし、上記式(数5)を満たすとすれば、周知の薄板スプライン関数(Fred L.Bookstein,“Principal Warps:Thin−plate Splines and the Decomposition of Deformations”,IEEE Transactions on pattern analysis and machine intelligence,Vol 11, No.6,567−585 1989)が得られる。ここで、歪みはアンカー点Piおよび係数wiによってパラメータ化される。結果として得られた歪みは、アンカー点の間の曲率を最小化する。
非線形オブジェクト認識に関する先行技術の手法の殆どは、オブジェクト全体が変形された場合であっても、画像中でモデルの十分に小さい部分が、変形後においてもほぼ同様のままであることを前提としている。
しかしながら、この前提をオブジェクト認識システムの効率的な検索方法にどのように取り入れるかが、未解決の問題である。一つの手法(米国特許第7,239,929号明細書、米国特許第7,190,834号明細書参照)においては、モデルの分解された部分を階層的に編成する。ここでは、一つの部分を、細区分のルート部分として選択する。このルート部分から、他のオブジェクトがツリー状の構造に編成される。次の検索においては、このルートのオブジェクトが単独で検索されることに留意すべきである。一旦このルート部分が検出されると、前記オブジェクトの変形の前提条件に基づいて、次の部分が取りうる位置が狭められる。結果として、他の部分の検索も簡単になる。
米国特許第7,062,093号明細書 欧州特許第1,193,642号明細書 特許第3776340号公報 米国特許第7,239,929号明細書 米国特許第7,190,834号明細書 Steven L.Tanimoto Template matching in pyramids.Computer Graphics and Image Processing、16:356−369、1981 Lisa Gottesfeld Brown.A survey of image registration techniques.ACM Computing Surveys、24(4):325−376、1992年12月 Richard Hartley and Andrew Zisserman,Multiple View Geometry in Computer Version.Cambridge University Press,2000 Berthold K.P.Horn,Projective Geometry considered Harmful,1999 Oliver Faugeras、Three−dimensional computer vision:a geometric viewpoint.The MIT Press,2001,chapter 7.5 Fred L.Bookstein,"Principal Warps:Thin−plate Splines and the Decomposition of Deformations",IEEE Transactions on pattern analysis and machine intelligence,Vol 11, No.6,567−585 1989
しかしながら、この先行技術の手法には、明らかな問題点が幾つかある。問題点の一つとしては、そもそも一つの部分に含まれる情報量が少ないため、一般的に一つの部分の検索の認識性が、オブジェクト全体の検索よりも低い、という点がある。この問題点が誤った一致を引き起こし、また、一致の前提条件をさらに評価する必要性が生じるため、検索速度が低下する。さらなる限定は、一つの部分の大きさが、モデル全体の大きさよりも小さいということであり、したがって、画像中のモデルが、特徴に基づく検索方法で用いられなくなる程、相対的に小さくなるまでには、少数のピラミッドレベルしか用いることが出来ない、ということである。
本発明の目的は、前記不変の一致測量、モデルの部分への分解、および、全ての部分の全ての検索結果を同時に計算する検索方法の、それぞれの利点を組み合わせた、変形可能なオブジェクトの検出のための全体論的な手法である。モデルが下位区分に分解されるにも関わらず、最高ピラミッドレベルにおける検索に用いられる、当該モデルの関係する大きさは減少しない。したがって、本発明によれば、先行技術の方法における、ピラミッドレベルの数の減少による速度制限の問題が回避できる。
本発明は、部分遮蔽、クラッタまたは非線形対比変化に強く、透視またはより一般的な変形によって変換された場合であっても、オブジェクトを認識する、オブジェクト認識のためのシステムおよび方法を提供する。
本発明は、一般的な非線形変形下にある画像中のモデルオブジェクトを認識する方法であって、
(a)モデルオブジェクトの画像を、電子メモリに取得する工程と、
(b)前記モデルオブジェクトの画像を、検索スペースの帰納的な細区分と一致し、少なくとも前記オブジェクトの画像を含む多重レベル表示に変換する工程と、
(c)前記検索スペースの離散化の各レベルについて、前記モデルオブジェクトの、少なくとも1つの事前に計算されたモデルを生成する工程であって、前記事前に計算されたモデルが、対応する方向ベクトルを有する複数のモデル点からなり、前記モデル点および前記方向ベクトルが、方向ベクトルを前記各モデル点に戻す画像処理操作によって生成する工程と、
(d)複数の部分中に、前記複数のモデル点の細区分を生成する工程であって、前記部分を変換することにより、前記モデルの変形されたインスタンスが表わされる工程と、
(e)検索画像を電子メモリに取得する工程と、
(f)前記検索画像を、前記検索スペースの帰納的な細区分と一致し、少なくとも前記検索画像を含む多重レベル表示に変換する工程と、
(g)少なくとも1つの事前に計算されたモデルが検索されるべき変換範囲に対応する、前記検索画像中のモデル点の部分集合に、方向ベクトルを戻す画像処理操作を、多重レベル表示の変換された各画像に対して行う工程と、
(h)局所的測量の結果を組み合わせて、グローバル一致測量値を計算する工程であり、前記局所的測量のために、前記事前に計算されたモデルに近い変換の制限された範囲内において、前記モデルの前記部分を検索し、各部分の極大適合度を、グローバル一致測量値に対する、前記部分の寄与として取得する工程と、
(i)一致測量値がユーザにより選択可能な閾値より大きく、局所的極大である、これらのモデルポーズを決定し、かつ、前記検索スペースの最も疎な離散化レベルにおける、少なくとも1つの事前に計算されたモデルのインスタンスのリストを、前記モデルポーズから作成する工程と、
(j)前記部分の局所的変位を表わす変形変換値を計算する工程と、
(k)前記検索スペースの前記最も疎な離散化レベルにおいて、前記検索スペースの帰納的な細区分を通じ、最も密な離散化レベルに至るまで、前記少なくとも1つの事前に計算されたモデルの前記インスタンスをトラックする工程と、
(l)各レベルにおいて、前記変形変換値をそれぞれ計算し、かつ、前記変形変換値を次のレベルに伝える工程と、
(m)前記モデルポーズ、および、前記最も密な離散化レベルにおける前記モデルオブジェクトのインスタンスの変更変換値を定める工程とを含むことを特徴とする方法を含む。
発明の好ましい態様は、従属クレームにおいて規定している。
本発明は、一般的な非線形変形下にある画像中のモデルオブジェクトを認識するシステムであって、
(a)モデルオブジェクトの画像を、電子メモリに取得する手段と、
(b)前記モデルオブジェクトの画像を、検索スペースの帰納的な細区分と一致し、少なくとも前記オブジェクトの画像を含む多重レベル表示に変換する手段と、
(c)前記検索スペースの離散化の各レベルについて、前記モデルオブジェクトの、少なくとも1つの事前に計算されたモデルを生成する手段であって、前記事前に計算されたモデルが、対応する方向ベクトルを有する複数のモデル点からなり、前記モデル点および前記方向ベクトルが、方向ベクトルを前記各モデル点に戻す画像処理操作によって生成する手段と、
(d)複数の部分中に、前記複数のモデル点の細区分を生成する手段であって、前記部分を変換することにより、前記モデルの変形されたインスタンスが表わされる手段と、
(e)検索画像を電子メモリに取得する手段と、
(f)前記検索画像を、前記検索スペースの帰納的な細区分と一致し、少なくとも前記検索画像を含む多重レベル表示に変換する手段と、
(g)少なくとも1つの事前に計算されたモデルが検索されるべき変換範囲に対応する、前記検索画像中のモデル点の部分集合に、方向ベクトルを戻す画像処理操作を、多重レベル表示の変換された各画像に対して行う手段と、
(h)局所的測量の結果を組み合わせて、グローバル一致測量値を計算する手段であり、前記局所的測量のために、前記事前に計算されたモデルに近い変換の制限された範囲内において、前記モデルの前記部分を検索し、各部分の極大適合度を、グローバル一致測量値に対する、前記部分の寄与として取得する手段と、
(i)一致測量値がユーザにより選択可能な閾値より大きく、局所的極大である、これらのモデルポーズを決定し、かつ、前記検索スペースの最も疎な離散化レベルにおける、少なくとも1つの事前に計算されたモデルのインスタンスのリストを、前記モデルポーズから作成する手段と、
(j)前記部分の局所的変位を表わす変形変換値を計算する手段と、
(k)前記検索スペースの前記最も疎な離散化レベルにおいて、前記検索スペースの帰納的な細区分を通じ、最も密な離散化レベルに至るまで、前記少なくとも1つの事前に計算されたモデルの前記インスタンスをトラックする手段と、
(l)各レベルにおいて、前記変形変換値をそれぞれ計算し、かつ、前記変形変換値を次のレベルに伝える手段と、
(m)前記モデルポーズ、および、前記最も密な離散化レベルにおける前記モデルオブジェクトのインスタンスの変更変換値を定める手段とを含むことを特徴とするシステムを含む。
認識されるオブジェクトのモデルは、対応する方向ベクトルを持つ複数の点から構成され、標準的な画像処理アルゴリズム、例えば、エッジ検出法または線検出法によって得られる。モデル生成時には、点の集合は、複数の部分に分割される。検索の間、これらの部分は、元の位置を基準に移動可能であり、したがって、前記モデルの形が柔軟に変化する。好ましい態様において、前記モデルの各部分は、1つのモデル点のみからなる。他の好ましい態様において、各部分は、互いに対して固定された、幾つかの隣接する点からなる。
検索の間、元のモデルは、例えば、一般的なアフィンポーズ範囲にインスタンス化される。各位置においては、狭い範囲の変換において各部分を独立に変換することにより、モデルのインスタンスを変形する。各部分について、この制限された範囲における各変換において、一致測量値を計算する。好ましい態様において、前記一致測量値は、前記部分の方向ベクトルと、前処理された検索画像の方向ベクトルとの、正規化された内積である。前記モデル全体の一致測量値は、変形された変換における、極大適合部の正規化された総和である。好ましい態様において、一致測量値に対するスコアが閾値よりも小さい部分は、遮蔽されるため、さらなる処理が行われないものとされる。一致測量値が極大である部分の変換により、元の位置に対する当該部分の変形が決まる。この変位は、事前に選択された変形モデルを計算するために用いられる。好ましい態様において、非線形変形のモデルは透視変換である。他の態様においては、例えば、スプライン関数、または、点集合を補間または近似するための、当該技術における他の既知の方法を用いても良い。この変換関数が一旦計算されると、検出された画像領域の変形が反転し、修正された画像が生成される。
本発明は、下記の詳細な説明および添付図面により、十分に理解されるであろう。
本発明は、遮蔽、クラッタおよび非線形対比変化に強い、可変オブジェクト認識方法を提供する。
また、本発明は、図1〜6を参照して以下に説明される方法としても実施可能であるが図8に示すようなコンピュータを利用して、図7に示すような機能的構成を有するオブジェクト認識システムとしても実施可能である。
図1は、方法の工程の概略を示す。当該方法は、オブジェクトのモデルが生成されるオフライン段階と、前記オブジェクトのモデルが検索画像中で検出されるオンライン段階とに分かれる。モデルを生成するために、未変形のオブジェクトを示すサンプル画像を入力する。図2に、家のような形のサンプルオブジェクト202の画像を示す。対象領域201により、画像中のオブジェクトの位置が制限される。一般的に、この領域は、オフライントレーニング段階において、オブジェクト認識システムのユーザが規定する。オブジェクト認識システムのユーザが、検索画像中のオブジェクトを事後的に修正することのみに関心がある場合には、前記オブジェクトの小さな部分だけが、後の処理における特定の対象となることがある。例えば、パッケージから文字を読み取らなければならないような利用において、その後に歪みが平らにされるモデル203を基準とした領域の位置や大きさを規定する、付加的な対象領域を特定することができる。オブジェクト検出システムが、完全なオブジェクトからの情報を利用する間、当該オブジェクトの特定の対象となる部分のみを、修正しなければならない。このことにより、特にオブジェクトの小さな部分のみが対象となる場合には、速度が向上する。
アプリケーションによっては、例えば、ロボットマニピュレータのピックアンドプレイス・アプリケーションにおいては、オブジェクト認識システムのユーザが、オブジェクトの姿勢(ポーズ)に関心がある場合がある。しかしながら、画像中の対象領域201は、画像中の位置や大きさだけを特定するにすぎない。オブジェクトの測量ポーズを決定するためには、イメージングデバイスの内部構造をシステムに提供しなければならない。一般的に、イメージングデバイス300(図3a参照)の内部構造は、その焦点距離と、画像中の主点の位置と、行および列方向における画素の大きさと、レンズによって生じるピンクッション型または筒型の歪みを表わす歪み係数とによって表わされる。オブジェクト認識システムを有するロボットマニピュレータを制御するためには、ワールド座標系におけるカメラのポーズのように、さらなる情報が必要となる。ワールド座標系におけるカメラおよびロボットマニピュレータの位置を取得することにより、ポーズについて、カメラの局所的座標系から、ロボットマニピュレータの座標フレームへの変換、もしくはその逆の変換がなされる。したがって、カメラ座標系におけるポーズ情報を、制御作業に変換することができ、ロボットマニピュレータが直接実行されうる。カメラの内部および外部のパラメータは、先行技術における様々な既知の方法(例えば、MVTec Software GmbH、HALCON 8.0 Documentation,Solution Guide ■−F,3d Machine Vision,2007参照)によって
、事前に定めることができる。
これらのパラメータが一旦決定されると、オブジェクトの相対的なポーズを推定するために、カメラ座標系における、モデルオブジェクト301の対象領域の相対的なポーズが必要となる(図3および4参照)。通常、これは、画像化されたオブジェクトの測量情報を事前に入手できない場合や、例えば、オブジェクトが、小さくてカメラの近くにあるのか、または、大きいがカメラから離れているのかを判別することができない場合に重要である。ここでは、これら2つの状況が、同じ画像をもたらす可能性がある。この測量情報を提供する一般的な方法は、例えば、ワールド座標の点と画像座標の点との対応関係を手動で特定し、かつ、画像座標およびワールド座標の両方における位置を測定することであり、それにより、画像処理のスケールが明確になる。
しかしながら、この手法は、点の対応を手動で定める作業に時間を費やすため、誤差を生みやすく、オブジェクト認識システムの使用を煩雑にする。好ましい態様においては、既に測定された平面較正板303を、対象オブジェクトの上方に配置し、較正板を表わす画像を取得する(図3b参照)。この概略図において、較正板303は、点の対応を規定する黒丸を有する。較正板の大きさと、点の正確な測量位置とが既知であるため、カメラ座標系における較正板の相対的なポーズが決まる。そして、較正板をオブジェクトから取り除き、較正板と同じ位置にある、オブジェクトを表わす第2の画像を取得する(図3a参照)。較正板のポーズと、モデル生成のためのオブジェクトのポーズとが、ワールド座標系および画像座標系の両方において同一であるため、オブジェクトに対応するポーズが自動的に決まる。較正板303の領域は、モデル生成のためのオブジェクトの画像と組み合わせられて、直接用いられる。この手法によれば、ユーザが画像中のオブジェクトの領域を特定する必要がないため、システムの使用が簡単になる。あるいは、ユーザが、一旦オブジェクトの上に較正グリッドを配置し、画像を取得し、その後較正板を取り除けば、オブジェクトの第2の画像が得られる。さらに好ましい態様においては、較正板によって規定された四角形の対象領域を、較正グリッドの四角形ではなく、任意の形状の平面のオブジェクトと合うように手動で調整することができる。ここでは、モデルを規定する対象領域が、較正板と同一の平面上にある限り、較正板によって得られた点の対応関係を用いることができる。さらに、当業者であれば誰でも、この方法を非平面オブジェクトにも応用することができる。例えば、対象領域および平面の下部構造の測量情報を、ループ内に集め、これらの部分をオブジェクトの三次元表示に組み立てるであろう。
オブジェクト認識システムは、モデル生成の画像を、元の画像の滑らかな副試料バージョンを含む、帰納的な細区分に変換する。下記の説明において、帰納的な細区分、多重レベル表示および画像ピラミッドが、同時に用いられる。好ましい態様において、帰納的な細区分は、平均的な画像ピラミッドである。他の好ましい態様においては、ガウスの画像ピラミッドが適用される。モデルの位置を規定する対象領域から、同一の多重レベル表示が生じる。各多重レベル表示について、モデル生成により、画像の前記領域からエッジ点が抽出される。エッジ検出の結果を、図4に示す。ここで、エッジ検出は、強いコントラスト変化の位置だけでなく、方向も抽出する。エッジ検出としては、例えば、ソーベルフィルタ、カニーエッジ検出フィルタ、または、指定された特徴点を画像から抽出する技術において既知である、その他のフィルタが用いられる。本発明は、エッジの特徴に限定されず、当業者によって、線の特徴や、対象点の特徴にまで拡大されうるであろう。分かりやすくするために、以下の記載においては、エッジ点に限定して説明を行う。図4aの小さい矢印400は、エッジ点の位置および方向を表わす。抽出されたエッジ点は、モデル座標フレーム(円401として図示)に変換され、各モデル点について、メモリに記憶される。したがって、前記システムは、画像化されたオブジェクトの幾何的表示を得る。
一般的に、モデルの原点を規定するモデル座標フレーム401は、点の集合の重力の中心を得ることにより計算される。座標フレームの向きは、画像の向きと同じである。したがって、テンプレート画像座標フレーム中にモデル座標フレームをマッピングする変換は、単純な変換である。さらに好ましい態様において、ユーザは、異なる点をモデルの原点とする。原点を手動で設定するための一般的な適用においては、当該適用における特定の対象となるオブジェクト上の位置、例えば金属部分のボアホールの中心を検出するべきである。一般的に、この位置は、明らかにモデルの中心に対応しない。この中心モデル点は、特定の対象となる。何故なら、オブジェクト認識システムは、この点がオブジェクトの位置を示すと仮定するので、オブジェクト認識システムにより、ポーズがこの点に戻るためである。
モデル座標フレームから画像座標フレームへの、一般的なアフィン変換マッピングを適用することにより、モデルの異なるインスタンスを画像中に投写することができる。しかしながら、これまでモデルインスタンスは固定されている。
非線形モデル変形を継続的に行うために、複数のエッジポイントをまとめ、サブ・プルーラリティーとする。局所的にサブ・プルーラリティーを変換することにより、互いのサブ・プルーラリティーに対する空間的関係が変化し、オブジェクト全体の形状の非線形の変化が起こる。ここで、それぞれのサブ・プルーラリティーに適用される局所的変換は、十分小さいアフィン変換、または、固定された変換や転換といった部分集合である。モデルの細区分の例を図4bに示す。部分を生成するために、特徴抽出により事前に生じたエッジポイント400の集合が入力される。
一旦エッジポイントが抽出されると、部分生成の作業として、これらの点をグループ化し、空間的に整合性のある構造403とする。ここで、本発明においては、空間的に相関関係のある構造が、変形後もなお同一性を保つと仮定する。本発明の一つの特徴は、このクラスタリングを手動で行うことである。ここで、ユーザは、同様のままであると分かっている部分を、一つのグループとして選択する。本発明の他の態様においては、自動的な方法によってクラスタリングが行われる。一つの直接的な方法としては、固定された細区分をモデルに設定し、細区分の一つのセル中の点を、一つの部分に属させる方法がある。他の手法としては、モデル点の付近のグラフを計算し、一つの部分に入るように、最も近い点を固定数だけ選択する方法がある。他の方法としては、点の集合の構造的分解の適用がある。当該技術において、構造的分解方法としては、例えば、K−means法クラスタリングまたは正規化カット(Jianbo Shi、および、Jitendra Malik,Normalized cuts and image segmentation.In IEEE Conference on Computer Vision and Pattern Recognition,pp.731−737,1997)が知られている。本発明が、異なるサブ・プルーラリティーが分離した集合である、という事実に限定されないことは、重要な留意点である。好ましい態様において、それぞれの点およびそれに最も近い近傍の点について、サブ・プルーラリティーが生成される。用いられた細区分方法とは別に、モデル点が、それぞれki個のモデル点を含むn個の部分に分けられる。その後の計算時間を短縮するために、それぞれの部分にモデル点の指数nijが含まれるデータ構造を用いる。ここで、指数iは、1からnの範囲であり、どの部分が選択されたかを規定する。jは、1からkiの範囲であり、当該部分の点を規定する。例えば、それぞれの部分のモデル点の数が同じである場合には、それぞれの行が部分を表わし、それぞれの列がこの部分の指数を表わす、行列表示が用いられる。
このような細区分を規定した後、例えば、それぞれの点の集合の重力の中心を検出することにより、それぞれの部分403の中心402を計算する。部分の中心とモデル401の原点との間の変換値404が、モデルに記憶される。したがって、モデルの座標フレームを部分の座標フレームに変換するユークリッド変換のように、部分の中心の相対位置が、変換値に換算される。これらの変換により、モデル点の位置および方向について、部分の座標フレームからモデルの座標フレームへの変換、またはその逆の変換がされる。例えば、x軸およびy軸に沿った少しの移動、または、部分の中心を回転中心とした回転によって、モデルと部分との間で相対変換404が変化することにより、モデルの変形されたバージョンがインスタンス化される。x方向およびy方向における小さな変換に起因するサンプル変換が、図4cに図示されている。
本発明の特徴は、部分遮蔽、クラッタおよび非線形照射変化が存在する画像中に固定されたオブジェクトの検出について既知である、方法およびシステムを拡張することである(米国特許第7,062,093号明細書参照)。
規定されたモデルの点の集合は、検索画像の密度勾配方向フィールドと比較される。勾配振幅に伝わる大幅な非線形照射変化によっても、勾配方向は変化しない。さらに、検索画像においては、ヒステリシス閾値や非最大抑制が完全に防止され、任意の照射変化に対する真の不変性が得られる。部分遮蔽、ノイズおよびクラッタが、検索画像におけるランダム勾配方向を生じさせる。これらの効果は、この測量に対するスコアの最大値を低くするが、その位置を変えることはない。スコア値は、一致する複数のモデル点の分割を意味する。
有効な検索の概念は、オブジェクト認識システムが、一般的なアフィン変換またはその部分集合のみを包括的にインスタンス化することである。部分を局所的に移動し、最適値として極大応答を検出することにより、明確にではないが、はるかに高いクラスの非線形変換が、検索によって評価される。これが図5に示されており、この中に、モデルの2つの変形されたインスタンスを有する検索画像が図示される。左側には、モデルの透視変換されたインスタンス500が示されている。右側には、さらに複雑な任意の変形501が図示されている。図に示されるように、局所的に適応された部分403により、検索画像中のオブジェクトが近似される。それぞれの部分の、固定された位置と局所的に適応された位置との間における局所的変換値の変化により、モデルの外観の多様性が表わされる。
重要なことは、画像をピラミッド表示に変換することにより、それぞれのレベルにおける変形量が、少しだけ補正されなければならないということである。例えば、最低ピラミッドレベルにおけるオブジェクトの変換が複雑であったとしても、最高ピラミッドレベルにおける外観はさほど変わらない。一方、オブジェクトの変形量が大きい場合には、最高レベルにおいて補正されることが可能である。本発明において、変形量は、画像ピラミッドの下方に向かって帰納的に伝えられる。より高い全てのレベルの変形量が、より高いピラミッドレベルにおいて補正されるとすれば、それぞれのレベルにおいて起こるオブジェクトの外観の変化は比較的小さい。
したがって、本発明によると、検索測量をグローバル(広域的)部分sgおよび局所的部分slに分けることにより、変形可能なオブジェクトを検出するための測量が拡張される。分かりやすくするために、それぞれの行rおよび列cのみについてスコアの計算を行うための変換式を示す。この式を、一般的なアフィンパラメータにまで直接拡張する。上述したとおり、モデルは、それぞれがki個のモデル点を含む、n個の部分に分割される。
グローバル測量は、下記式によって既定され、
Figure 2009169934
これは、指数iにより規定された各部分について計算された、局所的一致スコア値の組み合わせを意味する。
局所的一致測量値は、下記式によって既定される。
Figure 2009169934
ここで、ijの組は、どのモデル点がどの部分の中にあるかを示す指数を規定し、各部分はki個の点を有する。rijおよびcijは、モデル座標系における各モデル点の行および列の変位である。局所的変換値Tlは、モデルの形を変えるために用いられる。一般的に、これらは、小さな効果、例えば、各方向における1画素の変換を有するユークリッド変換である。上付き文字mおよびsは、dが、モデルの方向ベクトルであるか、または、検索画像におけるそれぞれの位置の方向ベクトルであるかを規定している。
各ポーズの取りうる位置において、各部分は、米国特許第7,062,093号明細書に記載された測量と同様の測量によって得られた、独立のスコア値を有する。測量値は、各部分について、元のアフィン位置近傍の範囲に対して評価される。局所的近傍における最大スコアが、その部分の最適値として取得される。グローバル測量値は、各部分におけるモデル点の数によって正規化された、局所的測量値の結果を、合計することによって得られる。発明の範囲において、前記測量値から異なる様々な測量値が導出される。発明の様々な形態として、各部分について、その部分より大きくならないように閾値が設定されうる。それ以外の場合には、前記部分は遮蔽され、その結果、さらなる処理が行われないものとされる。
Figure 2009169934
他の好ましい態様は、部分の大きさがそれぞれ異なる場合である。ここでは、各部分に含まれるモデル点の量により、各部分の影響を測定する。
一般的なアフィン変換の集合についてのグローバルスコア値により、厳密な変形量が既知でない場合においても、オブジェクトのおおよその位置が定まる。さらに、対比の反転に対して不変とするために、局所的スコア測量値からの極性情報を採用しないこともある。この場合には、モデルの方向ベクトルおよび局所的測量における画像点の方向ベクトルの、正規化された内積の合計の絶対値または絶対値の合計を用いる。
各部分の最適値を得たことにより、スコア値だけでなく変形量の推定値も得られる。これらは、最大局所的スコアを規定する、局所的変換値Tlである。各部分について局所的変位を得た後、各非線形モデルを適合させる。モデル点がない位置についても、滑らかな変形量を計算することができる。変形の一例を図6に示す。部分402の中心を、位置603の近傍に移動する。これらの点について非線形変換を行い、元の固定された空間(グリッド601として概略的に図示)を、変形された空間602に変換する。
これが、当該技術における周知の問題であり、関数補間や近似による様々な解決策が提案されてきた。ここで、本発明の一つの特徴は、関数点や適合度、例えば、各点についての透視変換として、各部分の局所的変位のみを用いることである。これは、例えば、直接的線形変換方法によって行われる(Hartley and Zisserman 2000)。モデルが固定されていると仮定すれば、リーベンバーグ・マルカルト・アルゴリズムのような強い反復非線形最小化により、三次元ポーズを直接適合できる。変形可能なモデルの場合、スプライン関数は、変位によって規定される。このスプライン関数は、たとえば、Bスプライン関数または薄板スプライン関数である。これらの関数の係数は、直接的な方法によって計算される。しかしながら、例えば、薄板スプライン関数を用いた場合、歪みの係数を得るためには、非常に大きな線形システムを反転させなければならない。したがって、他の好ましい態様においては、モデル点の変形によって規定される、調和補間法が用いられる。ここで、モデル点の変位は、行方向および列方向における歪みを表わす、2つの画像中に挿入される。その後、モデル点が位置しない領域について、調和修復と呼ばれる方法によって変形が修復される(Aubert,G and Kornprobst,P.,Mathematical Problems in Image Processing:Partial Diferential Equations and the Calculus of Variations(second edition),volume 147 of Applied Mathematical Sciences.Springer−Verlag.2006)。歪みを非常に滑らかにするためには、変位を、モデル点の元の領域中に伝え戻す。したがって、補間関数だけでなく近似関数も得られる。この方法の利点は、実行時間が、オブジェクトの大きさに対して一次的にのみ依存し、例えば、薄板スプラインに関するアンカー点の数に対して三次的には依存しないことである。
特に厳密な変形については、1つのステップで変形量を抽出できないことがしばしばある。変形マッピングを得ると、全てのモデル点とそれぞれの方向とが、変換される。この変換されたモデルによって、今度は、局所的変位について、モデルのそれぞれのサブ・プルーラリティーが独立的に再度検索される。これにより、小さな変位が定まり、収束に至るまで評価されたモデルを適合する、ループが得られる。一般的に、収束の判断は、変位が既定の閾値未満になったかどうかを調べることにより、行われる。
閾値より大きく、極大値であるグローバルインスタンスの既定範囲について、位置、スコアおよび変位情報と共に、オブジェクトの前提条件をリストに入力し、より低いピラミッドレベルにおいて、これらをさらに評価する。好ましい態様においては、グローバルスコア値の閾値だけでなく、最高ピラミッドレベルにおいて生成した前提条件の最大数も設定する。ここで、すべての前提条件が、それらのスコア値に基づいて分類され、さらに処理に供される最も一致する固定数の候補のみが、前提条件のリスト中に入力される。
特定のピラミッドレベルにおける、モデルの厳密な位置および変位が一旦定まると、変形量は、ピラミッドの下方の次のピラミッドレベルに伝えられなければならない。これは、より低いレベルにおいて、局所的変形量の小さな検索範囲だけを評価するために重要である。好ましい態様においては、より低いレベルからの元のアフィンモデルは、帰納的細区分により、より高いピラミッドレベルに変換される。すでに抽出された、より高いレベルの変形量はモデルに適用され、現在変換された、より低いレベルからのモデルは、逆に、元のピラミッドレベルに変換される。このレベルにおける検索は、より高いピラミッドレベルの変形量に応じて変換された、モデルのインスタンスによって開始される。
この前提条件の画像ピラミッドの下方へのトラッキングは、最低ピラミッドレベルに達するまで行われる。最低ピラミッドレベルにおいて、元の画像より高い解像度でも変位が定まる。したがって、前記部分は画素以下の精度の位置でインスタンス化され、対応する極大エッジの振幅は画像内に定まる。ここで、前記部分の変位は、勾配方向によってではなく、勾配振幅によって既定される。前記手法の後、非常に高い精度まで変形関数を適合させるために、小さな変位が用いられる。一旦最低レベルにおいて前記オブジェクトが検出されると、位置、ポーズおよび変形関数が戻される。さらに、グローバルスコア関数の値が戻され、オブジェクトがどれだけうまく検出されたかの目安が、ユーザに与えられる。
なお、上述の方法は、図7に示すような構成を有するコンピュータシステムによって実施することもできる。図7に示すシステムは、コンピュータによって構成されるシステムであって、
(a)モデルオブジェクトの画像を、電子メモリ(702)に取得する手段(701)と、
(b)前記モデルオブジェクトの画像を、検索スペースの帰納的な細区分と一致し、少なくとも前記オブジェクトの画像を含む多重レベル表示に変換する手段(703)と、
(c)前記検索スペースの離散化の各レベルについて、前記モデルオブジェクトの、少なくとも1つの事前に計算されたモデルを生成する手段であって、前記事前に計算されたモデルが、対応する方向ベクトルを有する複数のモデル点からなり、前記モデル点および前記方向ベクトルが、方向ベクトルを前記各モデル点に戻す画像処理操作によって生成する手段(704)と、
(d)複数の部分中に、前記複数のモデル点の細区分を生成する手段であって、前記部分を変換することにより、前記モデルの変形されたインスタンスが表わされる手段(705)と、
(e)検索画像を電子メモリに取得する手段(706)と、
(f)前記検索画像を、前記検索スペースの帰納的な細区分と一致し、少なくとも前記検索画像を含む多重レベル表示に変換する手段(707)と、
(g)少なくとも1つの事前に計算されたモデルが検索されるべき変換範囲に対応する、前記検索画像中のモデル点の部分集合に、方向ベクトルを戻す画像処理操作を、多重レベル表示の変換された各画像に対して行う手段(708)と、
(h)局所的測量の結果を組み合わせて、グローバル一致測量値を計算する手段であり、前記局所的測量のために、前記事前に計算されたモデルに近い変換の制限された範囲内において、前記モデルの前記部分を検索し、各部分の極大適合度を、グローバル一致測量値に対する、前記部分の寄与として取得する手段(709)と、
(i)一致測量値がユーザにより選択可能な閾値より大きく、局所的極大である、これらのモデルポーズを決定し、かつ、前記検索スペースの最も疎な離散化レベルにおける、少なくとも1つの事前に計算されたモデルのインスタンスのリストを、前記モデルポーズから作成する手段(710)と、
(j)前記部分の局所的変位を表わす変形変換値を計算する手段(711)と、
(k)前記検索スペースの前記最も疎な離散化レベルにおいて、前記検索スペースの帰納的な細区分を通じ、最も密な離散化レベルに至るまで、前記少なくとも1つの事前に計算されたモデルの前記インスタンスをトラックする手段(712)と、
(l)各レベルにおいて、前記変形変換値をそれぞれ計算し、かつ、前記変形変換値を次のレベルに伝える手段(713)と、
(m)前記モデルポーズ、および、前記最も密な離散化レベルにおける前記モデルオブジェクトのインスタンスの変更変換値を定める手段(714)と、
(n)検出領域を平坦化する手段(715)とを含む。
本発明の幾つかの特定の態様が、詳細に記載されているのに対し、好ましい態様については、発明の範囲内で様々な改変を行うことができる。したがって、特許請求の範囲において示された発明以外が、上記内容によって制限されることを意図しない。
図1は、本発明の好ましい態様における、方法の工程を示すフローチャートである。 図2は、オブジェクトの画像、および、モデル生成にかかるオブジェクト周辺の対象領域を示す図である。 図3aは、オブジェクトが平坦な表面上にある場合における、モデル生成を示す図である。 図3bは、オブジェクトが較正板によって遮蔽された場合における、モデル生成を示す図である。 図4aは、エッジフィルターにより生成したモデル点の群の図である。 図4bは、モデル点を複数の部分に細区分する例を示す図であり、モデルの中心、および、モデルの中心への部分の相対的な変換を表わす。 図4cは、部分の近傍する局所的な移動による、モデルの典型的な変形を示す図である。 図5は、オブジェクトの変形された2つのインスタンスと、モデルの検出された2つのインスタンスによるオブジェクト検出の結果とを含む、現在の画像を示す図である。 図6は、変形マッピングのサンプル点が部分の中心にある場合における、変形関数の適合により生成した、固定されたテンプレートと変形されたテンプレートとの間における、変形マップを示す図である。 図7は、図1〜6の方法を実施するオブジェクト認識システムの、概略ブロック図である。 図8は、図1〜6の方法を実施するために、コンピュータ可読媒体を用いた、コンピュータの概略ブロック図である。

Claims (15)

  1. 一般的な非線形変形下にある画像中のオブジェクトを認識する方法であって、
    (a)モデルオブジェクトの画像を、電子メモリに取得する工程と、
    (b)前記モデルオブジェクトの画像を、検索スペースの帰納的な細区分と一致し、少なくとも前記オブジェクトの画像を含む多重レベル表示に変換する工程と、
    (c)前記検索スペースの離散化の各レベルについて、前記モデルオブジェクトの、少なくとも1つの事前に計算されたモデルを生成する工程であって、前記事前に計算されたモデルが、対応する方向ベクトルを有する複数のモデル点からなり、前記モデル点および前記方向ベクトルが、方向ベクトルを前記各モデル点に戻す画像処理操作によって生成される工程と、
    (d)複数の部分中に、前記複数のモデル点の細区分を生成する工程であって、前記部分を変換することにより、前記モデルの変形されたインスタンスが表わされる工程と、
    (e)検索画像を電子メモリに取得する工程と、
    (f)前記検索画像を、前記検索スペースの帰納的な細区分と一致し、少なくとも前記検索画像を含む多重レベル表示に変換する工程と、
    (g)少なくとも1つの事前に計算されたモデルが検索されるべき変換範囲に対応する、前記検索画像中のモデル点の部分集合に、方向ベクトルを戻す画像処理操作を、多重レベル表示の変換された各画像に対して行う工程と、
    (h)局所的測量の結果を組み合わせて、広域的一致測量値を計算する工程であり、前記局所的測量のために、前記事前に計算されたモデルに近い変換の制限された範囲内において、前記モデルの前記部分を検索し、各部分の極大適合度を、広域的一致測量値に対する、前記部分の寄与として取得する工程と、
    (i)一致測量値がユーザにより選択可能な閾値より大きく、局所的極大である、これらのモデルポーズを決定し、かつ、前記検索スペースの最も疎な離散化レベルにおける、少なくとも1つの事前に計算されたモデルのインスタンスのリストを、前記モデルポーズから作成する工程と、
    (j)前記部分の局所的変位を表わす変形変換値を計算する工程と、
    (k)前記検索スペースの前記最も疎な離散化レベルにおいて、前記検索スペースの帰納的な細区分を通じ、最も密な離散化レベルに至るまで、前記少なくとも1つの事前に計算されたモデルの前記インスタンスをトラックする工程と、
    (l)各レベルにおいて、前記変形変換値をそれぞれ計算し、かつ、前記変形変換値を次のレベルに伝える工程と、
    (m)前記モデルポーズ、および、前記最も密な離散化レベルにおける前記モデルオブジェクトのインスタンスの変更変換値を定める工程とを含むことを特徴とする方法。
  2. 前記部分の位置を、前記最も密な離散化レベルよりも高い解像度で決定する、請求項1に記載の方法。
  3. 前提条件の最高のインスタンスの、前記ユーザにより選択可能な閾値から、ユーザにより選択可能な数の最大値までのみを、前記最も疎な離散化レベルにおいて可能な一致のリスト中に作成する、請求項2に記載の方法。
  4. 各部分の前記局所的一致測量値のスコアが、ユーザにより選択可能な局所的閾値より大きくなければならず、それ以外の場合には、前記部分が遮蔽され、さらなる処理が行われないものとされる、請求項3に記載の方法。
  5. 各部分が多数の点からなり、前記細区分が重複した点の集合を生成する、請求項4に記載の方法。
  6. 各部分が多数の点からなり、前記点の集合が分離した集合である、請求項4に記載の方法。
  7. K−meansクラスタリング法または正規化カットを用いて細区分を行う、請求項6に記載の方法。
  8. 前記計算された変換値が透視変換値である、請求項4に記載の方法。
  9. 前記モデルの生成が、イメージングデバイスの内部構造および前記モデルに関する情報を、入力された測量値として追加的に取得し、前記計算された変換値が三次元ポーズである、請求項4に記載の方法。
  10. 前記計算された変換値が、薄板スプライン値、円筒変換値、または調和補間値である、請求項4に記載の方法。
  11. 前記変換されたモデル部分の方向ベクトル、および、前記検索画像の方向ベクトルの、正規化された内積の合計が、前記局所的スコア測量に用いられる、請求項4に記載の方法。
  12. 前記変換されたモデル部分の方向ベクトル、および、前記検索画像の方向ベクトルの、正規化された内積の合計の絶対値が、前記局所的スコア測量において用いられる、請求項4に記載の方法。
  13. 前記変換されたモデル部分の方向ベクトル、および、前記検索画像の方向ベクトルの、正規化された内積の絶対値の合計が、前記局所的スコア測量において用いられる、請求項4に記載の方法。
  14. 一般的な非線形変形下にある画像中のオブジェクトを認識するシステムであって、
    (a)モデルオブジェクトの画像を、電子メモリに取得する手段と、
    (b)前記モデルオブジェクトの画像を、検索スペースの帰納的な細区分と一致し、少なくとも前記オブジェクトの画像を含む多重レベル表示に変換する手段と、
    (c)前記検索スペースの離散化の各レベルについて、前記モデルオブジェクトの、少なくとも1つの事前に計算されたモデルを生成する手段であって、前記事前に計算されたモデルが、対応する方向ベクトルを有する複数のモデル点からなり、前記モデル点および前記方向ベクトルが、方向ベクトルを前記各モデル点に戻す画像処理操作によって生成する手段と、
    (d)複数の部分中に、前記複数のモデル点の細区分を生成する手段であって、前記部分を変換することにより、前記モデルの変形されたインスタンスが表わされる手段と、
    (e)検索画像を電子メモリに取得する手段と、
    (f)前記検索画像を、前記検索スペースの帰納的な細区分と一致し、少なくとも前記検索画像を含む多重レベル表示に変換する手段と、
    (g)少なくとも1つの事前に計算されたモデルが検索されるべき変換範囲に対応する、前記検索画像中のモデル点の部分集合に、方向ベクトルを戻す画像処理操作を、多重レベル表示の変換された各画像に対して行う手段と、
    (h)局所的測量の結果を組み合わせて、広域的一致測量値を計算する手段であり、前記局所的測量のために、前記事前に計算されたモデルに近い変換の制限された範囲内において、前記モデルの前記部分を検索し、各部分の極大適合度を、広域的一致測量値に対する、前記部分の寄与として取得する手段と、
    (i)一致測量値がユーザにより選択可能な閾値より大きく、局所的極大である、これらのモデルポーズを決定し、かつ、前記検索スペースの最も疎な離散化レベルにおける、少なくとも1つの事前に計算されたモデルのインスタンスのリストを、前記モデルポーズから作成する手段と、
    (j)前記部分の局所的変位を表わす変形変換値を計算する手段と、
    (k)前記検索スペースの前記最も疎な離散化レベルにおいて、前記検索スペースの帰納的な細区分を通じ、最も密な離散化レベルに至るまで、前記少なくとも1つの事前に計算されたモデルの前記インスタンスをトラックする手段と、
    (l)各レベルにおいて、前記変形変換値をそれぞれ計算し、かつ、前記変形変換値を次のレベルに伝える手段と、
    (m)前記モデルポーズ、および、前記最も密な離散化レベルにおける前記モデルオブジェクトのインスタンスの変更変換値を定める手段とを含むことを特徴とするシステム。
  15. 請求項1〜13のいずれか一項に記載の方法をコンピュータに実行させる、コンピュータプログラム。
JP2008258684A 2008-01-18 2008-10-03 可変形オブジェクト認識のためのシステムおよび方法 Active JP4825253B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP08150403A EP2081133B1 (en) 2008-01-18 2008-01-18 System and method for deformable object recognition
EP08150403.7 2008-01-18

Publications (3)

Publication Number Publication Date
JP2009169934A true JP2009169934A (ja) 2009-07-30
JP2009169934A5 JP2009169934A5 (ja) 2011-09-22
JP4825253B2 JP4825253B2 (ja) 2011-11-30

Family

ID=39591564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008258684A Active JP4825253B2 (ja) 2008-01-18 2008-10-03 可変形オブジェクト認識のためのシステムおよび方法

Country Status (6)

Country Link
US (1) US8260059B2 (ja)
EP (1) EP2081133B1 (ja)
JP (1) JP4825253B2 (ja)
CN (1) CN101488187B (ja)
AT (1) ATE468572T1 (ja)
DE (1) DE602008001305D1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747220B1 (ko) 2012-08-30 2017-06-15 한화테크윈 주식회사 이미지 피라미드의 적응적 이미지 처리 장치 및 방법

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7016539B1 (en) 1998-07-13 2006-03-21 Cognex Corporation Method for fast, robust, multi-dimensional pattern recognition
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
CN101739666B (zh) * 2009-12-15 2011-12-21 西南交通大学 基于一维快速哈特莱变换和匹配追踪的图像稀疏分解快速方法
US8872911B1 (en) * 2010-01-05 2014-10-28 Cognex Corporation Line scan calibration method and apparatus
US8189961B2 (en) * 2010-06-09 2012-05-29 Microsoft Corporation Techniques in optical character recognition
KR101395094B1 (ko) * 2010-09-29 2014-05-16 안동대학교 산학협력단 개체 검출 방법 및 시스템
JP2012133759A (ja) * 2010-11-29 2012-07-12 Canon Inc 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
US8463073B2 (en) * 2010-11-29 2013-06-11 Microsoft Corporation Robust recovery of transform invariant low-rank textures
US9124873B2 (en) 2010-12-08 2015-09-01 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
US8600192B2 (en) * 2010-12-08 2013-12-03 Cognex Corporation System and method for finding correspondence between cameras in a three-dimensional vision system
EP2497424A1 (en) * 2011-03-07 2012-09-12 Agfa Healthcare Radiographic imaging method and apparatus.
WO2013173728A1 (en) 2012-05-17 2013-11-21 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for unified scene acquisition and pose tracking in a wearable display
CN103034844B (zh) * 2012-12-10 2016-04-27 广东图图搜网络科技有限公司 图像识别方法与装置
US9679224B2 (en) 2013-06-28 2017-06-13 Cognex Corporation Semi-supervised method for training multiple pattern recognition and registration tool models
CN103336963B (zh) * 2013-07-08 2016-06-08 天脉聚源(北京)传媒科技有限公司 一种图像特征提取的方法及装置
US9569850B2 (en) 2013-10-16 2017-02-14 Cognex Corporation System and method for automatically determining pose of a shape
US9785828B2 (en) 2014-06-06 2017-10-10 Honda Motor Co., Ltd. System and method for partially occluded object detection
DE102014010982A1 (de) 2014-07-29 2016-02-04 Sew-Eurodrive Gmbh & Co Kg Verfahren zur Erkennung eines Objekts in einem Bild und Vorrichtung zur Durchführung des Verfahrens
US9754178B2 (en) * 2014-08-27 2017-09-05 International Business Machines Corporation Long-term static object detection
WO2016073557A1 (en) 2014-11-04 2016-05-12 The University Of North Carolina At Chapel Hill Minimal-latency tracking and display for matching real and virtual worlds
US10192283B2 (en) * 2014-12-22 2019-01-29 Cognex Corporation System and method for determining clutter in an acquired image
US10452949B2 (en) 2015-11-12 2019-10-22 Cognex Corporation System and method for scoring clutter for use in 3D point cloud matching in a vision system
CN106845508B (zh) 2015-12-07 2019-05-17 腾讯科技(深圳)有限公司 一种检测图像中信息卡的方法、装置和系统
JP6648925B2 (ja) * 2015-12-17 2020-02-14 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、生産装置、プログラム及び記録媒体
CN105913069B (zh) * 2016-04-27 2019-05-31 南京维睛视空信息科技有限公司 一种图像识别方法
JP6791991B2 (ja) * 2017-01-19 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 画像配信装置
EP3404583A1 (en) 2017-05-19 2018-11-21 MVTec Software GmbH System and method for model adaptation
US11562505B2 (en) 2018-03-25 2023-01-24 Cognex Corporation System and method for representing and displaying color accuracy in pattern matching by a vision system
US10410372B1 (en) * 2018-06-14 2019-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer-readable media for utilizing radial distortion to estimate a pose configuration
US12002240B2 (en) * 2018-09-04 2024-06-04 Fastbrick Ip Pty Ltd. Vision system for a robotic machine
CN109584216A (zh) * 2018-11-12 2019-04-05 上海交通大学 面向机器人抓取作业的可变形料袋视觉识别与定位方法
CN109766802A (zh) * 2018-12-28 2019-05-17 东莞中国科学院云计算产业技术创新与育成中心 柔性物体识别方法、装置、计算机设备和存储介质
CN110427948A (zh) * 2019-07-29 2019-11-08 杭州云深弘视智能科技有限公司 字符样本的生成方法及其系统
KR20210036574A (ko) * 2019-09-26 2021-04-05 삼성전자주식회사 자세 추정 방법 및 장치
US11308634B2 (en) 2020-02-05 2022-04-19 Datalogic Ip Tech S.R.L. Unsupervised anchor handling for machine vision system
CN112231196B (zh) * 2020-12-14 2021-03-16 平安科技(深圳)有限公司 App埋点行为分类方法、装置、计算机设备及存储介质
US11941863B2 (en) * 2021-08-04 2024-03-26 Datalogic Ip Tech S.R.L. Imaging system and method using a multi-layer model approach to provide robust object detection
CN113870227B (zh) * 2021-09-29 2022-12-23 赛诺威盛科技(北京)股份有限公司 基于压力分布的医学定位方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005978A (en) * 1996-02-07 1999-12-21 Cognex Corporation Robust search for image features across image sequences exhibiting non-uniform changes in brightness
EP1126414A2 (en) * 2000-02-08 2001-08-22 The University Of Washington Video object tracking using a hierarchy of deformable templates
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US6411734B1 (en) * 1998-04-03 2002-06-25 Cognex Corporation Object image search using validated sub-model poses
US20050018904A1 (en) * 2003-07-22 2005-01-27 Jason Davis Methods for finding and characterizing a deformed pattern in an image
US6993177B1 (en) * 2001-11-02 2006-01-31 Cognex Technology And Investment Corporation Gauging based on global alignment and sub-models

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60019119T8 (de) 2000-09-27 2006-10-12 Mvtec Software Gmbh System und Verfahren zur Objekterkennung
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
EP1394727B1 (en) 2002-08-30 2011-10-12 MVTec Software GmbH Hierarchical component based object recognition

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005978A (en) * 1996-02-07 1999-12-21 Cognex Corporation Robust search for image features across image sequences exhibiting non-uniform changes in brightness
US6324299B1 (en) * 1998-04-03 2001-11-27 Cognex Corporation Object image search using sub-models
US6411734B1 (en) * 1998-04-03 2002-06-25 Cognex Corporation Object image search using validated sub-model poses
EP1126414A2 (en) * 2000-02-08 2001-08-22 The University Of Washington Video object tracking using a hierarchy of deformable templates
US6993177B1 (en) * 2001-11-02 2006-01-31 Cognex Technology And Investment Corporation Gauging based on global alignment and sub-models
US20050018904A1 (en) * 2003-07-22 2005-01-27 Jason Davis Methods for finding and characterizing a deformed pattern in an image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101747220B1 (ko) 2012-08-30 2017-06-15 한화테크윈 주식회사 이미지 피라미드의 적응적 이미지 처리 장치 및 방법

Also Published As

Publication number Publication date
JP4825253B2 (ja) 2011-11-30
US8260059B2 (en) 2012-09-04
EP2081133A1 (en) 2009-07-22
US20090185715A1 (en) 2009-07-23
DE602008001305D1 (de) 2010-07-01
ATE468572T1 (de) 2010-06-15
EP2081133B1 (en) 2010-05-19
CN101488187A (zh) 2009-07-22
CN101488187B (zh) 2013-05-08

Similar Documents

Publication Publication Date Title
JP4825253B2 (ja) 可変形オブジェクト認識のためのシステムおよび方法
CN109903313B (zh) 一种基于目标三维模型的实时位姿跟踪方法
JP6348093B2 (ja) 入力データから検出対象物の像を検出する画像処理装置および方法
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6011102B2 (ja) 物体姿勢推定方法
CN109934847B (zh) 弱纹理三维物体姿态估计的方法和装置
Sharp et al. ICP registration using invariant features
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
JP6899189B2 (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
US10460472B2 (en) System and method for model adaptation
Tran et al. Non-contact gap and flush measurement using monocular structured multi-line light vision for vehicle assembly
Li et al. Model-based temporal object verification using video
Wang et al. A robust subpixel refinement technique using self‐adaptive edge points matching for vision‐based structural displacement measurement
JP4003465B2 (ja) 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
CN114638891A (zh) 基于图像和点云融合的目标检测定位方法与系统
Ulrich et al. Empirical performance evaluation of object recognition methods
JP4525526B2 (ja) パターンマッチング方法及び装置
Hofhauser et al. Perspective planar shape matching
Järvinen Configurable pointer meter reader based on computer vision
Li et al. Moving Target Detection Based on Improved Background Global Compensation Differential Method
Zhang et al. Research on binocular real-time ranging method in window area
Mishra et al. Development and evaluation of a Kinect based Bin-Picking system
CN115359467A (zh) 一种针对可变形医学靶标的识别方法及装置
Crispin et al. Evolutionary algorithm for PCB inspection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110708

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110708

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110818

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110909

R150 Certificate of patent or registration of utility model

Ref document number: 4825253

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250