JP2007257601A - マシンビジョンにおける自動パラメータ決定のシステムおよび方法 - Google Patents

マシンビジョンにおける自動パラメータ決定のシステムおよび方法 Download PDF

Info

Publication number
JP2007257601A
JP2007257601A JP2006122053A JP2006122053A JP2007257601A JP 2007257601 A JP2007257601 A JP 2007257601A JP 2006122053 A JP2006122053 A JP 2006122053A JP 2006122053 A JP2006122053 A JP 2006122053A JP 2007257601 A JP2007257601 A JP 2007257601A
Authority
JP
Japan
Prior art keywords
identifying
edge
threshold
image
providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006122053A
Other languages
English (en)
Other versions
JP4907219B2 (ja
Inventor
Markus Ulrich
マルクス・ウルリヒ
Carsten Steger
カルステン・シュテガー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MWTEC SOFTWARE GmbH
Original Assignee
MWTEC SOFTWARE GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MWTEC SOFTWARE GmbH filed Critical MWTEC SOFTWARE GmbH
Publication of JP2007257601A publication Critical patent/JP2007257601A/ja
Application granted granted Critical
Publication of JP4907219B2 publication Critical patent/JP4907219B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • G06V10/7515Shifting the patterns to accommodate for positional errors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Abstract

【課題】一般にはマシンビジョン、特に物体認識における自動パラメータ決定のシステムおよび方法を提供する。
【解決手段】多くのマシンビジョンシステムは、現在のアプリケーションに依存するアルゴリズムの挙動に適応するために、1以上のパラメータを指定するようにユーザに要求するアルゴリズムを使用する。イメージ内の物体のコントラストを自動的に決定する方法は、物体の電子イメージを提供するステップ、前記物体のエッジ振幅を識別するステップ102、前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップ106、より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価するステップ108、最大エッジ領域値に対応する最適閾値を決定するステップ112、前記物体の前記コントラストを表す、最大エッジ領域値に対応する前記最適閾値を提供するステップ116を含む。
【選択図】図2

Description

本発明は、全般的にはマシンビジョンシステムに関し、具体的には、物体の視覚認識に関する。
物体認識は、多くのコンピュータビジョンアプリケーションの一部である。これは、しばしば物体のイメージを物体のモデルと位置合せしなければならない産業検査作業に特に有用である。物体認識プロセスから得られる変換(ポーズ)を、さまざまな作業、たとえばロボット制御、ピックアンドプレース動作、品質制御、または検査などの作業に使用することができる。ほとんどの場合に、物体のモデルは、物体のイメージから生成される。さらに、しばしば、モデル生成プロセスが、ユーザによって指定されなければならないパラメータの組によって影響を受ける可能性がある。自動化の度合を高め、認識システムの使いやすさを改善するためには、これらのパラメータを自動的に決定することが非常に望ましい。
Lisa Gottesfeld Brown、「A survey of image registration techniques(画像記録技術の探査)」、ACM Computing Surveys(ACMコンピューティング探査)、24(4):325〜376ページ、1992年12月 William J.Rucklidge、「Efficiently locating objects using the Hausdorff distance(ハウスドロフ距離を使用して物体を効果的に配置する)」、International Journal of Computer Vision、24(3):251〜270ページ、1997年 米国特許第6005978号 欧州特許第EP−A−1193642号 Markus Ulrich、Carsten Steger、Albert Baumgartner、「Real−time object recognition using a modified generalized Hough transform(修正され一般化されたハフ変換を用いる実時間物体認識)」、Pattern Recognition、36(11):2557〜2570ページ、2003年 Gunilla Borgefors、「Hierarchical chamfer matching(階層マッチング):A parametric edge matching algorithm(パラメトリックエッジ・マッチングアルゴリズム)」、IEEE Transactions on Pattern Analysis and Machine Intelligence、10(6):849〜865ページ、1988年11月、 J.Canny、「Finding Edges and Lines in Images(画像におけるエッジおよびラインを探査)」:Report、AI−TR−720、M.I.T.Artificial Intelligence Lab.、米国マサチューセッツ州ケンブリッジ、1983年 Steven L.Tanimoto、「Template matching in pyramids(ピラミッドにおけるテンプレートマッチング)」、Computer Graphics and Image Processing、16:356〜369ページ、1981年、 Rafael C.Gonzales、Richard E.Woods、「Digital Image Processing(デジタル画像処理)」、Addison−Wesley Publishing Company、1992年 Canny(1983年)、U.Eckardt、Verdunnung mit Perfekten Punkten、Proceedings 10. DAGM−Symposium、IFB 180、Zurich、1988年 W.Forstner、「Image Preprocessing for Feature Extraction in Digital Intensity,Color and Range Images(デジタル輝度、色および範囲イメージ)」、Springer Lecture Notes on Earth Sciences、Summer School on Data Analysis and the Statistical Foundations of Geomatics、1999年 J.Immerkaer、「Fast Noise Variance Estimation(高速雑音変化評価)」、Computer Vision and Image Understanding、64(2)、300〜302ページ、1996年
本発明は、全般的にはマシンビジョン、具体的には物体認識における自動パラメータ決定の方法を提供する。多くのマシンビジョンシステムが、現在のアプリケーションに依存するアルゴリズムの挙動に適応するために、1つまたは複数のパラメータを指定するようにユーザに要求するアルゴリズムを使用する(たとえば、Lisa Gottesfeld Brown、「A survey of image registration techniques(画像記録技術の探査)」、ACM Computing Surveys、24(4):325〜376ページ、1992年12月、William J.Rucklidge、「Efficiently locating objects using the Hausdorff distance(ハウスドロフ距離を使用して物体を効果的に配置する)」、International Journal of Computer Vision、24(3):251〜270ページ、1997年、米国特許第6005978号、欧州特許第EP−A−1193642号、およびMarkus Ulrich、Carsten Steger、Albert Baumgartner、「Real−time object recognition using a modified generalized Hough transform(修正され一般化されたハフ変換を用いる実時間物体認識)」、Pattern Recognition、36(11):2557〜2570ページ、2003年を参照されたい)。これは、複数の理由から望ましくない。第1に、ユーザが、妥当なパラメータ値を選択できるために、アルゴリズムの機能性に関する詳細を知らなければならない。しかし、多くの場合に、アルゴリズムの複雑さは、専門家以外でもシステムを簡単に操作できることを保証するために、ユーザから隠蔽されなければならない。第2に、入力パラメータの個数が増えたならば、多くの場合に、専門家であってもパラメータの組の最適値を見つけることがむずかしくなる。これは、パラメータの一部が相互作用する場合があり、あるいは、結果に対する一部のパラメータの影響を明確に予測できないからである。その結果、ユーザは、最適値を見つけるために異なる組合せを試さなければならず、これは、ユーザが1つまたは2つを超える入力パラメータを指定することを必要とするシステムを扱う時には実現可能でない。アルゴリズムのパラメータ値の自動決定のもう1つの理由は、その柔軟性を高めることである。たとえば、産業界で、生産プロセスは、しばしば、条件変更を必要とし、新しい条件によるパラメータの適合を必要とする。したがって、時間のかかる手動適合は、生産プロセスの中断を防ぐために回避されなければならない。本発明は、入力イメージ自体だけに基づいて、マシンビジョンの最も頻繁に使用されるパラメータを自動的に決定する方法を提供する。この方法を、一例として物体認識システム(たとえば、欧州特許第EP−A−1193642号、Ulrich他(2003年))を使用して詳細に説明する。具体的には、物体のモデルイメージに基づくモデル生成プロセスを説明する。しかし、たとえばエッジ抽出アルゴリズムを使用する他のシステムも、本発明から利益を得ることができる。その結果、次の説明は、例示的にすぎず、本発明の範囲を制限するものと解釈されてはならない。
本発明のさまざまな態様による方法に、次のパラメータの決定が含まれる。
・イメージ内の物体のコントラスト。多くの物体認識システムでは、物体が、そのエッジによって記述される(たとえば、Gunilla Borgefors、「Hierarchical chamfer matching(階層食いつき部マッチング):A parametric edge matching algorithm」、IEEE Transactions on Pattern Analysis and Machine Intelligence、10(6):849〜865ページ、1988年11月、Rucklidge(1997年)、米国特許第6005978号、欧州特許第EP−A−1193642号、Ulrich他(2003年))。コントラストパラメータの決定は、モデルイメージ内でエッジ振幅の最適閾値を見つけることに対応する。最適値は、物体のすべての重要な特有の詳細が閾値を超えるが、雑音およびより重要でない詳細が閾値未満であり、したがってモデルに含まれない場合に見つかる。時々、より洗練された閾値化動作が、エッジ振幅に適用され、高閾値パラメータおよび低閾値パラメータの指定が要求される。この動作を、ヒステリシス閾値化(hysteresis thresholding)と呼ぶ(J.Canny、「Finding Edges and Lines in Images(イメージにおけるエッジおよびラインを探索)」:Report、AI−TR−720、M.I.T.Artificial Intelligence Lab.、米国マサチューセッツ州ケンブリッジ、1983年を参照されたい)。高閾値を超えるエッジ振幅を有するすべての点が、即座に受け入れられる(「セキュア点」)。逆に、低閾値未満のエッジ振幅を有するすべての点が、即座に拒絶される。両方の閾値の間のエッジ振幅を有する「潜在的」点は、「潜在的」点の経路によって「セキュア」点に接続されている場合に受け入れられる。本発明は、従来の閾値化動作を使用しなければならない場合に1つの閾値を自動的に決定する方法を提供し、ヒステリシス閾値化を使用しなければならない場合に2つの閾値を自動的に決定する方法を提供する。
・物体部分の最小サイズ。認識プロセスの堅牢性を高めるために、しばしば、小さい物体部分をモデルから除去することが有用である。小さい物体部分は、イメージ雑音をより受けやすく、したがって、安定した認識をよりむずかしくする。本発明は、モデルに含まれる物体部分の最小サイズを自動的に決定する方法を提供する。
・モデル点削減。ほとんどの認識手法では、認識プロセスの速度が、物体モデルに保管された点の個数に依存する。したがって、認識プロセスを高速化するために、多数のモデル点につながる大きい物体を扱う時には、モデル点の個数を減らさなければならない。点削減の度合は、本発明による方法によって自動的に計算される。
・イメージ構造の最小コントラスト。最小コントラスト未満のエッジ振幅を有するイメージ構造は、イメージ雑音と解釈されなければならず、モデルに含めてはならず、認識プロセスに影響してもならない。通常、最小コントラストは、物体のコントラストよりかなり低い。本発明は、モデルイメージ内の雑音を自動的に決定し、推定されたイメージ雑音に基づいて最小コントラストを導出する方法を提供する。
・離散化ステップ長。物体認識手法は、しばしば、ポーズ空間を離散化し、各離散ポーズに従ってモデルを変換する。類似性測度を使用して、その中で物体が認識されなければならないランタイムイメージとモデルの離散ポーズを比較することができる。物体が所与のポーズで見つかるのは、このポーズの類似性が閾値を超える場合である。ポーズ空間の次元数は、物体がランタイムイメージで受ける可能性がある変換に依存する。2D変換の場合に、ポーズ空間は、2次元を有し、リジッド変換の場合に、3次元(+1回転)を有し、類似性変換の場合に、4次元(+1スケーリング)を有するなどである。変換の離散化ステップ長に、画素グリッドに従って1画素を簡単にセットできることは明白である。残念ながら、残りの次元(たとえば、回転、スケーリング)に関して、匹敵する自然な離散化ステップ長は、入手可能でない。本発明では、回転、スケーリング、さらには物体モデルの変換に関する、最適の離散化ステップ長を自動的に決定するのに使用できる方法を説明する。
これらのパラメータのすべてを、物体の単一のモデルイメージだけに基づいて、本発明による方法によって自動的に決定することができる。
本発明は、全般的にはマシンビジョン、具体的には物体認識での自動パラメータ決定のシステムおよび方法を提供する。
イメージ内の物体のコントラスト
第1の態様によれば、本発明は、イメージ内の物体のコントラストを自動的に決定する方法を提供する。これは、エッジ振幅の最適閾値の決定と同等である。得られたエッジは、物体を最適に記述する、すなわち、物体のすべての重要なエッジが、記述に含まれると同時に、雑音またはテクスチャから生じるエッジが、記述から除外される。最適記述は、たとえば、物体認識の分野で重要であり、この場合に、認識プロセスの堅牢性および速度は、モデルに使用される物体記述に強く依存する。
本発明の好ましい実施形態で、エッジは、エッジ振幅のすべての可能な閾値を使用して、所与のモデルイメージから抽出される。閾値ごとに、結果のエッジが、エッジ領域値を作る、ある評価基準を使用して評価される。エッジ領域値の極値に対応する閾値が、最適閾値として採用される。
複数の評価基準が可能である。しかし、本発明の好ましい実施形態では、エッジの曲率が、評価に使用される。エッジの曲率の計算は、高価なので、その代わりに異なる手法が採用される。エッジを、高い曲率の部分の点で分割するが、高い曲率の点は、領域形態学を使用することによって非常に効率的に計算することができる。最後に、最大化されなければならない評価基準は、分割されたエッジの接続された成分の平均長である。
好ましい実施形態によれば、ヒステリシス閾値化動作が、低閾値パラメータおよび高閾値パラメータの指定を必要とするエッジ振幅に適用される。本発明の一実施形態で、エッジが、2つの閾値のすべての可能な組合せについて抽出され、評価される。可能な組合せの個数は、効率的に計算するには多すぎるので、本発明の好ましい実施形態では、その代わりに異なる手法が選択される。第1に、1つの最適閾値を、上で説明したように決定する。この最適閾値に基づいて、評価基準が減りすぎるまで、高閾値パラメータを増やす。同一のことを、低閾値パラメータについて行う。したがって、高価な2D問題が3つの1D問題に縮小され、1D問題は効率的に解くことができるので、最適閾値を非常に効率的に決定することができる。
第1の態様によれば、本発明は、イメージ内の物体のコントラストを自動的に決定する方法であって、
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示す、ステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含む方法を提供する。
ステップ(d)が、物体エッジの平均負曲率を識別するステップを含むことが好ましい。さらに、ステップ(d)が、
(d1)8接続されているエッジ画素を識別するステップと、
(d2)強い曲率のエッジ画素を決定するステップと、
(d3)差領域を形成するために前記エッジ領域から強い曲率の前記エッジ画素を削除するステップと、
(d4)前記差領域の接続された成分を識別するステップと、
(d5)前記エッジ領域値を識別するために前記接続された成分の平均長を提供するステップと、
を含むことが好ましい。
ステップ(d2)が、フィルタマスクを使用して前記エッジ画素に4つの侵食を適用するステップを含むことがより好ましい。
好ましい実施形態によれば、ステップ(c)が、前記エッジ振幅にヒステリシス閾値を適用することによってより低いヒステリシス閾値およびより高いヒステリシス閾値の組合せに関してエッジ領域を識別するステップを含み、ステップ(f)が、前記物体の前記コントラストを決定するために前記エッジ領域値の最大値に対応する前記ヒステリシス閾値を提供するステップを含む。
好ましい実施形態では、ステップ(f)が、
(f1)低ヒステリシス閾値および高ヒステリシス閾値を、ステップ(e)から得られた前記エッジ領域値の最大値に対応する前記閾値に初期化するステップと、
(f2)前記高ヒステリシス閾値を連続して増分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f3)増分された高閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f4)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f2)から(f3)を繰り返すステップと、
(f5)前記低ヒステリシス閾値を連続して減分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f6)減分された低閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f7)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f5)から(f6)を繰り返すステップと、
(f8)前記物体の前記コントラストを表す最適の低ヒステリシス閾値および高ヒステリシス閾値を提供するステップと、
によって置換される。
最小コントラスト(以下を参照されたい)が、自動的に決定され、
(g)イメージ雑音の標準偏差を推定するステップと、
(h)前記推定された標準偏差に所定の係数をかけることによって最小エッジ振幅を決定するステップと、
(i)前記最小コントラストとして前記最小エッジ振幅を使用するステップと、
を含むことが好ましい。
本発明の第1の態様によるイメージ内の物体のコントラストを自動的に決定するデータ処理システムは、
(a)前記物体の電子イメージを提供する手段と、
(b)前記物体のエッジ振幅を識別する手段と、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別する手段と、
(d)閾値の前記範囲について得られる前記エッジ領域を評価する手段であって、より高い評価結果がよりよい評価を示す、手段と、
(e)最大エッジ領域値に対応する最適閾値を決定する手段と、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供する手段と、
を含む。
第1の態様によれば、本発明は、イメージ内の物体のコントラストを決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示す、ステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含む、データ記憶媒体も提供する。
物体部分の最小サイズ
第2の態様によれば、本発明は、モデルに含まれる物体部分の最小サイズを自動的に決定する方法を提供する。物体部分の最小サイズは、エッジ画素のうちの多くともある比率(たとえば、5%)が除去されるように計算される。このために、接続された成分のサイズの累積ヒストグラムを計算する。最小サイズは、この累積ヒストグラムの、所与の比率を超える最初の項目に対応する。
第2の態様によれば、物体部分の最小サイズを自動的に決定する方法は、
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む。
ステップ(c)において、前記閾値が、本発明の第1の態様の方法を使用して自動的に得られることが好ましい。
さらに、第2の態様によれば、物体部分の最小サイズを自動的に決定するデータ処理システムは、
(a)前記物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別する手段と、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定する手段と、
(e)前記成分の長さの累積ヒストグラムを識別する手段と、
(f)事前定義の比率を超えるヒストグラムビンを識別する手段と、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供する手段と、
を含む。
第2の態様によれば、本発明は、物体部分の最小サイズを自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む、データ記憶媒体も提供する。
モデル点削減
第3の態様によれば、点削減の度合は、本発明による方法によって自動的に計算される。大きいモデルについて、モデル点の個数は、堅牢さまたは精度を減らさずに減らすことができる。これは、最適の個数のモデル点が残るように、十分な個数のモデル点を除去することによって行うことができる。一般に、モデル点の最適の個数を決定する2つの可能な形がある。第1の形は、ユーザが供給する複数の物体の例のイメージに基づいて最適個数を自動的に見つけることである。したがって、個々の物体ごとに、特有の最適個数を決定することができる。残念ながら、多くの場合に、そのような例のイメージが入手可能でない。したがって、第2の形は、ほとんどの物体に良く適する最適個数を自動的に見つけることである。これは、多数の異なる物体の複数の例のイメージを使用することによって行うことができる。この場合に、モデル点の最適個数は、物体認識手法だけに依存し、実装中に1回、経験的に決定されなければならない。その結果、ユーザは、例のイメージを提供する必要がない。
第3の態様によれば、エッジ点の個数に関する削減要因を自動的に決定する方法は、
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちのめいめいの分数を除去するステップと、
を含む。
ステップ(c)において、前記閾値が、本発明の第1の態様の方法を使用して自動的に得られることが好ましい。
ステップ(d)で決定されたエッジ点の前記最適個数が、現在の物体に基づいて計算され、
(d1)前記物体の少なくとも1つの電子テストイメージを提供するステップと、
(d2)テストイメージごとに、認識されなければならない物体実例の個数を提供するステップと、
(d3)所望の認識手法を使用する前記物体のモデル表現を提供するステップと、
(d4)前記モデル表現および前記所望の認識手法を使用して各テストイメージ内の前記物体を認識し、すべてのテストイメージにわたる平均認識時間を決定するステップと、
(d5)モデル点の個数を所定の係数だけ減らすステップと、
(d6)前記平均認識時間が増えない限り、かつステップ(d2)で提供された前記個数の物体実例が各テストイメージ内で見つかる限り、ステップ(d4)から(d5)を繰り返すステップと、
(d7)ステップ(d2)で提供された前記個数の物体実例が見つかり、前記平均認識時間が最小である、モデル点の最適個数を使用するステップと、
を含むことが好ましい。
ステップ(d1)〜(d7)で決定されたモデル点の前記最適個数が、多数の物体についてステップ(d1)から(d7)を繰り返し、モデル点の最適個数の平均値を提供することによって、前記現在の物体と独立であることがより好ましい。
本発明の第3の態様によるモデル点の個数に関する削減要因を自動的に決定するデータ処理システムは、
(a)前記物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別する手段と、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別する手段と、
(e)手段(d)によって決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去する手段と、
を含む。
第3の態様によれば、本発明は、モデル点の個数に関する削減要因を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
を含む、データ記憶媒体も提供する。
イメージ構造の最小コントラスト
第4の態様によれば、本発明は、モデルイメージ内の雑音を自動的に決定し、推定されたイメージ雑音に基づいて最小コントラストを導出する方法を提供する。最小コントラストは、モデルをイメージ内の雑音から分離するので、よい選択は、イメージ内の雑音によって引き起こされるグレイ値変化の範囲である。したがって、本発明の好ましい実施形態では、複数の既存の方法のうちの1つを使用して、モデルイメージ内の雑音の標準偏差を推定する。次に、推定された標準偏差にある係数をかけたもの未満のエッジ振幅を有するすべてのエッジ点が、さらなる処理について除去される。この係数が大きいほど、雑音によって引き起こされたエッジが誤って受け入れられる可能性が少なくなる。
離散化ステップ長
本発明の第5の態様によれば、回転、スケーリング、および物体モデルのさらなる変換に関する、最適の離散化ステップ長を自動的に決定する方法が説明される。角度ステップ長は、物体がランタイムイメージ内に現れるユーザ指定の角度範囲内のステップ長を決定する。角度ステップ長が小さすぎる場合に、認識時間ならびにモデルを格納するのに必要なメモリが増える。その一方で、大きすぎる角度ステップ長が選択される場合に、認識の堅牢さが減る。というのは、ランタイムイメージ内の物体のある方位を見つけることができないからである。本発明の1実施形態では、まず、角度ステップ長の最初の推測が、欧州特許第EP−A−1193642号で提案されているように、物体のサイズに基づいて計算される。第2ステップで、最初の推測を半分にすることによってモデルイメージを回転し、物体と回転されたモデルイメージの間の類似性を計算することによって、最初の推測を評価する。類似性測度が、ある閾値未満である場合に、角度ステップ長を半分にする。この処理は、類似性測度が閾値を超え、最適の角度ステップ長がもたらされるまで繰り返される。
第5の態様によれば、第1の実施形態に従って物体モデルの離散化ステップ長を自動的に決定する方法は、
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含む。
ステップ(b)は、
(b1)前記変換の固定点からの前記モデル点の最大距離を計算するステップと、
(b2)最大の許容される画素変位を仮定するステップと、
(b3)前記最大距離および前記許容される画素変位に基づいて前記離散化ステップ長の前記初期値を計算するステップと、
を含むことが好ましい。
ステップ(c)の前記最小類似性測度が、変換されない物体モデルと、前記離散化ステップ長の半分だけ変換されたモデルイメージとの間の類似性測度に対応することが好ましい。
本発明の第4の態様のこの実施形態に従って物体モデルの離散化ステップ長を自動的に決定するデータ処理システムは、
(a)前記物体の電子イメージを提供する手段と、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供する手段と、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別する手段と、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にする手段と、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用する手段と、
を含む。
さらに、本発明は、物体モデルの離散化ステップ長を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップは、
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含むデータ記憶媒体を提供する。
代替実施形態によれば、物体モデルの離散化ステップ長を自動的に決定する方法が、
(a)前記物体の電子イメージを提供するステップと、
(b)現在のステップ長を0に初期化するステップと、
(c)十分に小さい値だけ前記現在のステップ長を増分するステップと、
(d)変換されないモデルと前記現在のステップ長に従って変換されたモデルイメージとの間の類似性測度を識別するステップと、
(e)前記類似性測度がある閾値未満になるまで前記ステップ(c)および(d)を繰り返すステップと、
(f)前記類似性測度が前記閾値を超える最後のステップ長の2倍として最適ステップ長を提供するステップと、
を含む。
本発明のさらなる特徴および長所は、添付図面と組み合わせて解釈される次の詳細な説明から明白になる。
イメージ内の物体のコントラスト
イメージ内の物体のコントラストは、さまざまな影響、たとえば、実世界の物体の実際のコントラスト、照明(強度、位置、方位)、カメラセッティング(シャッタ、絞り、ガンマ訂正など)、物体に関するカメラの視角、物体の反射特性などに依存する。イメージ内の物体のコントラストを計算するために、これらのパラメータのすべてを含むイメージングプロセスをモデル化することは、明らかに実現可能でない。その代わりに、物体の単一のイメージに基づいて、コントラストを自動的に導出しなければならない。このコントラスト値に基づいて、物体を最適に記述するエッジを抽出することができる。一方で、最適の記述には、イメージ内の、物体に属するエッジだけが含まれる。他のイメージ構造、たとえば雑音、テクスチャ付き背景、または他のイメージ擾乱から生じるエッジは、この記述から排除されなければならない。その一方で、最適の記述は、すべての関連する物体部分が含まれることも保証する、すなわち、物体が完全に記述されなければならない。
たとえば、物体認識用のモデルを作成するために物体のエッジをモデルイメージ内で決定しなければならない場合には、通常、エッジ振幅を計算し、この振幅に閾値を適用する。最適閾値を適用した後の長方形物体の結果のエッジ領域を、図1Aに示す。この図では、イメージの画素が、正方形によって表され、暗い画素が、抽出されたエッジ領域を示す。小さすぎる閾値が選択された場合に、雑音または背景テクスチャに起因するエッジが、抽出され(図1B)、これには、ほとんどの場合に、有用な情報が含まれない。ほとんどの物体認識手法は、ある類似性測度を使用して、モデルをランタイムイメージと比較することによって物体を見つけることを試みる。その結果、雑音および背景テクスチャが、モデルイメージと比較されるランタイムイメージと異なるので、検索の堅牢性が減る。その一方で、大きすぎる閾値が選択された場合に、物体エッジの一部が、モデル記述から失われ、情報の消失がもたらされる(図1C)。したがって、モデル記述の区別する力が減り、より多くの誤った肯定の一致につながる。その結果、イメージ内の物体のコントラストの決定は、エッジ振幅に関する最適閾値を見つけることと同等である。
イメージピラミッド(image pyramid)を使用する時に、追加の問題が生じる。マシンビジョンの多くのアルゴリズムが、計算を高速化するためにイメージピラミッドを使用する粗から微細へのフレームワークに組み込まれている(たとえば、Steven L.Tanimoto、「Template matching in pyramids(テンプレートマッチングピラミッド)」、Computer Graphics and Image Processing、16:356〜369ページ、1981年、Borgefors(1988年)、Brown(1992年)、欧州特許第EP−A−1193642号、またはUlrich他(2003年)を参照されたい)。イメージピラミッドは、徐々により小さいイメージにつながる、スムージングおよびサブサンプリング動作をオリジナルイメージに連続して適用することによって計算される。イメージピラミッドを利用する物体認識システムでは、検索が、通常は粗(高)ピラミッドレベルで開始され、次により精(低い)レベルの、粗レベルでの類似性測度が有望である局所区域で継続される。したがって、しばしば、計算時間をできる限り減らすために、ピラミッドレベルの個数を最大にすることが望ましい。イメージピラミッドを作成する時に適用される連続したスムージングのゆえに、エッジ振幅は、より高いピラミッドレベルで減る。したがって、あるレベルで、エッジ振幅が、閾値未満になる。これによって、使用できるピラミッドレベルの個数の上限が自然に定義される。高すぎるコントラストが選択された場合に、これが、より低いピラミッドレベルで既に発生し、したがって、使用可能なピラミッドレベルの個数が減るが、これは望ましくない。
次で、最適閾値の自動計算を容易にする方法を説明する。図2を参照すると、本発明の方法は、入力イメージのエッジ振幅を計算する(ステップ102)。これは、標準エッジフィルタを適用することによって行うことができる。本発明の好ましい実施形態では、行方向および列方向の一次導関数drおよびdcの計算にSobelフィルタを使用する(Rafael C.Gonzales、Richard E.Woods、「Digital Image Processing(デジタル画像処理)」、Addison−Wesley Publishing Company、1992年)。エッジ振幅は、最終的に、
Figure 2007257601
を計算することによってdrおよびdcから得られる。第2ステップ(ステップ104)で、閾値Tに、当初は最小値をセットする。本発明の1実施形態で、この最小値は、ユーザが指定することができ、自動的に計算されるコントラスト値の下限を決定する。他の情報が入手可能でない場合には、最小値を1にすることができる。その代わりに、好ましい実施形態では、イメージの雑音レベルをセットすることができ、これも、後で示すように自動的に決定することができる。最後に、閾値をエッジ振幅に適用し、エッジ振幅が閾値を超えるイメージ領域を得る(ステップ106)。このエッジ領域(たとえば、図1を参照されたい)は、通常は1画素幅の構造からなるが、これをある判断基準に基づいて評価する(ステップ108)。異なる種類の判断基準が、エッジ領域の評価について可能であるが、判断基準は、結果のエッジ領域値が最適閾値Toptの位置で極値を示すように選択されなければならない(たとえば、図8を参照されたい)。評価の結果は、通常はスカラエッジ領域値によって表されるが、現在の閾値の位置の関数配列f(T)に保管される(ステップ110)。たとえば、現在の閾値が20であり、エッジ領域値が0.3である場合に、f(20)に0.3をセットする。このステップの後に、閾値がある最大値を超えない限り(ステップ112)、現在の閾値Tを増分し(ステップ114)、ステップ106〜114を繰り返す。この最大値は、ユーザが指定することができ、自動的に計算されるコントラスト値の上限を決定する。好ましい実施形態で、最大値に、イメージ内で発生し得る最大の可能なエッジ振幅がセットされる。好ましい実施形態で、ステップ114で閾値を増分するステップサイズに、1がセットされる。他の実施形態で、最適のコントラストの自動計算を高速化するために、ステップサイズに、より大きい値(たとえば、2、3、または4)がセットされる。最大閾値に達した後に、関数f(T)に、評価された閾値ごとに、図1に示された対応するエッジ領域値が含まれる。最後のステップで、関数f(T)のグローバル極値を堅牢に抽出する(ステップ116)。これは、さまざまな標準的な方法の1つを適用することによって行うことができる。本発明の好ましい実施形態では、異なるサイズのスムージングフィルタを使用し、十分に大きいフィルタサイズから開始して、この関数を複数回スムージングする。スムージングは、ある一貫性検査を満足する単一の極値だけが残るまで、徐々に減らされる。1つの可能な一貫性検査は、極値が、領域の境界にないことすなわち、極値が、最大のまたは最小のテストされた閾値と異なることである。もう1つの可能な一貫性検査は、結果のエッジ画素の個数が、ある適当な限度内にあることである。最後に、極値の位置が、最適閾値Toptの値に対応し、これが物体のコントラストを表す。
次に、本発明の好ましい実施形態で使用される、異なる可能な評価基準の1つを詳細に説明する。物体に属するエッジは、エッジの曲率を検討することによって、雑音またはテクスチャによって引き起こされるエッジから区別することができる。通常、物体を記述するエッジは、雑音またはテクスチャによって引き起こされるエッジより小さい曲率を有する。したがって、本発明の1実施形態では、平均エッジ曲率を、評価基準として使用する。曲率は、たとえば、抽出されたエッジ領域にエッジリンキングアルゴリズムを適用し、連続するエッジ点に基づいて曲率を導出することによって計算することができる。残念ながら、エッジリンキングプロセスの計算および曲率計算は、高価である。したがって、本発明の好ましい実施形態では、異なる手法を適用する。この手法のアルゴリズムを、図3に示す。この流れ図は、図2で示されたものとはステップ200〜208だけが異なり、これらのステップは、図2のステップ108の特定の一実施形態を表す。
基本的なアイデアは、高い曲率の点でエッジを分割することである。通常、物体に属する、分割されたエッジセグメントの長さは、長く、イメージの雑音またはテクスチャに属する、分割されたエッジセグメントの長さは、短い。その結果、よい評価基準は、高い曲率の点で分割した後のエッジセグメントの平均長である。この判断基準は、低すぎる閾値が選択された場合に低いエッジ領域値を返す。というのは、多数の雑音によるエッジが存在し、多数の短いエッジセグメントにつながるからである。閾値が増やされる場合に、この判断基準は、より高いエッジ領域値を返し、最適閾値で最大値に達する。閾値がさらに増やされる場合に、物体エッジが分割され、やはりより短いエッジセグメントにつながり、したがって評価結果の減少につながる。
エッジ領域を高い曲率の点で分割するために、エッジ領域を1画素幅構造まで細線化する必要がある(ステップ200)。このステップは、エッジ領域の計算が既に1画素幅構造を返している場合には省略することができる。そうでない場合に、複数の使用可能なエッジ細線化アルゴリズムの1つを適用することができる(たとえば、Canny(1983年)、U.Eckardt、Verdunnung mit Perfekten Punkten、Proceedings 10. DAGM−Symposium、IFB 180、Zurich、1988年、またはGonzales and Woods(1992年)を参照されたい)。例を、図4に示す。エッジ振幅に閾値を適用した後に得られたエッジ領域を、図4Aに示す。隣接するエッジ画素は、4つ接続され、2画素幅の斜めのエッジになる。細線化ステップの後に、エッジは、8つ接続され、望みの1画素幅の斜めのエッジがもたらされる(図4Bを参照されたい)。次のステップに、高い曲率のエッジ画素の検出が含まれる(ステップ202)。これのために、4つの形態学的フィルタマスクを、細線化されたエッジ画素に適用する。フィルタマスクを、図5に示す。各フィルタマスクは、高い曲率または強い曲率を有する3つの隣接エッジ画素からなるエッジセグメントの4つの可能な方位のうちの1つを表す。フィルタマスクごとに、細線化されたエッジ領域の侵食(erosion)(たとえば、Gonzales and Woods、1992年を参照されたい)が適用され、ここで、フィルタマスクは、侵食の構造化要素として使用される。4つの構造化要素の基準点は、図5では白い丸によって表されている。侵食の結果は、エッジ画素に平行移動された基準点を有する構造化要素がオリジナルエッジ領域に完全に含まれるエッジ画素の組である。図1に示された3つの例に侵食を適用する時に、図6で白い丸によって示されたエッジ画素が得られる。図6Aおよび図6Cでは、高い曲率のエッジ画素が返されないが、図6Bでは、合計10個の高い曲率のエッジ画素が見つかっている。高い曲率の点でエッジ領域を分割するために、高い曲率の抽出された画素を、それぞれエッジ領域から減算または削除する(ステップ204)。最終結果を、図7に示す。結果の分割されたエッジ領域について、接続された成分を計算する(ステップ206)。2つのエッジ画素pおよびqが接続されていると言われるのは、qがpの8つの近傍に含まれる場合である(詳細については、Gonzales and Woods、1992年を参照されたい)。この例について得られた接続された成分を視覚化するために、例示のために、小さい斜めの灰色のストリップが、図7で接続を示す。したがって、図7Aでは、1つの接続された成分だけが得られ、図7Bでは、合計14個の接続された成分が返され、図7Cでは、合計6つの接続された成分が見つかっている。最後のステップに、接続された成分の評価が含まれる(ステップ208)。これに関して、接続された成分の平均長を計算する。成分の長さは、その画素数によって近似される。その結果、成分の結果の平均長は、図7Aでは20.0、図7Bでは2.9、図7Cでは2.0である。この例では、評価関数の最大値が20.0であり、したがって、対応する閾値が、最適量として選択される。次に、この最適閾値が、最終的にイメージ内の物体のコントラストを表す。
時々、ヒステリシス閾値化動作が、エッジ振幅に適用され、低閾値パラメータおよび高閾値パラメータを指定する必要が生じる場合がある。したがって、物体のコントラストが、2つのパラメータTlowおよびThighによって表される。本発明の1実施形態で、この2つの閾値の、Tlow≦Thighであるすべての可能な組合せについて、エッジ領域が、上で説明したように計算され、評価される。したがって、得られる関数f(Tlow,Thigh)は、2変数の関数である。1Dの場合に似て、TlowおよびThighの最適値を見つけるために、この関数の極値が抽出される。残念ながら、この手法に従う時には、最適閾値の組合せが、非常に時間を消費するものになる。というのは、一般に、TlowおよびThighの可能な組合せの個数が非常に多いからである。たとえば、200個の閾値をテストする場合に、それについてエッジを抽出し、評価しなければならない、20100個の可能な組合せがある。したがって、本発明の好ましい実施形態では、この2D問題を、図9に示されているように3つの1D問題に還元する。第1に、1つの最適閾値Toptを、図2または図3の流れ図に従って1Dの場合について説明したものと同一の形で決定する。閾値TlowとThighの両方が、Toptを用いて初期化される。第2ステップで、Thighを連続して増分する。各増分の後に、閾値TlowおよびThighを用いるヒステリシス閾値化動作を使用してエッジを抽出する。結果のエッジを評価する。Thighは、評価の結果が、それまでに見つかった最良の評価に関してある比率(たとえば、95%)まで下がるまで増分される。この後に、最適高閾値Topt highに、最良の評価結果に対応する閾値Thighをセットする。第3ステップでは、Tlowを連続して減らす。やはり、結果のエッジを、TlowおよびTopt highごとに評価する。Tlowは、評価の結果が、それまでに見つかった最良の評価に関してある比率(たとえば、95%)まで下がるまで減らされる。この後に、最適低閾値Topt lowに、最良の評価結果に対応する閾値Tlowをセットする。
物体部分の最小サイズ
本発明の第2の態様による物体部分の最小サイズは、多くともエッジ画素のうちのある比率(たとえば、5%)が除去されるように計算される。このために、ユーザによって与えられるか自動的に計算されるのいずれかである閾値を使用して、エッジを抽出する。次に、エッジの接続された成分を抽出し、そのサイズすなわち長さを計算する。本発明の好ましい実施形態では、最小サイズが、成分サイズのヒストグラムを使用して決定される。図10に、例のヒストグラムを示す。このヒストグラムは、成分サイズごとに、成分のうちで個々のサイズを有する分数を示す。たとえば、すべての成分のうちの11%が、4画素のサイズを有する。このヒストグラムに基づいて、項目を左から右に合計することによって、累積ヒストグラムを計算することができる。図10のヒストグラムの累積ヒストグラムを、図11に示す。この累積ヒストグラムは、成分ごとに、成分のうちで多くとも個々のサイズを有する分数を示す。たとえば、すべての成分のうちの11.3%が、多くとも3画素のサイズを有する。最小サイズは、所与の比率を超える、累積ヒストグラム内の最初(左から始めて)の項目に対応する。本発明の好ましい実施形態では、この比率に5%がセットされる。この比率に基づけば、図11に示された例の最小サイズは、3になる。したがって、3未満のサイズを有するすべての接続された成分が、モデルから除去される。これは、減らされた計算時間および物体認識のより高い堅牢さにつながる。
モデル点削減
モデル点の数を、本発明の第3の態様に従って、大きいモデルについてさらに減らすことができる。しばしば、物体認識手法の堅牢さおよび精度は、モデル点の個数に伴って増える。残念ながら、計算時間も増える。しかし、一般に、ある大きい数N個のモデル点で、精度および堅牢さは、モデル点の個数がさらに増やされた場合に大きくは増えなくなる。この個数Nは、主に、使用される物体認識手法に依存し、次に、それについてモデルを作成しなければならない物体に依存する。その結果、最適個数Nを決定する2つの可能な形があり、これを次で説明する。
本発明の1実施形態は、両方の影響を考慮に入れる、すなわち、物体認識手法への依存ならびに物体自体への依存が考慮される。これについて、ユーザは、モデルイメージのほかに、物体のいくつかの例のイメージを提供しなければならない。さらに、ユーザは、各例のイメージで見つけなければならない物体実例の個数を指定しなければならない。次に、自動評価を開始する。第1に、モデルを、モデル点の数を減らさずに、モデルイメージに基づいて作成する。第2に、モデルを、各例のイメージ内で検索する。ユーザ指定の個数の実例が、各例のイメージ内で見つかった場合には、平均認識時間を、モデル点の個数の関数として保管する。その後に、モデル点の個数を、ある比率、たとえば20%だけ減らす。この(減らされた)モデルを、各例のイメージ内でもう一度検索する。この手順は、平均認識時間が増えず、ユーザ指定の個数の実例が各例のイメージ内で見つかる限り、繰り返される。モデル点の最適個数Nは、すべてのユーザ指定の実例が見つかり、平均認識時間が最小である個数に対応する。この手法は、計算時間がモデル点の個数に依存する認識手法(たとえば、欧州特許第EP−A−1193642号、Ulrich他(2003年))に適用可能である。他の手法は、他の最適化判断基準を必要とする場合があるが、類似する形で最適化することができる。
説明した手法の短所は、ユーザがいくつかの例のイメージを提供しなければならないことである。残念ながら、多くの場合に、そのような例のイメージが、入手可能でないか、少なくとも入手がむずかしい。したがって、本発明の好ましい実施形態では、2つの影響のうちの1つだけを考慮に入れる、すなわち、物体自体への依存ではなく物体認識手法への依存を考慮する。短所は、結果の最適個数が、実際の最適量ではなく近似にすぎないことである。しかし、ほとんどの物体について、この近似は十分に正確である。したがって、目的は、ほとんどの物体に良く適する最適個数を経験的に見つけることである。これは、たとえば大きいデータベースに保管された、多数の異なる物体の十分な個数の例のイメージを使用して、経験的テストを実行することによって実行することができる。物体ごとに、上で説明した最適化プロセスが実行される。最後に、モデル点の平均最適個数が、すべてのテストされた物体にまたがって計算される。平均最適値が、この認識手法のモデル点の最適個数Nとして使用される。この経験的決定は、ある認識手法について1回だけ実行される必要があり、したがって、実装後にシステム開発者が行うことができる。その結果、ユーザは、例のイメージを提供する必要がない。
最後に、Nがわかった後に、N個を超える点を有する大きい物体モデルを、十分な個数のモデル点を除去することによって間引くことができる。これは、たとえば2つおき、3つおき、4つおきなどの点だけを受け入れることによって、N個のモデル点だけが残される形で行うことができる。それを行う際に、モデル全体にわたって均一に分布する形で点を選択することが賢明である。そうでなければ、通常は不均一な形で物体に影響するオクルージョンに対する物体認識の堅牢さが、下がる可能性がある。
イメージ構造の最小コントラスト
最小コントラストは、モデルをイメージ内の雑音から分離する。したがって、よい選択は、イメージ内の雑音によって引き起こされるグレイ値変化の範囲である。たとえば、グレイ値が、10グレイレベルの範囲内で変動する場合に、最小コントラストに10をセットしなければならない。
本発明は、モデルイメージ内の雑音に基づいて最小コントラストを自動的に導出する方法を提供する。イメージ雑音を推定するために、複数の周知の手法のうちの1つを適用することができる(たとえば、W.Forstner、「Image Preprocessing for Feature Extraction in Digital Intensity,Color and Range Images(デジタル輝度、色および範囲イメージにおける特徴抽出のための画像処理)」、Springer Lecture Notes on Earth Sciences、Summer School on Data Analysis and the Statistical Foundations of Geomatics、1999年、J.Immerkaer、「Fast Noise Variance Estimation(高速雑音分散評価)」、Computer Vision and Image Understanding、64(2)、300〜302ページ、1996年)。これらの方法は、イメージ内容と独立にイメージ雑音の標準グレイ値偏差σの値を返す。したがって、複数のイメージまたは同種のグレイ値を有するイメージを獲得する必要はなく、雑音を、モデルイメージ自体から直接に推定することができる。雑音によって引き起こされる可能性があるエッジ振幅は、雑音の標準偏差に依存する。本発明の好ましい実施形態では、雑音によって引き起こされるエッジのほとんどを考慮に入れることを保証するために、標準偏差に2.5という係数をかける。一般に、この係数が大きいほど、雑音によって引き起こされたエッジが誤って受け入れられる確率が低くなる。最後に、2.5σ未満のエッジ振幅を有するすべてのエッジ画素が、さらなる処理から除去される。
一般に、最小コントラストを、最小コントラスト未満のエッジ振幅を有するエッジをさらなる処理から排除するのに使用することができる。特に、最小コントラストを使用して、自動コントラスト決定中に計算されるすべての可能な閾値の範囲を、最小コントラストを超える閾値だけに制限することができる。
離散化ステップ長
次では、離散化ステップ長を自動的に計算する第5の態様の方法を、モデル回転だけについて説明する。しかし、この方法は、本発明の範囲から外れずに、たとえばスケーリングなどの他の変換に簡単に適用することができる。角度ステップ長は、物体がランタイムイメージに現れる可能性がある、角度のユーザ指定の範囲内のステップ長を決定する。一般に、角度ステップは、物体のサイズに基づいて選択しなければならない。より小さいモデルは、イメージ内に多数の異なる離散回転を有することがなく、したがって、角度ステップ長は、より小さいモデルについてより大きいものを選択することができる。モデルを保管するのに必要なメモリは、角度ステップの個数に比例する。したがって、小さすぎる角度ステップがセットされた場合に、モデルがもはや(仮想)メモリにおさまらないことが発生する場合がある。しかし、モデルが完全に主メモリにおさまることが望ましい。というのは、これによって、オペレーティングシステムによるページングがなくなり、したがって、物体を見つける時間がはるかに短くなるからである。さらに、ランタイムイメージ内で物体を認識する計算時間は、より小さい角度ステップについて増える。その一方で、大きすぎる角度ステップ長が選択された場合に、認識の堅牢さが減る。というのは、ランタイムイメージ内の物体のある方位が、最も近いモデル方位から遠すぎ、したがって、その物体を見つけられなくなるからである。
最適ステップ長は、適用される物体認識手法に強く依存する。ほとんどの認識手法は、物体が所与のポーズで存在するかどうかを判断するために、モデルとランタイムイメージの間の類似性測度を計算する。しばしば、見つかった一致のポーズのほかに、類似性測度の結果が、一致の品質を記述するスコア値に関してユーザに返される(たとえば、欧州特許第EP−A−1193642号、Ulrich他(2003年)を参照されたい)。一般性を失わずに、完全な一致が、1のスコア値を返し、1未満のスコア値が、モデルとランタイムイメージの間のより低い類似性を示すと仮定することができる。本発明の好ましい実施形態では、最適離散化ステップ長の計算が、ほとんどすべての認識手法によって返されるスコア値に基づく。
まず、ステップ長に関する最初の推測を、モデルに基づいて計算する。1つの可能な形が、単一のモデル方位を計算するのに使用される回転の中心からのすべてのモデル点の最大距離を計算することである(欧州特許第EP−A−1193642号を参照されたい)。図12に、Rによって表される、回転中心からのすべてのモデル点の最大距離を有する単純な長方形の物体を示す。回転ステップ長φに関する最初の推測を計算するために、物体がφだけ回転された場合に、最も遠いモデル点が2画素だけ変位すると仮定する。その結果、最初の推測は、φ=2arcsin(1/R)として計算することができる。選択される変位は、認識手法に依存する。小さい方位変化により鈍感な手法について、変位を大きくすることができ、逆も同様である。
本発明の好ましい実施形態では、最適角度ステップ長が、最初の推測に基づいて洗練される。これに関して、物体モデルが、角度ステップ長φという最初の推測を使用して作成されたと仮定する。したがって、このモデルは、0°、φ、2φ、3φなどのサンプリングされた方位で作成される。物体が、ランタイムイメージ内で、これらの方位のうちの1つと正確に同一の方位で現れる場合に、完全な一致が返される(雑音またはオクルージョンなどのイメージ擾乱をすべて無視して)。例を、図13Aに示す。ここで、角度ステップ長の最初の推測が、2°として計算されている。ランタイムイメージ内の物体方位に関してスコア値をプロットする時に、サンプリングされた方位0°、φ、2φ、3φなどで1のスコア値が得られ、2つのサンプリングされた方位の間で1未満のスコア値が得られる。物体の方位がこれらのサンプリングされた方位から多く外れるほど、スコアが減る。最小のスコア値は、正確に2つのサンプリングされた方位の間の中央で得られる。図13Aの例では、最小の得られたスコアが、約0.9である。適用される認識手法に応じて、受け入れることのできる最小スコア値、たとえば0.85を定義しなければならない。最小の得られたスコアが、図13Aの例のように最小スコアを超える場合に、角度ステップの最初の推測が、受け入れられる。図13Bに、別の物体の例を示す。ここで、最小の得られたスコア値は、約0.73であり、これは0.85という最小スコアより小さい。本発明の好ましい実施形態では、その場合に、ステップ長を半分にする。その結果を、図13Cに示す。ここで、最小の得られたスコア値が、約0.93であり、これは、最小スコアを超える。角度ステップ長を半分にする処理は、最小の得られたスコア値が最小スコアを超えるまで繰り返される。本発明の好ましい実施形態では、スコアが、0°とφの間のすべての物体方位について計算されるのではなく、φ/2の方位でのみ計算される。というのは、最小スコアが、2つのサンプリングされた方位の中央にあると期待されるからである。これに関して、モデルイメージを、φ/2だけ回転し、回転されたモデルイメージと回転されないモデルの間の類似性測度を計算する。
本発明の代替実施形態では、ステップ長の最初の推測が計算されない。その代わりに、類似性測度が、回転されないモデルと、増分的に回転されるモデルイメージの間で計算される。最適ステップ長が見つかるのは、現在のモデルイメージ回転について得られるスコアが最小スコアと同等である場合である。最後に、最適ステップ長の値は、現在の回転角度の2倍である。
本発明の複数の特定の態様および実施形態を詳細に説明したが、好ましい実施形態のさまざまな変更を、本発明の趣旨および範囲から外れずに行うことができる。したがって、上の説明は、添付請求項に示されたものを除いて本発明を制限することを意図されていない。
エッジ振幅に関する異なる閾値を使用する長方形の例の物体のエッジを示す図である。 エッジ振幅に関する異なる閾値を使用する長方形の例の物体のエッジを示す図である。 エッジ振幅に関する異なる閾値を使用する長方形の例の物体のエッジを示す図である。 エッジ振幅すなわち物体のコントラストの最適閾値の計算の主要なステップを示す流れ図である。 抽出されたエッジを評価する単一ステップが示されている、エッジ振幅の最適閾値の計算の主要なステップを示す流れ図である。 4接続されたエッジを示す図である。 8接続されたエッジを示す図である。 高い曲率のエッジ画素を決定するために侵食動作の構造化要素として使用される形態学的フィルタマスクを示す図である。 図1Aのエッジの白い丸に関する侵食動作の結果を示す図である。 図1Bのエッジの白い丸に関する侵食動作の結果を示す図である。 図1Cのエッジの白い丸に関する侵食動作の結果を示す図である。 図6Aに示された高い曲率の点でエッジを分割した後の、図1Aのエッジの接続された成分を示す図である。 図6Bに示された高い曲率の点でエッジを分割した後の、図1Bのエッジの接続された成分を示す図である。 図6Cに示された高い曲率の点でエッジを分割した後の、図1Cのエッジの接続された成分を示す図である。 最適閾値を決定するのに必要なエッジ振幅の閾値に関する、エッジ領域値すなわち、物体エッジの評価の結果を示す図である。 ヒステリシス閾値化動作の最適閾値を決定するのに必要なエッジ振幅の閾値に関する、エッジ領域値すなわち、物体エッジの評価の結果を示す図である。 成分サイズのヒストグラムを示す図、すなわち成分サイズごとに個々のサイズを有する成分の分数が可視化されている図である。 成分サイズの累積ヒストグラムを示す図、すなわち成分サイズごとに多くとも個々のサイズを有する成分の分数が可視化されている図である。 モデル回転の角度ステップ長φの最初の推測の計算を示す図である。 最初の推測を受け入れることができるある物体の物体方位に関するスコアを示す図である。 最初の推測を半分にしなければならない第2物体の物体方位に関するスコアを示す図である。 最初の推測を半分にしなければならない物体方位に関するスコアを示す図である。
符号の説明
102 エッジ振幅を計算するステップ
103 閾値Tに最小値をセットするステップ
106 現在の閾値Tを使用してエッジ領域を計算するステップ
108 エッジ領域を評価するステップ
110 評価結果を関数f(T)に保管するステップ
112 閾値T<最大値であるかどうかを決定するかステップ
114 閾値Tを増分するステップ
116 関数f(T)の極値を見つけるステップ
200 エッジ細線化を適用するステップ
202 侵食マスクを適用することによって、強い曲率のエッジ画素を見つけるステップ
204 強い曲率のエッジ画素をエッジ領域から減算するステップ
206 接続された成分を計算するステップ
208 接続された成分を評価するステップ

Claims (25)

  1. (a)前記物体の電子イメージを提供するステップと、
    (b)前記物体のエッジ振幅を識別するステップと、
    (c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
    (d)より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価するステップと、
    (e)最大エッジ領域値に対応する最適閾値を決定するステップと、
    (f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
    を含むイメージ内の物体のコントラストを自動的に決定する方法。
  2. ステップ(d)は、物体エッジの平均負曲率を識別するステップを含む、請求項1に記載の方法。
  3. ステップ(d)は、
    (d1)8接続されているエッジ画素を識別するステップと、
    (d2)強い曲率のエッジ画素を決定するステップと、
    (d3)差領域を形成するために前記エッジ領域から強い曲率の前記エッジ画素を削除するステップと、
    (d4)前記差領域の接続された成分を識別するステップと、
    (d5)前記エッジ領域値を識別するために前記接続された成分の平均長を提供するステップと、
    を含む、請求項1に記載の方法。
  4. ステップ(d2)は、フィルタマスクを使用して前記エッジ画素に4つの侵食を適用するステップを含む、請求項3に記載の方法。
  5. ステップ(c)は、前記エッジ振幅にヒステリシス閾値を適用することによってより低いヒステリシス閾値およびより高いヒステリシス閾値の組合せに関してエッジ領域を識別するステップを含み、ステップ(f)が、前記物体の前記コントラストを決定するために前記エッジ領域値の最大値に対応する前記ヒステリシス閾値を提供するステップを含む、請求項1に記載の方法。
  6. ステップ(f)は、
    (f1)低ヒステリシス閾値および高ヒステリシス閾値を、ステップ(e)から得られた前記エッジ領域値の最大値に対応する前記閾値に初期化するステップと、
    (f2)前記高ヒステリシス閾値を連続して増分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
    (f3)増分された高閾値ごとに得られる前記エッジ領域値を決定するステップと、
    (f4)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f2)から(f3)を繰り返すステップと、
    (f5)前記低ヒステリシス閾値を連続して減分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
    (f6)減分された低閾値ごとに得られる前記エッジ領域値を決定するステップと、
    (f7)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f5)から(f6)を繰り返すステップと、
    (f8)前記物体の前記コントラストを表す最適の低ヒステリシス閾値および高ヒステリシス閾値を提供するステップと、
    によって置換される、請求項1に記載の方法。
  7. 前記最小コントラストは、自動的に決定され、
    (g)イメージ雑音の標準偏差を推定するステップと、
    (h)前記推定された標準偏差に所定の係数をかけることによって最小エッジ振幅を決定するステップと、
    (i)前記最小コントラストとして前記最小エッジ振幅を使用するステップと、
    を含む、請求項1に記載の方法。
  8. (a)物体の電子イメージを提供するステップと、
    (b)前記イメージのエッジ振幅を識別するステップと、
    (c)閾値を前記エッジ振幅に適用することによって前記物体のエッジ領域を識別するステップと、
    (d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
    (e)前記成分の長さの累積ヒストグラムを識別するステップと、
    (f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
    (g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
    を含む物体部分の最小サイズを自動的に決定する方法。
  9. ステップ(c)で、前記閾値が、請求項1に記載の方法を使用して自動的に得られる、請求項8に記載の方法。
  10. (a)物体の電子イメージを提供するステップと、
    (b)前記イメージのエッジ振幅を識別するステップと、
    (c)閾値を前記エッジ振幅に適用することによって前記物体のエッジ領域を識別するステップと、
    (d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
    (e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
    を含むモデル点の個数に関する削減要因を自動的に決定する方法。
  11. ステップ(c)において、前記閾値が、請求項1に記載の方法を使用して自動的に得られる、請求項10に記載の方法。
  12. ステップ(d)で決定されたモデル点の前記最適個数が、現在の物体に基づき、
    (d1)前記物体の少なくとも1つの電子テストイメージを提供するステップと、
    (d2)テストイメージごとに、認識されなければならない物体実例の個数を提供するステップと、
    (d3)所望の認識手法を使用する前記物体のモデル表現を提供するステップと、
    (d4)前記モデル表現および前記所望の認識手法を使用して各テストイメージ内の前記物体を認識し、すべてのテストイメージにわたる平均認識時間を決定するステップと、
    (d5)モデル点の個数を所定の係数だけ減らすステップと、
    (d6)前記平均認識時間が増えない限り、かつステップ(d2)で提供された前記個数の物体実例が各テストイメージ内で見つかる限り、ステップ(d4)から(d5)を繰り返すステップと、
    (d7)ステップ(d2)で提供された前記個数の物体実例が見つかり、前記平均認識時間が最小である、モデル点の最適個数を使用するステップと、
    を含む、請求項10に記載の方法。
  13. ステップ(d1)〜(d7)で決定されたモデル点の前記最適個数が、多数の物体についてステップ(d1)から(d7)を繰り返し、モデル点の最適個数の平均値を提供することによって、前記現在の物体と独立である、請求項12に記載の方法。
  14. (a)物体の電子イメージを提供するステップと、
    (b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
    (c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
    (d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
    (e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
    を含むモデル点の組を含む物体モデルの離散化ステップ長を自動的に決定する方法。
  15. ステップ(b)は、
    (b1)前記変換の固定点からの前記モデル点の最大距離を計算するステップと、
    (b2)最大の許容される画素変位を仮定するステップと、
    (b3)前記最大距離および前記許容される画素変位に基づいて前記離散化ステップ長の前記初期値を計算するステップと、
    を含む、請求項14に記載の方法。
  16. ステップ(c)の前記最小類似性測度は、変換されない物体モデルと、前記離散化ステップ長の半分だけ変換されたモデルイメージとの間の類似性測度に対応する、請求項14に記載の方法。
  17. (a)物体の電子イメージを提供するステップと、
    (b)現在のステップ長を0に初期化するステップと、
    (c)十分に小さい値だけ前記現在のステップ長を増分するステップと、
    (d)変換されないモデルと前記現在のステップ長に従って変換されたモデルイメージとの間の類似性測度を識別するステップと、
    (e)前記類似性測度がある閾値未満になるまで前記ステップ(c)および(d)を繰り返すステップと、
    (f)前記類似性測度が前記閾値を超える最後のステップ長の2倍として最適ステップ長を提供するステップと、
    を含む物体モデルの離散化ステップ長を自動的に決定する方法。
  18. (a)前記物体の電子イメージを提供する手段と、
    (b)前記物体のエッジ振幅を識別する手段と、
    (c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別する手段と、
    (d)より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価する手段と、
    (e)最大エッジ領域値に対応する最適閾値を決定する手段と、
    (f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供する手段と、
    を含むイメージ内の物体のコントラストを自動的に決定するデータ処理システム。
  19. (a)物体の電子イメージを提供する手段と、
    (b)前記イメージのエッジ振幅を識別する手段と、
    (c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別する手段と、
    (d)前記エッジ領域の接続された成分を識別し、成分の長さを決定する手段と、
    (e)前記成分の長さの累積ヒストグラムを識別する手段と、
    (f)事前定義の比率を超えるヒストグラムビンを識別する手段と、
    (g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供する手段と、
    を含む物体部分の最小サイズを自動的に決定するデータ処理システム。
  20. (a)物体の電子イメージを提供する手段と、
    (b)前記イメージのエッジ振幅を識別する手段と、
    (c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別する手段と、
    (d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別する手段と、
    (e)手段(d)によって決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去する手段と
    を含むモデル点の個数に関する削減要因を自動的に決定するデータ処理システム。
  21. (a)物体の電子イメージを提供する手段と、
    (b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供する手段と、
    (c)現在の離散化ステップ長に関連する最小類似性測度を識別する手段と、
    (d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にする手段と、
    (e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用する手段と、
    を含む物体モデルの離散化ステップ長を自動的に決定するデータ処理システム。
  22. (a)前記物体の電子イメージを提供するステップと、
    (b)前記物体のエッジ振幅を識別するステップと、
    (c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
    (d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示すステップと、
    (e)最大エッジ領域値に対応する最適閾値を決定するステップと、
    (f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
    を含む、イメージ内の物体のコントラストを決定するプログラム命令を含むデータ記憶媒体。
  23. 物体部分の最小サイズを自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
    (a)前記物体の電子イメージを提供するステップと、
    (b)前記イメージのエッジ振幅を識別するステップと、
    (c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別するステップと、
    (d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
    (e)前記成分の長さの累積ヒストグラムを識別するステップと、
    (f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
    (g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
    を含む、データ記憶媒体。
  24. モデル点の個数に関する削減要因を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
    (a)物体の電子イメージを提供するステップと、
    (b)前記イメージのエッジ振幅を識別するステップと、
    (c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別するステップと、
    (d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
    (e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
    を含む、データ記憶媒体。
  25. 物体モデルの離散化ステップ長を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
    (a)物体の電子イメージを提供するステップと、
    (b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
    (c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
    (d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
    (e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
    を含むデータ記憶媒体。
JP2006122053A 2006-03-24 2006-04-26 マシンビジョンにおける自動パラメータ決定のシステムおよび方法 Active JP4907219B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06006129A EP1837806A1 (en) 2006-03-24 2006-03-24 System and methods for automatic parameter determination in machine vision
EP06006129.8 2006-03-24

Publications (2)

Publication Number Publication Date
JP2007257601A true JP2007257601A (ja) 2007-10-04
JP4907219B2 JP4907219B2 (ja) 2012-03-28

Family

ID=36793874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006122053A Active JP4907219B2 (ja) 2006-03-24 2006-04-26 マシンビジョンにおける自動パラメータ決定のシステムおよび方法

Country Status (3)

Country Link
US (3) US7751625B2 (ja)
EP (3) EP1914667A3 (ja)
JP (1) JP4907219B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013522771A (ja) * 2010-03-15 2013-06-13 アナログ デバイシス, インコーポレイテッド 二次導関数エッジ検出方法のためのエッジオリエンテーション
US9785864B2 (en) 2014-07-08 2017-10-10 Canon Kabushiki Kaisha Image processing method, image processing apparatus, program, and recording medium

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545949B2 (en) * 2004-06-09 2009-06-09 Cognex Technology And Investment Corporation Method for setting parameters of a vision detector using production line information
US9092841B2 (en) * 2004-06-09 2015-07-28 Cognex Technology And Investment Llc Method and apparatus for visual detection and inspection of objects
US8081820B2 (en) 2003-07-22 2011-12-20 Cognex Technology And Investment Corporation Method for partitioning a pattern into optimized sub-patterns
US8891852B2 (en) 2004-06-09 2014-11-18 Cognex Technology And Investment Corporation Method and apparatus for configuring and testing a machine vision detector
US8243986B2 (en) * 2004-06-09 2012-08-14 Cognex Technology And Investment Corporation Method and apparatus for automatic visual event detection
US8127247B2 (en) 2004-06-09 2012-02-28 Cognex Corporation Human-machine-interface and method for manipulating data in a machine vision system
US20050276445A1 (en) * 2004-06-09 2005-12-15 Silver William M Method and apparatus for automatic visual detection, recording, and retrieval of events
US9292187B2 (en) 2004-11-12 2016-03-22 Cognex Corporation System, method and graphical user interface for displaying and controlling vision system operating parameters
US8126253B2 (en) 2005-11-12 2012-02-28 Cognex Technology And Investment Corporation Automatically determining machine vision tool parameters
JP4661934B2 (ja) * 2008-10-09 2011-03-30 株式会社デンソー 画像処理装置
US8345106B2 (en) * 2009-09-23 2013-01-01 Microsoft Corporation Camera-based scanning
US10081308B2 (en) 2011-07-08 2018-09-25 Bendix Commercial Vehicle Systems Llc Image-based vehicle detection and distance measuring method and apparatus
US8965132B2 (en) * 2011-11-18 2015-02-24 Analog Devices Technology Edge tracing with hysteresis thresholding
US9651499B2 (en) 2011-12-20 2017-05-16 Cognex Corporation Configurable image trigger for a vision system and method for using the same
EP2842104B1 (en) * 2012-05-14 2016-10-19 Omron Corporation Method and apparatus to guarantee minimum contrast for machine vision system
CN102831420B (zh) * 2012-08-17 2015-04-01 银江股份有限公司 基于颜色信息和随机圆检测的圆形交通标志定位方法
US9177222B2 (en) 2012-11-05 2015-11-03 Mitutoyo Corporation Edge measurement video tool and interface including automatic parameter set alternatives
GB201516953D0 (en) * 2015-09-25 2015-11-11 Umajin Ltd Ghost hands
US10679408B2 (en) * 2017-02-02 2020-06-09 Adobe Inc. Generating a three-dimensional model from a scanned object
EP3503528B1 (en) * 2017-12-21 2020-10-07 Axis AB Determination of a contrast value for a digital image
KR20210066207A (ko) * 2019-11-28 2021-06-07 엘지전자 주식회사 객체를 인식하는 인공 지능 장치 및 그 방법
CN113916906B (zh) * 2021-09-03 2024-01-09 江苏理工学院 视觉检测系统led光源照度优化方法及所用实验设备
CN115082453A (zh) * 2022-07-27 2022-09-20 南通艾果纺织品有限公司 基于神经网络的床上用品生产用包边机智能控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314790A (ja) * 2001-04-11 2002-10-25 Ricoh Co Ltd カラー画像情報処理方法、該方法の実行に用いるプログラム、及びカラー画像情報処理装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850466A (en) * 1995-02-22 1998-12-15 Cognex Corporation Golden template comparison for rotated and/or scaled images
US6023530A (en) * 1995-11-13 2000-02-08 Applied Intelligent Systems, Inc. Vector correlation system for automatically locating patterns in an image
US6005978A (en) 1996-02-07 1999-12-21 Cognex Corporation Robust search for image features across image sequences exhibiting non-uniform changes in brightness
DE69831519T2 (de) * 1997-01-17 2006-06-14 Matsushita Electric Works Ltd System und Verfahren zur Lageermittlung
WO1999057683A1 (en) * 1998-05-04 1999-11-11 The Johns Hopkins University Method and apparatus for segmenting small structures in images
IL139620A0 (en) * 1998-05-18 2002-02-10 Datacube Inc Image recognition and correlation system
US6393159B1 (en) * 1998-06-29 2002-05-21 The Regents Of The University Of California Multiscale characterization and analysis of shapes
DE69930053D1 (de) * 1998-12-18 2006-04-27 Univ Washington Seattle Standardmustervergleichung durch Korrelation und Vorhersagung
US6804408B1 (en) * 1999-12-22 2004-10-12 Eastman Kodak Company Method for enhancing a digital image with noise-dependent control of texture
JP3776340B2 (ja) * 2000-09-27 2006-05-17 エムヴイテック・ソフトウェア・ゲーエムベーハー 対象物認識システム及び方法
EP1193642B1 (en) 2000-09-27 2005-03-30 MVTec Software GmbH System and method for object recognition
US7133572B2 (en) * 2002-10-02 2006-11-07 Siemens Corporate Research, Inc. Fast two dimensional object localization based on oriented edges
US7333673B2 (en) * 2003-10-30 2008-02-19 Samsung Electronics Co., Ltd. Method and apparatus for image detail enhancement without zigzagged edge artifact
US7401304B2 (en) * 2004-01-28 2008-07-15 Gradient Design Automation Inc. Method and apparatus for thermal modeling and analysis of semiconductor chip designs

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314790A (ja) * 2001-04-11 2002-10-25 Ricoh Co Ltd カラー画像情報処理方法、該方法の実行に用いるプログラム、及びカラー画像情報処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6010064219, Kazuhiko SUMI, "Three−Level Broad−Edge Template Matching and Its Application to Real−Time Vision System", IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, 19951201, p.1526−1531, JP, INFORMATION & SYSTEMS SOCIETY *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013522771A (ja) * 2010-03-15 2013-06-13 アナログ デバイシス, インコーポレイテッド 二次導関数エッジ検出方法のためのエッジオリエンテーション
US9639949B2 (en) 2010-03-15 2017-05-02 Analog Devices, Inc. Edge orientation for second derivative edge detection methods
US9785864B2 (en) 2014-07-08 2017-10-10 Canon Kabushiki Kaisha Image processing method, image processing apparatus, program, and recording medium

Also Published As

Publication number Publication date
EP1914666A2 (en) 2008-04-23
US7751625B2 (en) 2010-07-06
EP1914666A3 (en) 2008-05-07
US7953290B2 (en) 2011-05-31
JP4907219B2 (ja) 2012-03-28
EP1914667A2 (en) 2008-04-23
US20100232708A1 (en) 2010-09-16
EP1914667A3 (en) 2008-05-07
US20100231744A1 (en) 2010-09-16
US20070223817A1 (en) 2007-09-27
US7953291B2 (en) 2011-05-31
EP1837806A1 (en) 2007-09-26

Similar Documents

Publication Publication Date Title
JP4907219B2 (ja) マシンビジョンにおける自動パラメータ決定のシステムおよび方法
US10964060B2 (en) Neural network-based camera calibration
David et al. SoftPOSIT: Simultaneous pose and correspondence determination
US9141871B2 (en) Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space
JP3776340B2 (ja) 対象物認識システム及び方法
CN111899334B (zh) 一种基于点线特征的视觉同步定位与地图构建方法及装置
US8406535B2 (en) Invariant visual scene and object recognition
Dibeklioglu et al. 3D facial landmarking under expression, pose, and occlusion variations
KR20060097074A (ko) 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법
JP2002516440A (ja) 画像認識および相関システム
WO2006058154A1 (en) Method for automatic shape classification
JP2018195282A (ja) モデルを修正するためのシステムおよび方法
US8306332B2 (en) Image search method and device
Yoon et al. Artificial landmark tracking based on the color histogram
Ulrich et al. Performance evaluation of 2d object recognition techniques
CN111753723B (zh) 一种基于密度校准的指纹识别方法及装置
CN114529570A (zh) 图像分割方法、图像识别方法、用户凭证补办方法及系统
CN110349111B (zh) 一种包含二维码图像的矫正方法和装置
Short et al. Reducing descriptor measurement error through Bayesian estimation of fingerprint minutia location and direction
Mazouzi et al. A multi-agent approach for range image segmentation with bayesian edge regularization
Wimmer et al. Learning robust objective functions with application to face model fitting
Chakraborty et al. Model-based object recognition from a complex binary imagery using genetic algorithm
Choi et al. Unsupervised texture flow estimation using appearance-space clustering and correspondence
Urano et al. Fast and robust rotation-invariant search by using orientation code difference histogram (OCDH)
Ferrara et al. Improvements on a MMI-based method for automatic texture mapping of 3D dense models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110823

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150120

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4907219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250