JP2007257601A - マシンビジョンにおける自動パラメータ決定のシステムおよび方法 - Google Patents
マシンビジョンにおける自動パラメータ決定のシステムおよび方法 Download PDFInfo
- Publication number
- JP2007257601A JP2007257601A JP2006122053A JP2006122053A JP2007257601A JP 2007257601 A JP2007257601 A JP 2007257601A JP 2006122053 A JP2006122053 A JP 2006122053A JP 2006122053 A JP2006122053 A JP 2006122053A JP 2007257601 A JP2007257601 A JP 2007257601A
- Authority
- JP
- Japan
- Prior art keywords
- identifying
- edge
- threshold
- image
- providing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000011156 evaluation Methods 0.000 claims abstract description 37
- 238000011524 similarity measure Methods 0.000 claims description 31
- 230000009466 transformation Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 16
- 238000013500 data storage Methods 0.000 claims description 15
- 230000001186 cumulative effect Effects 0.000 claims description 13
- 230000003628 erosive effect Effects 0.000 claims description 11
- 238000012360 testing method Methods 0.000 claims description 11
- 230000009467 reduction Effects 0.000 claims description 10
- 238000006073 displacement reaction Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 abstract description 15
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
- G06V10/7515—Shifting the patterns to accommodate for positional errors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/28—Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/772—Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries
Abstract
【解決手段】多くのマシンビジョンシステムは、現在のアプリケーションに依存するアルゴリズムの挙動に適応するために、1以上のパラメータを指定するようにユーザに要求するアルゴリズムを使用する。イメージ内の物体のコントラストを自動的に決定する方法は、物体の電子イメージを提供するステップ、前記物体のエッジ振幅を識別するステップ102、前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップ106、より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価するステップ108、最大エッジ領域値に対応する最適閾値を決定するステップ112、前記物体の前記コントラストを表す、最大エッジ領域値に対応する前記最適閾値を提供するステップ116を含む。
【選択図】図2
Description
Lisa Gottesfeld Brown、「A survey of image registration techniques(画像記録技術の探査)」、ACM Computing Surveys(ACMコンピューティング探査)、24(4):325〜376ページ、1992年12月 William J.Rucklidge、「Efficiently locating objects using the Hausdorff distance(ハウスドロフ距離を使用して物体を効果的に配置する)」、International Journal of Computer Vision、24(3):251〜270ページ、1997年
イメージ内の物体のコントラスト
第1の態様によれば、本発明は、イメージ内の物体のコントラストを自動的に決定する方法を提供する。これは、エッジ振幅の最適閾値の決定と同等である。得られたエッジは、物体を最適に記述する、すなわち、物体のすべての重要なエッジが、記述に含まれると同時に、雑音またはテクスチャから生じるエッジが、記述から除外される。最適記述は、たとえば、物体認識の分野で重要であり、この場合に、認識プロセスの堅牢性および速度は、モデルに使用される物体記述に強く依存する。
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示す、ステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含む方法を提供する。
(d1)8接続されているエッジ画素を識別するステップと、
(d2)強い曲率のエッジ画素を決定するステップと、
(d3)差領域を形成するために前記エッジ領域から強い曲率の前記エッジ画素を削除するステップと、
(d4)前記差領域の接続された成分を識別するステップと、
(d5)前記エッジ領域値を識別するために前記接続された成分の平均長を提供するステップと、
を含むことが好ましい。
(f1)低ヒステリシス閾値および高ヒステリシス閾値を、ステップ(e)から得られた前記エッジ領域値の最大値に対応する前記閾値に初期化するステップと、
(f2)前記高ヒステリシス閾値を連続して増分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f3)増分された高閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f4)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f2)から(f3)を繰り返すステップと、
(f5)前記低ヒステリシス閾値を連続して減分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f6)減分された低閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f7)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f5)から(f6)を繰り返すステップと、
(f8)前記物体の前記コントラストを表す最適の低ヒステリシス閾値および高ヒステリシス閾値を提供するステップと、
によって置換される。
(g)イメージ雑音の標準偏差を推定するステップと、
(h)前記推定された標準偏差に所定の係数をかけることによって最小エッジ振幅を決定するステップと、
(i)前記最小コントラストとして前記最小エッジ振幅を使用するステップと、
を含むことが好ましい。
(a)前記物体の電子イメージを提供する手段と、
(b)前記物体のエッジ振幅を識別する手段と、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別する手段と、
(d)閾値の前記範囲について得られる前記エッジ領域を評価する手段であって、より高い評価結果がよりよい評価を示す、手段と、
(e)最大エッジ領域値に対応する最適閾値を決定する手段と、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供する手段と、
を含む。
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示す、ステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含む、データ記憶媒体も提供する。
物体部分の最小サイズ
第2の態様によれば、本発明は、モデルに含まれる物体部分の最小サイズを自動的に決定する方法を提供する。物体部分の最小サイズは、エッジ画素のうちの多くともある比率(たとえば、5%)が除去されるように計算される。このために、接続された成分のサイズの累積ヒストグラムを計算する。最小サイズは、この累積ヒストグラムの、所与の比率を超える最初の項目に対応する。
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む。
(a)前記物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別する手段と、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定する手段と、
(e)前記成分の長さの累積ヒストグラムを識別する手段と、
(f)事前定義の比率を超えるヒストグラムビンを識別する手段と、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供する手段と、
を含む。
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む、データ記憶媒体も提供する。
モデル点削減
第3の態様によれば、点削減の度合は、本発明による方法によって自動的に計算される。大きいモデルについて、モデル点の個数は、堅牢さまたは精度を減らさずに減らすことができる。これは、最適の個数のモデル点が残るように、十分な個数のモデル点を除去することによって行うことができる。一般に、モデル点の最適の個数を決定する2つの可能な形がある。第1の形は、ユーザが供給する複数の物体の例のイメージに基づいて最適個数を自動的に見つけることである。したがって、個々の物体ごとに、特有の最適個数を決定することができる。残念ながら、多くの場合に、そのような例のイメージが入手可能でない。したがって、第2の形は、ほとんどの物体に良く適する最適個数を自動的に見つけることである。これは、多数の異なる物体の複数の例のイメージを使用することによって行うことができる。この場合に、モデル点の最適個数は、物体認識手法だけに依存し、実装中に1回、経験的に決定されなければならない。その結果、ユーザは、例のイメージを提供する必要がない。
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちのめいめいの分数を除去するステップと、
を含む。
(d1)前記物体の少なくとも1つの電子テストイメージを提供するステップと、
(d2)テストイメージごとに、認識されなければならない物体実例の個数を提供するステップと、
(d3)所望の認識手法を使用する前記物体のモデル表現を提供するステップと、
(d4)前記モデル表現および前記所望の認識手法を使用して各テストイメージ内の前記物体を認識し、すべてのテストイメージにわたる平均認識時間を決定するステップと、
(d5)モデル点の個数を所定の係数だけ減らすステップと、
(d6)前記平均認識時間が増えない限り、かつステップ(d2)で提供された前記個数の物体実例が各テストイメージ内で見つかる限り、ステップ(d4)から(d5)を繰り返すステップと、
(d7)ステップ(d2)で提供された前記個数の物体実例が見つかり、前記平均認識時間が最小である、モデル点の最適個数を使用するステップと、
を含むことが好ましい。
(a)前記物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別する手段と、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別する手段と、
(e)手段(d)によって決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去する手段と、
を含む。
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
を含む、データ記憶媒体も提供する。
イメージ構造の最小コントラスト
第4の態様によれば、本発明は、モデルイメージ内の雑音を自動的に決定し、推定されたイメージ雑音に基づいて最小コントラストを導出する方法を提供する。最小コントラストは、モデルをイメージ内の雑音から分離するので、よい選択は、イメージ内の雑音によって引き起こされるグレイ値変化の範囲である。したがって、本発明の好ましい実施形態では、複数の既存の方法のうちの1つを使用して、モデルイメージ内の雑音の標準偏差を推定する。次に、推定された標準偏差にある係数をかけたもの未満のエッジ振幅を有するすべてのエッジ点が、さらなる処理について除去される。この係数が大きいほど、雑音によって引き起こされたエッジが誤って受け入れられる可能性が少なくなる。
離散化ステップ長
本発明の第5の態様によれば、回転、スケーリング、および物体モデルのさらなる変換に関する、最適の離散化ステップ長を自動的に決定する方法が説明される。角度ステップ長は、物体がランタイムイメージ内に現れるユーザ指定の角度範囲内のステップ長を決定する。角度ステップ長が小さすぎる場合に、認識時間ならびにモデルを格納するのに必要なメモリが増える。その一方で、大きすぎる角度ステップ長が選択される場合に、認識の堅牢さが減る。というのは、ランタイムイメージ内の物体のある方位を見つけることができないからである。本発明の1実施形態では、まず、角度ステップ長の最初の推測が、欧州特許第EP−A−1193642号で提案されているように、物体のサイズに基づいて計算される。第2ステップで、最初の推測を半分にすることによってモデルイメージを回転し、物体と回転されたモデルイメージの間の類似性を計算することによって、最初の推測を評価する。類似性測度が、ある閾値未満である場合に、角度ステップ長を半分にする。この処理は、類似性測度が閾値を超え、最適の角度ステップ長がもたらされるまで繰り返される。
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含む。
(b1)前記変換の固定点からの前記モデル点の最大距離を計算するステップと、
(b2)最大の許容される画素変位を仮定するステップと、
(b3)前記最大距離および前記許容される画素変位に基づいて前記離散化ステップ長の前記初期値を計算するステップと、
を含むことが好ましい。
(a)前記物体の電子イメージを提供する手段と、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供する手段と、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別する手段と、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にする手段と、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用する手段と、
を含む。
(a)前記物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含むデータ記憶媒体を提供する。
(a)前記物体の電子イメージを提供するステップと、
(b)現在のステップ長を0に初期化するステップと、
(c)十分に小さい値だけ前記現在のステップ長を増分するステップと、
(d)変換されないモデルと前記現在のステップ長に従って変換されたモデルイメージとの間の類似性測度を識別するステップと、
(e)前記類似性測度がある閾値未満になるまで前記ステップ(c)および(d)を繰り返すステップと、
(f)前記類似性測度が前記閾値を超える最後のステップ長の2倍として最適ステップ長を提供するステップと、
を含む。
イメージ内の物体のコントラストは、さまざまな影響、たとえば、実世界の物体の実際のコントラスト、照明(強度、位置、方位)、カメラセッティング(シャッタ、絞り、ガンマ訂正など)、物体に関するカメラの視角、物体の反射特性などに依存する。イメージ内の物体のコントラストを計算するために、これらのパラメータのすべてを含むイメージングプロセスをモデル化することは、明らかに実現可能でない。その代わりに、物体の単一のイメージに基づいて、コントラストを自動的に導出しなければならない。このコントラスト値に基づいて、物体を最適に記述するエッジを抽出することができる。一方で、最適の記述には、イメージ内の、物体に属するエッジだけが含まれる。他のイメージ構造、たとえば雑音、テクスチャ付き背景、または他のイメージ擾乱から生じるエッジは、この記述から排除されなければならない。その一方で、最適の記述は、すべての関連する物体部分が含まれることも保証する、すなわち、物体が完全に記述されなければならない。
物体部分の最小サイズ
本発明の第2の態様による物体部分の最小サイズは、多くともエッジ画素のうちのある比率(たとえば、5%)が除去されるように計算される。このために、ユーザによって与えられるか自動的に計算されるのいずれかである閾値を使用して、エッジを抽出する。次に、エッジの接続された成分を抽出し、そのサイズすなわち長さを計算する。本発明の好ましい実施形態では、最小サイズが、成分サイズのヒストグラムを使用して決定される。図10に、例のヒストグラムを示す。このヒストグラムは、成分サイズごとに、成分のうちで個々のサイズを有する分数を示す。たとえば、すべての成分のうちの11%が、4画素のサイズを有する。このヒストグラムに基づいて、項目を左から右に合計することによって、累積ヒストグラムを計算することができる。図10のヒストグラムの累積ヒストグラムを、図11に示す。この累積ヒストグラムは、成分ごとに、成分のうちで多くとも個々のサイズを有する分数を示す。たとえば、すべての成分のうちの11.3%が、多くとも3画素のサイズを有する。最小サイズは、所与の比率を超える、累積ヒストグラム内の最初(左から始めて)の項目に対応する。本発明の好ましい実施形態では、この比率に5%がセットされる。この比率に基づけば、図11に示された例の最小サイズは、3になる。したがって、3未満のサイズを有するすべての接続された成分が、モデルから除去される。これは、減らされた計算時間および物体認識のより高い堅牢さにつながる。
モデル点削減
モデル点の数を、本発明の第3の態様に従って、大きいモデルについてさらに減らすことができる。しばしば、物体認識手法の堅牢さおよび精度は、モデル点の個数に伴って増える。残念ながら、計算時間も増える。しかし、一般に、ある大きい数N個のモデル点で、精度および堅牢さは、モデル点の個数がさらに増やされた場合に大きくは増えなくなる。この個数Nは、主に、使用される物体認識手法に依存し、次に、それについてモデルを作成しなければならない物体に依存する。その結果、最適個数Nを決定する2つの可能な形があり、これを次で説明する。
イメージ構造の最小コントラスト
最小コントラストは、モデルをイメージ内の雑音から分離する。したがって、よい選択は、イメージ内の雑音によって引き起こされるグレイ値変化の範囲である。たとえば、グレイ値が、10グレイレベルの範囲内で変動する場合に、最小コントラストに10をセットしなければならない。
離散化ステップ長
次では、離散化ステップ長を自動的に計算する第5の態様の方法を、モデル回転だけについて説明する。しかし、この方法は、本発明の範囲から外れずに、たとえばスケーリングなどの他の変換に簡単に適用することができる。角度ステップ長は、物体がランタイムイメージに現れる可能性がある、角度のユーザ指定の範囲内のステップ長を決定する。一般に、角度ステップは、物体のサイズに基づいて選択しなければならない。より小さいモデルは、イメージ内に多数の異なる離散回転を有することがなく、したがって、角度ステップ長は、より小さいモデルについてより大きいものを選択することができる。モデルを保管するのに必要なメモリは、角度ステップの個数に比例する。したがって、小さすぎる角度ステップがセットされた場合に、モデルがもはや(仮想)メモリにおさまらないことが発生する場合がある。しかし、モデルが完全に主メモリにおさまることが望ましい。というのは、これによって、オペレーティングシステムによるページングがなくなり、したがって、物体を見つける時間がはるかに短くなるからである。さらに、ランタイムイメージ内で物体を認識する計算時間は、より小さい角度ステップについて増える。その一方で、大きすぎる角度ステップ長が選択された場合に、認識の堅牢さが減る。というのは、ランタイムイメージ内の物体のある方位が、最も近いモデル方位から遠すぎ、したがって、その物体を見つけられなくなるからである。
103 閾値Tに最小値をセットするステップ
106 現在の閾値Tを使用してエッジ領域を計算するステップ
108 エッジ領域を評価するステップ
110 評価結果を関数f(T)に保管するステップ
112 閾値T<最大値であるかどうかを決定するかステップ
114 閾値Tを増分するステップ
116 関数f(T)の極値を見つけるステップ
200 エッジ細線化を適用するステップ
202 侵食マスクを適用することによって、強い曲率のエッジ画素を見つけるステップ
204 強い曲率のエッジ画素をエッジ領域から減算するステップ
206 接続された成分を計算するステップ
208 接続された成分を評価するステップ
Claims (25)
- (a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価するステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含むイメージ内の物体のコントラストを自動的に決定する方法。 - ステップ(d)は、物体エッジの平均負曲率を識別するステップを含む、請求項1に記載の方法。
- ステップ(d)は、
(d1)8接続されているエッジ画素を識別するステップと、
(d2)強い曲率のエッジ画素を決定するステップと、
(d3)差領域を形成するために前記エッジ領域から強い曲率の前記エッジ画素を削除するステップと、
(d4)前記差領域の接続された成分を識別するステップと、
(d5)前記エッジ領域値を識別するために前記接続された成分の平均長を提供するステップと、
を含む、請求項1に記載の方法。 - ステップ(d2)は、フィルタマスクを使用して前記エッジ画素に4つの侵食を適用するステップを含む、請求項3に記載の方法。
- ステップ(c)は、前記エッジ振幅にヒステリシス閾値を適用することによってより低いヒステリシス閾値およびより高いヒステリシス閾値の組合せに関してエッジ領域を識別するステップを含み、ステップ(f)が、前記物体の前記コントラストを決定するために前記エッジ領域値の最大値に対応する前記ヒステリシス閾値を提供するステップを含む、請求項1に記載の方法。
- ステップ(f)は、
(f1)低ヒステリシス閾値および高ヒステリシス閾値を、ステップ(e)から得られた前記エッジ領域値の最大値に対応する前記閾値に初期化するステップと、
(f2)前記高ヒステリシス閾値を連続して増分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f3)増分された高閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f4)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f2)から(f3)を繰り返すステップと、
(f5)前記低ヒステリシス閾値を連続して減分し、前記低ヒステリシス閾値および前記高ヒステリシス閾値を前記エッジ振幅に適用することによって前記エッジ領域値を識別するステップと、
(f6)減分された低閾値ごとに得られる前記エッジ領域値を決定するステップと、
(f7)前記エッジ領域値が最高の得られた値のある比率未満に減るまでステップ(f5)から(f6)を繰り返すステップと、
(f8)前記物体の前記コントラストを表す最適の低ヒステリシス閾値および高ヒステリシス閾値を提供するステップと、
によって置換される、請求項1に記載の方法。 - 前記最小コントラストは、自動的に決定され、
(g)イメージ雑音の標準偏差を推定するステップと、
(h)前記推定された標準偏差に所定の係数をかけることによって最小エッジ振幅を決定するステップと、
(i)前記最小コントラストとして前記最小エッジ振幅を使用するステップと、
を含む、請求項1に記載の方法。 - (a)物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を前記エッジ振幅に適用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む物体部分の最小サイズを自動的に決定する方法。 - ステップ(c)で、前記閾値が、請求項1に記載の方法を使用して自動的に得られる、請求項8に記載の方法。
- (a)物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)閾値を前記エッジ振幅に適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
を含むモデル点の個数に関する削減要因を自動的に決定する方法。 - ステップ(c)において、前記閾値が、請求項1に記載の方法を使用して自動的に得られる、請求項10に記載の方法。
- ステップ(d)で決定されたモデル点の前記最適個数が、現在の物体に基づき、
(d1)前記物体の少なくとも1つの電子テストイメージを提供するステップと、
(d2)テストイメージごとに、認識されなければならない物体実例の個数を提供するステップと、
(d3)所望の認識手法を使用する前記物体のモデル表現を提供するステップと、
(d4)前記モデル表現および前記所望の認識手法を使用して各テストイメージ内の前記物体を認識し、すべてのテストイメージにわたる平均認識時間を決定するステップと、
(d5)モデル点の個数を所定の係数だけ減らすステップと、
(d6)前記平均認識時間が増えない限り、かつステップ(d2)で提供された前記個数の物体実例が各テストイメージ内で見つかる限り、ステップ(d4)から(d5)を繰り返すステップと、
(d7)ステップ(d2)で提供された前記個数の物体実例が見つかり、前記平均認識時間が最小である、モデル点の最適個数を使用するステップと、
を含む、請求項10に記載の方法。 - ステップ(d1)〜(d7)で決定されたモデル点の前記最適個数が、多数の物体についてステップ(d1)から(d7)を繰り返し、モデル点の最適個数の平均値を提供することによって、前記現在の物体と独立である、請求項12に記載の方法。
- (a)物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含むモデル点の組を含む物体モデルの離散化ステップ長を自動的に決定する方法。 - ステップ(b)は、
(b1)前記変換の固定点からの前記モデル点の最大距離を計算するステップと、
(b2)最大の許容される画素変位を仮定するステップと、
(b3)前記最大距離および前記許容される画素変位に基づいて前記離散化ステップ長の前記初期値を計算するステップと、
を含む、請求項14に記載の方法。 - ステップ(c)の前記最小類似性測度は、変換されない物体モデルと、前記離散化ステップ長の半分だけ変換されたモデルイメージとの間の類似性測度に対応する、請求項14に記載の方法。
- (a)物体の電子イメージを提供するステップと、
(b)現在のステップ長を0に初期化するステップと、
(c)十分に小さい値だけ前記現在のステップ長を増分するステップと、
(d)変換されないモデルと前記現在のステップ長に従って変換されたモデルイメージとの間の類似性測度を識別するステップと、
(e)前記類似性測度がある閾値未満になるまで前記ステップ(c)および(d)を繰り返すステップと、
(f)前記類似性測度が前記閾値を超える最後のステップ長の2倍として最適ステップ長を提供するステップと、
を含む物体モデルの離散化ステップ長を自動的に決定する方法。 - (a)前記物体の電子イメージを提供する手段と、
(b)前記物体のエッジ振幅を識別する手段と、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別する手段と、
(d)より高い評価結果がよりよい評価を示す、閾値の前記範囲について得られる前記エッジ領域を評価する手段と、
(e)最大エッジ領域値に対応する最適閾値を決定する手段と、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供する手段と、
を含むイメージ内の物体のコントラストを自動的に決定するデータ処理システム。 - (a)物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別する手段と、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定する手段と、
(e)前記成分の長さの累積ヒストグラムを識別する手段と、
(f)事前定義の比率を超えるヒストグラムビンを識別する手段と、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供する手段と、
を含む物体部分の最小サイズを自動的に決定するデータ処理システム。 - (a)物体の電子イメージを提供する手段と、
(b)前記イメージのエッジ振幅を識別する手段と、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別する手段と、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別する手段と、
(e)手段(d)によって決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去する手段と
を含むモデル点の個数に関する削減要因を自動的に決定するデータ処理システム。 - (a)物体の電子イメージを提供する手段と、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供する手段と、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別する手段と、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にする手段と、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用する手段と、
を含む物体モデルの離散化ステップ長を自動的に決定するデータ処理システム。 - (a)前記物体の電子イメージを提供するステップと、
(b)前記物体のエッジ振幅を識別するステップと、
(c)前記エッジ振幅に適用される閾値の範囲に関する前記物体のエッジ領域を識別するステップと、
(d)閾値の前記範囲について得られる前記エッジ領域を評価するステップであって、より高い評価結果がよりよい評価を示すステップと、
(e)最大エッジ領域値に対応する最適閾値を決定するステップと、
(f)前記物体の前記コントラストを表す、前記最大エッジ領域値に対応する前記最適閾値を提供するステップと、
を含む、イメージ内の物体のコントラストを決定するプログラム命令を含むデータ記憶媒体。 - 物体部分の最小サイズを自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)前記物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を使用することによって前記物体のエッジ領域を識別するステップと、
(d)前記エッジ領域の接続された成分を識別し、成分の長さを決定するステップと、
(e)前記成分の長さの累積ヒストグラムを識別するステップと、
(f)事前定義の比率を超えるヒストグラムビンを識別するステップと、
(g)物体部分の前記最小サイズを表す、前記ヒストグラムビンに関連するエッジ長さを提供するステップと、
を含む、データ記憶媒体。 - モデル点の個数に関する削減要因を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)物体の電子イメージを提供するステップと、
(b)前記イメージのエッジ振幅を識別するステップと、
(c)自動的に得られた閾値を適用することによって前記物体のエッジ領域を識別するステップと、
(d)所定の堅牢さおよび精度を達成するのに少なくとも必要なモデル点の最適個数を識別するステップと、
(e)ステップ(d)で決定されたモデル点の前記最適個数が残されるように、モデル点のうちの個々の分数を除去するステップと、
を含む、データ記憶媒体。 - 物体モデルの離散化ステップ長を自動的に決定するプログラム命令を含むデータ記憶媒体であって、プログラムステップが、
(a)物体の電子イメージを提供するステップと、
(b)前記物体のサイズに基づいて前記離散化ステップ長の初期値を提供するステップと、
(c)現在の離散化ステップ長に関連する最小類似性測度を識別するステップと、
(d)結果の離散化ステップ長を決定するために、関連する最小類似性測度がある閾値を超えるまで、前記離散化ステップ長を半分にするステップと、
(e)物体認識のモデル変換を決定するために、前記結果の離散化ステップ長を使用するステップと、
を含むデータ記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP06006129A EP1837806A1 (en) | 2006-03-24 | 2006-03-24 | System and methods for automatic parameter determination in machine vision |
EP06006129.8 | 2006-03-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007257601A true JP2007257601A (ja) | 2007-10-04 |
JP4907219B2 JP4907219B2 (ja) | 2012-03-28 |
Family
ID=36793874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006122053A Active JP4907219B2 (ja) | 2006-03-24 | 2006-04-26 | マシンビジョンにおける自動パラメータ決定のシステムおよび方法 |
Country Status (3)
Country | Link |
---|---|
US (3) | US7751625B2 (ja) |
EP (3) | EP1914667A3 (ja) |
JP (1) | JP4907219B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013522771A (ja) * | 2010-03-15 | 2013-06-13 | アナログ デバイシス, インコーポレイテッド | 二次導関数エッジ検出方法のためのエッジオリエンテーション |
US9785864B2 (en) | 2014-07-08 | 2017-10-10 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, program, and recording medium |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7545949B2 (en) * | 2004-06-09 | 2009-06-09 | Cognex Technology And Investment Corporation | Method for setting parameters of a vision detector using production line information |
US9092841B2 (en) * | 2004-06-09 | 2015-07-28 | Cognex Technology And Investment Llc | Method and apparatus for visual detection and inspection of objects |
US8081820B2 (en) | 2003-07-22 | 2011-12-20 | Cognex Technology And Investment Corporation | Method for partitioning a pattern into optimized sub-patterns |
US8891852B2 (en) | 2004-06-09 | 2014-11-18 | Cognex Technology And Investment Corporation | Method and apparatus for configuring and testing a machine vision detector |
US8243986B2 (en) * | 2004-06-09 | 2012-08-14 | Cognex Technology And Investment Corporation | Method and apparatus for automatic visual event detection |
US8127247B2 (en) | 2004-06-09 | 2012-02-28 | Cognex Corporation | Human-machine-interface and method for manipulating data in a machine vision system |
US20050276445A1 (en) * | 2004-06-09 | 2005-12-15 | Silver William M | Method and apparatus for automatic visual detection, recording, and retrieval of events |
US9292187B2 (en) | 2004-11-12 | 2016-03-22 | Cognex Corporation | System, method and graphical user interface for displaying and controlling vision system operating parameters |
US8126253B2 (en) | 2005-11-12 | 2012-02-28 | Cognex Technology And Investment Corporation | Automatically determining machine vision tool parameters |
JP4661934B2 (ja) * | 2008-10-09 | 2011-03-30 | 株式会社デンソー | 画像処理装置 |
US8345106B2 (en) * | 2009-09-23 | 2013-01-01 | Microsoft Corporation | Camera-based scanning |
US10081308B2 (en) | 2011-07-08 | 2018-09-25 | Bendix Commercial Vehicle Systems Llc | Image-based vehicle detection and distance measuring method and apparatus |
US8965132B2 (en) * | 2011-11-18 | 2015-02-24 | Analog Devices Technology | Edge tracing with hysteresis thresholding |
US9651499B2 (en) | 2011-12-20 | 2017-05-16 | Cognex Corporation | Configurable image trigger for a vision system and method for using the same |
EP2842104B1 (en) * | 2012-05-14 | 2016-10-19 | Omron Corporation | Method and apparatus to guarantee minimum contrast for machine vision system |
CN102831420B (zh) * | 2012-08-17 | 2015-04-01 | 银江股份有限公司 | 基于颜色信息和随机圆检测的圆形交通标志定位方法 |
US9177222B2 (en) | 2012-11-05 | 2015-11-03 | Mitutoyo Corporation | Edge measurement video tool and interface including automatic parameter set alternatives |
GB201516953D0 (en) * | 2015-09-25 | 2015-11-11 | Umajin Ltd | Ghost hands |
US10679408B2 (en) * | 2017-02-02 | 2020-06-09 | Adobe Inc. | Generating a three-dimensional model from a scanned object |
EP3503528B1 (en) * | 2017-12-21 | 2020-10-07 | Axis AB | Determination of a contrast value for a digital image |
KR20210066207A (ko) * | 2019-11-28 | 2021-06-07 | 엘지전자 주식회사 | 객체를 인식하는 인공 지능 장치 및 그 방법 |
CN113916906B (zh) * | 2021-09-03 | 2024-01-09 | 江苏理工学院 | 视觉检测系统led光源照度优化方法及所用实验设备 |
CN115082453A (zh) * | 2022-07-27 | 2022-09-20 | 南通艾果纺织品有限公司 | 基于神经网络的床上用品生产用包边机智能控制方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002314790A (ja) * | 2001-04-11 | 2002-10-25 | Ricoh Co Ltd | カラー画像情報処理方法、該方法の実行に用いるプログラム、及びカラー画像情報処理装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5850466A (en) * | 1995-02-22 | 1998-12-15 | Cognex Corporation | Golden template comparison for rotated and/or scaled images |
US6023530A (en) * | 1995-11-13 | 2000-02-08 | Applied Intelligent Systems, Inc. | Vector correlation system for automatically locating patterns in an image |
US6005978A (en) | 1996-02-07 | 1999-12-21 | Cognex Corporation | Robust search for image features across image sequences exhibiting non-uniform changes in brightness |
DE69831519T2 (de) * | 1997-01-17 | 2006-06-14 | Matsushita Electric Works Ltd | System und Verfahren zur Lageermittlung |
WO1999057683A1 (en) * | 1998-05-04 | 1999-11-11 | The Johns Hopkins University | Method and apparatus for segmenting small structures in images |
IL139620A0 (en) * | 1998-05-18 | 2002-02-10 | Datacube Inc | Image recognition and correlation system |
US6393159B1 (en) * | 1998-06-29 | 2002-05-21 | The Regents Of The University Of California | Multiscale characterization and analysis of shapes |
DE69930053D1 (de) * | 1998-12-18 | 2006-04-27 | Univ Washington Seattle | Standardmustervergleichung durch Korrelation und Vorhersagung |
US6804408B1 (en) * | 1999-12-22 | 2004-10-12 | Eastman Kodak Company | Method for enhancing a digital image with noise-dependent control of texture |
JP3776340B2 (ja) * | 2000-09-27 | 2006-05-17 | エムヴイテック・ソフトウェア・ゲーエムベーハー | 対象物認識システム及び方法 |
EP1193642B1 (en) | 2000-09-27 | 2005-03-30 | MVTec Software GmbH | System and method for object recognition |
US7133572B2 (en) * | 2002-10-02 | 2006-11-07 | Siemens Corporate Research, Inc. | Fast two dimensional object localization based on oriented edges |
US7333673B2 (en) * | 2003-10-30 | 2008-02-19 | Samsung Electronics Co., Ltd. | Method and apparatus for image detail enhancement without zigzagged edge artifact |
US7401304B2 (en) * | 2004-01-28 | 2008-07-15 | Gradient Design Automation Inc. | Method and apparatus for thermal modeling and analysis of semiconductor chip designs |
-
2006
- 2006-03-24 EP EP08150610A patent/EP1914667A3/en not_active Withdrawn
- 2006-03-24 EP EP06006129A patent/EP1837806A1/en not_active Withdrawn
- 2006-03-24 EP EP08150609A patent/EP1914666A3/en not_active Ceased
- 2006-04-21 US US11/409,531 patent/US7751625B2/en active Active
- 2006-04-26 JP JP2006122053A patent/JP4907219B2/ja active Active
-
2010
- 2010-05-26 US US12/787,942 patent/US7953290B2/en active Active
- 2010-05-26 US US12/787,971 patent/US7953291B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002314790A (ja) * | 2001-04-11 | 2002-10-25 | Ricoh Co Ltd | カラー画像情報処理方法、該方法の実行に用いるプログラム、及びカラー画像情報処理装置 |
Non-Patent Citations (1)
Title |
---|
JPN6010064219, Kazuhiko SUMI, "Three−Level Broad−Edge Template Matching and Its Application to Real−Time Vision System", IEICE TRANSACTIONS ON INFORMATION AND SYSTEMS, 19951201, p.1526−1531, JP, INFORMATION & SYSTEMS SOCIETY * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013522771A (ja) * | 2010-03-15 | 2013-06-13 | アナログ デバイシス, インコーポレイテッド | 二次導関数エッジ検出方法のためのエッジオリエンテーション |
US9639949B2 (en) | 2010-03-15 | 2017-05-02 | Analog Devices, Inc. | Edge orientation for second derivative edge detection methods |
US9785864B2 (en) | 2014-07-08 | 2017-10-10 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
EP1914666A2 (en) | 2008-04-23 |
US7751625B2 (en) | 2010-07-06 |
EP1914666A3 (en) | 2008-05-07 |
US7953290B2 (en) | 2011-05-31 |
JP4907219B2 (ja) | 2012-03-28 |
EP1914667A2 (en) | 2008-04-23 |
US20100232708A1 (en) | 2010-09-16 |
EP1914667A3 (en) | 2008-05-07 |
US20100231744A1 (en) | 2010-09-16 |
US20070223817A1 (en) | 2007-09-27 |
US7953291B2 (en) | 2011-05-31 |
EP1837806A1 (en) | 2007-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4907219B2 (ja) | マシンビジョンにおける自動パラメータ決定のシステムおよび方法 | |
US10964060B2 (en) | Neural network-based camera calibration | |
David et al. | SoftPOSIT: Simultaneous pose and correspondence determination | |
US9141871B2 (en) | Systems, methods, and software implementing affine-invariant feature detection implementing iterative searching of an affine space | |
JP3776340B2 (ja) | 対象物認識システム及び方法 | |
CN111899334B (zh) | 一种基于点线特征的视觉同步定位与地图构建方法及装置 | |
US8406535B2 (en) | Invariant visual scene and object recognition | |
Dibeklioglu et al. | 3D facial landmarking under expression, pose, and occlusion variations | |
KR20060097074A (ko) | 객체의 모양모델 생성장치 및 방법과 이를 이용한 객체의특징점 자동탐색장치 및 방법 | |
JP2002516440A (ja) | 画像認識および相関システム | |
WO2006058154A1 (en) | Method for automatic shape classification | |
JP2018195282A (ja) | モデルを修正するためのシステムおよび方法 | |
US8306332B2 (en) | Image search method and device | |
Yoon et al. | Artificial landmark tracking based on the color histogram | |
Ulrich et al. | Performance evaluation of 2d object recognition techniques | |
CN111753723B (zh) | 一种基于密度校准的指纹识别方法及装置 | |
CN114529570A (zh) | 图像分割方法、图像识别方法、用户凭证补办方法及系统 | |
CN110349111B (zh) | 一种包含二维码图像的矫正方法和装置 | |
Short et al. | Reducing descriptor measurement error through Bayesian estimation of fingerprint minutia location and direction | |
Mazouzi et al. | A multi-agent approach for range image segmentation with bayesian edge regularization | |
Wimmer et al. | Learning robust objective functions with application to face model fitting | |
Chakraborty et al. | Model-based object recognition from a complex binary imagery using genetic algorithm | |
Choi et al. | Unsupervised texture flow estimation using appearance-space clustering and correspondence | |
Urano et al. | Fast and robust rotation-invariant search by using orientation code difference histogram (OCDH) | |
Ferrara et al. | Improvements on a MMI-based method for automatic texture mapping of 3D dense models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110523 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110823 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20110914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150120 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4907219 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |