JP2014056572A - 勾配方位のヒストグラムによるテンプレート・マッチング - Google Patents

勾配方位のヒストグラムによるテンプレート・マッチング Download PDF

Info

Publication number
JP2014056572A
JP2014056572A JP2013173963A JP2013173963A JP2014056572A JP 2014056572 A JP2014056572 A JP 2014056572A JP 2013173963 A JP2013173963 A JP 2013173963A JP 2013173963 A JP2013173963 A JP 2013173963A JP 2014056572 A JP2014056572 A JP 2014056572A
Authority
JP
Japan
Prior art keywords
image
histogram
edge
orientation
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013173963A
Other languages
English (en)
Inventor
Xinyu Xu
シュ,シンユ
J L Van Beek Petrus
ベーク,ペトルス ジェー.エル. ヴァン
Chang Yuan
ユアン,チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Laboratories of America Inc
Original Assignee
Sharp Laboratories of America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Laboratories of America Inc filed Critical Sharp Laboratories of America Inc
Publication of JP2014056572A publication Critical patent/JP2014056572A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 演算の面で効率的なエッジ・ベースマッチング技術を提供する。
【解決手段】 画像処理のためのシステムは、エッジ・ベース技術を使用してモデル画像のエッジ・ピクセルを決定することと、モデル画像のエッジ・ピクセルのそれぞれについて角度方位を決定することを含む。システムは、モデル画像の角度方位に基づいて勾配方位のヒストグラムを決定する。システムは、エッジ・ベース技術を使用して入力画像のエッジ・ピクセルを決定し、入力画像のエッジ・ピクセルのそれぞれについて角度方位を決定する。システムは、入力画像の角度方位に基づいて勾配方位のヒストグラムを決定する。システムは、モデル画像の勾配方位のヒストグラムと入力画像の勾配方位のヒストグラムとを比較し、入力画像内の対象物の場所の候補を決定する。
【選択図】 図11

Description

本発明は、画像のためのテンプレート・マッチングに関する。
図1に示すテンプレート・マッチングは、画像の内容を認識するために一般に使用されている技術である。テンプレート・マッチング技術には、モデル画像内に与えられたターゲットを特定し、入力画像内におけるそのターゲットの位置、方位、および拡大縮小率を自動的に見つけ出すことが含まれている。概して、入力画像は幾何学的変形(回転、ズームなど)および測光値の変化(輝度/コントラストの変化、ぼやけ、ノイズなど)を被る。テンプレート・マッチングの場合、モデル画像内にあるターゲットに関連する特性が、対象画像に対するテンプレート・マッチングを実行する前に既に知られていると想定することがある。入力画像に対するそれらの特性のマッチングは、「オンライン」と考えるが、ターゲットのそのような特性の抽出、モデリング、および学習は「オフライン」と考え予め行なうことがある。
テンプレート・マッチング技術の1つに、良好なマッチング精度を達成する、特徴点に基づくテンプレート・マッチングがある。特徴点に基づくテンプレート・マッチングにおいては、対象物の判別可能な注目点および特徴がモデル画像および入力画像から抽出される。続いてモデル画像と入力画像の間において、K近傍法サーチまたは何らかの特徴点の分類技術を用いてこれらの特徴のマッチングが行なわれる。次に、それらのマッチした特徴点からホモグラフィ変形が推定され、さらにそれを精緻化することができる。
特徴点に基づくテンプレート・マッチングは、対象物が充分な数の注目特徴点を含んでいる場合に良好に機能する。通常それは、入力画像またはモデル画像内におけるターゲットがほとんど、もしくはまったく注目点を含んでいないとき(たとえば、コーナ)、またはターゲットが非常に単純であるか(たとえば、ペーパー・クリップのようにターゲットがエッジのみからなる場合)または対称であるとき、またはターゲットが反復パターンを含むとき(たとえば、機械ねじ)には、有効なホモグラフィを作り出すことができない。このような場合には、曖昧なマッチングが多すぎて有効なホモグラフィの生成が妨げられる。そのような失敗を低減するためには、単に局所的な特徴に依存するのではなく、エッジ、輪郭、または形状などといった対象物の全般情報を利用することができる。
テンプレート・マッチングの別のカテゴリは、ピクセル・バイ・ピクセル態様で基準テンプレートのウインドウをスライドさせることによってターゲットをサーチし、それらの間における類似性の程度を計算することであり、それにおいて類似性に関する種々の値は、一般に、相関または正規化された相互相関によって与えられる。ピクセル・バイ・ピクセル・マッチングは非常に時間を消費し、しかも演算コストが高い。入力画像のサイズがN×Nであり、モデル画像のサイズがW×Wである場合には、入力画像およびモデル画像内における対象物の方位が一致していると仮定したときの演算の複雑性は、O(W×N)である。任意の方位にある対象物をサーチするとき、1つの技術として、あらゆる可能性のある方位に回転したモデル画像を用いてテンプレート・マッチングを行なうものがあるが、これはマッチング・スキームの演算コストをより一層高いものにする。演算時間を低減するために、粗および密の分解能を用いる多分解能テンプレート・マッチングが使用されることもある。
したがって、望まれていることは、演算の面で効率的なエッジ・ベースマッチング技術である。
本発明は、画像処理のための方法であって、
(a)エッジ・ベース技術を使用してモデル画像のエッジ・ピクセルを決定することと、
(b)前記モデル画像の前記エッジ・ピクセルのそれぞれについて角度方位を決定することと、
(c)前記モデル画像の前記角度方位に基づいて勾配方位のヒストグラムを決定することと、
(d)エッジ・ベース技術を使用して入力画像のエッジ・ピクセルを決定することと、
(e)前記入力画像の前記エッジ・ピクセルのそれぞれについて角度方位を決定することと、
(f)前記入力画像の前記角度方位に基づいて勾配方位のヒストグラムを決定することと、
(g)前記モデル画像の前記勾配方位のヒストグラムと前記入力画像の前記勾配方位のヒストグラムとを比較し、前記入力画像内における対象物の場所の候補および前記対象物の方位の候補を決定することと、
を含むことを特徴とする方法である。
本発明において、前記エッジ・ベース技術のそれぞれは勾配を含むことを特徴とする。
本発明において、前記モデル画像の前記エッジ・ピクセルの前記角度方位は、360度未満の範囲において規定されることを特徴とする。
本発明において、前記範囲は、略180度であることを特徴とする。
本発明において、前記モデル画像の前記勾配方位のヒストグラムは、前記モデル画像のピクセルの各群を結合することに基づくことを特徴とする。
本発明において、前記入力画像の前記勾配方位のヒストグラムは、前記入力画像のピクセルの各群を結合することに基づくことを特徴とする。
本発明において、前記比較は、前記モデル画像内の対象物の境界よりも大きいサイズを有する注目領域に基づくことを特徴とする。
本発明において、前記入力画像の前記エッジ・ピクセルのそれぞれについての前記角度方位は量子化されることを特徴とする。
本発明において、前記モデル画像の前記エッジ・ピクセルのそれぞれについての前記角度方位は量子化されることを特徴とする。
本発明において、前記モデル画像の前記勾配方位のヒストグラムと前記入力画像の前記勾配方位のヒストグラムとを比較し、前記入力画像内における前記対象物の場所の候補を決定することは、前記ヒストグラムの複数の異なる関係に基づくことを特徴とする。
本発明において、前記場所の候補は、別の技術に基づいてさらに精緻化されることを特徴とする。
本発明において、前記別の技術は、テンプレート・マッチングに基づくことを特徴とする。
本発明において、前記比較することは、角度の判別のためにさらに処理されることを特徴とする。
本発明において、前記ヒストグラムを決定することは、実質的にO(1)ピクセル演算の複雑性に基づくことを特徴とする。
本発明において、前記比較することは、ストリーミングSIMD拡張の使用を含むことを特徴とする。
本発明において、前記モデル画像の前記エッジ・ピクセルは、エッジ・マスクに基づいてさらに修正されることを特徴とする。
本発明において、前記比較することは、エッジ距離低減プロセスに基づいてさらに修正されることを特徴とする。
本発明によれば、このような構成にすることによって、演算の面で効率的なエッジ・ベースマッチング技術を提供することができる。
テンプレート・マッチングを示す図である。 モデル画像、入力画像、および出力画像を示す図である。 別のモデル画像、入力画像、および出力画像を示す図である。 別のモデル画像、入力画像、および出力画像を示す図である。 画像マッチング技術を示す図である。 複数の角度方位を示す図である。 画像のピクセル・ブロックを示す図である。 異なる角度についてのビット・パターンを示す図である。 異なる角度についての別のビット・パターンを示す図である。 異なる角度における複数のテンプレートを示す図である。 マッチングのための画像処理技術を示す図である。 勾配方位のヒストグラムの決定を示す図である。 ヒストグラム比較技術を示す図である。 優勢な方位のマッチング技術を示す図である。 角度決定技術を示す図である。 角度決定技術を示す図である。 ヒストグラム計算技術を示す図である。 モデル・エッジ技術を示す図である。 距離最小化に基づく精緻化を示す図である。
本発明の上述の、およびその他の目的、特徴、および利点は、以下に詳細に述べる発明の詳細な説明を、添付図面を併用してより容易に理解されるであろう。
図2を参照すると、多くの場合において、モデル画像が有する一連の特徴点には限りがあるが、それらの特徴点には比較的鋭いエッジ特徴が含まれる傾向がある。そのような例の1つがペーパー・クリップである。この場合には適切なマッチング技術を使用し、1つまたは複数の入力画像内にあるマッチしている対象物を演算が効率的であるように見つけ出すことが望ましい。マッチしている対象物は、未知の位置に未知の回転で存在していることもある。
図3を参照すると、多くの場合において、入力画像が1つまたは複数のマッチしている注目対象物を有していることがあり、それらが互いに重なり合っていることもある。その場合には適切なマッチング技術を使用し、1つまたは複数の入力画像内にあるマッチしている対象物を演算が効率的であるように見つけ出すことが望ましい。マッチしている対象物は、未知の位置に未知の回転で存在していることもある。
図4を参照すると、多くの場合において、入力画像が1つまたは複数のマッチしている注目対象物を有していることがあり、それらが互いに重なり合っていることもある。その場合には適切なマッチング技術を使用し、1つまたは複数の入力画像内にあるマッチしている対象物を演算が効率的であるように見つけ出すことが望ましい。マッチしている対象物は、未知の位置に未知の回転で、未知の拡大縮小率で存在していることもある。
再び図2、図3、および図4を参照すると、マッチング技術は演算が効率的でなければならない一方、鋭いコーナ、有意のエッジなどの画像の特徴を見分けるか、または比較的少ないそのような特徴を有する画像を見分けるために充分にロバストであるべきである。それ加えて、マッチング技術は、画像内のライティングまたは照明の変化、画像内のぼやけ、画像内のノイズ、およびその他の画像の不完全性に起因する影響を減少するために充分にロバストであるべきである。
図5を参照すると、モデル画像100は、システムによって受信されてもよい。画像マッチングのための注目画像となりそうなモデル画像100の領域を決定する好ましい技術として、エッジ・ベース技術110を使用してモデル画像のエッジの場所を見つけ出すものがある。たとえばエッジ110を決定する1つの方法として、勾配ベース技術がある。エッジ・ベース技術は、概してロバストであり、ライティングの変化に対して概して不変であり、照明の変化に対して概して不変であり、かつ概してノイズ耐性があり、概して演算が効率的であるように実施されてもよい。エッジ・ピクセルであると決定されたピクセルのそれぞれについて、エッジの方位120を決定することができる。たとえば、各エッジ・ピクセルにおける方位120が、増分を1度などとして0から179度まで(たとえば、360度未満)の方位を有していると決定することができる。望ましい場合には、その方位を完全な360度とすることができる。エッジの方位120は、したがって、それの特定の方向ではなく、好ましくはエッジの整列に関係する情報を含む。該技術の不変性を増大させるために、好ましくはエッジの方位120は、概して180度の範囲内において規定される(たとえば、360度未満)。この態様においては、エッジの方向が1つの方向(たとえば北)を向くか、その反対の方向(たとえば南)を向くかのいずれかになるが、システムは、いずれが特定の方向であるかを知り得ない。この態様のエッジの方位の特性は、コントラストの反転に対してより不変なシステムを結果としてもたらす。
ピクセル分解能テンプレート140を、エッジの方位120に基づいて決定することができる。ピクセル分解能テンプレート140は、それぞれのエッジ・ピクセルの場所において、増分を1度(または、そのほかの適切な角度増分)として180度の角度情報を有することができる。入力画像を「高分解能」のピクセル分解能テンプレートのみに基づいて処理することは、ピクセル分解能テンプレートの高い角度分解能および高い空間分解能に起因して演算が効率的でない。システムの演算効率を向上させるために、好ましくは、ピクセル分解能テンプレート140に基づいて1つまたは複数の追加の量子化された角度テンプレートおよび/または空間テンプレートが使用される。
図6を参照すると、望ましい場合にはエッジの方位120を、たとえば−15度〜+15度、+15度〜+45度、+45度〜+75度、+75度〜+105度、+105度〜+135度、および+135度〜+165度というように6セットの方位のうちの1つに量子化することができる。残りの6つの方位については、システムが好ましく方向に関して不変であることから、決定する必要がない。したがって、ピクセル・テンプレート140の各ピクセルは、6つの方位のうちの1つの中に入るものとして分類することができ、全体的に見てより低い角度分解能のテンプレート150を形成する。
図7を参照すると、望ましければ、システムの演算効率をさらに増大させるために、ピクセルの各群を、それらの角度的な方位を含めて、より低い分解能における複合型の角度方向に結合することによって、より低い角度分解能テンプレート150に基づいたより低い空間分解能テンプレートを規定することができる。より低い角度分解能テンプレート150は、より低い空間分解能を提供するように修正することができる。たとえば、より低い角度分解能テンプレートの4×4ピクセルの各ブロックを、単一の方向および/または複数の方向を示すように組み合わせることができる。ピクセルの各ブロックについて、各方位の発生頻度をランク順に配列することができる。代替案としては、ブロック内のピクセルの方位を、それらの関連付けされたエッジ強度および/または勾配の大きさに基づいて、ランク順に配列することができる。その後、ランク付けされた方位の上位4つ(または、そのほかの適切な数)を、そのブロック内の方位をそれらが代表するものとして選択することができる。たとえば、4つの異なる方位が存在した場合には、それらのそれぞれを選択することができる。たとえば、まったく等しい3つの方位およびそれらとは異なる4番目の方位が存在する場合には、代表的な方位を2つの異なる方位とすることができる。同様にエッジの強度および/または勾配の大きさを、ランク付けのベースとして使用することができる。方位の選択のためのランク付けのベースとして使用されることを除けば、好ましくは方位の頻度(量子化された方向が同じピクセルの数)がより低い空間分解能テンプレートでは表現されない。
図8を参照すると、演算効率をさらに増大させるために、バイトのセットを使用し、各バイトのビットで角度方位を代表してテンプレートをエンコードすることができる。たとえば第1ビットは、6つの方位のうちの第1の角度方位を代表することができる。たとえば第2ビットは、6つの方位のうちの第2の角度方位を代表することができる。たとえば第3ビットは、6つの方位のうちの第3の角度方位を代表することができる。たとえば第4ビットは、6つの方位のうちの第4の角度方位を代表することができる。たとえば第5ビットは、6つの方位のうちの第5の角度方位を代表することができる。たとえば第6ビットは、6つの方位のうちの第6の角度方位を代表することができる。前述したとおり、好ましくは角度方位が、たとえば−15度〜+15度、+15度〜+45度、+45度〜+75度、+75度〜+105度、+105度〜+135度、および+135度〜+165度というように水平および垂直からオフセットされている。しばしば入力画像内の対象物の角度方位は、垂直および/または水平のエッジのいずれかを有する傾向があり、また角度範囲(たとえば、−15度〜+15度)内の略中心にそれらの水平および/または垂直の関係を置くことが、わずかな角度修正に対してシステムをよりロバストにする傾向がある。バイトによって表現されるピクセルの各群の潜在的な角度関係を用いれば、システムは、演算の面で効率的なパターン・マッチングを実行することができる。
図9を参照すると、いくつかの場合においては、比較された角度が両側の量子化された角度の境界上に存在する影響を低減するために、特定のピクセルのための角度決定の方位により高いロバスト性が含まれことが望ましい。たとえば、モデル画像が44度の角度(ビット・パターン00000100)を有することがある。しかしながら、入力画像が有する対象物の同一部分の局所的な方位の角度は、ノイズまたはその他の小さな変化に起因して46度であったとしてもよい。その場合には入力画像の角度が量子化されて00001000のビット・パターンが与えられる。方位の角度に非常に小さな差しかないにもかかわらず、角度コードが互いにマッチすることはない。角度に軽微な偏差を伴うそのような場合において、おそらくは数度の差しかなくても(たとえば、44度と46度)、入力画像とモデル・テンプレートの間において角度決定の方位が有意に現われることがある。この可能性を低減するために、モデル・テンプレートのビット・パターンを広げて、隣接する角度領域を含ませることができる。したがって、モデル画像のビット・パターンが量子化された領域の両側を含むように、すなわち00001110に修正された場合には、00001000のビット・パターンを有する入力画像のピクセル領域は、オーバーラップを有することになり、したがってマッチする。この態様においては、マッチングがよりロバストになるが、判別可能性がわずかに低くなる。このアプローチは、追加のビット・パターンを使用して精緻化し、拡張することができる。特に、量子化領域の両方の側ではなく、一方の側においてビット・パターンを拡幅することができる。さらにまた、ビット・パターンの拡幅の決定を、量子化の境界に対する実際の方位の角度の近接度に基づくことができる。
図10を参照すると、望ましい場合には、異なる角度方位に置かれた対象物を有する入力画像のためのシステムの演算効率を増大させるために、モデル画像を、複数の異なる方位に回転することができる。テンプレートは、異なる角度方位のそれぞれにおいて計算される。この態様においては、特定のモデル画像のためのテンプレートのそれぞれを、効率的にあらかじめ計算することができる。たとえば、それらの角度ポジションが、0度、30度、60度、90度、120度、および/または150度を含むことができる。この態様においては、処理されるべくシステムに入力される画像を、多様な、より低い空間分解能テンプレート、特に、角度的に量子化されたより低い分解能テンプレートと比較することができる。
図11を参照すると、モデル画像210のためのモデル処理200および入力画像処理230の一例が示されている。モデル画像210は、ロー・パス・フィルタリング演算などを使用する前処理212を行なって画像内のノイズを低減することができる。フィルタリング後のモデル画像212は、回転モジュール214によって、方位のセットの中にある回転、たとえば30度ずつの回転を与えることができる。システムは、216において、方位214のセットのそれぞれについて勾配を計算して画像内のエッジを識別し、エッジに対応するピクセルを決定することができる。システムは、216においてエッジが決定された方位のセットのそれぞれについて、各ピクセルの方位およびピクセルのブロック(たとえば、4×4ピクセルのブロックなど)についての優勢な方位の抽出を218において行ない、それの結果を、前述したとおり、適切なビット・パターンを有するバイトのセットとして記憶することができる。それに加えてシステムは、1度ずつの回転といった実質的により細かい角度分解能において完全分解能のテンプレートを生成することができる。このプロセスの結果がモデル特徴テンプレートのセット220になる。
入力画像232のための例示的な入力画像プロセス230は、画像内のノイズを低減させる前処理234を含むことができる。システムは、236において勾配を計算してフィルタリング後の入力画像内のエッジを識別し、エッジに対応するピクセルを決定することができる。システムは、236において決定されたエッジのそれぞれについて、各ピクセルの方位およびピクセルのブロック(たとえば、4×4ピクセルのブロックなど)についての優勢な方位の抽出を238において行ない、それの結果を、前述したとおり、適切なビット・パターンを有するバイトのセット240として記憶することができる。この場合においても同様にシステムは、完全分解能の入力特徴画像を計算することができる。このプロセスの結果が入力特徴画像240である。
システムは、250において、入力画像232の異なる領域について、入力特徴画像240と粗い回転のそれぞれにおけるモデル特徴テンプレート220の間のテンプレート・マッチング・スコアを計算することができる。これらの比較テンプレートは、望ましい場合には、前述したそれぞれの画像のバイト表現を基礎とする。たとえば、システムは、テンプレートの中心を入力画像の各ピクセルもしくはピクセルのブロックに置くか、または任意のその他の適切な態様で処理することができる。入力特徴画像とテンプレートとの間におけるマッチング252、好ましくはもっとも高いスコアを有するマッチングのセットが任意の適切な態様において決定される。
マッチング252の結果は、注目対象物を含むことがありそうな入力画像内の場所の初期候補を提供し、また注目対象物の粗い角度方位も提供する。その後システムは、より細かい角度分解能で粗分解能のモデル画像を使用してより細かい角度推定を決定することによって、入力画像内の注目対象物のそれぞれの角度方位の精緻化254を行なう。それに加えてシステムは、より細かい角度分解能で粗分解能のモデル画像を使用することによって、入力画像内の注目対象物のそれぞれの空間的な場所の精緻化254を行なうことができる。望ましい場合には入力特徴画像がより高い分解能を使用してもよく、かつ/またはより細かい角度分解能を使用してもよい。入力特徴画像とテンプレートの間における精緻化されたマッチングのセットが適切な態様で決定される。
2段階マッチング・プロセスを使用することは、1段階プロセスよりも演算の面で効率がよい。第1段階では、効率的に、入力画像内の潜在的な注目対象物の粗い推定がなされる。第2段階では、サーチのエリアおよびサーチの角度範囲を縮小することによって、効率的に、入力画像内の識別された潜在的な注目対象物の場所のより細かい推定がなされる。
マッチングの精緻化254の結果は、断片的精緻化プロセス256に提供することができる。断片的精緻化プロセス256は、「完全分解能」モデル画像を使用した角度サーチおよび/または空間サーチを含むことができる。また、断片的精緻化プロセス256は、「完全分解能」モデル画像を、それのより細かい角度分解能の間を何らかの態様で補間した角度において使用し、断片的な角度推定を決定することによって入力画像内の注目対象物の角度方位を精緻化することができる。それに加えて、断片的精緻化プロセス256は、「完全分解能」モデル画像を、それのより細かい角度分解能において、および/または何らかの態様で補完した位置における断片的な角度において使用することによって、入力画像内の注目対象物の空間的な場所を精緻化することができる。望ましい場合には、入力特徴画像がより高い分解能を使用してもよく、および/またはより細かい角度分解能のテンプレートを使用してもよい。さらに精緻化されたマッチング258のセットが適切な態様で決定される。
3段階マッチング・プロセスは、1段階または2段階プロセスよりもさらに演算の面で効率的である。第1段階では、効率的に、入力画像内における潜在的な注目対象物の場所の粗い推定がなされる。第2段階では、サーチの角度範囲を絞り込むことによって、効率的に、入力画像内における識別済みの潜在的な注目対象物の場所のより細かい推定がなされる。第3段階は、効率的に、絞り込まれた空間および/または角度サーチが下位の角度および/または下位のピクセル分解能とともに提供され、それによって入力画像内における識別済みの潜在的な注目対象物の場所のより細かい推定がなされる。
対象物の場所および方位を見つけ出すためのより演算的に効率的な技術は、マッチングを2つのステップに分解する技術であり、第1ステップにおいて、モデル画像の勾配方位のヒストグラム(HoGO)を入力パッチの勾配方位のヒストグラム(HoGO)でマッチングを行なうことによって粗い対象物方位を迅速に見つけ出し、第2ステップにおいて、前述したエッジ・ベースのマッチング技術を用いて対象物の場所を見つけ出す。モデルHoGOの入力HoGOでのマッチングにおいては、1つのモデル・テンプレートだけが入力にマッチし、それにより数回にわたってモデル特徴テンプレートを回転する必要性、およびそれらのいくつかの回転されたモデルのマッチングを入力に対して行なう必要性が取り除かれる。結果として、このHoGO特徴を用いて大きな時間的節約が達成される。HoGOマッチングによって各ピクセルの粗方位が見つかった後に、続いて粗い対象物位置が、各ピクセルにおけるHoGOマッチングによって獲得された特定の角度のモデルを使用し、前述したエッジ・ベースのマッチング技術を用いて計算される。
画像の特徴記述は、勾配方位のヒストグラムを使用することを含み、これはエッジ決定のバージョンと考えられ得る。画像の局所的な領域について、画像の局所的な部分の勾配方位が決定される。概略的には、勾配方位のヒストグラムに基づく記述子が、画像内の対象物の外観および形状といった画像の内容の記述を提供する。たとえば、記述子は、より小さい接続された領域に画像を分割し、各領域について勾配方位のヒストグラムを決定することによって獲得することができる。ヒストグラムの集合は、対応する記述子を表わす。より改善された正確性のためには、より大きな画像領域にわたる強度の測定を決定することによって局所的なヒストグラムのコントラスト正規化を行なうことができる。多くの場合に、そのような記述子は、幾何学的変化および測光値の変化に対して概して不変となる傾向にある。
図12を参照すると、修正されたモデル画像プロセス400が図示されている。モデル画像が410において受信されると、増分を1度などとしてモデル画像を回転することによって回転されたモデル画像の最大の注目領域を412において決定することができる。すべての回転後のモデル画像の全体的な最大領域を選択することができる。モデルの回転は、注目領域によってモデル画像が完全にカプセル化される可能性を増加させ、その結果、すべての潜在的なエッジ・ピクセルがヒストグラム計算に向けて計数されるようになる。たとえば、矩形のモデル画像を回転し、任意の角度回転にあるモデル画像によって取り囲まれるすべてのピクセルを決定することができる。これらのピクセルを取り囲む正方形の境界ボックスを注目領域として選択することができる。概略的には、おそらくは円形の注目領域を伴う円形のモデル画像を除けば、注目領域はモデル画像より大きくなる。
モデル画像410を内包する注目領域412を414において処理してノイズを低減し、かつ/または注目領域を含むモデル画像をダウン・サンプリングする。モデル画像処理400は、画像のエッジ・ベースの領域などの、画像の異なる部分について勾配416を計算することができる。たとえば、ソーベル・フィルタDx、Dyを使用して勾配を計算することができる。静的および/または動的閾値に満たない勾配は、望ましい場合には、破棄することができる。充分に大きな勾配の大きさを有する各ピクセルについての方位を、arctan(Dx/Dy)などのようにして418で決定することができる。
420においては、ピクセルの各ブロックについての優勢な勾配、たとえばそれぞれのブロック内における最大の勾配などを選択することができる。通常、方位を180度の範囲内とすることができる。通常、422において、優勢な方位420を離散的なインデクスに量子化することができる。たとえば、優勢な方位を、10度の範囲内で量子化し、量子化インデクスにマッピングすることができる。望ましい場合には、静的および/または動的閾値に満たない最大の勾配は破棄するか、あるいはゼロにセットすることができる。例として、次に示す方位の量子化および量子化インデクスを使用することができる。
方位 量子化
< 閾値 0
[0 10] 1
[11 20] 2
[21 30] 3
[31 40] 4
[41 50] 5
[51 60] 6
[61 70] 7
[71 80] 8
[81 90] 9
[91 100] 10
[101 110] 11
[111 120] 12
[121 130] 13
[131 140] 14
[141 150] 15
[151 160] 16
[161 170] 17
[171 180] 18
方位インデクスのヒストグラムが424において計算され、説明のためにグラフ426として図示される。
図13を参照すると、システムは、各ピクセルまたはブロックの場所における量子化された方位インデクスのヒストグラムを用いて入力画像の対象物の粗方位を決定することができる。入力は、モデルのヒストグラム426、および注目領域のサイズを示す最大モデル[Wm Hm]442を含むことができる。システムは、各ピクセルまたはブロック[x,y]において入力パッチ[x y Wm Hm]についての勾配方位(たとえば、入力パッチ)のヒストグラムを444において計算する。言い換えると、システムは、入力画像の各ピクセルまたはブロックにおけるヒストグラムを計算する。
比較メトリック446を使用してモデル・ヒストグラム426と入力パッチ・ヒストグラム444のマッチングを行なう。比較メトリック446は、実質的に、量子化された各角度方位、たとえば18個の異なる角度方位におけるモデル・ヒストグラムと入力パッチ・ヒストグラムの比較を行なう。そのような比較を行なう1つの態様は、一方のヒストグラムを他方に関して反復的にシフトし、それぞれのシフトされたポジションにおいてそれら2つの比較を行なうことである。最大のヒストグラム・マッチング・スコアを有する方位が、推定された粗方位として448において選択される。結果は、方位マップ450およびスコア・マップ452である。方位マップ450は、入力画像のすべてのピクセル、ピクセルの各群、または選択されたピクセルのセット(たとえば、エッジに対応するピクセルのセットなど)の方位を提供する。スコア・マップ452は、入力画像のすべてのピクセル、ピクセルの各群、または選択されたピクセルのセット(たとえば、エッジに対応するピクセルのセットなど)の大きさを提供する。この態様において、ピクセルまたはピクセルの各群の方位および大きさが決定される。
任意の適切なヒストグラム比較メトリックをマッチングのために使用することができ、それにおいて比較される2つのヒストグラムをH1およびH2とする。そのような技術の例を次に挙げる。
相互相関
ここで、Nはヒストグラムのビンの数である。
χ2乗
インターセクション
バッタチャリャ距離
カルバック・ライブラー・ダイバージェンス
各入力パッチ位置[x y]においてヒストグラムを計算するとき、近隣対象物のエッジ・ピクセルが現在の対象物のヒストグラムの計算に含められることを防止するため、システムは、それらの近隣のエッジ・ピクセルを排除するマスクを含むことができる。マスクの半径は、モデルの注目領域の最大の幅および高さの半分として計算することができる。
図14を参照すると、システムは、入力画像内の対象物の位置および/または方位の推定を、粗い対象物決定プロセスからさらに精緻化することができる。対象物の位置をさらに精緻化する好ましい技術は、以前に説明したような優勢な方位テンプレートに基づく。入力は、10度毎などのモデル勾配特徴のデータベース500、入力勾配特徴(GF)画像502、方位マップ450、およびスコア・マップ452を含むことができる。モデル勾配特徴画像500は、前述したとおり、検出された各エッジ・ピクセルにおけるバイナリ・コードを含むことができる。入力勾配特徴(GF)画像502は、前述したとおり、検出された各エッジ・ピクセルにおけるバイナリ・コードを含む。
入力勾配特徴画像内の各ピクセルまたはブロックについて、454のプロセスが実行される。システムは、スコア・マップ452からの各ピクセルまたはブロックにおけるスコア(x,y)が閾値より大きいか否かを456において決定する。大きい場合には、入力勾配特徴画像502内の各ピクセルについて、プロセスが、458において粗方位を方位マップから獲得する。プロセスはまた、460において、その粗方位に対応するモデル勾配特徴テンプレート500も獲得する。プロセスは、464において、各場所における入力勾配特徴画像502に対する対応のモデル勾配特徴テンプレートのマッチングを、優勢な方位テンプレート・スコアを使用して行なう。結果として得られるスコアは、464においてスコア・マップ内に保存される。スコア(x,y)が閾値に満たない場合には、470においてスコア(x,y)がゼロにセットされ、472において方位(x,y)がゼロにセットされる。結果は、更新後の方位マップ466および更新後のスコア・マップ468であり、さらに精緻化が行なわれる。
図15および図16を参照すると、対象物のヒストグラムは、180度回転したその対象物のヒストグラムと同一であることから、ヒストグラム・マッチング技術によって推定される方位は、[0 180]度の範囲内であり、それが推定される方位の曖昧さを結果としてもたらし、言い換えるとヒストグラムは、対象物とそれが180度回転された対象物を区別することができない。方位の曖昧さを解決するためにシステムは、勾配方位のヒストグラムを用いて粗い回転角度(その範囲は0から180度まで)を計算することができる。次にその最初の粗い角度が、小さい近隣内におけるマッチングにより、第2のサーチ段階の結果として精緻化される。その後この第2のサーチが、以前に精緻化された角度から180度オフセットされた角度の周辺の小さい近隣内におけるサーチによって反復される。2つの第2のサーチからの最良の角度が正しい対象物の角度として選択され、その後それを別のサーチ段階においてさらに精緻化することができる。このストラテジは、小さな空間的近隣内において2つの第2のサーチが実行されることから、方位の推定の曖昧さを解決し、方位の推定の正確度および効率を改善する。
各入力パッチにおいてヒストグラムを計算する複雑度はO(r)であり、ここでrは、モデル・テンプレートの注目領域の半径またはカーネル半径である。高い複雑度は、限定的な演算能力でのリアルタイム応用のために、そのようなヒストグラム・ベースの技術を使用する可能性を損なう。より大きな画像を対応するより大きなモデル対象物を用いて処理することへの希望があることから、より効率的なヒストグラム計算が望まれている。はるかに効率的な、O(1)の複雑度を呈するヒストグラム計算技術が達成される。
図17を参照すると、好ましいヒストグラム計算技術は、画像内の各列について1つのヒストグラムを維持する。このヒストグラムのセットは、プロセスの行にわたって、好ましくは全体的に保存される。各列のヒストグラムは、2r+1の隣接ピクセルを累積し、当初は画像の最初の行に中心が置かれる。カーネル・ヒストグラムは、2r+1の隣接する列ヒストグラムを合計することによって計算される。したがって、この技術は、カーネル・ヒストグラムを、それぞれがそれ独自のヒストグラムを維持するそれの列の和集合に分割することができる。全体の入力画像のためのヒストグラムの計算の間にすべてのヒストグラムを、2ステップのアプローチを用いて一定時間内に最新の状態に維持することができる。
たとえば、1つのピクセルから次のピクセルへと右に向かって移動する場合について考える。カーネルの右にある列のヒストグラムは、現在の行のための処理がまだなされてなく、そのためそれらは1つ上の行に中心が置かれる。第1のステップは、カーネルの右にある列ヒストグラムを更新することからなり、それの最上端ピクセルを取り去り、1つの新しいピクセルをそれの下に追加することによってそれを行なう。このことの効果は、列ヒストグラムを1行下に下げることである。この第1のステップは、1つの取り去りと1つの追加とがフィルタの半径とは無関係に行なわれるので、O(1)である。第2のステップは、2r+1の列ヒストグラムの合計であるカーネル・ヒストグラムを右に1ピクセル移動させる。これは、最左翼の列ヒストグラムを取り去り、最初のステップにおいて下げられた列ヒストグラムを追加することによって達成される。この第2のステップもまたO(1)である。正味の効果は、列ヒストグラムが下向きに移動する間にカーネル・ヒストグラムが右に移動することである。各ピクセルに一度だけ訪れて、単一のヒストグラムだけを追加する。ピクセルごとに行なわれる操作(列ヒストグラムおよびカーネル・ヒストグラム両方の更新)は、すべてO(1)である。
初期化は、列ヒストグラム内に最初のr行を累積することと、最初のr個の列ヒストグラムからカーネル・ヒストグラムを計算することとからなる。これは、結果としてO(r)の初期化に帰する。それに加えて、1つの行から別の行へ移動するときにオーバーヘッドが存在し、それが別のO(r)項を占める。しかしながら、O(r)の初期化が行当たり一度しか生じないので、任意に大きい画像の場合にはピクセル当たりのコストが有意でなくなる。特に、画像の寸法がカーネルの半径に比例するとき、または画像が寸法O(r)のタイル内で処理される場合には、ピクセル当たりのコストが実質的にO(1)まで下がる。
一例として、基本的な最適化されていないヒストグラム生成技術の演算の数は、Mをカーネルの高さ(または幅)とするとき、M×Mになる。高速O(1)技術については、演算の数(NO)がピクセルによって異なる。
y=0,x=0であれば、NO=0であり、初期カーネル・ヒストグラムを使用する。
y=0,x>0であれば、NO=B回のヒストグラムの追加+B回のヒストグラムの取り去り=2*B、ここで、Bはヒストグラム・ビンの数である。
y>0,x=0であれば、NO=M回のヒストグラムのインクリメント+M回のヒストグラムのデクリメント+カーネルの更新=2*M+B*M、ここで、Mはカーネルの高さ(または幅)である。
y>0,x>0であれば、NO=1回の追加+1回の取り去り+B回の追加+B回の取り去り=2+2*B。
高速O(1)ヒストグラム生成技術のメモリ利用度は、列ヒストグラムのメモリ+カーネル・ヒストグラムのメモリ=M*B*16+B*16とすることができ、ここで、Mはモデルの幅、Bはビンの数、16はヒストグラムのビット深度である。
提案されている高速O(1)ヒストグラム生成技術を用いれば、粗方位推定アルゴリズムを次に示す形に変更することができる(擬似コードで示した技術)。
入力:サイズm×nの画像X、モデル・ヒストグラムM、カーネルの幅wt、カーネルの高さht
出力:同一サイズのスコア・マップMS、同一サイズの角度マップMR
カーネル・ヒストグラムHおよび列ヒストグラムh0...n‐1を初期化
y=0からm‐1まで以下の操作を反復する。
x=0からn‐1まで以下の操作を反復する。
x+wt‐1からXy‐1,x+wt‐1を取り去る。
w+wt‐1にXy+ht‐1,w+wt‐1を追加する。
カーネル・ヒストグラムHをH+hw+wt‐1‐hx‐1に更新する。
ヒストグラム比較メトリックを用いて入力ヒストグラムHをモデル・ヒストグラムMにマッチングする。
もっとも高いスコアをMSに、対応する角度をMRに記録する。
xのループ・エンド。
yのループ・エンド。
いくつかの状況においては、複数のビンを並列に処理することによって、ストリーミングSIMD拡張(SSE)をヒストグラムの追加および/または取り去りに使用することができる。たとえば、複数のヒストグラム・ビンの追加または取り去りに1つのSSEインストラクションを使用することができる。また望ましい場合に、システムは、カーネル・ヒストグラムの処理の前にピクセルの行全体について列ヒストグラムを処理することもできる。さらにシステムは、SSE拡張を使用して、複数の列ヒストグラムを並列に更新することができる。
対象物のマッチングおよび場所特定のための1つの技術は、対象物画像から勾配方位テンプレートを抽出し、入力画像内においてそのテンプレートのマッチングを行なうことによる。初期の場所および方位(たとえば、姿勢)の改善された精緻化は、初期の場所および方位のまわりの範囲内をサーチすることによって決定され得る。前述したとおり、テンプレート・マッチング技術は、対象物についての潜在的な場所を決定することが可能であるが、多重対象物および/または多重拡大縮小プロセスについては時間を消費し、有意の演算リソースを必要とする。したがって、テンプレート・マッチングに対する代替技術が望まれている。好ましくは、方位付き勾配ヒストグラムの技術が、粗マッチングのために使用され、その後、非テンプレート・マッチング・ベースの技術が、改善された位置および方位の獲得に使用される。適切な変形ベースの技術を使用することによって、特にヒストグラム・ベースの技術から結果としてもたらされたデータを使用することによって、網羅的サーチを回避することができる。
図18を参照すると、モデル画像内の対象物形状が与えられたときの入力画像内の対象物形状のマッチングのために改善されたマッチング技術を使用することができる。入力画像内の対象物の姿勢、すなわち位置および回転の初期推定が、前述したような粗い対象物マッチング技術の結果として提供される。対象物の姿勢の推定は、モデル・エッジ・ピクセルと入力エッジ・ピクセルの間の距離を最小化(たとえば、縮小)することによって精緻化できる。
望ましい場合には注目領域を含むモデル画像が、600において、勾配方位を使用するなどして、モデル画像のエッジ・ピクセルおよび/または領域を、そのようなエッジの大きさとともに決定するように処理されてもよい。閾値技術610をモデル・エッジ・ピクセルに適用して、エッジに関連付けされることがありそうにないピクセルを除去することができる。閾値適用610の結果は、モデル・エッジ・マスク620である。通常、モデル・エッジ・ピクセルは、エッジの不連続性に起因して幾分乱れている。モデル・エッジ・マスク620は、キャニー技術などのモデル・エッジ改善技術630を使用し、エッジの方向に基づいてそれの推定を行なうことによってさらに改善することができる。別のモデル・エッジ改善技術630は、孤立したエッジ・ピクセルまたは真の対象物輪郭の外側のピクセルが低減されるか、またはそのほかの形で取り除かれるように局所的なエッジ・ピクセルを短いエッジおよび/または輪郭に当て嵌めることである。別のモデル・エッジ改善技術630は、最大勾配の大きさ、および/またはもっとも強い勾配の大きさを伴うエッジ・ピクセルの数の少なくともいくらかのパーセンテージとなるような充分に強い大きさを伴う代表的なモデル・エッジ・ピクセルを選択することである。モデル・エッジ改善技術630の結果は、モデル距離変換画像プロセス640に提供される。モデル距離変換は、バイナリ・マスク画像内の非ゼロ・ピクセルに至るまでのもっとも近い距離、たとえばバイナリ・マスク画像内のもっとも近い非ゼロ・ピクセルを(x0,y0)としたときのD(x,y)=||(x,y)−(x0,y0)||などを計算する変換とすることができる。ベクトル距離変換を適用して各ピクセルについての2次元オフセット(dx,dy)、たとえばもっとも近い非ゼロ・ピクセルを(x0,y0)としたときの(dx,dy)=(x−x0,y−y0)などを計算することができる。2次元オフセットは、もっとも近い近隣非ゼロを見つけ出すための情報を含む。
図19を参照すると、変換精緻化プロセスが示されている。入力エッジ・マスク画像内には背景の散乱が存在するので、エッジ距離最小化プロセスのためにすべての入力点が選択される必要はない。入力画像の入力点を選択する1つの技術は、前述したとおり、勾配特徴マッチング・プロセスの部分として優勢な勾配の大きさ700を伴うピクセルを識別することである。別の技術は、充分に大きな勾配の大きさ710を伴うエッジ・ピクセルを使用する。好ましくは、ポイント・サンプリング・プロセス720などによって入力点の数が制限され、システムの演算要件が低減される。入力画像の初期入力点に変換730を適用することができる。元のマッチング結果は、回転(シータ)およびxおよびy方向における平行移動(txおよびty)として表わされる2次元リジッド変換に置き換えることができる。この変換は、元の2次元の点を、次に示すような形で新しい位置に移動する。
各入力エッジ・ピクセルに対応するモデル・エッジ・ピクセルを使用して更新後の変換740を計算することができる。この態様において、距離変換画像640を使用し、より演算的に効率的な態様で対応を決定することができる。入力エッジ・ピクセル(x,y)が与えられるとき、このピクセルにおける2次元オフセットは(dx,dy)、対応するモデル・ピクセルは(x+dx,y+dy)である。閾値を、近い対応だけが有効なポイント対応として維持されるように選択することができる。言い換えると、|dx|>閾値または|dy|>閾値であれば、この対応は、不使用としてラベル付けされる。修正後の変換を計算する前に、修正後の変換が改善された結果となるか否かを評価するためにコストおよび誤差関数を使用することができる。
例示的なコスト関数は次式で表されてもよい。
ここで、Sは拡大縮小率、Rは回転、Tは平行移動、第1項は位置誤差、第2項は方位角誤差、Pinputは入力画像、Pmodelは入力モデルである。またロバストな距離メトリックε(・)(たとえば切断指数関数(truncated exponential function))を適用して外れ値の影響を低減することができる。
修正後の変換を計算する1つの技術は、パラメータ空間(シータ、tx,ty)内においてコスト関数の数値微分を計算し、その後その数値微分(ヤコビアン行列)に基づいて変換更新ベクトルを計算することである。たとえば、複数回の反復にわたってレーベンバーグ・マーカート法を使用することができる。改善された変換を計算する別の技術は、最小二乗フィッティングである。最小二乗フィッティングの結果は、解析的に決定することができる。最小二乗フィッティング技術は、改善された変換を直接的に決定することができる。
提案されている方法は、少数のエッジ・ピクセルのペアに依存し、非常に高い速度へと導くことできる一方で正確度を保持する。これのために本方法は、低減された数の入力点を選択する段階を含む。選択は、局所的な勾配特徴に基づいてもよい。
上述の明細書中で用いられた用語および表現は、限定のためではなく説明のための用語として使用されており、そのような用語および表現の使用においては、図示され説明されている特徴またはその一部の均等物を排除する意図はなく、本発明の範囲が特許請求の範囲によってのみ規定され、かつ限定されるものであると認識される。

Claims (17)

  1. 画像処理のための方法であって、
    (a)エッジ・ベース技術を使用してモデル画像のエッジ・ピクセルを決定することと、
    (b)前記モデル画像の前記エッジ・ピクセルのそれぞれについて角度方位を決定することと、
    (c)前記モデル画像の前記角度方位に基づいて勾配方位のヒストグラムを決定することと、
    (d)エッジ・ベース技術を使用して入力画像のエッジ・ピクセルを決定することと、
    (e)前記入力画像の前記エッジ・ピクセルのそれぞれについて角度方位を決定することと、
    (f)前記入力画像の前記角度方位に基づいて勾配方位のヒストグラムを決定することと、
    (g)前記モデル画像の前記勾配方位のヒストグラムと前記入力画像の前記勾配方位のヒストグラムとを比較し、前記入力画像内における対象物の場所の候補および前記対象物の方位の候補を決定することと、
    を含むことを特徴とする方法。
  2. 前記エッジ・ベース技術のそれぞれは勾配を含むことを特徴とする、請求項1に記載の方法。
  3. 前記モデル画像の前記エッジ・ピクセルの前記角度方位は、360度未満の範囲において規定されることを特徴とする、請求項1に記載の方法。
  4. 前記範囲は、略180度であることを特徴とする、請求項3に記載の方法。
  5. 前記モデル画像の前記勾配方位のヒストグラムは、前記モデル画像のピクセルの各群を結合することに基づくことを特徴とする、請求項1に記載の方法。
  6. 前記入力画像の前記勾配方位のヒストグラムは、前記入力画像のピクセルの各群を結合することに基づくことを特徴とする、請求項5に記載の方法。
  7. 前記比較は、前記モデル画像内の対象物の境界よりも大きいサイズを有する注目領域に基づくことを特徴とする、請求項1に記載の方法。
  8. 前記入力画像の前記エッジ・ピクセルのそれぞれについての前記角度方位は量子化されることを特徴とする、請求項1に記載の方法。
  9. 前記モデル画像の前記エッジ・ピクセルのそれぞれについての前記角度方位は量子化されることを特徴とする、請求項1に記載の方法。
  10. 前記モデル画像の前記勾配方位のヒストグラムと前記入力画像の前記勾配方位のヒストグラムとを比較し、前記入力画像内における前記対象物の場所の候補を決定することは、前記ヒストグラムの複数の異なる関係に基づくことを特徴とする、請求項1に記載の方法。
  11. 前記場所の候補は、別の技術に基づいてさらに精緻化されることを特徴とする、請求項1に記載の方法。
  12. 前記別の技術は、テンプレート・マッチングに基づくことを特徴とする、請求項11に記載の方法。
  13. 前記比較することは、角度の判別のためにさらに処理されることを特徴とする、請求項1に記載の方法。
  14. 前記ヒストグラムを決定することは、実質的にO(1)ピクセル演算の複雑性に基づくことを特徴とする、請求項1に記載の方法。
  15. 前記比較することは、ストリーミングSIMD拡張の使用を含むことを特徴とする、請求項14に記載の方法。
  16. 前記モデル画像の前記エッジ・ピクセルは、エッジ・マスクに基づいてさらに修正されることを特徴とする、請求項1に記載の方法。
  17. 前記比較することは、エッジ距離低減プロセスに基づいてさらに修正されることを特徴とする、請求項1に記載の方法。
JP2013173963A 2012-09-11 2013-08-23 勾配方位のヒストグラムによるテンプレート・マッチング Pending JP2014056572A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/610,508 2012-09-11
US13/610,508 US8774510B2 (en) 2012-09-11 2012-09-11 Template matching with histogram of gradient orientations

Publications (1)

Publication Number Publication Date
JP2014056572A true JP2014056572A (ja) 2014-03-27

Family

ID=50233335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013173963A Pending JP2014056572A (ja) 2012-09-11 2013-08-23 勾配方位のヒストグラムによるテンプレート・マッチング

Country Status (2)

Country Link
US (1) US8774510B2 (ja)
JP (1) JP2014056572A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201498A (ja) * 2016-04-28 2017-11-09 国立大学法人電気通信大学 物体検出装置、物体検出方法および物体検出プログラム
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016014020A1 (en) * 2014-07-21 2016-01-28 Hewlett-Packard Development Company, L.P. Radial histogram matching
US9396404B2 (en) * 2014-08-04 2016-07-19 Datalogic ADC, Inc. Robust industrial optical character recognition
US9830532B1 (en) 2014-08-22 2017-11-28 Matrox Electronic Systems Ltd. Object detection in images using distance maps
US20160110599A1 (en) * 2014-10-20 2016-04-21 Lexmark International Technology, SA Document Classification with Prominent Objects
US9547881B2 (en) * 2015-01-29 2017-01-17 Qualcomm Incorporated Systems and methods for calculating a feature descriptor
US9715639B2 (en) 2015-06-18 2017-07-25 The Boeing Company Method and apparatus for detecting targets
US9727785B2 (en) 2015-06-18 2017-08-08 The Boeing Company Method and apparatus for tracking targets
US9798948B2 (en) 2015-07-31 2017-10-24 Datalogic IP Tech, S.r.l. Optical character recognition localization tool
US9760794B2 (en) * 2015-09-25 2017-09-12 Intel Corporation Method and system of low-complexity histrogram of gradients generation for image processing
US20180314912A1 (en) * 2015-10-28 2018-11-01 Ent. Services Development Corporation Lp Identification of images
JP6493163B2 (ja) * 2015-11-06 2019-04-03 オムロン株式会社 粗密探索方法および画像処理装置
CN105528780B (zh) * 2015-12-01 2018-08-21 天津普达软件技术有限公司 一种奶盒无吸管不良品剔除方法
CN105528782B (zh) * 2015-12-01 2018-08-21 天津普达软件技术有限公司 一种奶盒吸管有无的检测方法
US9613295B1 (en) * 2016-01-07 2017-04-04 Sharp Laboratories Of America, Inc. Edge based location feature index matching
US10599941B2 (en) * 2017-09-11 2020-03-24 Hamilton Sundstrand Corporation Multi-feature image tracking
JP6889865B2 (ja) * 2017-09-22 2021-06-18 オムロン株式会社 テンプレート作成装置、物体認識処理装置、テンプレート作成方法及びプログラム
US10997712B2 (en) 2018-01-18 2021-05-04 Canon Virginia, Inc. Devices, systems, and methods for anchor-point-enabled multi-scale subfield alignment
CN108491876B (zh) * 2018-03-20 2021-10-29 西安电子科技大学 基于二次拟合光度变换的群体图像编码方法
US10997462B2 (en) 2018-04-04 2021-05-04 Canon Virginia, Inc. Devices, systems, and methods for clustering reference images for non-destructive testing
CN111626305B (zh) * 2019-02-28 2023-04-18 阿里巴巴集团控股有限公司 目标检测方法、装置和设备
US11386636B2 (en) 2019-04-04 2022-07-12 Datalogic Usa, Inc. Image preprocessing for optical character recognition
CN110222688B (zh) * 2019-06-10 2021-06-18 重庆邮电大学 一种基于多层次相关滤波的仪表定位方法
US11217022B1 (en) * 2019-06-28 2022-01-04 Snap Inc. Light invariant pattern mapping
WO2021155082A1 (en) * 2020-01-31 2021-08-05 Reliant Immune Diagnostics, Inc. Computer-based systems configured for automated feature detection for image analysis and methods thereof
US11488407B1 (en) 2021-06-01 2022-11-01 Lead Technologies, Inc. Method, apparatus, and computer-readable storage medium for recognizing characters in a digital document

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157591A (ja) * 2000-09-27 2002-05-31 Mwtec Software Gmbh 対象物認識システム及び方法
JP2010524111A (ja) * 2007-04-13 2010-07-15 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 幾何学変換に基づく一般化統計的テンプレートマッチング
JP2010225118A (ja) * 2009-03-25 2010-10-07 Toshiba Corp 画像処理装置、方法及びプログラム
JP2011028686A (ja) * 2009-07-29 2011-02-10 Secom Co Ltd 対象物検知装置
JP2011516235A (ja) * 2008-04-14 2011-05-26 オプトビュー,インコーポレーテッド 光干渉断層法のアイレジストレーション法
WO2011114736A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 特徴量算出装置、特徴量算出方法及びプログラム
WO2012073894A1 (ja) * 2010-11-29 2012-06-07 国立大学法人 九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975764B1 (en) 1997-11-26 2005-12-13 Cognex Technology And Investment Corporation Fast high-accuracy multi-dimensional pattern inspection
US6658145B1 (en) 1997-12-31 2003-12-02 Cognex Corporation Fast high-accuracy multi-dimensional pattern inspection
US6363160B1 (en) 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US7728839B2 (en) 2005-10-28 2010-06-01 Honda Motor Co., Ltd. Discriminative motion modeling for human motion tracking
US7853072B2 (en) * 2006-07-20 2010-12-14 Sarnoff Corporation System and method for detecting still objects in images
US8014603B2 (en) 2007-08-30 2011-09-06 Xerox Corporation System and method for characterizing handwritten or typed words in a document
US8131066B2 (en) 2008-04-04 2012-03-06 Microsoft Corporation Image classification
JP5301239B2 (ja) 2008-08-09 2013-09-25 株式会社キーエンス 画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP5271031B2 (ja) 2008-08-09 2013-08-21 株式会社キーエンス 画像のデータ圧縮方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US8131074B2 (en) 2008-09-11 2012-03-06 Raytheon Company Specific emitter identification using histogram of oriented gradient features
JP5241423B2 (ja) 2008-10-16 2013-07-17 株式会社キーエンス 画像処理における画像データ縮小率の決定方法、画像処理におけるパターンモデルの位置決め方法、画像処理におけるパターンモデルの作成方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
JP2010097438A (ja) 2008-10-16 2010-04-30 Keyence Corp 画像処理を用いた輪郭情報抽出方法、画像処理におけるパターンモデルの作成方法、画像処理におけるパターンモデルの位置決め方法、画像処理装置、画像処理プログラム及びコンピュータで読み取り可能な記録媒体
US8447139B2 (en) * 2010-04-13 2013-05-21 International Business Machines Corporation Object recognition using Haar features and histograms of oriented gradients
US8792722B2 (en) 2010-08-02 2014-07-29 Sony Corporation Hand gesture detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157591A (ja) * 2000-09-27 2002-05-31 Mwtec Software Gmbh 対象物認識システム及び方法
JP2010524111A (ja) * 2007-04-13 2010-07-15 ミツビシ・エレクトリック・アールアンドディー・センター・ヨーロッパ・ビーヴィ 幾何学変換に基づく一般化統計的テンプレートマッチング
JP2011516235A (ja) * 2008-04-14 2011-05-26 オプトビュー,インコーポレーテッド 光干渉断層法のアイレジストレーション法
JP2010225118A (ja) * 2009-03-25 2010-10-07 Toshiba Corp 画像処理装置、方法及びプログラム
JP2011028686A (ja) * 2009-07-29 2011-02-10 Secom Co Ltd 対象物検知装置
WO2011114736A1 (ja) * 2010-03-19 2011-09-22 パナソニック株式会社 特徴量算出装置、特徴量算出方法及びプログラム
WO2012073894A1 (ja) * 2010-11-29 2012-06-07 国立大学法人 九州工業大学 物体の検出方法及びその方法を用いた物体の検出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
木下 和樹 KAZUKI KISHITA: "画像中の輪郭を用いた片付けロボットのための工具検出 A Tool Recognition Method for Home Robot by Usin", SSII2011 第17回 画像センシングシンポジウム講演論文集 [CD−ROM] 17TH SYMPOSIUM O, JPN6017003935, 8 June 2011 (2011-06-08), JP, pages 4 - 17, ISSN: 0003495083 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201498A (ja) * 2016-04-28 2017-11-09 国立大学法人電気通信大学 物体検出装置、物体検出方法および物体検出プログラム
US10552706B2 (en) 2016-10-24 2020-02-04 Fujitsu Ten Limited Attachable matter detection apparatus and attachable matter detection method

Also Published As

Publication number Publication date
US8774510B2 (en) 2014-07-08
US20140072217A1 (en) 2014-03-13

Similar Documents

Publication Publication Date Title
JP2014056572A (ja) 勾配方位のヒストグラムによるテンプレート・マッチング
Bansal et al. Ultrawide baseline facade matching for geo-localization
CN110334762B (zh) 一种基于四叉树结合orb和sift的特征匹配方法
Jiang et al. Performance evaluation of feature detection and matching in stereo visual odometry
US20140226906A1 (en) Image matching method and apparatus
CN106874942B (zh) 一种基于正则表达式语义的目标模型快速构建方法
Uchiyama et al. Toward augmenting everything: Detecting and tracking geometrical features on planar objects
Zhou et al. A robust object tracking algorithm based on SURF
KR101742115B1 (ko) 건물 인식을 위한 멀티뷰 영상에서의 인라이어 선택 및 잉여 제거 방법
CN108537832B (zh) 基于局部不变灰度特征的图像配准方法、图像处理系统
CN114492619A (zh) 一种基于统计和凹凸性的点云数据集构建方法及装置
US11256949B2 (en) Guided sparse feature matching via coarsely defined dense matches
Ahn et al. Performance analysis of object recognition and tracking for the use of surveillance system
CN108694411B (zh) 一种识别相似图像的方法
CN113191281A (zh) 基于感兴趣区域及自适应半径的orb特征提取方法
KR101733288B1 (ko) 방향정보를 이용한 객체 검출기 생성 방법, 이를 이용한 객체 검출 장치 및 방법
Eilertsen et al. BriefMatch: Dense binary feature matching for real-time optical flow estimation
CN110705569A (zh) 一种基于纹理特征的图像局部特征描述子提取方法
Khan et al. Feature-Based Tracking via SURF Detector and BRISK Descriptor
KR101166722B1 (ko) 이미지 검색을 위한 국부적 색변화 기반 관심점 검출과 디스크립터 생성 방법 및 그 기록매체
Tehsin et al. Survey of region-based text extraction techniques for efficient indexing of image/video retrieval
Decker et al. Dense statistic versus sparse feature-based approach for 3d object recognition
Pujol et al. On searching for an optimal threshold for morphological image segmentation
Salau An effective graph-cut segmentation approach for license plate detection
Tsai A new approach for image thresholding under uneven lighting conditions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160401

A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20160401

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20160614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160614

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170829