JP2007004709A - 対象パターン検出方法及びその装置 - Google Patents

対象パターン検出方法及びその装置 Download PDF

Info

Publication number
JP2007004709A
JP2007004709A JP2005186998A JP2005186998A JP2007004709A JP 2007004709 A JP2007004709 A JP 2007004709A JP 2005186998 A JP2005186998 A JP 2005186998A JP 2005186998 A JP2005186998 A JP 2005186998A JP 2007004709 A JP2007004709 A JP 2007004709A
Authority
JP
Japan
Prior art keywords
target
contour
template
point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2005186998A
Other languages
English (en)
Inventor
Hidenori Takeshima
秀則 竹島
Koichi Masukura
孝一 増倉
Takashi Ida
孝 井田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005186998A priority Critical patent/JP2007004709A/ja
Priority to US11/417,135 priority patent/US20060291726A1/en
Publication of JP2007004709A publication Critical patent/JP2007004709A/ja
Abandoned legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象パターンが与えられた場合に、画像中に存在するパターンを検出する対象パターン検出方法において、検出率を高く、誤検出率を低くする。
【解決手段】変換パラメータ加算器1004、変換パラメータ投票バッファ1006、出力変換パラメータ決定器1007を有し、対象物と非対象物の2値ビットマップ1002、輪郭候補点1003の2つを入力として変換パラメータ加算器1004が受理し、予め登録した2値ビットマップのテンプレート1001と照合を行って対象パターンを検出し、出力変換パラメータ決定器1007が変換パラメータを出力する。
【選択図】 図10

Description

本発明は、対象物のパターン(例えば、平均的な人物の形状パターン)が与えられた場合に、画像中に存在するパターンを検出する対象パターン検出に関する。
対象物の検出に適した手法として、画像Sから予め定めたテンプレートTを検出する非特許文献1記載の一般化Hough変換が広く使われている。
この方法は、まず、テンプレートを入力し(図2のS201)、画像S中でエッジが存在する画素を求めて入力する(S202)。
次に、画像S中の各輪郭点について、テンプレートT上の輪郭点を構成する可能性のある変換パラメータ(例えば、位置、拡大率、回転角)全てに投票する(S203〜S205)。
最後に、投票空間でピークとなったものを検出変換パラメータとして出力する(S206)。
これにより、対象パターンが移動・変形しても、画像中の対象物のパターンを検出することができる。
D.H.Ballard,''Generalizing the Hough Transform to Detect Arbitrary shapes,'' Pattern Recognition Vol.13,No.2,pp.111-122,1981.
上記した背景技術の方法では、対象パターンでないパターンであっても、投票空間でピークとなって、誤検出することがある。
すなわち、長方形のテンプレートでは、テンプレートの両方の長辺がエッジと重なる正しいピーク以外にも、テンプレートの1辺のみがエッジと重なるピークが2つ発生し、誤検出が起こる。
そこで、本発明は、対象パターンでないパターンが検出される回数を減少させ、高い検出率が得られるようにする対象パターン検出方法及びその装置を提供する。
本発明は、画像中に存在する対象物を検出するために、前記対象物にテンプレートを重ねるための変換パラメータをコンピュータによって検出する対象パターン検出方法であって、前記検出対象のパターンの輪郭線上の輪郭点と、前記輪郭点における前記パターンを示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を持つテンプレートを入力するテンプレート入力ステップと、前記画像中の前記対象物の輪郭候補線上の輪郭候補点と、前記輪郭候補点毎に前記対象物を示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を入力する画像輪郭候補点入力ステップと、前記変換パラメータを変えながら前記テンプレートの位置または形状を変換し、この変換により重なった前記画像中の輪郭候補点と前記テンプレートの輪郭点との組の各々について、前記テンプレートの対象背景区別情報に基づく対象領域及び背景領域の分布と、前記画像の対象背景区別情報に基づく対象領域及び背景領域の分布との類似性の高さを表す評価値を求め、前記変換パラメータ毎に前記評価値の中で閾値以上の評価値の合計を求める投票ステップと、前記変換パラメータの中で前記評価値の合計が最も大きい変換パラメータを出力する検出変換パラメータ出力ステップと、を備えることを特徴とする対象パターン検出方法である。
本発明であると、対象パターンでないパターンが検出される回数を減少させ、高い検出率が得られる。
以下、本発明の一実施形態のパターン検出方法とそれを実現するパターン検出装置を説明する。
[本発明の実施形態の概要]
まず、第1の実施形態の概要について説明する。
一般化Hough変換を、検出パターンの内外情報と対象画像のエッジ周辺の内外情報が一致する場合のみ投票するように変更する。具体的には、次のように変更する。
テンプレートTを、対象物と非対象物の2値を持つビットマップとし、その値が変化する画素をテンプレートTの輪郭とする。
画像Sのエッジ画素を求めるときには、例えば背景差分法やフレーム間差分法を用いて求めた対象物と非対象物の2値ビットマップを入力し、その値が変化する画素を画像Sのエッジ画素とする。
画像Sのエッジ画素に対する投票では、画像Sのエッジ画素近傍のビットマップ値がテンプレートTと一致する場合のみ投票を行う。
次に、第2の実施形態の概要
第1の実施形態では、テンプレートに輪郭がはっきりしない部分、例えば、図9の901のように複雑な輪郭がある場合、その部分でエッジ判定や内外情報判定を行っても誤検出しやすい。
そこで、第2の実施形態では、テンプレート内のそれぞれの輪郭点に重み値を導入し、投票において1ではなくTの重み値を加算する。
なお、「輪郭点」とは、テンプレートにおける検出パターンの輪郭線上にある点をいう。「輪郭候補点」とは、パターン検出を行う画像中の対象物の輪郭線と予測される線上の点をいう。
[第1の実施形態]
(1)パターン検出装置の構成
本実施形態では、図10のブロック図に示すパターン検出装置を用いる。パターン検出装置は、変換パラメータ加算器1004、変換パラメータ投票バッファ1006、出力変換パラメータ決定器1007を有している。
対象物と非対象物の2値ビットマップ1002、輪郭候補点1003の2つを入力として変換パラメータ加算器1004が受理し、予め登録した2値ビットマップのテンプレート1001と照合を行って対象パターンを検出し、出力変換パラメータ決定器1007が変換パラメータを出力する。
(2)2値バイナリビットマップの導入によるパターン検出方法
対象物と非対象物の2値ビットマップを用いたパターン検出方法の実施形態を、図1のフローチャートに従って説明する。
変換パラメータとしては、例えばn次元の平行移動と拡大率を表す(n+1)個の値、2次元の平行移動と拡大率と回転を表す4個の値、n次元のアファイン変換を表す3n個の値を用いる。
S101では、検出を行う前に、まず検出パターンを2値ビットマップのテンプレート1001として入力、登録する。検出パターンとしては、図11に示すように、内外情報を持つ輪郭点、例えば、1の値を持つ白色領域が対象物の内部、0の値を持つ黒色領域が対象物の外部を表す2値ビットマップを登録する。以下、この2値ビットマップを「バイナリマスク」と呼ぶ。バイナリマスクでは、1の値の領域(白色領域)と0の値の領域(黒色領域)の境界が輪郭を表す。検出パターンの輪郭点とは、例えばこの境界の画素のことである。
S102では、パターン検出を行う対象とする画像、対象背景区別情報とその輪郭候補点を入力する。図10の2値ビットマップ1002、輪郭候補点1003である。ここで、対象背景区別情報としては先と同様にバイナリマスクを用いる。画像の輪郭候補点としては、先と同様にバイナリマスクの境界を用いても良いし、例えばSobelフィルタなどのエッジ検出フィルタの出力値が一定範囲を超える画素を境界点としても良い。
S103〜S105では、候補とする変換パラメータの空間に対して、輪郭を表すテンプレートが検出されるたびに投票を行う。そこで投票の前に、可能な変換パラメータに対する頻度値を記録するヒストグラムを初期化する。すなわち、変換パラメータ投票バッファ1006の全ての要素数を0に設定する。
そして、S103では、それぞれの輪郭点に対して、変換パラメータ加算器1004を用いて、次のS104の投票処理を行う。投票処理S104の目的は、輪郭が重なり、かつ内外関係が等しいときに高い投票数が得られるように投票することである。例えば、図12で符号1201がテンプレート、符号1202が対象物だとすると、左側のケース1203では多くの投票がなされ、左側のケース1203では投票がなされないように投票することである。
これを実現するために、S104では、例えば、画像中のそれぞれの輪郭候補点に対して、その画像の輪郭候補点がテンプレート上の輪郭点と重なり、かつ、画像の輪郭候補点及びテンプレートの輪郭点の近傍の2値ビットマップを比較したときに、一致する画素が別途定めた閾値以上の場合のみ任意の評価値を与える投票を行う。すなわち、画像中の輪郭候補点を含む一定領域における対象領域と背景領域の分布と、輪郭点を含む一定領域における対象領域と背景領域の分布との類似度を求め、その類似度が閾値以上であれば評価値を与え、かつ、前記変換パラメータ毎に評価値の合計を求める。
S105では、未処理の輪郭候補点がなくなるまでS104の投票処理を繰り返す。この場合に、画像中の輪郭候補点とテンプレートの輪郭点が一致し、画像中の輪郭候補点とテンプレートの重なる部分が多い程、投票数である前記評価値の合計が増えることとなる。
S106では、全ての輪郭候補点の投票処理後に、先のヒストグラムにおいて、頻度値が別途定めた閾値以上で、かつ、ピーク(局所的な最大値)の変換パラメータを、出力変換パラメータ決定器1007を用いて判定し、検出されたものを変換出力変換パラメータ1005を出力する。
ここで、先のヒストグラムとは、例えば、水平位置・垂直位置・拡大率の3次元、あるいはそれに回転率を加えた4次元の投票空間における頻度のことである。
また、ピークの判定は、投票空間において、ある変換パラメータ、すなわち、ピーク候補の変換パラメータを中心とした別途定めた範囲、例えば、ユークリッド距離が別途定めた値を超えない範囲を調べたときに、その変換パラメータの頻度、すなわち、ピーク候補の変換パラメータの頻度よりも高い頻度の変換パラメータがない場合に、その変換パラメータをピークとすることで行う。
以上の方法により、パターン検出を行うことができる。なお、ノイズなどにより狭い範囲に多数のピークが検出されるのを防ぐために、例えば最大値を持つピークが見つかった時点で、その付近のピーク(極大であるが最大でないピーク)を削除しても良い。
(3)輪郭点が線分の場合の変更例
上記実施形態では検出パターン内の輪郭点を画素として説明したが、非特許文献2(渡辺、石戸橋、「線分近似による一般化ハフ変換の高速化と任意図形検出」電子情報通信学会論文誌 D-II、Vol.J74、No.8、pp.995-1003、1991年)の方法のように検出パターンを区分的線分として表現しても良い。
また、背景技術で述べた非特許文献1に記載のRテーブルや、非特許文献3(木村、渡辺、「図形検出力を向上させた高速一般化ハフ変換」電子情報通信学会論文誌 D-II、Vol.J83、No.5、pp.1256-1265、2000年)に記載の拡張C表のように、無駄な投票回数を減らすようにテンプレート形式を変更しても良い。
(4)向心ベクトルを用いた内外判定
ところで、本実施形態における内外判定は、例えば、テンプレートの輪郭点、画像の輪郭候補点毎に、対象物の方向に向かうベクトル(以下、「向心ベクトル」という)を用意し、向心ベクトルのなす角で判定する方法で行うことができる。
(4−1)法線ベクトルを用いる場合
向心ベクトルの例を、図17の1701、1702、1703に示す。このベクトルの求め方は多数考えられ、その幾つかの例を次に説明する。
例えば、図13に示すように、法線ベクトル1と法線ベクトル2のように、対象物方向と非対象物方向の2つの法線ベクトルを求め、そのうち図13における法線ベクトル2のように対象物方向を向いているものを選択する方法がある。
ここで、2つの法線ベクトルを求めるには、輪郭候補点を構成する線分の方向が既知であれば、その垂直方向のベクトルを求めれば良い。輪郭候補点が画素の場合は方向が未知であるが、例えば、注目輪郭点とユークリッド距離が近い輪郭候補点を5個など別途定めた個数だけ集め、それらの点に対し最小2乗法を適用して得られた直線の式を方向として使えば、法線ベクトルが求められる。
ところで、輪郭候補点の画素(輪郭候補点が線分の場合は、その中点)の近傍を図13のようにとると、接線(輪郭候補点と方向ベクトルで決まる直線)で区切られた2つの半円ができる。
そこで、2つの法線ベクトルから向心ベクトルを決めるには、例えばこの各法線ベクトル側の半円内における対象領域の画素数を数え、対象領域の画素数が多いほうを選択すれば良い。
(4−2)その他の方法
また、向心ベクトルは法線ベクトルに限定されない、
例えば、対象領域を構成する全ての画素の重心を求め、輪郭候補点(画素の場合はその点、線分の場合は、例えば線分を構成する2つの頂点の中点)から重心へ向かうベクトル(長さ1など、別途定めた長さに正規化しても良い)を向心ベクトルとすることもできる。
(4−3)対象物の内外判定
これらの方法で向心ベクトルが輪郭候補点毎に求められたときに、対象物の内外判定を行うには、向心ベクトルのなす角が別途定めた範囲内にあるかどうかで判定すれば良い。
例えば、対象領域の向心ベクトル1702に対して、テンプレートの向心ベクトル1701の判定を行うには、まず図18のように向心ベクトルのなす角θ1を求める。そして、θ1が別途定めた範囲(例えば、−30°≦θ1≦+30°)内の場合のみ投票する。向心ベクトルが図19のθ2のように、この範囲を超えている場合は投票しないようにする。この例では、範囲外は逆方向を意味する。
(5)2値バイナリビットマップの生成方法
ここで、画像の輪郭候補点を表現する2値ビットマップは、例えばエッジ検出を行ってから別途定めた閾値を超えるか否かで2値化する方法や、背景差分やフレーム間差分(以下、差分法)により得られた差分値の絶対値が別途定めた閾値を超えるか否かで2値化した2値ビットマップを用いれば良い。
なお、2値ビットマップの生成方法はこれに限定されずどんな方法でも良い。
(6)3値のビットマップの生成方法
また、生成方法によっては、バイナリビットマップではなく3値のビットマップが得られることがある。
(6−1)前景、背景、未定領域を用いる方法
例えば、差分において閾値としてTh1とTh2の2つを設定し、差分値の絶対値がTh1以下であれば背景(非対象領域)、Th2以下であれば不明、Th2を超えるときは前景(対象領域)とする手法を用いると、3値のビットマップになる。
この場合、不明な領域は非対象領域、対象領域のいずれにも一致するとして内外判定を行えば良い。
テンプレートが3値ビットマップである場合も、同様に、不明な領域は常にいずれの領域とも一致するものとして内外判定を行えば良い。
(6−2)3値ビットマップの算出方法におけるその他の方法
3値ビットマップの算出方法はこれに限定されない。
例えば、対象物の代表色と背景物の代表色のうち1つまたは幾つかがわかっていれば、WaterSheds法(非特許文献:L.Vincent, P.Soille,''Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations'', IEEE Trans. Pattern Anal. Machine Intell. vol.13,no.6,1991)などの領域分割により得られたラベルに対して、対象物の色と背景物の色に近い部分を探し、それらに対し対象領域、非対象領域という情報を付与し、残りの領域を不明な領域として3値ビットマップを生成しても良い。例えば、色空間において、ラベル内の色の平均値と、既知の色とのユークリッド距離が一定値以下となる。
なお、非特許文献3記載の拡張C表により法線ベクトルで判定を行う場合は、不明な領域の有無を拡張C表に登録するか、不明な領域への法線ベクトルを別途記録し、輪郭点毎に全ての法線ベクトルについて判定を行えば良い。法線ベクトルは、1つの輪郭候補点に対して複数あっても良い。
(7)法線ベクトルを用いた判定の一般化
法線ベクトルのなす角のcos値は2つの単位ベクトルの内積によって求められる。
そこで、先の内外一致判定では、例えば内積が閾値以上であれば一致すると判定しても良い。この内積は(x1,y1)と(x2,y2)の2次元空間における2つのベクトルに対してx1・x2+y1・y2と定義したものである。見方を変えれば、法線ベクトルのなす角に注目するのではなく、基準として内積の値が閾値以上であれば一致すると判定しているとも考えられる。
なお、内積は先の定義に限定されず、内積の公理を満たしていれば何でも良い。例えば(x1,y1)と(x2,y2)に対してk(x1・x2+y1・y2)と定義しても良い。また、パターン認識の手法の1つのサポートベクタマシンで使われているカーネル関数(例えば、ガウシアン型カーネル、多項式型カーネル、tanh型カーネル)は、先の内積の代わりに利用できる。
(8)内外判定導入の効果
本実施形態のパターン検出方法により、従来のパターン検出方法と比べて誤検出を減らすことができる。
図3のテンプレートを用いて図4の画像内でパターン検出を行う場合を考える。従来の一般化ハフ変換では、テンプレートの輪郭が対象領域の外周の輪郭と重なるが内外関係が異なる図5の場合でも投票されるため、投票数は図6のようになり、不要な位置が誤検出されてしまっていた。
しかし、本実施形態では、内外関係を考慮して投票するため、例えば図7の場合には投票の対象外となる。その結果、投票数は図8のようになり、不要な位置の誤検出を抑えられる。
[第2の実施形態]
第2の実施形態は、テンプレートエッジに対する重み値の導入する実施形態である。
第1の実施形態では、画像の輪郭候補点がテンプレートの輪郭点と重なった場合に、ヒストグラムには1を加算するとしてきた。しかし、2値バイナリビットマップを導入するか否かに関わらず、テンプレートの輪郭点には、一致したときにテンプレートである確率が高い点と、一致してもあまり信頼できない点が存在する。
従来の手法では、輪郭点の信頼性を考慮せずに常に1を加算しているために、テンプレートの形状によっては検出が難しい。
例えば、図9のように花のつぼみの形をしたテンプレートの場合、花びらに近い部分901は、カメラの位置などにより見え方が大きく変化するため、あまり信頼できない。
そこで、第2の実施形態として、テンプレートの輪郭点に重み値を新たに導入した方法を説明する。
この方法のフローチャートは図14のようになる。
図1の流れと異なるのはS1401、S1402、S1403であるが、S1402は従来の一般化ハフ変換(GHT)と同様の方法で良い。すなわち、エッジ検出などで得られた画像の輪郭点を入力すれば良い。
しかし、S1401とS1403は例えば次のようにする。
テンプレートの輪郭点毎に例えば0〜1の間の重み値を設定したものを入力とし(S1401)、従来のように投票処理S104において常に1を加算するのではなく、S1403のようにこの重み値を投票する。
また、テンプレートの輪郭点の重みに、後述する画像の輪郭点に対する重みを掛けた値、または、足した値を投票する。
これにより、S105の判別に対する信頼性の高い輪郭点の寄与率が向上するため、検出率が向上する。
なお、投票における加算値は、テンプレートの輪郭点の重み値にどのような演算を施したものでも良く、重み値そのものや、重み値に何らかの値を掛けたり足したりしたものに限定されない。輪郭点の重み値の関数であれば良い。
[第3の実施形態]
第3の実施形態では、検出エッジに対する重み値の導入する実施形態である。
第2の実施形態では、テンプレートの輪郭点に対して重み値を導入した。同じ考え方は、画像の輪郭候補点に対しても適用できる。
今までの実施形態では、画像の輪郭候補点は、エッジ検出を行ってから2値化する方法や、差分法により得られた2値ビットマップによって求めた。ところで、エッジ検出は輪郭らしさの値を、差分法は対象領域らしさの値を算出している。これらの確からしさを利用して加算値を制御すると、検出精度の向上効果がある。以下、これらを利用した実施形態について述べる。
本実施形態のフローチャートは図15のようになる。
先に述べた図14の流れに近いが、テンプレートではなく画像の輪郭候補点が重み値を持つ点が異なる。図1の流れと異なるのはS1501、S1502、S1503であり、S1501は従来のGHTと同様で良い。すなわち、予め準備したテンプレートの輪郭点を入力すれば良い。しかし、S1502とS1503は例えば次のようにする。
画像の輪郭候補点毎に0〜1の間の重み値をエッジ検出などで設定したものを入力とし(S1502)、従来のように投票処理S104において常に1を加算するのではなく、S1503のようにこの重み値を投票する。
[第4の実施形態]
第4の実施形態は、エッジ検出を利用した重み値を用いる実施形態である。
画像の輪郭候補点毎の重み値を求める方法の1例として、エッジ検出で得られる輪郭らしさを利用する実施形態について述べる。
画像の輪郭候補点の重み値として、この輪郭らしさ、または、輪郭らしさと対象領域らしさの重みつき和を利用する。
画像のそれぞれの輪郭候補点について、例えば0〜255の間の重み値が得られる。
そこで、投票処理S104において、画像の輪郭候補点の重み値を投票する。
これにより、S105の判別に対する個々の輪郭候補点の信頼性を考慮でき、検出率が向上する。
なお、先と同様に、投票における加算値は、画像の輪郭候補点の重み値そのものや、重み値に何らかの値を掛けたり足したりしたものに限定されない。輪郭点の重み値の関数であれば良い。
[第5の実施形態]
第5の実施形態は、差分法の確信度を用いた実施形態である。
画像の輪郭候補点毎の重み値を求める方法の別の1例として、差分法で得られる対象領域らしさを画像の輪郭点の重み値として利用する実施形態について述べる。
例えば、輝度が0〜255で表現され、差分法の閾値がThである場合、差分値が0〜Thであれば背景(非対象領域)、Th〜255であれば前景(対象領域)である。ここで、背景は投票されないから、重み値は前景のみ考えれば良い。例えば、前景の輪郭点に対する重み値は、(差分値−Th)とすることができる。画像のそれぞれの輪郭候補点に対する重み値が得られたら、先に述べたエッジ検出の実施形態と同じ方法が使える。
[第6の実施形態]
第6の実施形態は、重み値と内積とを用いた実施形態である。
先に、2つの法線ベクトルを単位ベクトル(長さ=1)として、その内積を算出して角度のcos値を求め、閾値により比較する方法を示した。この内積値は、さらにヒストグラム加算値に掛ける重み値としても利用しても良い。
この場合、内積値が閾値以下であればヒストグラムへの加算を行わない処理を入れても良い。
[第7の実施形態]
第7の実施形態は、上記したように輪郭点と輪郭候補点が重み値を持ち、ヒストグラムの加算値としてその積を利用する場合を考える。
このときには、テンプレートの輪郭点及び画像の輪郭候補点それぞれについて、法線ベクトルの長さを単位長(=1)ではなく輪郭点の持つ重み値としておき、それらの内積値を投票値としても良い。これは各輪郭候補点の重みと角度のcos値による重みの積に等しい。内積を利用した実施形態のフローチャートを図16に示す。
はじめに、S1601に示すように、通常のテンプレートに加えて、輪郭候補点毎にベクトルを入力する。このベクトルは、例えば輪郭候補点から対象物の方向に向かう法線ベクトルとする。
次に、S1602に示すように、画像に対するエッジ検出などで得られる画像の輪郭候補点に加えて、輪郭候補点毎にベクトルを入力する。例えば、先と同様に法線ベクトルを入力する。
[第8の実施形態]
図14〜図16のフローチャートで示した方法は、内外判定を利用するか否かに関わらず適用できる。
上記では図16については内外判定の法線ベクトルを例として説明しており、内外判定を使わなければならないように見える。しかし、用いるベクトルは法線ベクトルである必要はなく、任意の2つのベクトルの内積であれば良い。
例えば、輪郭候補点周辺は多くの場合、輪郭を境界とした2つの色で構成されている。この2つの色の差分値を輪郭候補点のベクトルと考え、内積をとるベクトルとして利用しても良い。例えば、RGBでは3次のベクトルを用いる。なお、単に2つの色を並べて6次のベクトルとしても良い。この場合、内積値の絶対値が大きければ相関が高いとみなせるので、内積ではなく内積の絶対値を用いても良い。
ある点の近傍が一様でないときに、代表する2色を求める方法は、例えば非特許文献4(K.Haris et al.「Hybrid Image Segmentaion Using Watersheds and Fast Region Merging」IEEE Trans. Image Process.,vol.7,no.12,dec,1998.)に記載されている。
また、ある点から別途定めた半径rの内側にある画素の輝度値のヒストグラムをとり、その重心(あるいはフィッシャーの線形判別基準)で2分割を行い、分割されたそれぞれについて平均色を求めても良い。
なお、テンプレート内の輪郭の一部について、輪郭候補点の周辺が全て対象領域であったなら、2つの色はともに対象領域の色を表している。そのような対象では、この色の差分値が強い相関を持つかどうかを考慮することは、検出率の向上に寄与する。つまり、色空間において2つの色の差分方向が近いかどうかを考慮することは、検出率の向上に寄与する。
また、向心ベクトルのx/y成分、RGBベクトルの差分のR/G/B成分という5次元のベクトルを使って同様のことを行っても良い。
[変更例]
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
本発明の第1の実施形態のパターン検出方法のフローチャートである。 背景技術のパターン検出方法のフローチャートである。 テンプレートの説明図である。 パターン検出の対象となる画像の説明図である。 背景技術の投票方法を示す説明図である。 背景技術の投票状態を示すグラフである。 第1の実施形態の投票方法を示す説明図である。 第1の実施形態の投票状態を示すグラフである。 第2の実施形態の説明図である。 第1の実施形態であるパターン検出装置のブロック図である。 2値ビットマップの説明図である。 投票する場合と投票しない場合の説明図である。 対象物における法線ベクトルの説明図である。 第2の実施形態のパターン検出方法のフローチャートである。 第3の実施形態のパターン検出方法のフローチャートである。 第7の実施形態のパターン検出方法のフローチャートである。 向心ベクトルの第1の説明図である。 向心ベクトルの第2の説明図である。 向心ベクトルの第3の説明図である。
符号の説明
1001 2値ビットマップ輪郭テンプレート
1002 入力2値ビットマップ
1003 入力輪郭点
1004 変換パラメータ加算器
1005 変換パラメータ出力
1006 変換パラメータ投票バッファ
1007 出力変換パラメータ決定器

Claims (9)

  1. 画像中に存在する対象物を検出するために、前記対象物にテンプレートを重ねるための変換パラメータをコンピュータによって検出する対象パターン検出方法であって、
    前記検出対象のパターンの輪郭線上の輪郭点と、前記輪郭点における前記パターンを示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を持つテンプレートを入力するテンプレート入力ステップと、
    前記画像中の前記対象物の輪郭候補線上の輪郭候補点と、前記輪郭候補点毎に前記対象物を示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を入力する画像輪郭候補点入力ステップと、
    前記変換パラメータを変えながら前記テンプレートの位置または形状を変換し、この変換により重なった前記画像中の輪郭候補点と前記テンプレートの輪郭点との組の各々について、前記テンプレートの対象背景区別情報に基づく対象領域及び背景領域の分布と、前記画像の対象背景区別情報に基づく対象領域及び背景領域の分布との類似性の高さを表す評価値を求め、前記変換パラメータ毎に前記評価値の中で閾値以上の評価値の合計を求める投票ステップと、
    前記変換パラメータの中で前記評価値の合計が最も大きい変換パラメータを出力する検出変換パラメータ出力ステップと、
    を備える
    ことを特徴とする対象パターン検出方法。
  2. 前記対象背景区別情報は、前記輪郭点毎、または、前記輪郭候補点毎に対象領域と背景領域の2つの値をとりうる区別情報の集合である
    ことを特徴とする請求項1記載の対象パターン検出方法。
  3. 前記対象背景区別情報は、前記輪郭点毎、または、前記輪郭候補点毎に少なくとも対象領域、背景領域、不明領域の2つの値をとりうる区別情報の集合である
    ことを特徴とする請求項1記載の対象パターン検出方法。
  4. 前記テンプレート入力ステップにおいて、前記テンプレートの各輪郭点に対応する第1ベクトルを前記対象背景区別情報として入力し、前記第1ベクトルは、前記テンプレートの輪郭点から前記対象物の方向へのベクトルであり、
    前記画像輪郭候補点入力ステップにおいて、前記画像のそれぞれの輪郭候補点に対応する第2ベクトルを前記対象背景区別情報として入力し、前記第2ベクトルは、前記画像中の輪郭候補点から前記対象物の方向へのベクトルであり、
    前記投票ステップは、前記輪郭候補点毎に前記第1ベクトルと前記第2ベクトルのなす角であるベクトル角が予め定めた範囲内にあるか否かを判定し、前記ベクトル角判定ステップの判定が真である場合のみ前記評価値を与える
    ことを特徴とする請求項1記載の対象パターン検出方法。
  5. 前記投票ステップは、前記輪郭候補点毎に前記第1ベクトルと前記第2ベクトルのカーネル関数、または、内積が予め定めた範囲内にあるか否かを判定する
    ことを特徴とする請求項5記載の対象パターン検出方法。
  6. 前記投票ステップは、前記第1ベクトルと前記第2ベクトルのカーネル関数、または、内積の値を前記評価値として用いる
    ことを特徴とする請求項5記載の対象パターン検出方法。
  7. 前記テンプレートの各輪郭点、または、前記画像中の各輪郭候補点の少なくともどちらか一方に重み値がそれぞれ設定され、
    前記投票ステップでは、前記各評価値の合計を求める場合に、前記テンプレートの各輪郭点、または、前記画像中の各輪郭候補点の少なくともどちらか一方の重み値に基づいて演算した評価値を合計する
    ことを特徴とする請求項1記載の対象パターン検出方法。
  8. 画像中に存在する対象物を検出するために、前記対象物にテンプレートを重ねるための変換パラメータを検出する対象パターン検出装置であって、
    前記検出対象のパターンの輪郭線上の輪郭点と、前記輪郭点における前記パターンを示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を持つテンプレートを入力するテンプレート入力手段と、
    前記画像中の前記対象物の輪郭候補線上の輪郭候補点と、前記輪郭候補点毎に前記対象物を示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を入力する画像輪郭候補点入力手段と、
    前記変換パラメータを変えながら前記テンプレートの位置または形状を変換し、この変換により重なった前記画像中の輪郭候補点と前記テンプレートの輪郭点との組の各々について、前記テンプレートの対象背景区別情報に基づく対象領域及び背景領域の分布と、前記画像の対象背景区別情報に基づく対象領域及び背景領域の分布との類似性の高さを表す評価値を求め、前記変換パラメータ毎に前記評価値の中で閾値以上の評価値の合計を求める投票手段と、
    前記変換パラメータの中で前記評価値の合計が最も大きい変換パラメータを出力する検出変換パラメータ出力手段と、
    を備える
    ことを特徴とする対象パターン検出装置。
  9. 画像中に存在する対象物を検出するために、前記対象物にテンプレートを重ねるための変換パラメータをコンピュータによって検出する対象パターン検出プログラムであって、
    前記検出対象のパターンの輪郭線上の輪郭点と、前記輪郭点における前記パターンを示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を持つテンプレートを入力するテンプレート入力機能と、
    前記画像中の前記対象物の輪郭候補線上の輪郭候補点と、前記輪郭候補点毎に前記対象物を示す対象領域とそれ以外の背景領域とを区別する対象背景区別情報を入力する画像輪郭候補点入力機能と、
    前記変換パラメータを変えながら前記テンプレートの位置または形状を変換し、この変換により重なった前記画像中の輪郭候補点と前記テンプレートの輪郭点との組の各々について、前記テンプレートの対象背景区別情報に基づく対象領域及び背景領域の分布と、前記画像の対象背景区別情報に基づく対象領域及び背景領域の分布との類似性の高さを表す評価値を求め、前記変換パラメータ毎に前記評価値の中で閾値以上の評価値の合計を求める投票機能と、
    前記変換パラメータの中で前記評価値の合計が最も大きい変換パラメータを出力する検出変換パラメータ出力機能と、
    をコンピュータによって実現する
    ことを特徴とする対象パターン検出プログラム。
JP2005186998A 2005-06-27 2005-06-27 対象パターン検出方法及びその装置 Abandoned JP2007004709A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005186998A JP2007004709A (ja) 2005-06-27 2005-06-27 対象パターン検出方法及びその装置
US11/417,135 US20060291726A1 (en) 2005-06-27 2006-05-04 Object pattern detection method and its apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005186998A JP2007004709A (ja) 2005-06-27 2005-06-27 対象パターン検出方法及びその装置

Publications (1)

Publication Number Publication Date
JP2007004709A true JP2007004709A (ja) 2007-01-11

Family

ID=37567414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005186998A Abandoned JP2007004709A (ja) 2005-06-27 2005-06-27 対象パターン検出方法及びその装置

Country Status (2)

Country Link
US (1) US20060291726A1 (ja)
JP (1) JP2007004709A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016095854A (ja) * 2014-11-14 2016-05-26 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置
JP2017207770A (ja) * 2012-03-28 2017-11-24 インタラクティブ・インテリジェンス・インコーポレイテ データセットをフィンガープリントするためのシステムおよび方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101110101A (zh) * 2006-07-17 2008-01-23 松下电器产业株式会社 识别图像的方法及设备
JP6134985B2 (ja) * 2014-07-31 2017-05-31 富士フイルム株式会社 曲線修正装置および方法並びにプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6546117B1 (en) * 1999-06-10 2003-04-08 University Of Washington Video object segmentation using active contour modelling with global relaxation
EP1524622A1 (en) * 2003-10-17 2005-04-20 Koninklijke Philips Electronics N.V. Method and image processing device for analyzing an object contour image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017207770A (ja) * 2012-03-28 2017-11-24 インタラクティブ・インテリジェンス・インコーポレイテ データセットをフィンガープリントするためのシステムおよび方法
JP2016095854A (ja) * 2014-11-14 2016-05-26 華為技術有限公司Huawei Technologies Co.,Ltd. 画像処理方法及び装置
CN105654458A (zh) * 2014-11-14 2016-06-08 华为技术有限公司 图像处理的方法及装置
US9704261B2 (en) 2014-11-14 2017-07-11 Huawei Technologies Co., Ltd. Image segmentation processing method and apparatus

Also Published As

Publication number Publication date
US20060291726A1 (en) 2006-12-28

Similar Documents

Publication Publication Date Title
US8570383B2 (en) Apparatus, method and computer program for recognizing a gesture in a picture, and apparatus, method and computer program for controlling a device
JP4284288B2 (ja) パターン認識装置及びその方法
EP2783328B1 (en) Text detection using multi-layer connected components with histograms
CN106709500B (zh) 一种图像特征匹配的方法
CN104240231A (zh) 基于局部结构二进制模式的多源图像配准
JP5747733B2 (ja) 対象検出装置、対象検出方法、分類器作成装置及び分類器作成方法
Sommer et al. Primitect: Fast continuous hough voting for primitive detection
JP2007004709A (ja) 対象パターン検出方法及びその装置
Li A geometric framework for rectangular shape detection
Dong et al. Robust ellipse detection via arc segmentation and classification
Gattal et al. Segmentation and recognition strategy of handwritten connected digits based on the oriented sliding window
Hu et al. Boundary shape-preserving model for building mapping from high-resolution remote sensing images
Pal et al. Determining digital circularity using integer intervals
CN111325199B (zh) 一种文字倾斜角度检测方法及装置
Haryono et al. Oriented object detection in satellite images using convolutional neural network based on ResNeXt
TWI384418B (zh) 採用區域架構之影像處理方法及系統
CN111753573B (zh) 二维码图像识别方法、装置、电子设备以及可读存储介质
Fang et al. Optimized generalized hough transform for road marking recognition application
Du et al. Shadow detection in high-resolution remote sensing image based on improved K-means
JP6208789B2 (ja) 直線検出装置および直線検出方法
Lo et al. A circular band extraction method based on extended hough transform
CN106980862B (zh) 一种圆形图像识别特征提取方法及系统
Kurnia et al. Object detection on hindered condition by using chain code-based angle detection
Li Object detection and instance segmentation of cables
CN114332108B (zh) 一种图片中的虚实线局部区域的提取方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061020

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20090330