JP2005196678A - テンプレートマッチング方法および対象画像領域抽出装置 - Google Patents

テンプレートマッチング方法および対象画像領域抽出装置 Download PDF

Info

Publication number
JP2005196678A
JP2005196678A JP2004004605A JP2004004605A JP2005196678A JP 2005196678 A JP2005196678 A JP 2005196678A JP 2004004605 A JP2004004605 A JP 2004004605A JP 2004004605 A JP2004004605 A JP 2004004605A JP 2005196678 A JP2005196678 A JP 2005196678A
Authority
JP
Japan
Prior art keywords
image
template
matching
edge
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004004605A
Other languages
English (en)
Other versions
JP2005196678A5 (ja
Inventor
Takaji Kitagawa
崇二 北川
Seiichiro Watanabe
誠一郎 渡辺
Tadahiro Kuroda
忠広 黒田
Kazuhiro Sato
一弘 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEUCORE TECHNOL Inc
Original Assignee
NEUCORE TECHNOL Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEUCORE TECHNOL Inc filed Critical NEUCORE TECHNOL Inc
Priority to JP2004004605A priority Critical patent/JP2005196678A/ja
Priority to US10/970,804 priority patent/US20050152604A1/en
Publication of JP2005196678A publication Critical patent/JP2005196678A/ja
Publication of JP2005196678A5 publication Critical patent/JP2005196678A5/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/752Contour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】極めて小さいデータ量のテンプレートで精度よく対象画像領域を抽出できるようにする。
【解決手段】テンプレートデータ13を、処理領域のうち対象画像のエッジが存在する位置を示すポジティブ点と、処理領域のうちエッジが存在しない位置を示すネガティブ点とから構成し、各ポジティブ点およびネガティブ点と処理領域画像内に存在する各エッジとの位置関係に応じてマッチング値を算出する。
【選択図】 図1

Description

本発明は、画像処理技術に関し、特に、入力画像に含まれる対象画像の領域を、その対象画像の形状的特徴を示すテンプレートデータに基づき特定し、その対象画像領域に関する情報を抽出する技術に関する。
従来より、入力画像に含まれる対象画像を、その対象画像の特徴を示すテンプレートデータに基づき特定する技術として、テンプレートマッチング方法が広く用いられている。これは、図13に示すように、入力画像上でテンプレートデータTと等しい大きさの処理領域を画素単位で走査して、それぞれの処理領域画像Wについて入力画像とテンプレートデータとの一致性を示すマッチング値を求め、その最大値が得られた処理領域に基づき所望の対象画像領域を特定するものである。
マッチング値については、例えば正規化相関係数などが用いられる。正規化相関係数R(x,y)は、処理領域画像W内の画素u(i,j)の画素値W(x+i,y+j)とテンプレートデータT内の画素u'(i,j)の画素値T(i,j)とを用いて、式(4)に基づき求められる。なお、Wavgは処理領域での平均画素値、Tavgはテンプレートの平均画素値である。この正規化相関係数は両画像の相関が高ければ1に近づき、低ければ−1に近づくものとなる。
このようなテンプレートマッチング方法は、例えば電子部品の基板装着装置で利用される。この種の装置では、基板に装着しようとして吸着している部品をカメラ等の撮像装置で撮像し、前述したテンプレートマッチング方法に基づき、その吸着位置や方向を認識し位置や方向の修正を行うことにより、部品を基板上に配置して精度良く装着することが可能になる。
具体的な部品の吸着位置や方向の認識は次のような方法で行われている。まず、撮像画像において部品の画像から縦方向および横方向の射影分布を作成し、この射影分布より対象部品のおおまかな位置や方向を認識する。そして、そのおおまかな位置情報や方向情報より、対象部品の四隅の角がどの辺の領域にあるのかを予測し、その領域において四隅の角の形状を持ったテンプレートを用いたテンプレートマッチング方法を行うことで正確な部品の位置を認識するものとなっている。
従来、このようなテンプレートマッチング方法の領域抽出精度を向上させるため、各種技術が提案されている。
まず、第1の技術として、例えば特許文献1のような技術が提案されている。このテンプレートマッチング方法は、テンプレートデータ上にマッチング値の計算上、無効データとして取り扱うように設定したマスク領域を設けている。このようなテンプレートを用いることで、テンプレートの微小な角度のずれがマッチング値を求めるときの相関計算上、影響を及ぼさないように工夫されている。
また、第2の従来技術として、前述したテンプレートマッチング方法を用いて人物顔領域を抽出する装置が提案されている(例えば、非特許文献1など参照)。これは、人物顔領域を含む濃淡画像中を図14に示したようなモザイク顔テンプレートを用いて探索することにより、画像中における人物顔領域を特定するものとなっている。
このほか、第3の従来技術として、人物顔領域を含むデジタルカラー画像から、予め設定された肌色に該当する肌色画素のみを抽出した肌色抽出画像のから肌色抽出領域のエッジ画像を作成し、その画像中を楕円形上のテンプレートを用いたテンプレートマッチングにより探索することで、人物顔領域を抽出する技術も提案されている。
なお、出願人は、本明細書に記載した先行技術文献情報で特定される先行技術文献以外には、本発明に関連する先行技術文献を出願時までに発見するには至らなかった。
特開平8−315147号公報 長尾智晴著、「C言語による画像処理入門」、昭晃堂、2000年11月20日、p.204―211
しかしながら、このような従来技術では、対象画像領域の抽出に必要なテンプレート数が多いため処理時間が長く、またノイズの影響を受けて誤抽出しやすいという問題点があった。
まず、前述した第1の従来技術では、部品の位置を認識するために、撮像した画像において対象画像とする部品の画像縦方向および横方向の射影分布を作成する必要がある。また、対象画像およびテンプレートデータともに撮像されたモノクロームの2値化画像もしくは濃淡画像を使用しているためテンプレート数が多くなってしまい、マッチング処理を行う上で相関計算に時間がかかるなどの問題がある。
また、前述した第2の従来技術では、モザイク顔のテンプレートが用いられているが、この場合も、入力画像、テンプレートデータともにモノクローム濃淡画像を用いており、画像中の顔全体とのテンプレートマッチングを行うため、テンプレート数が多くなる。このため、テンプレートを格納するメモリ量の増大や、テンプレートマッチングの処理時間の増大するという問題がある。さらに、このような画像の濃淡情報を利用して顔領域を探索する方法では、画像中の人物が横を向いている場合など、画像中の顔の向きなどによる変化が認識率に大きく影響を与えてしまうという問題もある。
また、前述した第3の従来技術では、人物顔領域を含むデジタルカラー画像から、予め設定された肌色に該当する肌色画素のみを抽出した肌色抽出画像から肌色抽出領域のエッジ画像を作成し、その画像中を楕円形上のテンプレートを用いたテンプレートマッチングにより探索することで、顔領域を抽出ということが行われている。しかし、この方法では楕円形状のエッジテンプレートが顔以外で色が人物の肌の色に近かった領域のエッジにとらわれてしまうという問題があった。
実際に第3の従来技術をデジタルカメラなどの画像に応用した場合では、図15に示すように、顔領域301に対して顔テンプレート302がマッチングするものの、木の幹など肌色に近い色をしていて表面がざらついている物体が存在すると、肌色抽出領域のエッジ画像上に多くのエッジがノイズとして現れ、このようなノイズが存在する誤った領域へ顔テンプレート303がマッチングしまうという問題点がある。
また、三角形のエッジ画像中から特定の角度を持った対象角の位置検出を行う場合では、図16に示すように、所望の対象角311へ角テンプレート312がマッチングするものの、2つの三角形が作る誤った領域へ角テンプレート313がマッチングしてしまうという問題点がある。
本発明はこのような課題を解決するためのものであり、極めて小さいデータ量のテンプレートで精度よく対象画像領域を抽出できるようにする。テンプレートマッチング方法および対象画像領域抽出装置を提供することを目的としている。
このような目的を達成するために、本発明にかかるテンプレートマッチング方法は、入力画像のエッジ画像から取得した任意の処理領域における処理領域画像と、対象画像の形状的特徴を示すテンプレートデータとを用いて、処理領域画像と対象画像との一致性を示すマッチング値を算出し、このマッチング値に基づき入力画像における対象画像の領域を特定するテンプレートマッチング方法において、テンプレートデータは、処理領域のうち対象画像のエッジが存在する位置を示すポジティブ点と、処理領域のうちエッジが存在しない位置を示すネガティブ点とからなり、各ポジティブ点およびネガティブ点と処理領域画像内に存在する各エッジとの位置関係に応じてマッチング値を算出する第1のステップを備えるものである。
この際、エッジ画像を、入力画像に含まれるエッジの画像をそれぞれの階調値で示す複数の画素から構成し、第1のステップとして、各ポジティブ点およびネガティブ点ごとに、これら各点の位置に対応する処理領域画像の画素の階調値に基づき評価値をそれぞれ算出する第2のステップと、これらポジティブ点およびネガティブ点の評価値からマッチング値を算出する第3のステップとを設けてもよい。
さらに、第2のステップとして、各ポジティブ点ごとに、処理領域画像のうち当該ポジティブ点の位置に対応する画素の階調値を評価値として算出するステップと、各ネガティブ点ごとに、エッジ画像の階調数から処理領域画像のうち当該ネガティブ点の位置に対応する画素の階調値を減算した値を評価値として算出するステップとを設け、第3のステップとして、第2のステップで算出された各評価値の総和からマッチング値を算出するステップを設けてもよい。
また、第1のステップとして、テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータをマッチング候補情報として生成する第4のステップと、マッチング候補情報に基づきテンプレートデータの各ポジティブ点およびネガティブ点の座標を変換し、マッチング値の算出に用いる新たなテンプレートデータを生成する第5のステップとをさらに設けてもよい。
この際、第4のステップとして、テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータを含む染色体情報を持つ複数の個体を保持するステップと、各個体のいずれか複数を親個体として指定するステップと、親個体から遺伝的アルゴリズムに基づき子個体を生成するステップと、子個体の染色体情報に含まれるパラメータをマッチング候補情報として出力するステップとを設けてもよい。
さらに、第4のステップに加えて、保持されている個体のうち、当該個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られたマッチング値が最も低いものを置換候補として選択するステップと、子個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られたマッチング値が、置換候補のマッチング値より高い場合は、置換候補に代えて子個体を新たな個体として保持するステップとを設けてもよい。
また、テンプレートにおけるネガティブ点を、対象画像のエッジの周囲に存在する当該対象画像の他のエッジに重ならないように配置してもよい。
この際、ネガティブ点を、対象画像のエッジにより形成される領域の内側に配置してもよく、あるいは対象画像のエッジにより形成される領域の外側に配置してもよい。
また、ネガティブ点を、ポジティブ点の配置が形成する形状に沿って、この形状の周囲に配置してもよい。
また、ポジティブ点を、当該ポジティブ点が配置される領域で対象画像のエッジが出現する割合に応じた密度で配置してもよく、あるいはネガティブ点を、当該ネガティブ点が配置される領域で対象画像以外のエッジが出現する割合に応じた密度で配置してもよい。
また、対象画像として人物顔画像を用い、対象画像のエッジとして、人物顔画像の下部輪郭を示すエッジを用いてもよい。
また、テンプレートデータとして、人物顔画像の下部輪郭を示すエッジが存在する位置を示すポジティブ点と、人物顔画像の下部輪郭を示すエッジが存在しない位置を示すネガティブ点とを有する顔テンプレートデータを用いてもよく、人物顔画像の下部輪郭を示すエッジとして半楕円形状を用いてもよい。
この際、ポジティブ点を、人物顔画像の頬輪郭領域に高い密度で配置され、人物顔画像の顎輪郭領域に低い密度で配置してもよく、あるいはネガティブ点を、人物顔画像の下部輪郭を示すエッジにより形成される領域の外側領域のうち、人物顔画像の頬輪郭領域に高い密度で配置され、人物顔画像の顎輪郭領域に低い密度で配置してもよい。
また、本発明にかかる対象画像領域抽出装置は、上記いずれかのテンプレートマッチング方法を用いて、入力画像に含まれる人物顔画像の領域を特定するようにしたものである。
また、本発明にかかる他の対象画像領域抽出装置は、入力画像から物の輪郭を示すエッジ画像を生成する画像入力部と、エッジ画像を記憶保持する画像保持部と、抽出したい対象画像の形状的特徴を示すテンプレートデータを記憶保持するテンプレートデータ保持部と、テンプレートデータの座標変換に用いる複数種のパラメータをマッチング候補情報として生成するマッチング候補出力部と、テンプレートデータ保持部から読み出したテンプレートデータをマッチング候補情報に基づき座標変換し新たなテンプレートデータを生成するテンプレート座標計算部と、画像保持部のエッジ画像上に順次設定した処理領域から取り出した処理領域画像とテンプレートデータ座標変換部で生成されたテンプレートデータとの一致性を示すマッチング値を算出するマッチング計算処理部と、マッチング計算処理部から得られたマッチング値が所定の基準値を超えた場合、当該マッチング値が得られた処理領域を対象画像を含む領域として特定する対象領域特定部と、特定された処理領域の座標位置とテンプレートデータとに基づき、対象画像領域に関する領域情報を出力する領域情報抽出部とを備え、テンプレートデータを、処理領域のうち対象画像のエッジが存在する位置を示すポジティブ点と、処理領域のうちエッジが存在しない位置を示すネガティブ点とから構成し、テンプレート座標計算部で、各ポジティブ点およびネガティブ点と処理領域画像内に存在する各エッジとの位置関係に応じてマッチング値を算出するようにしたものである。
この際、エッジ画像を、入力画像に含まれるエッジの画像をそれぞれの階調値で示す複数の画素から構成し、テンプレート座標計算部で、各ポジティブ点およびネガティブ点ごとに、これら各点の位置に対応する処理領域画像の画素の階調値に基づき評価値をそれぞれ算出し、これらポジティブ点およびネガティブ点の評価値からマッチング値を算出するようにしてもよい。
さらに、テンプレート座標計算部で、各ポジティブ点ごとに、処理領域画像のうち当該ポジティブ点の位置に対応する画素の階調値を評価値として算出し、各ネガティブ点ごとに、エッジ画像の階調数から処理領域画像のうち当該ネガティブ点の位置に対応する画素の階調値を減算した値を評価値として算出し、各評価値の総和からマッチング値を算出するようにしてもよい。
また、マッチング候補出力部に、テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータを含む染色体情報を持つ複数の個体を記憶保持する個体群保持部と、個体群保持部に保持されている各個体のいずれか複数を親個体として指定する親個体指定部と、親個体から遺伝的アルゴリズムに基づき子個体を生成し、この子個体の染色体情報に含まれるパラメータをマッチング候補情報として出力する新規個体生成部とを設けてもよい。
さらに、マッチング候補出力部に、個体群保持部に保持されている個体のうち、当該個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られたマッチング値が最も低いものを置換候補として選択するステップと、子個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られたマッチング値が、置換候補のマッチング値より高い場合は、置換候補に代えて子個体を新たな個体として保持するステップとを設けてもよい。
本発明によれば、極めて小さいデータ量のテンプレートで対象画像のエッジ位置を探索することが可能となるとともに、対象画像以外のエッジをネガティブ点で認識でき精度よく対象画像領域を抽出できる。
したがって、従来のように複数のテンプレートを用いたりテンプレートデータとして濃淡画像を用いる場合と比較して、マッチング値算出処理に要する処理時間を大幅に短縮でき、テンプレートデータを保持しておくための記憶容量を大幅に削減できるとともに、ノイズの影響を受けることなく高い精度で対象画像領域を抽出できる。
次に、本発明の実施の形態について図面を参照して説明する。
[第1の実施の形態]
まず、図1を参照して、本発明の第1の実施の形態にかかるテンプレートマッチング方法およびこれを用いた対象画像領域抽出装置について説明する。図1は本発明の第1の実施の形態にかかる対象画像領域抽出装置の構成を示すブロック図である。
この対象画像領域抽出装置は、全体して画像処理を行うコンピュータからなり、CPUやDSP(Digital Signal Processer)などのマイクロプロセッサおよびその周辺回路を含むハードウェアと予め用意されたプログラムとが協働し、あるいはハードウェア単独で各種機能手段を実現する。
この機能手段としては、画像入力部1、画像保持部2、テンプレートテータ保持部3、マッチング候補出力部4、テンプレート座標計算部5、マッチング計算処理部6、対象領域特定部7、および対象領域情報抽出部8が設けられている。
本実施の形態にかかるテンプレートマッチング方法は、入力画像のエッジ画像から順次取得した処理領域画像と対象画像の形状的特徴を示すテンプレートデータとを比較し、両者の一致性を示すマッチング値に基づき、入力画像のエッジ画像から所望の対象画像領域を抽出する際、その対象画像のうちエッジ位置を示すポジティブ点と、エッジのない位置を示すネガティブ点とからなるテンプレートデータを用いるようにしたものである。そして、各ポジティブ点およびネガティブ点と処理領域画像内に存在する各エッジとの位置関係に応じてマッチング値を算出するようにしたものである。また、本実施の形態にかかる対象画像領域抽出装置は、このようなテンプレートマッチング方法を用いて、入力画像における所望の対象画像領域の位置、回転角度、大きさなどの対象領域情報を抽出するようにしたものである。
次に、図1を参照して、各機能手段について説明する。
画像入力部1は、カメラなどの撮像装置で撮像された入力画像10を通信回線や記録媒体を介して、あるいは撮像装置から直接取り込んで、エッジ抽出処理を行うことにより物の輪郭を示すエッジ画像11を生成して出力する機能手段である。この際、例えば人物顔領域を抽出する場合には、そのデジタルカラー画像からなる入力画像10に対して、肌色画素の抽出、ノイズの除去、微分フィルタによるエッジの抽出が行われる。そして、得られたエッジ画像が2値化された後、ローパスフィルタによるぼかし処理が行われ、所定の階調数、例えば7階調(3ビット)や3階調(2ビット)を持つエッジ画像11が生成される。これら画像処理には公知の処理を用いればよい。このようにして得られたエッジ画像11は、一般に、エッジ部分が階調値の大きい黒画素で表現され、エッジのない領域が階調値の小さい白画素で表現される。
画像保持部2は、メモリやハードディスクなどの記憶装置からなり、画像入力部1で生成されたエッジ画像11を記憶保持する機能手段である。
テンプレートデータ保持部3は、メモリやハードディスクなどの記憶装置からなり、予め入力されたテンプレートデータ13を、入力画像10から抽出したい対象画像の形状的特徴を示すテンプレートデータとして保持する機能手段である。このテンプレートデータ13は、対象画像のうちエッジ位置を表すポジティブ点と、エッジのない位置を表すネガティブ点とから形成されており、実際には、これらポジティブ点およびネガティブ点の位置を示す座標情報から構成されている。
マッチング候補出力部4は、テンプレートデータ13をエッジ画像11とマッチングさせる際の中心位置、回転角、拡大率などの変換パラメータをランダムに選択しマッチング候補情報14として出力する機能手段である。
テンプレート座標計算部5は、マッチング候補出力部4からのマッチング候補情報14に基づき、テンプレートデータ保持部3から読み出したテンプレートデータ13を座標変換し、新たなテンプレートデータ15として出力する機能手段である。
マッチング計算処理部6は、テンプレート座標計算部5からのテンプレートデータ15を用いて、画像保持部2から読み出したエッジ画像11について、後述するマッチング値算出処理を行うことにより、エッジ画像11上に順次設定した処理領域ごとにマッチング値を計算し、計算結果16として出力する機能手段である。
この際、マッチング計算処理部6は、マッチング値算出処理として、テンプレートデータ15で設定されているポジティブ点またはネガティブ点とエッジ画像11内に存在するエッジとの位置関係に応じてマッチング値を算出する。
対象領域特定部7は、マッチング計算処理部6からの計算結果16に含まれるマッチング値と予め設定されている基準値とを比較し、その基準値を超えるマッチング値が見つかった時点で、そのマッチング値が得られた処理領域が所望の対象画像の存在する位置であると特定し、その処理領域を示す処理領域情報17を出力する機能手段である。
対象領域情報抽出部8は、対象領域特定部7からの処理領域情報17で指定された処理領域を示す座標情報とテンプレートデータ15とに基づいて、入力画像10における所望の対象画像領域に関する情報として、対象画像領域の位置、角度、大きさなどを示す対象領域情報18を出力する機能手段である。
[テンプレートデータの構成]
次に、図2および図3を参照して、本実施の形態で用いるテンプレートデータの構成について説明する。図2は本実施の形態で用いるテンプレートデータの構成例である。図3は本実施の形態で用いるテンプレートデータの他の構成例である。
例えば、入力画像から顔領域を抽出する場合、図2のテンプレートデータ13に示すように、特徴点として、人物顔の輪郭ここでは半楕円形の顎輪郭を示すエッジに沿ってポジティブ点21が配置され、これらポジティブ点21により形成される領域23の外側、すなわち顔の輪郭の外側にネガティブ点22が配置されている。
また、図3のテンプレートデータ13では、特徴点として、図2と同様に人物顔の輪郭を示すエッジに沿ってポジティブ点21が配置され、これらポジティブ点21により形成される領域23の外側にネガティブ点22Aが配置されており、領域23の内側にネガティブ点22Bが配置されている。
なお、これらポジティブ点21およびネガティブ点22,22A,22Bからなる特徴点は、処理領域と等しい所定の大きさのテンプレート領域上における座標情報により指定される。
[テンプレートデータの変換処理]
次に、図4を参照して、本実施の形態で用いるテンプレートデータの変換処理について説明する。図4は本実施の形態で用いるテンプレートデータの変換処理を示す説明図であり、(a)は回転角および中心座標に関する変換を示す説明図、(b)は拡大率に関する変換を示す説明図、(c)はテンプレートデータの変換に用いる数式である。
テンプレート座標計算部5では、マッチング候補出力部4からのマッチング候補情報14に基づきテンプレートデータ13の変換を行う。マッチング候補情報14には、テンプレートデータ13に対する変換パラメータとして、中心座標x,y、回転角θ、および拡大率Mが含まれている。
中心位置x,yは、例えば図4(a)に示すように、エッジ画像11とのマッチング値算出処理でポジティブ点およびネガティブ点からなる特徴点群の基準となる座標、例えば人物顔における顎などの座標を指示する変換パラメータであり、指定されたx,yに中心位置を持つ新たなテンプレートデータが得られる。
回転角θは、特徴点群の回転量を示す変換パラメータであり、例えばテンプレートデータ13が顔の輪郭を示す場合、その輪郭を示す特徴点群が所定の原点座標を中心としてθだけ回転された新たなテンプレートデータが得られる。
また、拡大率Mは、例えば図4(b)に示すように、テンプレートデータ13の拡大/縮小の度合いを示す変換パラメータであり、例えばテンプレートデータ13が顔の輪郭を示す場合、その輪郭を示す特徴点群が拡大率Mだけ拡大/縮小された新たなテンプレートデータが得られる。
テンプレートデータ13を構成する特徴点群の点列Pすなわちp1〜pnの座標情報は、図4(c)の式(1)により予め与えられており、上記変換パラメータをもとに、式(2)および式(3)を用いて点列Pにアフィン変換を行い、変換により得られた新たな座標情報が、テンプレートデータ15の特徴点群の点列Hすなわちh1〜hnとなる。
[マッチング値算出処理]
次に、図5を参照して、本実施の形態にかかるマッチング値算出方法について説明する。図5は本発明の第1の実施の形態にかかるマッチング値算出処理を示すフローチャートである。以下では、エッジ画像11に設定された1つの処理領域の画像とテンプレートデータ15とを用いて、両者のマッチング値を計算する場合を例として説明する。
まず、マッチング計算処理部6は、エッジ画像11から当該処理領域の画像データを読み出し(ステップ100)、マッチング値mを初期値(m=0)に設定する(ステップ101)。
次に、テンプレートデータ15から任意のポジティブ点hを選択して読み出す(ステップ102)。そして、処理領域画像のうちポジティブ点hの座標情報hx,hyに相当する位置の画素の階調値gを取得して、ポジティブ点hに対応する評価値として算出し(ステップ103)、この評価値gをマッチング値mに加算する(ステップ104)。
このようにして、すべてのポジティブ点hについて、上記ステップ102〜104を繰り返し実行する(ステップ105:NO)。
ステップ105において、すべてのポジティブ点hを選択してポジティブ点の評価処理が終了した場合は(ステップ105:YES)、テンプレートデータ15から任意のネガティブ点hを読み出す(ステップ106)。そして、処理領域画像のうちネガティブ点hの座標情報hx,hyに相当する位置の画素の階調値gを取得して、これをエッジ画像11の階調数Lから減算した値L−gを、ネガティブ点hに対応する評価値として算出し(ステップ107)、この評価値L−gをマッチング値mに加算する(ステップ108)。
このようにして、すべてのネガティブ点hについて、上記ステップ106〜108を繰り返し実行し(ステップ109:NO)、すべてのネガティブ点hを選択してネガティブ点の評価処理が終了した場合は(ステップ109:YES)、得られたマッチング値mをポジティブ点とネガティブ点の個数Nで除算することにより、正規化されたマッチング値を算出し(ステップ110)、一連のマッチング値算出処理を終了する。
これにより、得られるマッチング値mは、0から1までの値をとり、大きい値のほうが処理領域画像とテンプレートデータ15との一致性が高いことを示す。
このように本実施の形態では、対象画像のエッジ位置を示すポジティブ点と対象画像のエッジのない位置を示すネガティブ点とからなるテンプレートデータを用い、各ポジティブ点およびネガティブ点と処理領域画像内に存在する各エッジとの位置関係に応じてマッチング値を算出するようにしたので、極めて小さいデータ量のテンプレートで対象画像のエッジ位置を探索することが可能となるとともに、対象画像以外のエッジを認識でき精度よく対象画像領域を抽出できる。
したがって、従来のように複数のテンプレートを用いたりテンプレートデータとして濃淡画像を用いる場合と比較して、マッチング値算出処理に要する処理時間を大幅に短縮できるとともに、テンプレートデータを保持しておくための記憶容量を大幅に削減できる。
また、マッチング値を算出する際、各ポジティブ点およびネガティブ点ごとに、これら各点の位置に対応する処理領域画像の画素の階調値に基づき評価値をそれぞれ算出し、これら評価値からマッチング値を算出するようにしたので、処理領域画像の画素の階調値に対する演算だけでマッチング値を算出でき、処理を簡素化できる。
この際、より具体的には、各ポジティブ点ごとに、当該ポジティブ点の位置に対応する画素の階調値を評価値として算出するともとに、各ネガティブ点ごとに、エッジ画像の階調数から当該ネガティブ点の位置に対応する画素の階調値を減算した値を評価値として算出し、これら各評価値の総和からマッチング値を算出するようにしたので、マッチング値の算出が加減算処理だけで実現でき、極めて短時間でマッチング値を算出できる。
[テンプレートマッチング処理]
次に、図6を参照して、本発明の第1の実施の形態にかかる対象画像領域抽出装置の動作として、テンプレートマッチング処理について説明する。図6は本発明の第1の実施の形態にかかるテンプレートマッチング処理を示すフローチャートである。
まず、画像入力部1は、処理対象となる入力画像10を取り込んでエッジ画像11を生成し(ステップ120)、エッジ画像11を画像保持部2に保持する(ステップ121)。
次に、マッチング候補出力部4は、ランダム発生関数などを用いたマッチング候補選択処理により、中心位置、回転角、拡大率などの変換パラメータを選択してマッチング候補情報14として出力する(ステップ122)。
テンプレート座標計算部5は、このマッチング候補情報14に基づき、予めテンプレートデータ保持部3から読み出したテンプレートデータ13を変換し、テンプレートデータ15として出力する(ステップ123)。
マッチング計算処理部6は、画像保持部2のエッジ画像11から任意の処理領域に対応する処理領域画像を読み出し(ステップ124)、上記テンプレートデータ15を用いて前述した図5のマッチング値算出処理を行う(ステップ125)。そして、このマッチング値算出処理により各処理領域画像ごとに得られたマッチング値を、当該処理領域を示す領域情報とともに計算結果16として出力する。
対象領域特定部7は、マッチング計算処理部6からの計算結果16に含まれるマッチング値と予め設定されている基準値とを比較し(ステップ126)、その基準値を超えるマッチング値が見つからなかった場合は(ステップ126:NO)、未処理の処理領域がある場合にのみ(ステップ127:YES)、ステップ124へ戻って新たな処理領域に対するマッチング処理へ移行する。
この際、未処理の処理領域がなく、当該テンプレートデータ15を用いたマッチング処理が終了した場合は(ステップ127:NO)、未処理のマッチング候補がある場合にのみ、例えば使用したマッチング候補が所定数に達していない場合には(ステップ128:YES)、ステップ122へ戻って新たなマッチング候補を用いたテンプレートデータ15の生成処理へ移行する。
一方、未処理のマッチング候補がなく、例えば使用したマッチング候補の数が所定数に達し、すべてのマッチング候補についてのマッチング処理が終了した場合は(ステップ128)、所望の対象画像が入力画像10で特定できないことになり、一連のテンプレートマッチング処理を終了する。
また、ステップ126において、基準値を超えるマッチング値が見つかった場合(ステップ126:YES)、対象領域特定部7は、そのマッチング値が得られた当該処理領域が所望の対象画像領域を含む領域であると特定し、当該処理領域を示す処理領域情報17を出力する(ステップ129)。
対象領域情報抽出部8は、対象領域特定部7からの処理領域情報17に基づき、入力画像10上における処理領域画像の基準位置を把握するとともに、テンプレートデータ15に基づき、例えば処理領域の最左点・最上点・最右点・最下点で囲まれた矩形領域を把握し、これら情報から対象領域情報18を生成して出力し(ステップ130)、一連のテンプレートマッチング処理を終了する。
図7に本実施の形態による顔領域の抽出結果を示す。前述した従来技術による図15の結果では、木の幹が肌色に近い色をしていて表面がざらついているため、肌色抽出領域のエッジ画像上に多くのエッジがノイズとして現れ、そこに顔テンプレート303がマッチングしてしまっていた。本実施の形態によれば、テンプレートデータがポジティブ点とネガティブ点から構成されているため、図7に示すように、ノイズにテンプレートがとらわれなくなり、顔領域201に対してポジティブ点とネガティブ点からなる顔テンプレート202が正しくマッチングするものとなる。
また、図8に本実施の形態による角領域の抽出結果を示す。前述した従来技術による図16の結果では、2つの三角形が作る誤った領域への角テンプレート313がマッチングしてしまっていた。本実施の形態によれば、テンプレートデータがポジティブ点とネガティブ点から構成されているため、図8に示すように、2つの三角形が作る余分なエッジすなわち対象画像以外のエッジがネガティブ点により認識されて、所望の角領域との違いがマッチング値に考慮され、所望の角領域211に対してポジティブ点とネガティブ点からなる角テンプレート212が正しくマッチングするものとなる。
また、本実施の形態では、テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータをマッチング候補情報としてランダムに生成し、このマッチング候補情報に基づきテンプレートデータの各ポジティブ点およびネガティブ点の座標を変換し、マッチング値の算出に用いる新たなテンプレートデータを生成するようにしたので、位置、回転角あるいは大きさが異なる膨大な種類の対象画像が入力画像10内に含まれる可能性がある場合でも、このような広大な探索空間から少ないテンプレートデータで、所望の対象画像領域を効率よく抽出できる。
なお、以上では、テンプレートデータの構成例として図2や図3を示したが、これに限定されるものではない。
例えばテンプレートデータとして、対象画像のエッジにポジティブ点を配置し、そのエッジの周囲に存在する当該対象画像の他のエッジに重ならないように、ネガティブ点を配置したものを用いてもよい。これにより、ポジティブ点による当該対象画像の特定に用いない当該対象画像の他のエッジを、当該抽出画像以外のエッジとしてネガティブ点で認識してしまうケースを避けることができ、さらに精度良くテンプレートマッチングを行うことができる。
この際、対象画像のエッジにより形成される領域の内側に、ネガティブ点を追加して配置してもよい。これにより、上記領域の内側に対象画像の他のエッジが少ない場合には、そのネガティブ点による上記誤認が回避されるとともに、そのネガティブ点により当該抽出画像以外のエッジを認識でき、比較的少ない数のネガティブ点を追加するだけでマッチング精度をさらに向上できる。
あるいは、対象画像のエッジにより形成される領域の外側に、ネガティブ点を追加して配置してもよい。これにより、上記領域の外側に対象画像の他のエッジが少ない場合には、そのネガティブ点による上記誤認が回避されるとともに、そのネガティブ点により当該抽出画像以外のエッジを認識でき、比較的少ない数のネガティブ点を追加するだけでマッチング精度をさらに向上できる。
また、他のテンプレートデータとして、対象画像のエッジ上に配置したポジティブ点が形成する形状に沿って、これらポジティブ点の周囲にネガティブ点を配置したものを用いるようにしてもよい。これにより、少ない数のポジティブ点およびネガティブ点で対象画像のエッジを効率よく特定でき、データ量の少ないテンプレートで効果的に対象画像のエッジとマッチングすることができる。
また、他のテンプレートデータとして、ポジティブ点を対象画像のエッジが存在する領域に配置する際、その領域で当該エッジが出現する割合に応じた密度でポジティブ点を配置するようにしてもよい。これにより、ポジティブ点で特定すべきエッジの量に応じてポジティブ点の数を調整でき、データ量の少ないテンプレートで効果的に対象画像のエッジとマッチングすることができる。
また、他のテンプレートデータとして、ネガティブ点を対象画像のエッジの周囲に存在する領域に配置する際、その領域で当該対象画像以外のエッジが出現する割合に応じた密度で配置するようにしてもよい。これにより、ネガティブ点で認識すべき他のエッジの量に応じてネガティブ点の数を調整でき、データ量の少ないテンプレートで効果的に対象画像のエッジとマッチングすることができる。
また、本実施の形態にかかるテンプレートマッチング方法または対象画像領域抽出装置を、入力画像から人物顔画像の領域を抽出する際に用いる場合、対象画像は人物顔画像とし、対象画像のエッジとして、人物顔画像の下部輪郭を示すエッジを用いればよく、このように、人物顔画像のうち比較的明確なエッジが得られる下部輪郭を利用するようにしたので、高い精度で効率よく人物顔画像の領域を抽出できる。
また、テンプレートデータとしては、人物顔画像の下部輪郭を示すエッジが存在する位置を示すポジティブ点と、人物顔画像の下部輪郭を示すエッジが存在しない位置を示すネガティブ点とを有する顔テンプレートデータを用いればよく、顔テンプレートデータが人物顔画像以外の領域へマッチングすることを回避でき、高い精度で効率よく人物顔画像の領域を抽出できる。
この際、人物顔画像の下部輪郭を示すエッジとして半楕円形状を用いてもよく、顔テンプレートデータを容易に構成できる。また、モザイク顔のテンプレートや楕円形のような顔全体の輪郭のエッジを模倣したものを使用する場合に比べ、テンプレートの構成点数を減らせることから、マッチング処理時間を短縮することが可能になる。
さらに、顔テンプレートデータのポジティブ点については、人物顔画像の頬輪郭領域に高い密度で配置し、人物顔画像の顎輪郭領域に低い密度で配置してもよく、人物顔画像以外のエッジが存在しやすい顎輪郭のエッジが明確ではない場合でも、高い精度で人物顔画像の領域を抽出できる。
また、ネガティブ点については、人物顔画像の下部輪郭を示すエッジにより形成される領域の外側領域のうち、人物顔画像の頬輪郭領域に高い密度で配置し、人物顔画像の顎輪郭領域に低い密度で配置してもよく、カラー画像から肌色領域のエッジをとることで顔領域を含んだエッジ画像を作成した場合などにおいて、顎と首が合さってしまい顎のエッジが明確でない場合においても、高い精度で人物顔領域を抽出することができる。
[第2の実施の形態]
次に、図9を参照して、本発明の第2の実施の形態にかかるテンプレートマッチング方法およびこれを用いた対象画像領域抽出装置について説明する。図9は本発明の第2の実施の形態にかかる対象画像領域抽出装置の構成を示すブロック図である。
前述した第1の実施の形態では、マッチング候補を選択する際、ランダムに選択する場合について説明した。本実施の形態では、遺伝的アルゴリズム(GA:Genetic Algorithm)に基づきマッチング候補を選択する場合について説明する。
図9に示した対象画像領域抽出装置では、図1のマッチング候補出力部4およびマッチング計算処理部6に代えて、マッチング候補出力部4Aおよびマッチング計算処理部6Aが設けられているほかは前述と同様の構成を有し、前述と同様のテンプレートデータを用いるものであり、図1と同じまたは同等部分には同一符号を付してある。
マッチング候補出力部4Aは、遺伝的アルゴリズムに基づいて、テンプレートデータ13をエッジ画像11とマッチングさせる際の中心位置、回転角、拡大率などの変換パラメータをランダムに選択しマッチング候補情報14として出力する機能手段である。
マッチング計算処理部6Aは、テンプレート座標計算部5からのテンプレートデータ15を用いて、画像保持部2から読み出したエッジ画像11について、後述するマッチング値算出処理を行うことにより、エッジ画像11上に順次設定した処理領域ごとにマッチング値を計算し、当該処理領域の領域情報とともに計算結果16として出力する機能手段である。この際、遺伝的アルゴリズムの調整のため、得られたマッチング値をマッチング候補出力部4Aへ出力する。
[遺伝的アルゴリズムに基づくマッチング候補選択処理]
次に、図9および図10を参照して、本実施の形態にかかるマッチング候補出力部4Aでの遺伝的アルゴリズムに基づくマッチング候補選択処理について説明する。図9は、マッチング候補出力部4Aの構成例を示すブロック図である。図10は遺伝的アルゴリズムで用いる染色体情報の構成例である。
遺伝的アルゴリズムとは、生物の遺伝子メカニズム、例えば複数の個体からの新たな個体を生成する交叉、染色体情報の一部が変異する突然変異、さらにはある評価基準による個体の淘汰などのメカニズムを情報処理技術に取り入れて、既存の情報から最適な解を求めるための方法である(例えば、安居院猛/長尾知晴共著、「ジェネティックアルゴリズム」、昭晃堂、ISBN4-7856-9046-1 C3055など参照)。
図10はマッチング候補出力部4Aの構成例を示すブロック図である。マッチング候補出力部4Aは、このような遺伝的アルゴリズムを実現するための機能手段として、図10のような、個体群保持部41、親個体指定部42、交叉・突然変異処理部43、置換対象選択部44、および個体置換処理部45を有している。
次に、図12を参照して、本実施の形態にかかるマッチング候補情報生成処理について説明する。
個体群保持部41は、テンプレートデータの変換を決定する中心位置、回転角、拡大率などの変換パラメータを含む染色体情報を持つ個体を予め複数保持している。図11は個体(染色体情報)の構成例である。この個体51の構成例では、中心位置を示すx座標61およびy座標62と、回転角θ63と、拡大率M64とを、それぞれ2進数のビット列で表現して連結されている。
親個体指定部42は、アドレス情報52をランダムに生成して個体群保持部41へ出力することにより、予め個体群保持部41に保持されている各個体のうちのいずれか複数を親個体として指定する(ステップ150)。なお、アドレス情報52については、ランダム以外に、例えば規則性を持つ順番で指定したり、各個体のマッチング有効性などの評価値に応じた確率で選択してもよい。
交叉・突然変異処理部43は、アドレス情報52により選択された複数の個体51を個体群保持部41から受け取り、これらを親個体に対して交叉や突然変異などの遺伝的アルゴリズムに基づき子個体と呼ばれる新たな個体を発生させ(ステップ151)、その子個体の染色体情報に含まれるパラメータをマッチング候補情報14として出力する(ステップ152)。
これにより、テンプレート座標計算部5では、マッチング候補出力部4Aからのマッチング候補情報14に含まれる変換パラメータに基づきテンプレートデータ13を変換して、新たなテンプレートデータ15を生成する。
そして、マッチング計算処理部6Aでは、このテンプレートデータ15に基づき前述と同様のマッチング値算出処理を実行してマッチング値を計算し、その計算結果16を対象領域特定部7へ出力する。これにより、対象領域特定部7および対象領域情報抽出部8で前述と同様の処理が行われ、所望の対象領域情報18が得られる。
その後、マッチング計算処理部6Aは、上記のようにして得られたマッチング値19をマッチング候補出力部4Aへフィードバックする。
マッチング候補出力部4Aの個体置換処理部45では、マッチング計算処理部6Aからフィードバックされたマッチング値19に基づき、個体群保持部41に保持されている当該個体を評価し、マッチング値が高くマッチング有効性のある個体への置換を行う。
この際、置換対象選択部44では、個体群保持部41に保持されている各個体51のうち、これら個体を用いた場合に得られるマッチング値が最低のものを置換候補個体54とし選択し、個体置換処理部45へ通知する(ステップ153)。なお、各固体のマッチング値については、予めこれら固体の染色体情報に含まれるパラメータで座標変換して得られたテンプレートデータを用いて、エッジ画像11や所定のサンプルエッジ画像とのマッチング値を求めておいてもよい。
個体置換処理部45は、その置換候補個体54のマッチング値とフィードバックされた子個体のマッチング値19とを比較する(ステップ154)。
ここで、子個体のマッチング値19が置換候補個体54のマッチング値より高い場合(ステップ155:YES)、その置換候補個体54を当該子個体で置換するよう置換指示55を出力する。これに応じて、個体群保持部41では、置換候補個体54をマッチング有効性の高い当該子個体で置換する(ステップ154)。これにより個体の淘汰が行われ、一連のマッチング候補情報生成処理を終了する。
また、子個体のマッチング値が置換候補個体54のマッチング値より高くない場合(ステップ155:NO)、マッチング有効性の低い子個体の破棄すなわち淘汰が行われ、一連のマッチング候補情報生成処理を終了する。
通常、入力画像内の抽出画像が、どのような中心位置、回転角、拡大率で変換したテンプレートデータと効率よくマッチングするかは不明であり、マッチングに有効な変換パラメータを早期に見つけることが、抽出処理時間の短縮の重要な課題となる。
本実施の形態では、遺伝的アルゴリズムを用いてマッチング候補情報を生成するようにしたので、膨大な組み合わせが存在する変換パラメータのうちから、アドレス情報52で選択された親個体を手がかりとして、マッチングに有効な個体を進化させて所望の変換パラメータを効率よく見つけることができる。
したがって、各変換パラメータを順に変化させて生成したテンプレートデータを用いる場合、さらにはランダムな変換パラメータに基づき生成したテンプレートデータを用いる場合と比較して、所望の抽出画像を見つけるのに必要なテンプレートマッチング処理の回数を大幅に削減でき、抽出処理時間を大幅に短縮できる。
また、個体または親個体のうち、最も低いマッチング値の個体を置換候補として選択し、子個体のマッチング値が置換候補のマッチング値より高い場合には、置換候補に代えて子個体を保持するようにしたので、個体または親個体全体のマッチング値を改善することができ、より高い効率で最適な変換パラメータを見つけることができる。
なお、個体置換処理については上記処理手順に限定されるものではなく、遺伝的アルゴリズムで用いられる他の処理手順を用いてもよい。例えば、染色体情報に、各個体の寿命情報を追加し、その寿命時期の到来に応じて当該個体を消去してもよく、個体群から親個体を選択する際、各個体のマッチング値に応じた確率でマッチング値の高い個体を優先的に選択するようにしてもよい。
本発明の第1の実施の形態にかかる対象画像領域抽出装置の構成を示すブロック図である。 テンプレートデータ(顔輪郭)の構成例である。 テンプレートデータ(顔輪郭)の他の構成例である。 テンプレートデータの変換処理を示す説明図である。 本発明の第1の実施の形態にかかるマッチング値算出処理を示すフローチャートである。 本発明の第1の実施の形態にかかるテンプレートマッチング処理を示すフローチャートである。 本発明の第1の実施の形態にかかる対象画像領域抽出装置による抽出結果(顔領域)である。 本発明の第1の実施の形態にかかる対象画像領域抽出装置による抽出結果(角領域)である。 本発明の第2の実施の形態にかかる対象画像領域抽出装置の構成を示すブロック図である。 本発明の第2の実施の形態にかかるマッチング候補出力部の構成例である。 個体(染色体情報)の構成例である。 本発明の第2の実施の形態にかかるマッチング候補情報生成処理を示すフローチャートである。 従来のテンプレートマッチング処理を示す説明図である。 従来のテンプレートデータ(モザイク顔テンプレート)の構成例である。 従来の対象画像領域抽出技術による抽出結果(顔領域)である。 従来の対象画像領域抽出技術による抽出結果(角領域)である。
符号の説明
1…画像入力部、2…画像保持部、3…テンプレートテータ保持部、4,4A…マッチング候補出力部、5…テンプレート座標計算部、6,6A…マッチング計算処理部、7…対象画像位置特定、8…対象領域情報抽出部、10…入力画像、11…エッジ画像、13,15…テンプレートデータ、14…マッチング候補情報、16…計算結果、17…処理領域情報、18…対象領域情報、19…マッチング値、21…ポジティブ点、22,22A,22B…ネガティブ点、41…個体群保持部、42…親個体指定部、43…交叉・突然変異処理部、44…置換対象選択部、45…個体置換処理部、51…個体、52…アドレス情報、54…置換候補個体、55…置換指示、61…x座標、62…y座標、63…回転角θ、64…拡大率M。

Claims (23)

  1. 入力画像のエッジ画像から取得した任意の処理領域における処理領域画像と、対象画像の形状的特徴を示すテンプレートデータとを用いて、前記処理領域画像と前記対象画像との一致性を示すマッチング値を算出し、このマッチング値に基づき前記入力画像における前記対象画像の領域を特定するテンプレートマッチング方法において、
    前記テンプレートデータは、前記処理領域のうち前記対象画像のエッジが存在する位置を示すポジティブ点と、前記処理領域のうち前記エッジが存在しない位置を示すネガティブ点とからなり、
    前記各ポジティブ点およびネガティブ点と前記処理領域画像内に存在する各エッジとの位置関係に応じて前記マッチング値を算出する第1のステップを備えることを特徴とするテンプレートマッチング方法。
  2. 請求項1に記載のテンプレートマッチング方法において、
    前記エッジ画像は、前記入力画像に含まれるエッジの画像をそれぞれの階調値で示す複数の画素からなり、
    前記第1のステップは、前記各ポジティブ点およびネガティブ点ごとに、これら各点の位置に対応する前記処理領域画像の画素の階調値に基づき評価値をそれぞれ算出する第2のステップと、これらポジティブ点およびネガティブ点の評価値から前記マッチング値を算出する第3のステップとを備えることを特徴とするテンプレートマッチング方法。
  3. 請求項2に記載のテンプレートマッチング方法において、
    前記第2のステップは、前記各ポジティブ点ごとに、前記処理領域画像のうち当該ポジティブ点の位置に対応する画素の階調値を評価値として算出するステップと、前記各ネガティブ点ごとに、前記エッジ画像の階調数から前記処理領域画像のうち当該ネガティブ点の位置に対応する画素の階調値を減算した値を評価値として算出するステップとを有し、
    前記第3のステップは、前記第2のステップで算出された各評価値の総和から前記マッチング値を算出するステップを有することを特徴とするテンプレートマッチング方法。
  4. 請求項1に記載のテンプレートマッチング方法において、
    前記第1のステップは、前記テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータをマッチング候補情報として生成する第4のステップと、前記マッチング候補情報に基づき前記テンプレートデータの各ポジティブ点およびネガティブ点の座標を変換し、前記マッチング値の算出に用いる新たなテンプレートデータを生成する第5のステップとをさらに備えることを特徴とするテンプレートマッチング方法。
  5. 請求項4に記載のテンプレートマッチング方法において、
    前記第4のステップは、前記テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータを含む染色体情報を持つ複数の個体を保持するステップと、前記各個体のいずれか複数を親個体として指定するステップと、前記親個体から遺伝的アルゴリズムに基づき子個体を生成するステップと、前記子個体の染色体情報に含まれるパラメータを前記マッチング候補情報として出力するステップとを備えることを特徴とするテンプレートマッチング方法。
  6. 請求項5に記載のテンプレートマッチング方法において、
    前記第4のステップは、前記保持されている個体のうち、当該個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られた前記マッチング値が最も低いものを置換候補として選択するステップと、前記子個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られた前記マッチング値が、前記置換候補のマッチング値より高い場合は、前記置換候補に代えて前記子個体を新たな個体として保持するステップとをさらに備えることを特徴とするテンプレートマッチング方法。
  7. 請求項1に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、対象画像のエッジの周囲に存在する当該対象画像の他のエッジに重ならないように配置されることを特徴とするテンプレートマッチング方法。
  8. 請求項7に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、前記対象画像のエッジにより形成される領域の内側に配置されることを特徴とするテンプレートマッチング方法。
  9. 請求項7に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、前記対象画像のエッジにより形成される領域の外側に配置されることを特徴とするテンプレートマッチング方法。
  10. 請求項1に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、前記ポジティブ点の配置が形成する形状に沿って、この形状の周囲に配置されることを特徴とするテンプレートマッチング方法。
  11. 請求項1に記載のテンプレートマッチング方法において、
    前記ポジティブ点は、当該ポジティブ点が配置される領域で前記対象画像のエッジが出現する割合に応じた密度で配置されていることを特徴とするテンプレートマッチング方法。
  12. 請求項1に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、当該ネガティブ点が配置される領域で前記対象画像以外のエッジが出現する割合に応じた密度で配置されていることを特徴とするテンプレートマッチング方法。
  13. 請求項1に記載のテンプレートマッチング方法において、
    前記対象画像は人物顔画像からなり、前記対象画像のエッジは、人物顔画像の下部輪郭を示すエッジからなることを特徴とするテンプレートマッチング方法。
  14. 請求項1に記載のテンプレートマッチング方法において、
    前記テンプレートデータは、人物顔画像の下部輪郭を示すエッジが存在する位置を示すポジティブ点と、前記人物顔画像の下部輪郭を示すエッジが存在しない位置を示すネガティブ点とを有する顔テンプレートデータからなることを特徴とするテンプレートマッチング方法。
  15. 請求項14に記載のテンプレートマッチング方法において、
    前記人物顔画像の下部輪郭を示すエッジとして半楕円形状を用いることを特徴とするテンプレートマッチング方法。
  16. 請求項14に記載のテンプレートマッチング方法において、
    前記ポジティブ点は、前記人物顔画像の頬輪郭領域に高い密度で配置され、前記人物顔画像の顎輪郭領域に低い密度で配置されていることを特徴とするテンプレートマッチング方法。
  17. 請求項14に記載のテンプレートマッチング方法において、
    前記ネガティブ点は、前記人物顔画像の下部輪郭を示すエッジにより形成される領域の外側領域のうち、前記人物顔画像の頬輪郭領域に高い密度で配置され、前記人物顔画像の顎輪郭領域に低い密度で配置されていることを特徴とするテンプレートマッチング方法。
  18. 請求項1〜17のいずれかに記載のテンプレートマッチング方法を用いて、入力画像に含まれる人物顔画像の領域を特定することを特徴とする対象画像領域抽出装置。
  19. 入力画像から物の輪郭を示すエッジ画像を生成する画像入力部と、
    前記エッジ画像を記憶保持する画像保持部と、
    抽出したい対象画像の形状的特徴を示すテンプレートデータを記憶保持するテンプレートデータ保持部と、
    前記テンプレートデータの座標変換に用いる複数種のパラメータをマッチング候補情報として生成するマッチング候補出力部と、
    前記テンプレートデータ保持部から読み出したテンプレートデータを前記マッチング候補情報に基づき座標変換し新たなテンプレートデータを生成するテンプレート座標計算部と、
    前記画像保持部の前記エッジ画像上に順次設定した処理領域から取り出した処理領域画像と前記テンプレートデータ座標変換部で生成されたテンプレートデータとの一致性を示すマッチング値を算出するマッチング計算処理部と、
    前記マッチング計算処理部から得られたマッチング値が所定の基準値を超えた場合、当該マッチング値が得られた処理領域を前記対象画像を含む領域として特定する対象領域特定部と、
    前記特定された処理領域の座標位置と前記テンプレートデータとに基づき、前記対象画像領域に関する領域情報を出力する領域情報抽出部とを備え、
    前記テンプレートデータは、前記処理領域のうち前記対象画像のエッジが存在する位置を示すポジティブ点と、前記処理領域のうち前記エッジが存在しない位置を示すネガティブ点とからなり、
    前記テンプレート座標計算部は、前記各ポジティブ点およびネガティブ点と前記処理領域画像内に存在する各エッジとの位置関係に応じて前記マッチング値を算出することを特徴とする対象画像領域抽出装置。
  20. 請求項19に記載の対象画像領域抽出装置において、
    前記エッジ画像は、前記入力画像に含まれるエッジの画像をそれぞれの階調値で示す複数の画素からなり、
    前記テンプレート座標計算部は、前記各ポジティブ点およびネガティブ点ごとに、これら各点の位置に対応する前記処理領域画像の画素の階調値に基づき評価値をそれぞれ算出し、これらポジティブ点およびネガティブ点の評価値から前記マッチング値を算出することを特徴とする対象画像領域抽出装置。
  21. 請求項20に記載の対象画像領域抽出装置において、
    前記テンプレート座標計算部は、前記各ポジティブ点ごとに、前記処理領域画像のうち当該ポジティブ点の位置に対応する画素の階調値を評価値として算出し、前記各ネガティブ点ごとに、前記エッジ画像の階調数から前記処理領域画像のうち当該ネガティブ点の位置に対応する画素の階調値を減算した値を評価値として算出し、
    前記各評価値の総和から前記マッチング値を算出することを特徴とする対象画像領域抽出装置。
  22. 請求項19に記載の対象画像領域抽出装置において、
    前記マッチング候補出力部は、
    前記テンプレートデータの各ポジティブ点およびネガティブ点の座標変換に用いる複数種のパラメータを含む染色体情報を持つ複数の個体を記憶保持する個体群保持部と、
    前記個体群保持部に保持されている前記各個体のいずれか複数を親個体として指定する親個体指定部と、
    前記親個体から遺伝的アルゴリズムに基づき子個体を生成し、この子個体の染色体情報に含まれるパラメータを前記マッチング候補情報として出力する新規個体生成部とを備えることを特徴とする対象画像領域抽出装置。
  23. 請求項22に記載の対象画像領域抽出装置において、
    前記マッチング候補出力部は、
    前記個体群保持部に保持されている個体のうち、当該個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られた前記マッチング値が最も低いものを置換候補として選択するステップと、
    前記子個体のマッチング候補情報に基づき生成された新たなテンプレートデータを用いて得られた前記マッチング値が、前記置換候補のマッチング値より高い場合は、前記置換候補に代えて前記子個体を新たな個体として保持するステップとをさらに備えることを特徴とする対象画像領域抽出装置。
JP2004004605A 2004-01-09 2004-01-09 テンプレートマッチング方法および対象画像領域抽出装置 Pending JP2005196678A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2004004605A JP2005196678A (ja) 2004-01-09 2004-01-09 テンプレートマッチング方法および対象画像領域抽出装置
US10/970,804 US20050152604A1 (en) 2004-01-09 2004-10-21 Template matching method and target image area extraction apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004004605A JP2005196678A (ja) 2004-01-09 2004-01-09 テンプレートマッチング方法および対象画像領域抽出装置

Publications (2)

Publication Number Publication Date
JP2005196678A true JP2005196678A (ja) 2005-07-21
JP2005196678A5 JP2005196678A5 (ja) 2006-02-09

Family

ID=34737203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004004605A Pending JP2005196678A (ja) 2004-01-09 2004-01-09 テンプレートマッチング方法および対象画像領域抽出装置

Country Status (2)

Country Link
US (1) US20050152604A1 (ja)
JP (1) JP2005196678A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043184A (ja) * 2007-08-10 2009-02-26 Omron Corp 画像処理方法および画像処理装置
JP2009116385A (ja) * 2007-11-01 2009-05-28 Sony Corp 情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラム
KR101321227B1 (ko) 2011-08-16 2013-10-23 삼성전기주식회사 템플릿 생성 장치

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070250548A1 (en) * 2006-04-21 2007-10-25 Beckman Coulter, Inc. Systems and methods for displaying a cellular abnormality
DE102009049073A1 (de) 2009-10-12 2011-04-21 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer Ansicht einer realen Umgebung
JP5529965B2 (ja) * 2010-06-29 2014-06-25 株式会社日立ハイテクノロジーズ パターンマッチング用テンプレートの作成方法、及び画像処理装置
CN101964064B (zh) * 2010-07-27 2013-06-19 上海摩比源软件技术有限公司 一种人脸比对方法
CN101968846B (zh) * 2010-07-27 2013-05-15 上海摩比源软件技术有限公司 一种人脸跟踪方法
JP5706647B2 (ja) * 2010-09-03 2015-04-22 キヤノン株式会社 情報処理装置、およびその処理方法
JP5779089B2 (ja) * 2011-12-28 2015-09-16 株式会社ドワンゴ エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
JPWO2015068417A1 (ja) * 2013-11-11 2017-03-09 日本電気株式会社 画像照合システム、画像照合方法およびプログラム
CN103679159B (zh) * 2013-12-31 2017-10-17 海信集团有限公司 人脸识别方法
CN105868695B (zh) * 2016-03-24 2019-04-02 北京握奇数据系统有限公司 一种人脸识别方法及系统
CN109447061A (zh) * 2018-09-29 2019-03-08 南京理工大学 基于巡检机器人的电抗器油位计识别方法
CN109977765A (zh) * 2019-02-13 2019-07-05 平安科技(深圳)有限公司 人脸图像识别方法、装置及计算机设备
CN110378376A (zh) * 2019-06-12 2019-10-25 西安交通大学 一种基于机器视觉的加油口目标识别定位方法
CN110751682B (zh) * 2019-10-28 2022-07-05 普联技术有限公司 一种提取和标识图像的方法、装置、终端设备及存储介质
CN111738320B (zh) * 2020-03-04 2022-12-06 沈阳工业大学 基于模板匹配的遮挡工件识别方法
CN112085033B (zh) * 2020-08-19 2024-04-09 浙江华睿科技股份有限公司 一种模板匹配方法、装置、电子设备及存储介质
CN112164032B (zh) * 2020-09-14 2023-12-29 浙江华睿科技股份有限公司 一种点胶方法、装置、电子设备及存储介质
CN112365539B (zh) * 2020-11-11 2022-12-27 中南大学 铸锭模具金属溶液边界定位方法
CN112801094B (zh) * 2021-02-02 2022-08-30 中国长江三峡集团有限公司 一种指针式仪表图像倾斜校正方法
CN116309442B (zh) * 2023-03-13 2023-10-24 北京百度网讯科技有限公司 挑拣信息的确定方法及目标对象的挑拣方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59137942A (ja) * 1983-01-28 1984-08-08 Hitachi Ltd 画像位置合わせ方式
JPS62186381A (ja) * 1986-02-12 1987-08-14 Hitachi Ltd 画像位置合わせ方式
DE69416584T2 (de) * 1994-08-25 1999-10-07 St Microelectronics Srl Unscharfes Verfahren zur Bildrauschverringerung
US5754677A (en) * 1994-10-25 1998-05-19 Fuji Machine Mfg. Co., Ltd. Image processing apparatus
TW368640B (en) * 1996-12-25 1999-09-01 Hitachi Ltd Image processor, image processing device and image processing method
JP2000517452A (ja) * 1997-05-05 2000-12-26 シェル オイル カンパニー 視認の方法
US6327388B1 (en) * 1998-08-14 2001-12-04 Matsushita Electric Industrial Co., Ltd. Identification of logos from document images
JP4236749B2 (ja) * 1999-01-13 2009-03-11 富士機械製造株式会社 画像処理方法および装置
JP2001209802A (ja) * 1999-11-15 2001-08-03 Fuji Photo Film Co Ltd 顔抽出方法および装置並びに記録媒体
JP4165871B2 (ja) * 2002-03-15 2008-10-15 キヤノン株式会社 位置検出方法、位置検出装置及び露光装置
US7120301B2 (en) * 2002-04-10 2006-10-10 National Instruments Corporation Efficient re-sampling of discrete curves
US7327887B2 (en) * 2002-04-10 2008-02-05 National Instruments Corporation Increasing accuracy of discrete curve transform estimates for curve matching

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009043184A (ja) * 2007-08-10 2009-02-26 Omron Corp 画像処理方法および画像処理装置
JP2009116385A (ja) * 2007-11-01 2009-05-28 Sony Corp 情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラム
US8374437B2 (en) 2007-11-01 2013-02-12 Sony Corporation Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program
KR101321227B1 (ko) 2011-08-16 2013-10-23 삼성전기주식회사 템플릿 생성 장치

Also Published As

Publication number Publication date
US20050152604A1 (en) 2005-07-14

Similar Documents

Publication Publication Date Title
JP2005196678A (ja) テンプレートマッチング方法および対象画像領域抽出装置
CN110532984B (zh) 关键点检测方法、手势识别方法、装置及系统
WO2021036059A1 (zh) 图像转换模型训练方法、异质人脸识别方法、装置及设备
CN105740780B (zh) 人脸活体检测的方法和装置
JP5505409B2 (ja) 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP6639523B2 (ja) 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP2014089626A (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2006252162A (ja) パターン認識装置及びその方法
WO2018179338A1 (ja) 機械学習装置及び画像認識装置
JP2010205067A (ja) 領域抽出装置、領域抽出方法及び領域抽出プログラム
JP2006325937A (ja) 画像判定装置、画像判定方法およびそのプログラム
JP2006006359A (ja) 画像生成装置、画像生成装置方法、およびそのプログラム
WO2010043954A1 (en) Method, apparatus and computer program product for providing pattern detection with unknown noise levels
JP5656768B2 (ja) 画像特徴量抽出装置およびそのプログラム
JP2009211490A (ja) 画像認識方法および装置
JP2010117981A (ja) 顔検出装置
CN113228105A (zh) 一种图像处理方法、装置和电子设备
JP2006130212A (ja) 異常陰影候補検出方法、および装置、ならびにプログラム
JP6202938B2 (ja) 画像認識装置および画像認識方法
CN112818983A (zh) 一种利用图片相识度判断字符倒置的方法
JP7202739B2 (ja) 歯の骨年齢を決定するための装置、方法及び命令を記録した記録媒体
JP2005332382A (ja) 画像処理方法および装置並びにプログラム
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP2005316743A (ja) 画像処理方法および画像処理装置
CN110223319B (zh) 基于改进几何粒子滤波的动态目标实时跟踪方法和系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100202