JP5505409B2 - 特徴点生成システム、特徴点生成方法および特徴点生成プログラム - Google Patents

特徴点生成システム、特徴点生成方法および特徴点生成プログラム Download PDF

Info

Publication number
JP5505409B2
JP5505409B2 JP2011503882A JP2011503882A JP5505409B2 JP 5505409 B2 JP5505409 B2 JP 5505409B2 JP 2011503882 A JP2011503882 A JP 2011503882A JP 2011503882 A JP2011503882 A JP 2011503882A JP 5505409 B2 JP5505409 B2 JP 5505409B2
Authority
JP
Japan
Prior art keywords
feature point
evaluation value
evaluation
calculated
local pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011503882A
Other languages
English (en)
Other versions
JPWO2010104181A1 (ja
Inventor
塁 石山
秀堅 本谷
文彦 坂上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011503882A priority Critical patent/JP5505409B2/ja
Publication of JPWO2010104181A1 publication Critical patent/JPWO2010104181A1/ja
Application granted granted Critical
Publication of JP5505409B2 publication Critical patent/JP5505409B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

本発明は、3次元形状モデルから特徴点を生成する特徴点生成システム、特徴点生成方法および特徴点生成プログラムに関する。
個体(例えば人の顔)の画像から、その個体の向き(以下、姿勢と記す。)を推定したり、その個体を識別したりするための種々の技術が提案されている。
特徴点を用いて顔等の個体の姿勢推定や個体識別を行う一般的な手法として、以下のような手順を踏むことが考えられる。
(1)認識対象とする物体の3次元形状モデル(以下、3D形状モデルと記す。)のデータベースを構築する。多くの場合、3次元計測装置(3Dスキャナ)によって3次元形状を計測し、その結果得た3D形状モデルのデータベースを構築する。
(2)認識に用いる特徴点として用いる物体の特定の部位を、3D形状モデル上における特徴点として決定する。
(3)画像から各特徴点を抽出するための特徴点抽出器を構築する。換言すれば、特徴点抽出器における学習を行う。特徴点抽出器は、あるパターンが入力されたときに、そのパターンが特徴点であるか否かを判定するための内部データを、予め既知の特徴点および既知の非特徴点から生成する。このような内部データの生成を学習という。
(4)姿勢推定や個体識別等の認識タスクを行おうとする画像から、その特徴点抽出器を用いて特徴点を抽出する。そして、その画像から抽出した特徴点の位置と、3D形状モデル上の特徴点の位置との対応関係を用いて、認識タスクを行う。
上記(2)に利用可能な技術として、例えば、非特許文献2には、エントロピーに基づいて特徴点を生成する方法が記載されている。特徴点が定まっていない状態から特徴点を定めることを、特徴点を生成すると記す。
上記(3)に利用可能な、特徴点抽出器を構築するための技術として、例えば、非特許文献1には、画像間の対応点を求めるために必要な特徴点を、SIFT(Scale-Invariant Feature Transform )アルゴリズムによって抽出する技術が記載されている。SIFTアルゴリズムは、多重解像度解析による塊検出と、濃淡勾配のヒストグラムを利用した画像間の対応付けを可能とする。
また、特徴点抽出器を構築するための他の技術として、特徴点として抽出すべき画像パターンについて予め機械学習を行っておき、その学習結果を用いてパターンの識別判定を行う場合がある。このような学習および判定に、一般化学習ベクトル量子化(GLVQ:Generalized Learning Vector Quantization)を用いることが非特許文献3に記載されている。非特許文献3では顔のパターン検出を行っているが、パターンを顔から特徴点周辺部分に置き換えれば特徴点の検出を行うことができる。また、機械学習の手法としてSVM(Support Vector Machine)も知られている。
非特許文献1,2に記載された技術によって生成した特徴点は、例えば、上記のような顔の姿勢推定や顔の識別等に利用することができる。
藤吉弘亘、「Gradientベースの特徴抽出 −SIFTとHOG−」、情報処理学会研究報告 CVIM160、pp.211-224、2007年 Joshua Cates, Miriah Meyer, P.Thomas Fletcher, Ross Whitaker, "Entropy-Based Particle Systems for Shape Correspondence",Proceedings of the MICCAI,2006年 細井利憲、鈴木哲明、佐藤敦、「一般化学習ベクトル量子化による顔検出」、Technical report of IEICE. PRMU,Vol.102,No.651(20030213),pp.47-52
本発明の発明者は、姿勢推定や個体識別等の種々の処理に利用される特徴点が満たすべき要件を検討し、特徴点は以下のような3つの要件を満たすべきと考えた。
第1の要件(以下、要件Aと記す。)は、認識対象となる画像の照明や姿勢の変化に対して頑健に、特徴点の位置を画像から抽出できる特徴点抽出器を構築できることである。すなわち、特徴点と、特徴点以外の点とを特徴点抽出器に入力し、あるパターンが入力されたときに、そのパターンが特徴点であるか否かを判定するための内部データを特徴点抽出器に学習させることができることである。例えば、頬の領域はどこをとっても似たような画像パターンであるから、頬の一点を特徴点としても、その特徴点と頬の他の位置の点の画像のパターンは同様であり、特徴点抽出器による抽出が困難である。よって、頬の点は要件Aを満たしていないと言える。
第2の要件(以下、要件Bと記す。)は、異なる個体間において特徴点が対応付いていることである。例えば、目尻の点を特徴点とした場合、人物Xの目尻の点と人物Yの目尻の点とは、対応付けられる。よって、目尻の点は、要件Bを満たす。要件Bは、さらに2つの要件に分けて考えることができる。一つは、全ての3D形状モデルを同一の座標系の座標系に重ね合わせて配置したときに、3D形状モデル上の近い位置に特徴点が存在することである。この要件を要件B1と記す。もう一つは、各画像間で、画像から切り出した特徴点を含む特徴点周囲の局所領域のパターン(局所パターン)が類似していることである。この要件を要件B2と記す。上記の目尻を例に説明すると、人物X,Yの3D形状モデルを重ねた場合、目尻の点は互いに近いので要件B1を満たす。また、人物が異なっていても、人物の顔画像における目尻の点およびその周囲を切り出すと、切り出した部分同士は類似しているので、目尻の点は要件B2も満たす。
第3の要件(以下、要件Cと記す。)は、認識タスクにとって重要な点が特徴点として網羅されていて、その特徴点を用いることにより十分に高い認識性能を実現できることである。そのような条件の一例として、要件Cは、3D形状モデルの一部に特徴点が集中せずに、3D形状モデル全体から均一に抽出されていることということができる。
また、3D形状モデルの特徴点を生成する手法として、以下に示す第1の手法および第2の手法が考えられる。第1の手法は、一般的な特徴点抽出器により特徴点を抽出し、その特徴点の中から要件A〜Cを満たす特徴点を選ぶ方法である。一般的な特徴点抽出器として、例えば、コーナー(角)等の一般的なパターンに該当するか否かを判定する特徴点抽出器を用いればよい。
また、SIFTアルゴリズムを用いた特徴点抽出器を第1の手法に適用してもよい。例えば、3D形状モデルに対する照明の状態を様々に変化させた各画像を用意し、SIFTアルゴリズムを用いた特徴点抽出器によって、その各画像から特徴点抽出および特徴量の算出を行う。その特徴点の中から要件A〜Cを満たす特徴点を選択すればよい。要件Aを満たす特徴点を選択するには、例えば、個々の個体(例えば、個々の顔)について照明を変化させた各画像を用意し、SIFTアルゴリズムを用いた特徴点抽出器によって、その各画像から特徴点抽出および特徴量の算出を行う。そして、特徴量が近い特徴点同士を対応付け、対応付けられた各特徴点の画像内での位置の平均を計算し、平均位置から個々の特徴点のずれを求める処理を個体毎に行う。ある一つの個体において、平均からの位置ずれ量が少ない特徴点を選択することにより、要件Aを満たす特徴点が得られる。また、対応付けられた特徴点の平均位置を個体毎に求めたとき、個体毎の平均位置の平均を求め、その平均(すなわち個体間の平均)と、個々の個体毎における各画像間での平均位置とのずれが小さい特徴点を選べば、要件Bを満たす特徴点が得られる。そして、要件A,Bを満たす特徴点の中から、3D形状モデル上全体に均一に散らばるような特徴点の組み合わせを選ぶことで、要件A〜Cを満たす特徴点が得られる。
また、3D形状モデルの特徴点を生成する第2の手法として、所望の条件を満たす特徴点を予め選んでおき、その特徴点に特化した学習を特徴点抽出器に行わせ、その特徴点抽出器により特徴点抽出を行う手法が挙げられる。そして、所望の条件を満たす特徴点を選ぶ際に、非特許文献2に記載されたエントロピーに基づいて特徴点を抽出する方法を用いることが考えられる。非特許文献2に記載された方法は、3D形状モデル全体から、特徴点を選択する。また、異なる個体においてそれぞれ似た位置に存在する特徴点を選択する。すなわち、要件B1および要件Cを満たす特徴点を抽出する。そのような特徴点の局所パターンと、そのような特徴点に該当しない点の局所パターンをそれぞれ複数、特徴点抽出器に入力し、特徴点抽出器に学習を行わせれば、以降、その特徴点抽出器により同様の特徴点を抽出することができる。このような特徴点抽出器の構築(学習)において、非特許文献3に記載されたGLVQやSVMを利用可能である。
第1の手法で特徴点を生成する場合、まず、ある特徴点抽出器によって特徴点の抽出を行い、その中から要件A〜Cを満たす特徴点を選ぶ。従って、第1の手法では、予め用意した特徴点抽出器で良好に抽出できる特徴点に限定される。そのため、得られた特徴点が認識を行う上で最適とは言えなかった。例えば、SIFTアルゴリズムを用いた特徴点抽出器によって抽出した特徴点から要件A〜Cを満たす特徴点を選んだとしても、認識においてより重要な特徴点がはじめからSIFT特徴点抽出器では抽出できないものであった可能性もある。従って、得られた特徴点が高い認識性能を得るために最適であるかが不明であった。
エントロピーに基づいて特徴点を抽出する方法(非特許文献2に記載の方法)を第2の手法に適用した場合、異なる個体においてそれぞれ似た位置に存在する特徴点であって3D形状モデル全体から均一に得られるような特徴点を抽出する。そして、そのような特徴点を生成するための学習を特徴点抽出器に学習させることができる。従って、要件B1および要件Cを満たす特徴点を生成することができる。しかし、特徴点抽出器における学習のしやすさ(要件A)や、異なる個体間での局所パターンの類似性(要件B2)を考慮していないので、特徴点抽出精度が悪くなる特徴点を生成してしまう。そのような特徴点は認識において有効でなく、結果的に、生成される特徴点の認識における有効性が高いとは言えなかった。
そこで、本発明は、好ましい条件を満たす特徴点(認識性能を高めるために有効性を高めるための条件)を3次元形状モデルから自動的に生成することができる特徴点生成システム、特徴点生成方法および特徴点生成プログラムを提供することを目的とする。
本発明による特徴点生成システムは、3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成手段と、特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価手段と、評価手段が計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置手段とを備えることを特徴とする。
本発明による特徴点生成方法は、3次元形状モデルに対して条件を変化させて得られる複数の画像を生成し、特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算し、指定された特徴点群に対する評価値が最小となるように3次元形状モデル上の特徴点群を配置することを特徴とする。
本発明による特徴点生成プログラムは、コンピュータに、3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成処理、特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価処理、および、評価処理で計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置処理を実行させることを特徴とする。
本発明によれば、好ましい条件を満たす特徴点を3次元形状モデルから生成することができる。
本発明の第1の実施形態の特徴点生成システムの例を示すブロック図である。 学習画像群生成手段に入力される3D形状モデルを模式的に示す説明図である。 生成された画像の例を示す説明図である。 3D形状モデル上の特徴点の初期位置およびその特徴点に対応する学習画像上の特徴点の例を示す説明図である。 対称の例を示す説明図である。 第1の実施形態の処理経過の例を示すフローチャートである。 本発明の第2の実施形態の特徴点生成システムの例を示すブロック図である。 本発明の第3の実施形態の特徴点生成システムの例を示すブロック図である。 第3の実施形態の処理経過の例を示すフローチャートである。 本発明の最小構成を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。
実施形態1.
図1は、本発明の第1の実施形態の特徴点生成システムの例を示すブロック図である。第1の実施形態の特徴点生成システム1は、学習画像群生成手段2と、特徴点配置手段3と、評価手段4とを備える。
学習画像群生成手段2には、3D形状モデル(3次元形状モデル)6が入力され、学習画像群生成手段2は、入力された3D形状モデル6からCG(Computer Graphics )画像として複数の画像(2次元画像)を生成する。ここでは、学習画像群生成手段2に、人間の顔の3D形状モデルが入力される場合を例にして説明する。また、この3D形状モデルにはテクスチャが貼り付けられているものとする。学習画像群生成手段2は、入力された3D形状モデルに対して、条件を種々変化させた場合の画像を複数生成する。学習画像群生成手段2は、この条件として、照明の状態(照明の位置)や3D形状モデルの姿勢を様々に定め、それらの各条件のもとでの画像を生成する。以下、この2次元画像を学習画像と記す。また、学習画像群生成手段2には、複数の個体についてそれぞれ作成された3D形状モデルが入力される。図2では二つの3D形状モデルを示しているが、学習画像群生成手段2に入力される3D形状モデル数は2に限定されない。
図2は、学習画像群生成手段2に入力される3D形状モデルを模式的に示す説明図である。図2では3D形状モデルを模式的に2次元で表している。図2(a),(b)は、それぞれ異なる人物の顔の3D形状モデルを表している。学習画像群生成手段2は、図2(a),(b)に示すような複数の個体(複数の人物)の3D形状モデルが入力されると、それぞれの個体毎に、照明位置や姿勢を種々変化させた場合の学習画像を生成する。図3は、生成された学習画像の例を示す説明図である。図3(a)は、図2(a)に示す3D形状モデルから生成した複数の学習画像の例であり、図3(b)は、図2(b)に示す3D形状モデルから生成した複数の学習画像の例である。図3では、照明の位置を種々変化させて得た複数の画像を示しているが、3D形状モデルの姿勢を変化させてもよい。3D形状モデルに対する照明の位置を変化させることで、照明位置に応じた場所に影11が生じた学習画像を得ることができる(図3参照)。図3では、個体毎に3種類の学習画像を示しているが、学習画像群生成手段2が生成する学習画像の種類は3種類に限定されない。学習画像群生成手段2は、3D形状モデルおよび生成した学習画像群7を特徴点配置手段3および評価手段4に入力する。
特徴点配置手段3は、特徴点群の初期位置を、特徴点生成システム1に入力された3D形状モデル上において定める。学習画像は、3D形状モデルからCG画像として生成される画像であるので、3D形状モデル上の特徴点が指定されれば、その特徴点に応じた学習画像内の特徴点も定めることができる。例えば、図4に示す3D形状モデルにおける特徴点13等の特徴点群を初期位置として定めると、各学習画像においても対応する特徴点13a等をそれぞれ定めることができる。特徴点配置手段3は、3D形状モデル上の各特徴点に対応する学習画像内の各特徴点も定める。
図4(a)は、図2(b)に示す3D形状モデル上の特徴点の初期位置およびその特徴点に対応する学習画像上の特徴点の例を示す。同様に、図4(b)は、図2(b)に示す3D形状モデル上の特徴点の初期位置およびその特徴点に対応する学習画像上の特徴点の例を示す。後述するように、評価手段4は、特徴点配置手段3に指定された特徴点群が要件A〜Cをどの程度満たしているかを示す評価値を計算する。この評価値をQとする。評価値Qは、特徴点群が要件A〜Cを満たしているほど小さな値となる。特徴点配置手段3は、評価値Qを最小化するように特徴点群の位置を初期位置から移動させる。特徴点配置手段3が特徴点群を移動させて評価手段4がその特徴点群における評価値Qを計算する処理を繰り返すことで、評価値Qが最小となる特徴点群を求め、その特徴点群を最適な特徴点群8(図1参照)として出力する。
評価手段4は、各個体の3D形状モデル上の特徴点群が指定されると、その特徴点群が、要件A〜Cをどの程度満たしているかを示す評価値Qを計算する。評価手段4は、特徴点配置手段3に指定された特徴点群について、以下に示す式(1)の計算により評価値Qを求める。
Figure 0005505409
以下、式(1)の右辺の第1項から第4項の計算方法について説明する。
式(1)の右辺の第1項におけるHc[P]は、個体毎の3次元形状モデル間での位置の一致性を表すエントロピーである。従って、第1項は要件B1に対応する項である。第1項の算出では、特徴点の座標を用いた計算を行う。人物数がMであるとし、着目している人物をkで表すこととする。k番目の人物の一つの3次元形状モデル上におけるi番目の特徴点をPiとしたときに、その特徴点Piの座標をxk,iと表すこととする。また、その3次元形状モデル上の特徴点の座標を並べたものをzkとすると、zkは、(xk,1T,xk,2T,・・・,xk,NT)Tである。Nは3次元形状モデル内の特徴点数である。座標の次元をdとすると、zkは、Nd次元ベクトルである。各特徴点Piが各人物の3次元形状モデルにおいてそれぞれ近接した位置に配置されていると、zk(k=1,2,・・・,M)のNd次元空間における分布の分散は小さくなる。{zk}の分布を正規分布で近似しその共分散をΣで表すとき、そのエントロピーは、以下に示す式(2)で計算できる。評価手段4は、式(1)の右辺第1項におけるHc[P]を以下に示す式(2)で計算すればよい。ただし、λjはΣの固有値である。
Figure 0005505409
評価手段4は、計算したHc[P]にξを乗じることによって、式(1)の右辺第1項を計算する。ξは第1項の重み係数である。第1項の重みに応じてξを定めておけばよく、第1項を考慮しないのであればξ=0としてもよい。
式(1)の右辺第2項(“−”符号も含む。)の計算について説明する。この第2項は、特徴点群の分布の均一性をエントロピーで定量化した項であり、要件Cに対応する。1番目の人物からM番目の人物までについてそれぞれ−Hu[Pk]を求め、その総和を計算したものが式(1)の右辺第2項である。ここで、[Pk]は着目している人物の特徴点群であり、Hu[Pk]はそのエントロピーである。
曲面S上に分布するN個の点群{Pi}が与えられたとき、この{Pi}を、S上に定義された確率密度分布p(x)(x∈S)に従って生成された点群とみなす。このとき、点群{Pi}の分布の均一さは、p(x)のS上におけるエントロピーHu[P]=−∫Sp(x)logp(x)dxによって定義できる。ここで、{Pi}により3次元顔モデルを十分サンプリングできているとき、Hu[P]は、−(1/N)Σilogp(xi)で近似することができる。ただし、xiは特徴点Piの位置である。この式により、Hu[P]を計算するためには、p(xi)を推定する必要がある。この推定にはガウス関数G(x,σ)を窓関数としたParzen推定を採用する。このとき、以下に示す式(3)を得る。
Figure 0005505409
よって、−Hu[P]を以下の式(4)のように計算することができる。
Figure 0005505409
評価手段4は、M人の人物についてそれぞれ式(4)の計算で−Hu[Pk]を求め、その総和を計算し、総和にηを乗じることにより、式(1)の右辺第2項を計算すればよい。ηは第2項の重み係数である。第2項の重みに応じてηを定めておけばよく、第2項を考慮しないのであればη=0としてもよい。
式(1)の右辺第3項(“−”符号も含む。)の計算について説明する。この第3項は、局所パターンの対称性を表す項であり、局所パターンの対称性が大きいほど第3項の値は小さくなる。換言すれば、この第3項は、要件Aに対応し、特徴点群が要件Aを満たす程度が大きいほど、第3項の値は小さくなる。
この局所パターンは、学習画像内の特徴点を含む特徴点周囲の局所領域の画像である。特徴点としてエッジ、コーナーまたは極大点を含む局所パターンは、局所的に回転対称性やスケール対称性を有している。ここで対称性とは、特定の変換に対する対象の不変性のことである。例えば、左右対称とは、左右反転する変換に対する対象の不変性である。図5は対称の例を示す説明図である。図5(a)は、画素値の極大点周辺の局所パターンであり、回転変換に対して不変であることから回転対称である。図5(b)は、コーナーとエッジであり、拡大縮小に対して不変なスケール対称性を有するパターンである。
局所パターンをI(u,v)で表すことにする。局所的な座標系(u,v)の原点は局所領域の中央に設定する。ユークリッド座標系(u,v)を(対数)極座標(r,θ)へと変換する。さらに、I(u,v)が変数分離できると仮定する。ここで、以下の式(5)が成り立つ。
I(u,v)=f(r)g(θ) 式(5)
局所パターンI(u,v)が回転対称であるとき、I(u,v)はθの変化に対して不変となるため、以下の式(6)を満たす。
I(u,v)=f(r)Θ0 式(6)
ただし、Θ0は定数である。一方、I(u,v)がスケール対称であるとき、I(u,v)は動径rの変化に対して不変となるため、以下の式(7)を満たす。ここで、式(7)におけるR0は定数である。
I(u,v)=R0g(θ) 式(7)
局所パターンの極座標表現I(r,θ)の2次元フーリエ係数をCmnで表すことにすると、Cmnは、以下に示す式(8)の計算によって求めることができる。
Figure 0005505409
ただし、m,nは整数であり、εは局所領域の半径である。また、第1の実施形態では、局所領域が正方形であるものとして説明する。この場合、εは、正方形の局所領域の中心から正方形の辺までの距離であり、局所領域となる内接円の半径である。また、式(8)中のjは虚数単位である。フーリエ係数Cmnのうち、C00は、I(r,θ)の局所領域内の平均値に対応していて、この値の大小は特徴点としての抽出のしやすさには関係ない。仮に局所パターンが回転対称であるならば、C0n以外は全て0になる。一方、局所パターンがスケール対称であるならば、Cm0以外は全て0になる。このため、Sallを式(9)のように定めると、局所パターンの回転対称性Srotとスケール対称性Ssclは、Sallを用いて式(10)、式(11)により計算することができる。
Figure 0005505409
Figure 0005505409
Figure 0005505409
0≦Srot,Sscl≦1であり、Srot,Ssclは、局所パターンが対称である場合にのみ最大値1となる。評価手段4は、学習画像から局所パターンを切り出し、各位置においてSrotとSsclを計算し、3D形状モデル上の各特徴点のうち画像に写る全ての点に対して、特徴点としての抽出しやすさを表す2次元ベクトル[Srot,Sscl]Tを求める。そして、評価手段4は、このベクトルの長さにより画像からの抽出容易性を求める。この抽出容易性をlog−polar特徴量と称してもよい。抽出容易性をD(P)とすると、評価手段4は、以下に示す式(12)により、抽出容易性D(P)を計算することができる。
Figure 0005505409
評価手段4は、それぞれの個体の特徴点毎に、式(12)の計算を行い、抽出容易性D(P)を求め、その総和に−αを乗じることによって、式(1)の右辺第3項を計算する。αは第3項の重み係数である。第3項の重みに応じてαを定めておけばよく、第3項を考慮しないのであればα=0としてもよい。
第3項は、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど値が小さくなる項であればよい。上記の例では、そのような第3項として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される項を用いる場合を例示した。
式(1)の右辺第4項(“−”符号も含む。)の計算について説明する。この第4項は、要件B2に対応する。そして、特徴点群が要件B2を満たす度合いが大きいほど、第4項の値は小さくなる。式(1)の右辺第4項におけるA(Pi)は、各人物間における特徴点Piのテンプレート(学習画像の局所領域)の輝度の統計量である。評価手段4は、各人物間で対応する特徴点のテンプレートの輝度の特徴量として、例えば、分散を計算してもよい。あるいは、人物間の輝度の平均値を計算し、その平均値と個々の人物における輝度値との差分の総和を統計量として計算してもよい。また、輝度を用いるのはあくまで一例であり、様々な特徴抽出演算子を適用して計算した特徴量の値を用いてもよい。評価手段4は、各特徴点について計算した特徴量の総和に−βを計算することで式(1)の右辺第4項を計算する。βは第4項の重み係数である。第4項の重みに応じてβを定めておけばよく、第4項を考慮しないのであればβ=0としてもよい。このように条件(本例では人物)を変えた局所パターンの類似度が大きいほど値が小さくなる項を、第4項とすればよい。この条件として、姿勢や照明位置等を用いてもよい。
また、前述のように、特徴点配置手段3は、評価値Qが小さくなるように特徴点を移動させる。特徴点配置手段3は、最急降下法によって、評価値Qを最小とする特徴点群を求める。特徴点配置手段3は、以下に示す式(13)の計算を行って、各特徴点を移動させればよい。
Figure 0005505409
式(13)におけるγは移動量を調整するパラメータであり、予め定めておけばよい。また、式(13)におけるEは、各点の座標の組をz=(x1,x2,・・・,xN)により表したときに、以下に示す式(14)のように表される関数である。
Figure 0005505409
E(z)のxiによる微係数は、以下の式(15)のよう表される。ただし、Σjωij=1である。
Figure 0005505409
また、前述のzkに関しサンプル平均を以下の式(16)のように表す。
Figure 0005505409
また、平均まわりの偏差ykを以下の式(17)のように表す。
Figure 0005505409
また、ykを並べたNd×Mの行列をY=[y1y2・・・yM]で表す。このとき、Σ=(1/(M−1))YYTである。このとき、以下の式(18)が得られる。
Figure 0005505409
学習画像群生成手段2、特徴点配置手段3および評価手段4は、例えば、特徴点生成プログラムに従って動作するコンピュータのCPUによって実現される。例えば、CPUが、コンピュータの記憶装置(図示略)に記憶された特徴点生成プログラムを読み込み、そのプログラムに従って学習画像群生成手段2、特徴点配置手段3および評価手段4として動作すればよい。あるいは、学習画像群生成手段2、特徴点配置手段3および評価手段4がそれぞれ専用の回路で実現されていてもよい。
次に、動作について説明する。
図6は、第1の実施形態の処理経過の例を示すフローチャートである。学習画像群生成手段2は、各人物の顔の3D形状モデルが入力されると、3D形状モデルに対する照明の位置や3D形状モデルの姿勢を種々変化させた場合の学習画像を人物毎に作成する(ステップS1)。
次に、特徴点配置手段3および評価手段4が、各特徴点の局所領域の大きさε(局所領域の内接円半径)を固定値として、特徴点の位置を定める(ステップS2)。ステップS2では、特徴点配置手段3が、各3D形状モデル上の特徴点群の初期位置を定め、その特徴点群に対する評価値を評価手段4が計算する。特徴点配置手段3は、3D形状モデル上の特徴点群の初期位置を定めるとき、その特徴点群に対応する学習画像内の特徴点群の位置も定める。特徴点の位置が指定されると、評価手段4は、式(8)におけるεを固定値として、特徴点配置手段3に指定された特徴点群の評価値Qを計算する。そして、特徴点配置手段3は、評価値Qを最小にするように、3D形状モデル上の特徴点群を移動させ、評価手段4は、その特徴点群に対する評価値Qを、εを固定値として再度計算する。この処理を、評価値Qが収束するまで行い、評価値Qが収束したときの特徴点群の位置を特定する。
次に、評価手段4は、その位置に特徴点群が存在するものとして、特徴点群の位置を固定し、局所領域の大きさεを変化させて、その特徴点群の評価値Qを再計算する。そして、評価値Qが最小となるときのεを特定する(ステップS3)。εを変化させることで、式(8)の計算で求めるCmnが変化し、その結果評価値Qもεに応じて変化する。ステップS3では、特徴点群を固定としたまま、評価手段4は、εを変化させて、評価値Qを最小とするεを求める。
図6に示すように、ステップS2,S3はループ処理である。ステップS3の後、評価手段4は、ステップS2,S3のループ処理を終了するか否かを判定する(ステップS4)。例えば、直前のステップS3でεを変化させて計算した評価値Qの最小値と、その前のステップS3でεを変化させて計算した評価値Qの最小値との差が、所定値以下となった状態(Qが収束した状態)になっていたら(ステップS4のYes)、ループ処理を終了すると判定し、そうでなければ(ステップS4のNo)、ステップS2,S3を再度繰り返すと判定してもよい。
ステップS4の後、再度ステップS2を行う場合、直前のステップS3で計算したεをεの固定値として用いればよい。また、直前のステップS2で定めた特徴点群の位置を特徴点群の初期位置としてステップS2を開始すればよい。
ステップS4においてループ処理を終了すると判定した場合、特徴点配置手段3は、直前のステップS2で定めた特徴点群と、直前のステップS3で定めたεとを出力する。すなわち、特徴点配置手段3は、特徴点の配置を定めるとともに、各特徴点の抽出に用いるべき局所パターンの大きさを、直前のステップS3で定めたεとすることを決定する。
なお、図6では、ステップS2,S3をループ処理とする場合を示したが、ステップS2,S3を繰り返さずに、ステップS2,S3を一回ずつ行った後に処理を終了してもよい。
本発明によれば、評価値Qを式(1)の計算によって求める。式(1)の右辺に示す第1項から第4項は、それぞれ、特徴点が満たすべき要件B1、要件C、要件A、要件B2に対応し、特徴点群がそれぞれの要件を満たす度合いが大きいほど各項は小さな値となり、評価値Qも小さな値となる。そして、特徴点配置手段3は、評価値Qを最小とするように特徴点群を移動させるので、要件A,B1,B2,Cを満たす特徴点群を生成することができる。
また、式(1)の第1項から第4項に、重み付け係数が0となる項があってもよい。例えば、式(1)のξやβを0として、第2項および第3項の和を計算してもよい。また、例えば、βを0とせずに、第2項、第3項および第4項の和を計算してもよい。また、各項の重み付け係数をいずれも0とせず、第1から第4までの各項の和を計算してもよい。いずれの場合においても、重み付け係数を0としない項に対応する条件を考慮した好ましい特徴点群を生成することができる。
また、ステップS2で特徴点の位置を定めた後、特徴点を含む局所領域の大きさεを変化させて評価値Qを計算し、評価値Qを最小とするεを定める。よって、要件A,B1,B2,Cを満たすεも決定することができる。また、ステップS2,S3を繰り返すことで、より好ましい特徴点群およびεを定めることができる。
また、上記の説明では、ε(局所領域の大きさ)を固定値として特徴点の位置を定め(ステップS2)、次に、特徴点の位置を固定としてεの大きさを定める(ステップS3)場合を示した。各特徴点の位置とεとを同時に定めてもよい。すなわち、特徴点の初期位置から評価値Qが最小となるように特徴点を移動させるときに、評価値Qの計算においてεの値を変化させてもよい。そして、評価値Qが最小となるときの、特徴点の位置およびεを同時に決定してもよい。
実施形態2.
第2の実施形態の特徴点生成システムは、特徴点抽出器の内部データを学習する機能を有する。図7は、第2の実施形態の特徴点生成システムの例を示すブロック図である。第1の実施形態と同様の構成要素については、図1と同一の符号を付し、説明を省略する。第2の実施形態の特徴点生成システムは、学習画像群生成手段2と、特徴点配置手段3と、評価手段4と、特徴点抽出器学習手段21とを備える。
特徴点配置手段3は、第1の実施形態と同様に、生成した特徴点群および局所領域の半径εを出力する。特抽点抽出器学習手段21は、生成された特徴点群を用いて、学習を行う。すなわち、与えられるパターンが特徴点であるか否かを判定するための特徴点抽出器の内部データを生成する。特抽点抽出器学習手段21が特徴点抽出器として動作し、生成された特徴点群を用いて学習を行う構成であってもよい。
特抽点抽出器学習手段21は、特徴点に該当する複数のパターンと、特徴点に該当しない複数のパターンとを参照することによって学習を行う。ある特徴点に着目して学習を行う場合、特抽点抽出器学習手段21は、特徴点に該当するパターンとして、その特徴点やその特徴点の近辺の点を中心とし、εによって決まる局所パターンを学習画像から複数切り出す。また、特抽点抽出器学習手段21は、特徴点に該当しないパターンとして、その特徴点の周囲の局所パターンであって特徴点を含まない局所パターンを学習画像から複数切り出す。そして、特抽点抽出器学習手段21は、特徴点に該当する複数のパターンおよび特徴点に該当しない複数のパターンを用いて学習を行い、与えられるパターンがその特徴点であるか否かを判定するための内部データを生成する。特抽点抽出器学習手段21は、生成された特徴点群の特徴点毎に学習を行えばよい。
特抽点抽出器学習手段21は、特徴点群およびεが確定した後に(例えば、ステップS4でYesと判定された後)、その特徴点群およびεを用いて学習を行えばよい。
特抽点抽出器学習手段21は、例えば、特徴点生成プログラムに従って動作するコンピュータのCPUによって実現され、CPUが特徴点生成プログラムに従って、特徴点抽出器学習手段21および他の各手段2〜4として動作してもよい。あるいは、特抽点抽出器学習手段21が専用の回路として他の手段とは別に設けられていてもよい。
第2の実施形態においても、第1の実施形態と同様の効果が得られる。さらに、生成された特徴点群を用いて学習を行うので、あるパターンが与えられるとそのパターンが要件A〜Cを満たす特徴点であるか否かを判定できる。
実施形態3.
また、上記の各実施形態では、局所領域が正方形であるものとして説明した。第3の実施形態では、局所領域が長方形であり、長方形の大きさだけでなく、アスペクト比も定める。アスペクト比は、局所領域となる長方形の縦の長さに対する横の長さの倍率である。図8は、第3の実施形態の構成例を示すブロック図である。第1の実施形態と同様の構成要素については、図1と同様の符号を付し、説明を省略する。本実施形態の特徴点生成システム1aは、学習画像群生成手段2と、特徴点配置手段3と、評価手段4aとを備える。
評価手段4aは、第1の実施形態における評価手段4と同様に、評価値Qを計算する。ただし、本実施形態では、評価手段4aは、局所領域の大きさεだけでなく、局所領域のアスペクト比も変化させ、アスペクト比に応じた評価値Qを計算する。アスペクト比をWとすると、評価手段4aは、Wに応じた評価値Qを以下のように計算すればよい。すなわち、評価手段4aは、式(8)の積分計算を行う前に、学習画像を横方向に1/W倍になるように変換し、その変換後の学習画像について式(8)の積分計算を行う。評価値Qの計算過程におけるその他の点に関しては、第1の実施形態における評価値Qの計算方法と同様である。例えば、アスペクト比が2である場合、評価手段4aは、式(8)の積分計算を行う前に、学習画像を横方向に1/2倍になるように縮小する。そして、縮小後の学習画像について式(8)の積分計算を行えばよい。このように、学習画像を横方向に1/W倍になるように変換し、その画像について式(8)の計算を行うこととして、評価値Qを計算すれば、長方形の局所領域に応じた評価値Qを計算することができる。式(8)は、式(1)の右辺の第3項に影響する計算であり、評価手段4aは、式(1)の右辺第3項をアスペクト比に応じて計算することになる。
評価手段4aは、例えば、特徴点生成プログラムに従って動作するコンピュータのCPUによって実現され、CPUが特徴点生成プログラムに従って、評価手段4aおよび他の各手段2,3として動作してもよい。あるいは、評価手段4aが専用の回路として他の手段とは別に設けられていてもよい。
図9は、第3の実施形態の処理経過の例を示すフローチャートである。学習画像群生成手段2は、各人物の顔の3D形状モデルが入力されると、3D形状モデルに対する照明の位置や3D形状モデルの姿勢を種々変化させた場合の学習画像を人物毎に作成する(ステップS11)。
次に、特徴点配置手段3および評価手段4aが、各特徴点の局所領域の大きさεおよびアスペクト比Wを固定値として、特徴点の位置を定める(ステップS12)。第1の実施形態のステップS2と同様に、特徴点配置手段3は、各3D形状モデル上の特徴点群の初期位置を定め、その特徴点群に対応する学習画像内の特徴点群の位置も定める。特徴点の位置が指定されると、評価手段4aは評価値Qを計算する。このとき、評価手段4aは、式(8)の積分計算を行う前に、学習画像を横方向に1/W倍になるように変換する。そして、評価手段4aは、式(8)におけるεを固定値として、変換後の学習画像に対して式(8)の積分計算を行い式(1)の第3項を計算する。評価値Qの計算過程において、他の点は第1の実施形態のステップS2と同様である。そして、特徴点配置手段3は、評価値Qを最小にするように、3D形状モデル上の特徴点群を移動させ、評価手段4aは、その特徴点群に対する評価値Qを、εを固定値として再度計算する。この処理を、評価値Qが収束するまで行い、評価値Qが収束したときの特徴点群の位置を特定する。
次に、評価手段4aは、その位置に特徴点群が存在するものとして、特徴点群の位置を固定し、アスペクト比Wを固定値として、局所領域の大きさεを変化させて、その特徴点群の評価値Qを再計算する。そして、評価値Qが最小となるときのεを特定する(ステップS13)。このとき、評価手段4aは、式(8)の積分計算を行う前に、学習画像を横方向に1/W倍になるように変換し、変換後の学習画像について、εを種々変化させたときの評価値Qを計算すればよい。式(8)の計算の際に、学習画像を横方向に1/W倍になるように変換する点の他は、第1の実施形態と同様である。
次に、評価手段4aは、ステップS12で定めた位置に特徴点群が存在し、ステップS13で定めたεの値を固定とし、アスペクト比を変化させて、その特徴点群の評価値Qを再計算する。そして、評価値Qが最小となるときのWを特定する(ステップS14)。ステップS14においても、評価手段4aは、式(8)の積分計算の前に、学習画像を横方向に1/W倍になるように変換する。このとき、評価手段4aは、Wを変化させ、様々な倍率(1/W)で学習画像を変換する。そして、各Wに応じた評価値Qを計算し、評価値Qが最小となるWを特定する。
ステップS14の後、評価手段4aは、ステップS12〜S14のループ処理を終了するか否かを判定する(ステップS15)。例えば、直前のステップS14でWを変化させて計算した評価値Qの最小値と、その前のステップS15でWを変化させて計算した評価値Qの最小値との差が所定値以下となった状態(Qが収束した状態)になっていたら(ステップS15のYes)、ループ処理を終了すると判定し、そうでなければ(ステップS15のNo)、ステップS12〜S14を再度繰り返すと判定してもよい。
ステップS15の後、再度ステップS12を行う場合、直前のステップS13,S145で定めたεおよびWを、εおよびWの固定値として用いればよい。また、直前のステップS12で定めた特徴点群の位置を特徴点群の初期位置としてステップS12を開始すればよい。
ステップS15においてループ処理を終了すると判定した場合、特徴点配置手段3は、直前のステップS12で定めた特徴点群と、直前のステップS13で定めたεと、直前のステップS14で定めたWとを出力する。すなわち、特徴点配置手段3は、特徴点の配置を定めるとともに、各特徴点の抽出に用いるべき局所パターンの大きさを、直前のステップS13で定めたεとすることを決定し、また、各特徴点の抽出に用いるべき局所パターンのアスペクト比を、直前のステップS14で定めたWとすることを決定する。
本実施形態においても、第1の実施形態と同様の効果を得ることができる。さらに、アスペクト比Wも考慮して評価値Qを計算し、評価値Qが最小となるアスペクト比Wを求めているので、姿勢推定や個体認証等において局所領域として長方形を切り出す場合、要件A〜Cを満たす好ましいアスペクト比を求めることができる。
なお、図9では、ステップS12〜S14をループ処理とする場合を示したが、ステップS12〜S14をループ処理とせずに、ステップS12〜S14を一回ずつ行った後に処理を終了してもよい。
また、ステップS13とステップS14とを別々に行うのではなく、評価値4aが、εおよびWをそれぞれ変化させて、評価値Qが最小となるεおよびWを同時に特定してもよい。
また、各特徴点の位置とεおよびWを同時に定めてもよい。すなわち、特徴点の初期位置Wから評価値Qが最小となるように特徴点を移動させるときに、評価値Qの計算においてε,Wを変化させてもよい。そして、評価値Qが最小となるときの、特徴点の位置およびε,Wを同時に決定してもよい。
第3の実施形態の特徴点生成システムが、第2の実施形態と同様に、特徴点抽出器学習手段21を備えていてもよい。
次に、本発明の最小構成を説明する。図10は、本発明の最小構成を示すブロック図である。本発明の特徴点生成システムは、画像群生成手段31と、特徴点配置手段32と、評価手段33とを備える。
画像群生成手段31(例えば、学習画像群生成手段2)は、3次元形状モデルに対して条件(例えば、個体の姿勢や照明の当たり方等)を変化させて得られる複数の画像(例えば、学習画像)を生成する。
評価手段33(例えば、評価手段4,4a)は、特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値(例えば、式(1)の右辺第2項)と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値(例えば、式(1)の右辺第3項)とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値(例えば、評価値Q)を計算する。
そして、特徴点配置手段32(例えば、特徴点配置手段3)は、評価手段33が計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する。
そのような構成により、好ましい特徴点群を得ることができる。
また、上記の実施形態には、評価手段33が、第2の評価値として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を用いる構成が開示されている。
また、上記の実施形態には、評価手段33が、条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値(例えば、式(1)の右辺第4項)を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する構成が開示されている。
また、上記の実施形態には、画像群生成手段31が、複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成し、評価手段33が、各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値(例えば、式(1)の右辺第1項)を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する構成が開示されている。
また、上記の実施形態には、評価手段33が、特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算し、特徴点配置手段32が、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定する構成が開示されている。そのような構成によれば、好ましい局所パターンの大きさも定めることができる。
また、上記の実施形態には、評価手段33が、特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、特徴点配置手段23が、評価手段33が計算する評価値が最小となるように特徴点群を移動させ(例えば、ステップS2を実行し)、評価手段33が、評価値が最小となる特徴点群が定められたときに、特徴点群の位置を固定とし、特徴点における局所パターンの大きさを変化させて、局所パターンの大きさに応じた第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、その評価値が最小となる局所パターンの大きさを定める(例えば、ステップS3を実行する)構成が開示されている。
また、上記の実施形態には、評価手段33が、評価値が最小となる局所パターンの大きさを定めたときに、その大きさで特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、特徴点配置手段32が、評価手段33が計算する評価値が最小となるように特徴点群を移動させる構成が開示されている。
また、上記の実施形態には、評価手段33(例えば、評価手段4a)が、特徴点における局所パターンのアスペクト比を変化させ、局所パターンのアスペクト比に応じた第2の評価値を計算し、特徴点配置手段32が、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンのアスペクト比を決定する構成が開示されている。そのような構成によれば、好ましい局所パターンのアスペクト比も定めることができる。
また、上記の実施形態には、評価値が最小となるように特徴点を含む局所パターンと、特徴点を含まない局所パターンとにより、特徴点に該当するか否かを判定するための判定用データ(例えば、特徴点抽出器の内部データ)を学習する判定用データ学習手段(例えば、特徴点抽出器学習手段21)を備える構成が開示されている。そのような構成によれば、あるパターンが与えられるとそのパターンが要件A〜Cを満たす特徴点であるか否かを判定用データで判定できる。
この出願は、2009年3月13日に出願された日本出願特願2009−061934を基礎とする優先権を主張し、その開示の全てをここに取り込む。
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
上記の実施の形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1) 3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成部と、
特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、
3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価部と、
前記評価部が計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置部とを備える
ことを特徴とする特徴点生成システム。
(付記2) 評価部は、第2の評価値として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を用いる
付記1に記載の特徴点生成システム。
(付記3) 評価部は、条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
付記1に記載の特徴点生成システム。
(付記4) 画像群生成部は、複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成し、
評価部は、各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
付記1に記載の特徴点生成システム。
(付記5) 評価部は、特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算し、
特徴点配置部は、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定する
付記1に記載の特徴点生成システム。
(付記6) 評価部は、特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、
特徴点配置部は、評価手段が計算する評価値が最小となるように特徴点群を移動させ、
評価部は、評価値が最小となる特徴点群が定められたときに、特徴点群の位置を固定とし、特徴点における局所パターンの大きさを変化させて、局所パターンの大きさに応じた第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、前記評価値が最小となる局所パターンの大きさを定める
付記1に記載の特徴点生成システム。
(付記7) 評価部は、評価値が最小となる局所パターンの大きさを定めたときに、その大きさで特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、
特徴点配置部は、評価手段が計算する評価値が最小となるように特徴点群を移動させる
付記6に記載の特徴点生成システム。
(付記8) 評価部は、特徴点における局所パターンのアスペクト比を変化させ、局所パターンのアスペクト比に応じた第2の評価値を計算し、
特徴点配置部は、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンのアスペクト比を決定する
付記1に記載の特徴点生成システム。
(付記9) 評価値が最小となるように特徴点を含む局所パターンと、特徴点を含まない局所パターンとにより、特徴点に該当するか否かを判定するための判定用データを学習する判定用データ学習部を備える
付記1に記載の特徴点生成システム。
(付記10) 3次元形状モデルに対して条件を変化させて得られる複数の画像を生成し、
特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算し、
指定された特徴点群に対する評価値が最小となるように3次元形状モデル上の特徴点群を配置する
ことを特徴とする特徴点生成方法。
(付記11) 第2の評価値として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を用いる
付記10に記載の特徴点生成方法。
(付記12) 条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
付記10に記載の特徴点生成方法。
(付記13) 複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成し、
各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
付記10に記載の特徴点生成方法。
(付記14) 特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算し、
特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定する
付記10に記載の特徴点生成方法。
(付記15) コンピュータに、
3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成処理、
特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価処理、および、
前記評価処理で計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置処理
を実行させるための特徴点生成プログラム。
(付記16) コンピュータに、
評価処理で、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を第2の評価値とさせる
付記15に記載の特徴点生成プログラム。
(付記17) コンピュータに、
評価処理で、条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算させ、各評価値の重み付和として、指定された特徴点群に対する評価値を計算させる
付記15に記載の特徴点生成プログラム。
(付記18) コンピュータに、
画像群生成処理で、複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成させ、
評価処理で、各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算させ、各評価値の重み付和として、指定された特徴点群に対する評価値を計算させる
付記15に記載の特徴点生成プログラム。
(付記19) コンピュータに、
評価処理で、特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算させ、
特徴点配置処理で、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定させる
付記15に記載の特徴点生成プログラム。
本発明は、個体の姿勢推定や個体識別を行う装置等で用いられる3次元形状モデル上の特徴点を生成するシステムとして好適に利用できる。
1 特徴点生成システム
2 学習画像群生成手段
3 特徴点配置手段
4,4a 評価手段
21 特徴点抽出器学習手段

Claims (19)

  1. 3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成手段と、
    特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、
    3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価手段と、
    前記評価手段が計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置手段とを備える
    ことを特徴とする特徴点生成システム。
  2. 評価手段は、第2の評価値として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を用いる
    請求項1に記載の特徴点生成システム。
  3. 評価手段は、条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
    請求項1または請求項2に記載の特徴点生成システム。
  4. 画像群生成手段は、複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成し、
    評価手段は、各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
    請求項1から請求項3のうちのいずれか1項に記載の特徴点生成システム。
  5. 評価手段は、特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算し、
    特徴点配置手段は、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定する
    請求項1から請求項4のうちのいずれか1項に記載の特徴点生成システム。
  6. 評価手段は、特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、
    特徴点配置手段は、評価手段が計算する評価値が最小となるように特徴点群を移動させ、
    評価手段は、評価値が最小となる特徴点群が定められたときに、特徴点群の位置を固定とし、特徴点における局所パターンの大きさを変化させて、局所パターンの大きさに応じた第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、前記評価値が最小となる局所パターンの大きさを定める
    請求項1から請求項5のうちのいずれか1項に記載の特徴点生成システム。
  7. 評価手段は、評価値が最小となる局所パターンの大きさを定めたときに、その大きさで特徴点における局所パターンの大きさを一定として、第2の評価値を計算し、各評価値の和として、指定された特徴点群に対する評価値を計算し、
    特徴点配置手段は、評価手段が計算する評価値が最小となるように特徴点群を移動させる
    請求項6に記載の特徴点生成システム。
  8. 評価手段は、特徴点における局所パターンのアスペクト比を変化させ、局所パターンのアスペクト比に応じた第2の評価値を計算し、
    特徴点配置手段は、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンのアスペクト比を決定する
    請求項1から請求項7のうちのいずれか1項に記載の特徴点生成システム。
  9. 評価値が最小となるように特徴点を含む局所パターンと、特徴点を含まない局所パターンとにより、特徴点に該当するか否かを判定するための判定用データを学習する判定用データ学習手段を備える
    請求項1から請求項8のうちのいずれか1項に記載の特徴点生成システム。
  10. 3次元形状モデルに対して条件を変化させて得られる複数の画像を生成し、
    特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算し、
    指定された特徴点群に対する評価値が最小となるように3次元形状モデル上の特徴点群を配置する
    ことを特徴とする特徴点生成方法。
  11. 第2の評価値として、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を用いる
    請求項10に記載の特徴点生成方法。
  12. 条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
    請求項10または請求項11に記載の特徴点生成方法。
  13. 複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成し、
    各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する
    請求項10から請求項12のうちのいずれか1項に記載の特徴点生成方法。
  14. 特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算し、
    特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定する
    請求項10から請求項13のうちのいずれか1項に記載の特徴点生成方法。
  15. コンピュータに、
    3次元形状モデルに対して条件を変化させて得られる複数の画像を生成する画像群生成処理、
    特徴点群が3次元形状モデル上で均一に分布しているほど小さくなる第1の評価値と、3次元形状モデル上の特徴点に応じた画像内の特徴点の抽出が容易であるほど小さくなる第2の評価値とを計算し、各評価値の重み付和として、指定された特徴点群に対する評価値を計算する評価処理、および、
    前記評価処理で計算する評価値が最小となるように3次元形状モデル上の特徴点群を配置する特徴点配置処理
    を実行させるための特徴点生成プログラム。
  16. コンピュータに、
    評価処理で、画像内の特徴点における局所パターンの対称性が大きいほど小さな値として計算される値を第2の評価値とさせる
    請求項15に記載の特徴点生成プログラム。
  17. コンピュータに、
    評価処理で、条件の異なるそれぞれの画像間での、画像内の特徴点における局所パターンの類似度が大きいほど小さな値として計算される第3の評価値を計算させ、各評価値の重み付和として、指定された特徴点群に対する評価値を計算させる
    請求項15または請求項16に記載の特徴点生成プログラム。
  18. コンピュータに、
    画像群生成処理で、複数の個体の3次元形状モデルに対して条件を変化させて得られる画像を生成させ、
    評価処理で、各個体の3次元形状モデルを同一座標系で重ねた場合の個体同士の特徴点が近いほど小さな値となる第4の評価値を計算させ、各評価値の重み付和として、指定された特徴点群に対する評価値を計算させる
    請求項15から請求項17のうちのいずれか1項に記載の特徴点生成プログラム。
  19. コンピュータに、
    評価処理で、特徴点における局所パターンの大きさを変化させ、局所パターンの大きさに応じた第2の評価値を計算させ、
    特徴点配置処理で、特徴点の配置に加え、各特徴点の抽出に用いるべき局所パターンの大きさを決定させる
    請求項15から請求項18のうちのいずれか1項に記載の特徴点生成プログラム。
JP2011503882A 2009-03-13 2010-03-12 特徴点生成システム、特徴点生成方法および特徴点生成プログラム Active JP5505409B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011503882A JP5505409B2 (ja) 2009-03-13 2010-03-12 特徴点生成システム、特徴点生成方法および特徴点生成プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009061934 2009-03-13
JP2009061934 2009-03-13
PCT/JP2010/054254 WO2010104181A1 (ja) 2009-03-13 2010-03-12 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP2011503882A JP5505409B2 (ja) 2009-03-13 2010-03-12 特徴点生成システム、特徴点生成方法および特徴点生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2010104181A1 JPWO2010104181A1 (ja) 2012-09-13
JP5505409B2 true JP5505409B2 (ja) 2014-05-28

Family

ID=42728466

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011503882A Active JP5505409B2 (ja) 2009-03-13 2010-03-12 特徴点生成システム、特徴点生成方法および特徴点生成プログラム

Country Status (4)

Country Link
US (1) US8744144B2 (ja)
EP (1) EP2407933A1 (ja)
JP (1) JP5505409B2 (ja)
WO (1) WO2010104181A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101938184B1 (ko) * 2017-07-31 2019-01-15 주식회사 자이언소프트 점군 데이터로 이루어진 가상신체 구현 시스템

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5554984B2 (ja) * 2009-12-24 2014-07-23 キヤノン株式会社 パターン認識方法およびパターン認識装置
WO2012032747A1 (ja) * 2010-09-06 2012-03-15 日本電気株式会社 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
WO2012161346A1 (ja) * 2011-05-24 2012-11-29 日本電気株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6463728B2 (ja) * 2013-03-25 2019-02-06 エルジー エレクトロニクス インコーポレイティド 無線通信システムにおいて端末間直接通信のためのリソースを割り当てる方法及びそのための装置
JP6465027B2 (ja) * 2013-08-28 2019-02-06 日本電気株式会社 特徴点位置推定装置、特徴点位置推定方法および特徴点位置推定プログラム
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
JP6938201B2 (ja) * 2017-04-26 2021-09-22 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP6937508B2 (ja) * 2017-06-08 2021-09-22 国立大学法人 筑波大学 画像処理システム、評価モデル構築方法、画像処理方法及びプログラム
JP2019023858A (ja) * 2017-07-21 2019-02-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 学習データ生成装置、学習データ生成方法、機械学習方法及びプログラム
DE112017008174B4 (de) * 2017-11-27 2022-02-17 Mitsubishi Electric Corporation Ausdruckserkennungseinrichtung
JP7396468B2 (ja) 2020-04-13 2023-12-12 日本電気株式会社 学習装置、推論装置、制御方法及びプログラム
JP7364052B2 (ja) 2020-04-13 2023-10-18 日本電気株式会社 情報処理装置、制御方法及びプログラム
CN115954090B (zh) * 2023-03-16 2023-05-16 信艺(广州)义齿研制有限公司 一种基于漫画工艺的假牙制作方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273496A (ja) * 2000-03-28 2001-10-05 Medeikku Engineering:Kk 人物照合システム
JP2003141564A (ja) * 2001-10-31 2003-05-16 Minolta Co Ltd アニメーション生成装置およびアニメーション生成方法
JP2006115406A (ja) * 2004-10-18 2006-04-27 Omron Corp 撮像装置
JP2007102412A (ja) * 2005-10-03 2007-04-19 Konica Minolta Holdings Inc モデリングシステム、モデリング方法およびプログラム
JP2008204200A (ja) * 2007-02-20 2008-09-04 Space Vision:Kk 顔解析システム及びプログラム
JP2008225971A (ja) * 2007-03-14 2008-09-25 Matsushita Electric Ind Co Ltd 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP2010218051A (ja) * 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070183665A1 (en) * 2006-02-06 2007-08-09 Mayumi Yuasa Face feature point detecting device and method
KR20080073933A (ko) * 2007-02-07 2008-08-12 삼성전자주식회사 객체 트래킹 방법 및 장치, 그리고 객체 포즈 정보 산출방법 및 장치
JP4999090B2 (ja) 2007-09-06 2012-08-15 古河電気工業株式会社 フロアカバー
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273496A (ja) * 2000-03-28 2001-10-05 Medeikku Engineering:Kk 人物照合システム
JP2003141564A (ja) * 2001-10-31 2003-05-16 Minolta Co Ltd アニメーション生成装置およびアニメーション生成方法
JP2006115406A (ja) * 2004-10-18 2006-04-27 Omron Corp 撮像装置
JP2007102412A (ja) * 2005-10-03 2007-04-19 Konica Minolta Holdings Inc モデリングシステム、モデリング方法およびプログラム
JP2008204200A (ja) * 2007-02-20 2008-09-04 Space Vision:Kk 顔解析システム及びプログラム
JP2008225971A (ja) * 2007-03-14 2008-09-25 Matsushita Electric Ind Co Ltd 画像合成装置およびそれを用いた画像照合装置ならびに画像合成方法
JP2010218051A (ja) * 2009-03-13 2010-09-30 Nec Corp 特徴点選択システム、特徴点選択方法および特徴点選択プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101938184B1 (ko) * 2017-07-31 2019-01-15 주식회사 자이언소프트 점군 데이터로 이루어진 가상신체 구현 시스템

Also Published As

Publication number Publication date
US20120002867A1 (en) 2012-01-05
US8744144B2 (en) 2014-06-03
EP2407933A1 (en) 2012-01-18
WO2010104181A1 (ja) 2010-09-16
JPWO2010104181A1 (ja) 2012-09-13

Similar Documents

Publication Publication Date Title
JP5505409B2 (ja) 特徴点生成システム、特徴点生成方法および特徴点生成プログラム
JP5451302B2 (ja) 画像処理装置及び方法、プログラム及び記憶媒体
JP5206517B2 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP7417555B2 (ja) 人体ポーズ分析システム及び方法
JP4739355B2 (ja) 統計的テンプレートマッチングによる高速な物体検出方法
JP4372051B2 (ja) 手形状認識装置及びその方法
JP4483334B2 (ja) 画像処理装置
CN105740780B (zh) 人脸活体检测的方法和装置
WO2011086889A1 (ja) 特徴点選択システム、特徴点選択方法および特徴点選択プログラム
JP4970381B2 (ja) 特徴抽出装置、特徴抽出方法、画像処理装置、及び、プログラム
KR100896643B1 (ko) Aam을 이용한 3차원 얼굴 모델링 방법 및 시스템,그리고 이에 적용되는 장치
JP6612822B2 (ja) モデルを修正するためのシステムおよび方法
KR101326691B1 (ko) 지역적 특징의 통계적 학습을 통한 강건한 얼굴인식방법
JP2020017082A (ja) 画像オブジェクト抽出装置及びプログラム
JP4343125B2 (ja) パターン認識装置及びその方法
Xu et al. Automatic segmentation of cervical vertebrae in X-ray images
JP2005351814A (ja) 検出装置および検出方法
US20230394871A1 (en) Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image
JP6486084B2 (ja) 画像処理方法、画像処理装置、及びプログラム
JP4929460B2 (ja) 動体の動作認識方法
Elsayed et al. Hybrid method based on multi-feature descriptor for static sign language recognition
JP4863121B2 (ja) 画像特徴抽出装置および画像特徴抽出方法
JP2007148820A (ja) 画像処理方法、その装置およびプログラム
Muntasa et al. A new formulation of face sketch multiple features detection using pyramid parameter model and simultaneously landmark movement
CN118247711A (zh) 一种Transformer架构小目标检测方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140303

R150 Certificate of patent or registration of utility model

Ref document number: 5505409

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150