JP2010073138A - 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム - Google Patents

特徴点検出装置、特徴点検出方法及び特徴点検出プログラム Download PDF

Info

Publication number
JP2010073138A
JP2010073138A JP2008242966A JP2008242966A JP2010073138A JP 2010073138 A JP2010073138 A JP 2010073138A JP 2008242966 A JP2008242966 A JP 2008242966A JP 2008242966 A JP2008242966 A JP 2008242966A JP 2010073138 A JP2010073138 A JP 2010073138A
Authority
JP
Japan
Prior art keywords
feature point
feature
probability density
feature points
density function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008242966A
Other languages
English (en)
Inventor
Tsugumi Yamada
貢己 山田
Osamu Yamaguchi
修 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008242966A priority Critical patent/JP2010073138A/ja
Publication of JP2010073138A publication Critical patent/JP2010073138A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】特徴点候補を適切に検出することが可能な、高速且つ高精度な特徴点検出方法を提供すること。
【解決手段】画像から対象物と前記対象物に属する複数の特徴点とを検出する特徴点検出装置1は、前記対象物におけるN個の特徴点の位置の同時確率密度関数p(x、…、x)を取得する取得部9と、前記N個の特徴点のうち、既に検出処理が行われたk−1個の特徴点の位置に基づいて、特徴点kの位置の条件付確率密度関数p(x|x、…xk−1)を算出し、前記条件付確率密度関数を用いて前記特徴点kの検出処理が行われる探索領域を設定する探索領域設定部4と、を備える。
【選択図】図1

Description

本発明は、カメラ等の撮像手段から入力された対象物の画像を処理して、対象物に属する複数の特徴点を検出する特徴点検出装置、特徴点検出方法及び特徴点検出プログラムに関する。
画像中の対象物(人物頭部、身体、動物、障害物など)の特徴点を精度良く検出することができれば、様々な応用分野に適用可能である。例えば、高精度の顔認識、人物の識別、顔特徴点の検出による表情の解析、動物の検出と種の識別などの応用分野が想定される。
特許文献1は、複数の特徴点の候補を検出し、候補の組み合わせに対して整合性評価を行わせて、不適切な配置の組み合わせを排除することにより、高精度に複数の特徴点の最適な組み合わせを検出する。各特徴点の探索領域は、検出の特徴点の位置等によって適切に設定されている。
特許文献2は、複数の特徴点を探索する際に、学習によって得られた特徴点位置の確率分布を用いて、効率的に探索領域を設定して特徴点を探索する。
特開2007−233997公報 特開2007−226424公報 T. Mita, T. Kaneko, and O. Hori. Joint haar-like features for face detection. In Proc. Tenth IEEE International Conference on Computer Vision (ICCV 2005), pp.1619-1626, Beijing, China, October 2005. 三田雄志, 金子敏充, 堀修. 顔検出に適した共起に基づくjoint haar-like 特徴. 電子情報通信学会論文誌, Vol. J89-D-II, No. 8, pp. 1791.1801, August 2006. M. Yuasa, T. Kozakaya, and O. Yamaguchi. An efficient 3d geometrical consistency criterion for detection of a set of facial feature points. In Proc. IAPR Conf. on Machine Vision Applications (MVA2007), pp. 25.28, Tokyo, Japan, May 2007. 湯浅 真由美、武口 智行、小坂谷 達夫、 山口 修、 「静止画顔認証のための自動顔特徴点検出」 電子情報通信学会研究報告, PRMU2006-222, pp.5-10, Feb. 2007.
しかしながら、特許文献1では、特徴点の探索領域の設定においては、実際の複数の特徴点の位置分布の学習を活用していないため、探索領域の限定が不完全であり、最終的な整合性判定の段階までは比較的多くの特徴点候補を記憶する必要があった。
また、特許文献2では、特徴点対の相対位置の確率分布を用いたり、それらを加算して利用したりしており、設定しようとする探索領域の精度の低下をまねいていた。
本発明は、上記の事情を鑑みてなされたもので、その目的は、特徴点候補を適切に検出することが可能な、高速且つ高精度な特徴点検出方法を提供することにある。
上記課題を解決するために、本発明の一側面は、画像から対象物と前記対象物に属する複数の特徴点とを検出する特徴点検出装置に係り、前記対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数p(x、…、x)を取得する取得部と、前記N個の特徴点のうち、既に検出処理が行われたk−1(k−1はN以下且つ1以上の整数)個の特徴点の位置に基づいて、特徴点kの位置の条件付確率密度関数p(x|x、…xk−1)を算出し、前記条件付確率密度関数を用いて前記特徴点kの検出処理が行われる探索領域を設定する探索領域設定部と、を備えることを特徴とする。
本発明によれば、特徴点候補を適切に検出することが可能な、高速且つ高精度な特徴点検出方法を提供することができる。
以下、図面を参照しながら本発明の実施形態を説明する。
本明細書で扱う画像は、コンピュータで処理することが可能なデジタル画像である。平面座標を(x、y)、画素値をfとすれば、画像をf(x、y)と表すことができる。デジタル画像では、x、y、fは離散的な値で表される。(x、y)は画像上に配置された標本点であり「画素」と呼ばれる。例えば、VGAと呼ばれる640×480画素の画面解像度に対応した画像の場合は、x=0、…、639、y=0、…、479という値をとり得る。画像処理を行わせて、特徴点の位置を求めたり、対応点を求めたり、エッジ抽出を行わせたりする場合に求めたい情報は、どの画素かということである場合がある。このときは「点」や「エッジ」の位置とは特定の「画素」を意味する。しかしながら、さらに精密に特徴点、対応点、エッジを求めたいときには、サブピクセル推定と呼ばれる方法により画素間の位置を実数値のx、yで求める場合がある。このときは「点」とは実数値のx、yで表された位置(x、y)のことであり、特定の1つの画素を表すとは限らない。
画素値(または濃淡レベル)fは、8ビットのモノクロ画像の場合は、0から255までの整数値をとる。fが24ビットのカラー画像の場合は、RGBそれぞれが0から255までの整数値をとるような3次元のベクトルとして表される。
画像の特徴点(本明細書では、「画像の特徴点」のことを単に「特徴点」という。)とは、画像中の対象物(顔、人物、動物、物体など)の位置決めを行うために用いる点のことであり、通常は1つの画像中に複数の特徴点が設定されて利用される。画素値が空間的に急激に変化する点を画像から機械的に抽出して特徴点としたり、予め特定の画素値変化(テクスチャ)が想定される小領域中の特定の点を特徴点としたりすることで設定される。例えば、前者では画素値変化が極大になる点を用いる場合があり、後者では人物顔の瞳の中心点を用いる場合がある。
機械的に抽出された特徴点は、複数の画像間において特徴点の1対1の対応付けがなされることにより、障害物の検出、物体の運動の推定、物体の個数の推定、物体の形状獲得などを行わせたりすることができる。即ち、機械的に抽出された想定されていない特徴点であっても、その点が別の画像においてどの点に対応しているかということをテンプレートマッチングによって計算したり、人手で設定したりすることにより、有効活用することができるようになる。
対象物の中の特定の点であり、予め特定の画素値変化(テクスチャ)が想定される小領域中の特定の点であるような点を特徴点とする場合は、単一の画像中において特徴点を検出することだけでも有用である。例えば、未知で新規に与えられた画像から人物の顔の特徴点(目の中心、鼻の頂点、口の端点など)を検出することができれば、それだけで人物の存在、位置、姿勢、表情などの情報を得ることができて、有用である。本発明は、このように設定された特徴点に関して、特徴点検出性能を向上させるものである。
画像中の顔領域に含まれる目、鼻、口などを顔部品ということがある。例えば、顔画像中の目を含む小領域を考えたとき、まぶたや瞳などを含む目の領域は顔を構成する部品と捉えて顔部品ということができる。これに対して、瞳の中心点、目じり、目頭などの位置決めのために利用する点を顔特徴点ということにする。顔以外の対象物(人物、身体、物体)の場合も、対象物全体の構成要素である部分を部品と呼び、部品の中の位置決めに用いる特定の点を特徴点ということにする。
検出処理計算によって特徴点を求める際に、計算コストの大きい複数の種類の計算処理が必要だったり、他の特徴点の検出結果との整合性をとる必要があったりする場合がある。そのようなときには、検出処理計算の途中段階において、各特徴点について複数の特徴点の候補を記憶しておき、次第に候補の個数を減らしていき、最終的に各特徴点の推定結果を1個に絞り込むということを行う。こうすることで、計算コストの大きい計算を減らしたり、特徴点の推定結果の精度を向上させたりすることができる。本明細書では、このような特徴点の候補のことを、「特徴点候補」或いは単に「候補」という。
さらに、検出処理計算の途中段階において、候補の組み合わせを複数組保持しておき、それらの保持されている組み合わせの組数を次第に減らして行き、最終的に1組に絞り込むことも行わせる。このときの候補の特定の組み合わせを、「候補の組」ということにする。候補の組は1組に絞り込まれた段階では候補ではなく特徴点の組になる。
また、本明細書では、「検出処理」のことを「探索」ともいう。「探索」とは、検出しようとして特定の領域を探すことをいう。「未探索」とは、探索を行っていないことをいう。「未検出」には、探索したが検出できなかった場合と、検出処理を行わなかった場合とが含まれる。
図1は、本発明の実施形態に係る特徴点検出装置の一例を示す構成図である。
特徴点検出装置1は、例えば、画像入力部2と、顔検出部3と、探索領域設定部4と、特徴点検出部5と、候補選択部6と、記憶部7と、終了判定部8と、取得部9と、を備える。画像入力部2及び記憶部7の少なくとも一方は、特徴点検出装置1内部に配置されてもよいし、特徴点検出装置1の外部に配置されてもよい。特徴点検出装置1は、画像から人物の顔領域を検出し、さらに顔領域から予め定められた複数の顔特徴点の画像上の位置を特定し(以下、画像上の位置を特定することを「検出する」といい、顔領域内部或いは近傍の特徴点を特に「顔特徴点」という。)、その結果を出力する。出力された顔特徴点検出の結果は、顔認識アプリケーションや、その他の顔画像処理アプリケーションで利用される。
画像入力部2は、対象物を撮影した画像を入力し、顔検出部3と記憶部7に入力した画像を送る。
顔検出部3は、画像入力部2から画像を受け取り、受け取った画像に対して顔検出処理を行い、顔検出の処理結果(顔の位置、大きさ、顔向きなど)を探索領域設定部4と記憶部7に出力する。顔検出処理は、公知の技術を用いることができる。例えば、非特許文献1、2に開示された方法を用いて顔検出を行うことができる。
探索領域設定部4は、顔検出部3から新たに検出された顔領域の情報を受け取り、終了判定部8から特徴点検出処理の経過情報(複数の特徴点の既検出/未検出/検出完了状況等)を受け取り、記憶部7に記憶された確率密度関数の情報、複数の特徴点候補の情報等を受け取り、特徴点の検出処理が行われる探索領域を設定して、その設定情報を特徴点検出部5に出力する。
特徴点検出部5は、探索領域設定部4から設定された特徴点の探索領域を受け取り、探索領域に対して特徴点検出を行わせ、検出された複数の特徴点候補を候補選択部6に出力する。特徴点検出に関しては、探索領域設定部4において行う探索領域の設定と、候補選択部6において行う特徴点候補の選択が従来とは異なる部分であり、それ以外の処理は従来の技術を用いる。例えば、特許文献1や非特許文献3、4に開示された特徴点検出方法を用いて特徴点検出を行うことができる。
候補選択部6は、特徴点検出部5から検出された複数の特徴点候補の情報(個数、位置、類似度など)を受け取り、記憶部7から確率密度関数の情報、複数の特徴点候補の情報等を受け取り、確率密度関数と類似度などに基づいて検出済み特徴点候補の組み合わせを予め定められた個数だけリストアップし、その処理結果を記憶部7と終了判定部8に出力する。
記憶部7は、入力された画像、顔検出情報(位置、大きさ、類似度、顔の向き、顔表情など)、対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数、特徴点検出情報(検出特徴点候補の個数、位置、類似度、既検出/未検出)、特徴点探索領域情報(位置、形、大きさ)などを記憶し、画像入力部2から画像を受け取り、顔検出部3と探索領域設定部4と候補選択部6と終了判定部8と、これらの情報のやり取りを行う。
終了判定部8は、候補選択部6から最新の検出済み特徴点候補の情報を受け取り、記憶部7から検出処理の進捗情報などの他の情報を受け取り、特徴点検出処理が行われるか処理を終了するかどうかを判定する。さらに、特徴点検出処理が行われると判定した場合は、その判定情報を探索領域設定部4と記憶部7へ出力し、終了すると判定した場合は、特徴点検出処理結果情報を特徴点検出装置1の外へ出力するとともに終了判定情報を探索領域設定部4と記憶部7へ出力して、その画像に対する特徴点検出装置1の処理を終了させる。
取得部9は、顔検出情報、同時確率密度関数、特徴点検出情報等を取得し、記憶部7に記憶させる。
次に、特徴点の探索領域の設定に用いる確率密度関数について説明する。対象物は、N個(Nは2以上の整数)の特徴点を有するとする。特徴点の位置は、画像上のxとyの2次元座標で表されるとする。N個の特徴点は、2N次元のベクトルXとして式(1)で表される。
Figure 2010073138
学習データとして、手入力などで特徴点の正解位置が与えられたデータがn個あるとして、その各々をXとする(式(1)を参照)。平均ベクトルX ̄は式(2)で与えられ、共分散行列Σは式(3)で与えられる。共分散行列Σのi行j列の成分をσijとし、上付きのは転置行列を表す。多次元の確率密度関数を多次元正規分布モデルで表すことにすると、学習データからは式(4)の確率密度関数が得られる。ここで、|Σ|はΣの行列式を表し、Σの上付きの−1は逆行列を表す。
2次元の特徴点座標をベクトルxとすると、特徴点kの座標ベクトルxは式(5)で表され、学習データjにおける特徴点kの座標ベクトルx は式(6)で表される。
Figure 2010073138
ベクトルxとベクトルXとの関係は式(7)で表される。特徴点kの平均ベクトルは式(8)で計算され、共分散行列は二次の行列として式(9)で与えられる。特徴点kの2次元確率密度関数は式(10)で与えられる。
特徴点1から特徴点k−1までのk−1(k−1はN以下且つ1以上の整数)個の特徴点座標ベクトルx、…、xk−1が説明変数として与えられたときの特徴点kの座標ベクトルxを目的変数とする条件付確率密度関数は式(11)で与えられる。
Figure 2010073138
ベクトルx、…、xの同時確率密度関数は、1、…、xの同時確率密度関数を用いて積分によって式(12)で計算することができる。多次元正規分布モデルを採用している場合は、積分計算は不要であり、2N次の共分散行列から該当する成分を抽出して2k次の共分散行列を構成して、それを用いて確率密度関数を構成すればよい。
図2は、本発明の実施形態に係る特徴点検出方法の処理手順の一例を示す流れ図である。図2では、画像から顔領域を検出するとともにN個の顔特徴点(特徴点1〜特徴点N)を順次検出する処理を行っている。処理手順は以下のようになる。
ステップST1では、画像入力部2が、画像を入力し、顔検出部3と記憶部7に入力した画像を送る。顔検出部3は、受け取った画像に対して顔検出処理を行い、顔検出の処理結果(顔の位置、大きさ、顔の向き、状態などの顔検出情報)を記憶部7と探索領域設定部4に出力する。また、取得部9が対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数p(x、…、x)を取得し、記憶部7に記憶させる。この同時確率密度関数p(x、…、x)の引数である特徴点の位置x、…、xは、入力された画像上の2次元画像座標で表現する場合もあれば、画像座標を、検出された顔領域の位置と大きさを基準とする相対座標に変換したもので表現する場合もある。相対座標で表現する方法として、式(24)で計算される、顔領域に対する相対座標(x、y)を用いる方法がある。
ステップST2では、探索領域設定部4が、顔検出部3から新たに検出された顔領域の情報を受け取り、終了判定部8から特徴点検出処理の経過情報(このステップでは検出処理が開始されたという状況等)を受け取り、記憶部7から同時確率密度関数の情報、複数の特徴点候補の情報等を受け取り、特徴点1の探索領域を2次元の画像上に設定してその設定情報を特徴点検出部5と記憶部7に出力する。探索領域の設定は、特徴点1の位置ベクトルxの確率密度関数p(x)を用いて、その値が予め定められた値より大きくなるようなベクトルxの領域 p(x)>C (式(13))を計算することで設定する。
Figure 2010073138
p(x)は予め学習しておいた共分散行列を用いて、式(10)によって計算する。
ステップST3では、特徴点検出部5が、探索領域設定部4から特徴点番号(このステップでは特徴点1)、探索領域の情報を受け取り、記憶部7から画像の情報を受け取り、特徴点1の検出処理を行わせ、特徴点1の候補x(i=1、…、n1)をn1個求めて、これらの検出情報を候補選択部6に出力する。
ステップST4では、候補選択部6が、特徴点検出部5から特徴点1の候補を受け取り、記憶部7から確率密度関数の情報、複数の特徴点候補の情報等を受け取り、特徴点1の候補をm1個に絞り込み、(x(i=1、…、m1)を求めて、記憶部7と終了判定部8に出力する。ここで、(x、…、xは、特徴点1から特徴点kまでのk個の特徴点の組を表すものとし、iはこの組に付けた通し番号を表すものとする。
ステップST5では、終了判定部8が、候補選択部6から特徴点1の候補の情報を受け取り、記憶部7から複数の特徴点候補の情報を受け取り、次に処理する特徴点番号kに2を代入して、処理状況の情報を記憶部7と探索領域設定部4に出力する。
ステップST6では、探索領域設定部4が、終了判定部8から特徴点検出処理の経過情報(このステップでは特徴点kの検出処理が開始されたという状況等)を受け取り、記憶部7から確率密度関数の情報、複数の特徴点候補の情報等を受け取り、探索領域を設定する基準となる既検出のk−1個の特徴点の候補の組の通し番号iに1を代入する。
ステップST7では、探索領域設定部4が、k−1個の特徴点候補のi番目の組(x、…、xk−1を説明変数とする条件付確率密度関数p(x|(x、…xk−1)を計算し、その値が予め定められた値Ckより大きくなる領域、即ち、p(x|(x、…xk−1)>Ck を満たすxの領域を求めて、この求められた領域を特徴点kの探索領域として追加する(式(15))。追加の方法は、確率密度を加算することは行わず、探索領域を追加するという方法で行う。即ち、新たに求められたi番目の領域のうち、既に求められている1からi−1番目までの領域に含まれない部分を追加する。この探索領域計算方法は「OR演算」や「和集合」のような計算である。ステップST7は、各k(k≧2)に対してmk−1回実行される。各kにおいてステップST7で使用される条件付確率密度関数p(x|(x、…xk−1)は、合計mk−1個である。即ち、特徴点kの探索領域の計算において、複数の条件付確率密度関数p(x|(x、…xk−1)、(i=1、…、mk−1)が利用される。
ステップST8では、探索領域設定部4が、候補の組の通し番号を加算する(i←i+1)。
ステップST9では、探索領域設定部4が、i≦mk−1を満たすかどうか判定し、満たす場合はステップST7に戻り、満たさない場合は探索領域の追加を完了してステップST10に進む。
ステップST10では、特徴点検出部5が、探索領域設定部4から特徴点番号(このステップでは特徴点k)、探索領域の情報を受け取り、記憶部7から画像の情報を受け取り、特徴点kの検出処理を行わせ、特徴点kの候補x(i=1、…、nk)をnk個求めて、これらの検出情報を候補選択部6に出力する。
ステップST11では、候補選択部6が、特徴点検出部5から特徴点kの候補を受け取り、記憶部7から確率密度関数の情報、複数の特徴点候補の情報等を受け取り、特徴点1から特徴点kまでのk個の特徴点候補の組の組数をm組に絞り込み、(x、…、x(i=1、…、m)を求めて、記憶部7と終了判定部8に出力する。候補のリストアップは評価値を設定してその値に基づいて行うが、評価値は各特徴点検出時の類似度の大きさが大きいほど大きく、式(12)の確率密度関数に候補の組を代入して得られる尤度の値が大きいほど大きくなるように設定する。
ステップST12では、終了判定部8が、候補選択部6から特徴点kの候補の情報を受け取り、記憶部7から複数特徴点候補の情報を受け取り、次に処理する特徴点番号kを1だけ加算し、処理状況の情報を記憶部7と探索領域設定部4に出力する。
ステップST13では、終了判定部8が、k≦Nを満たすかどうか判定する。満たす場合はステップST6に戻り、満たさない場合はステップ14に進む。
ステップST14では、出力部(不図示)が、検出した特徴点情報を特徴点検出装置1の外部に出力して特徴点検出処理を終了する。
以上の処理の流れは、特徴点を1個ずつ処理する場合の典型的な処理の流れである。しかしながら、似た特徴を持つ特徴点をグループ化してグループ毎に検出処理を進めて行くことが効率的なことがあり、以下でその場合の変更点について説明する。
N個の特徴点をG個のグループに分け、各グループがdg個の特徴点を有するものとする。特徴点グループgのベクトルXgは、式(16)−(18)で表される。
Figure 2010073138
Figure 2010073138
特徴点グループgの平均ベクトルは式(19)で計算され、共分散行列は2dg次の行列として式(20)で与えられる。特徴点グループgの2dg次元確率密度関数は式(21)で与えられる。
特徴点グループ1から特徴点グループg−1までのg−1個の特徴点グループ座標ベクトルX、…、Xg−1が説明変数として与えられたときの特徴点グループgの座標ベクトルXを目的変数とする条件付確率密度関数は式(22)で与えられる。
Figure 2010073138
ステップST7に相当する処理では、特徴点グループgの条件付確率密度関数p(x|(x、…xg−1)を計算した場合、4次元以上の空間の確率密度関数を扱うことになり扱いにくいので、これをグループgに含まれる特徴点毎の2次元の条件付確率密度関数に分解して、各特徴点の探索領域の設定を行わせ、必要に応じて評価値計算に対して高次元空間におけるp(x|(x、…xg−1)の尤度を用いて処理するという方法をとる。
図3及び図4は、本発明の実施形態に係る顔特徴点の位置の分布と探索領域設定の一例を示す概念図である。
図3は、人物の顔画像における左右の瞳、左右の鼻孔、左右の口端の合計6つの顔特徴点の位置を、いくつかの顔画像について、顔領域に対する相対座標としてプロットして描いたものである。中央の正方形が検出された顔領域を表し、それを基準とした特徴点の相対座標を+印でプロットした。画像座標における検出された顔領域の中心座標を(x、y)、正方形領域の1辺の長さを2wとすると、特徴点の画像座標(x、y)の顔領域に対する相対座標(x、y)は式(24)で計算される。
Figure 2010073138
この相対座標で表した特徴点kの2次元座標ベクトルをxとしたとき、同時確率密度関数p(x、…、x)は、多次元正規分布で近似すると、式(4)においてN=6とおいた式で表される。各特徴点kの座標ベクトルxの周辺分布の確率密度関数は式(10)で計算される。この周辺確率密度関数を用いて、特徴点1から特徴点6の探索領域を、式(14)で設定して図3に6つの楕円として描いた。適切にパラメータを設定することにより、特徴点(+印)が存在する領域をカバーするような探索領域を設定することができる。パラメータの設定は、例えば、誤り確率をa%と設定して、探索領域内で確率密度関数を積分した値が1−0.01aになるように係数Ckを設定するという方法がある。しかしながら、このような式(14)を用いる方法で設定した探索領域は特徴点間の関係を考慮しておらず、特徴点検出処理の開始時点では適切であるものの、検出処理が進むにつれて得られる検出済みの特徴点位置情報、さらには特徴点間の相関を考慮しないために有用な情報を活用できず、複数特徴点の検出処理の性能を低下させていた。
図4は、特徴点1と2がそれぞれ左の瞳、右の瞳であるとして、両瞳の候補の組がm2個得られたという条件のもとで、図2のステップST7の処理、即ち、式(15)で得られた探索領域を残りの4個の特徴点に対してm2個重ねて描いたものである。ただし、4個の各特徴点においてそれが次のk=3において探索されると仮定して探索領域を描いた。図3と比べて、鼻孔と口端の探索領域が狭くなっていることがわかる。このように、検出済みの特徴点候補が得られた段階では条件付確率密度関数を用いた探索領域設定により、誤り確率を変えずに探索領域を狭くすることができ、計算時間を短縮して、検出精度を高めることができる。
本発明の実施形態に係る特徴点検出装置の一例を示す構成図である。 本発明の実施形態に係る特徴点検出方法の処理手順の一例を示す流れ図である。 本発明の実施形態に係る瞳鼻孔口端6点の探索領域を示す概念図である。 本発明の実施形態に係る両瞳の候補の組の情報を用いた鼻孔口端4点の探索領域を示す概念図である。
符号の説明
1 特徴点検出装置
2 画像入力部
3 顔検出部
4 探索領域設定部
5 特徴点検出部
6 候補選択部
7 記憶部
8 終了判定部
9 取得部

Claims (4)

  1. 画像から対象物と前記対象物に属する複数の特徴点とを検出する特徴点検出装置であって、
    前記対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数p(x、…、x)を取得する取得部と、
    前記N個の特徴点のうち、既に検出処理が行われたk−1(k−1はN以下且つ1以上の整数)個の特徴点の位置に基づいて、特徴点kの位置の条件付確率密度関数p(x|x、…xk−1)を算出し、前記条件付確率密度関数を用いて前記特徴点kの検出処理が行われる探索領域を設定する探索領域設定部と、
    を備えることを特徴とする特徴点検出装置。
  2. 前記N個の特徴点の各々に対して複数の特徴点候補をそれぞれ検出する特徴点検出部を備え、
    前記探索領域設定部は、
    前記特徴点検出部で検出した前記複数の特徴点候補に基づいて複数の前記条件付確率密度関数を算出し、算出した複数の前記条件付確率密度関数を用いて前記探索領域を設定することを特徴とする請求項1に記載の特徴点検出装置。
  3. 画像から対象物と前記対象物に属する複数の特徴点とを検出する特徴点検出方法であって、
    前記対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数p(x、…、x)を取得する工程と、
    前記N個の特徴点のうち、既に検出処理が行われたk−1(k−1はN以下且つ1以上の整数)個の特徴点の位置に基づいて、特徴点kの位置の条件付確率密度関数p(x|x、…xk−1)を算出し、前記条件付確率密度関数を用いて前記特徴点kの検出処理が行われる探索領域を設定する工程と、
    を含むことを特徴とする特徴点検出方法。
  4. 画像から対象物と前記対象物に属する複数の特徴点とを検出するための特徴点検出プログラムであって、
    コンピュータに、
    前記対象物におけるN個(Nは2以上の整数)の特徴点の位置の同時確率密度関数p(x、…、x)を取得する工程と、
    前記N個の特徴点のうち、既に検出処理が行われたk−1(k−1はN以下且つ1以上の整数)個の特徴点の位置に基づいて、特徴点kの位置の条件付確率密度関数p(x|x、…xk−1)を算出し、前記条件付確率密度関数を用いて前記特徴点kの検出処理が行われる探索領域を設定する工程と、
    を実行させるための特徴点検出プログラム。

JP2008242966A 2008-09-22 2008-09-22 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム Pending JP2010073138A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008242966A JP2010073138A (ja) 2008-09-22 2008-09-22 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008242966A JP2010073138A (ja) 2008-09-22 2008-09-22 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム

Publications (1)

Publication Number Publication Date
JP2010073138A true JP2010073138A (ja) 2010-04-02

Family

ID=42204816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008242966A Pending JP2010073138A (ja) 2008-09-22 2008-09-22 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム

Country Status (1)

Country Link
JP (1) JP2010073138A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9904843B2 (en) 2012-03-27 2018-02-27 Nec Corporation Information processing device, information processing method, and program
JP2018067305A (ja) * 2016-10-20 2018-04-26 株式会社リコー ビジュアルオドメトリ方法及び装置
CN111881743A (zh) * 2020-06-23 2020-11-03 安徽清新互联信息科技有限公司 一种基于语义分割的人脸特征点定位方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9904843B2 (en) 2012-03-27 2018-02-27 Nec Corporation Information processing device, information processing method, and program
JP2018067305A (ja) * 2016-10-20 2018-04-26 株式会社リコー ビジュアルオドメトリ方法及び装置
CN111881743A (zh) * 2020-06-23 2020-11-03 安徽清新互联信息科技有限公司 一种基于语义分割的人脸特征点定位方法

Similar Documents

Publication Publication Date Title
US11176406B2 (en) Edge-based recognition, systems and methods
JP6891351B2 (ja) 多特徴検索と変形に基づく人体髪型の生成方法
Zadeh et al. Convolutional experts constrained local model for 3d facial landmark detection
JP4372051B2 (ja) 手形状認識装置及びその方法
JP4318465B2 (ja) 人物検出装置および人物検出方法
JP4332649B2 (ja) 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
Tian et al. Globally optimal estimation of nonrigid image distortion
SE528068C2 (sv) Igenkänning av 3D föremål
JP6296205B2 (ja) 画像処理装置、画像処理方法およびそのプログラムを記憶する記憶媒体
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
JPWO2019003973A1 (ja) 顔認証装置、顔認証方法およびプログラム
JP6387831B2 (ja) 特徴点位置検出装置、特徴点位置検出方法および特徴点位置検出プログラム
CN110598595A (zh) 一种基于人脸关键点和姿态的多属性人脸生成算法
CN116229189B (zh) 基于荧光内窥镜的图像处理方法、装置、设备及存储介质
JP2010073138A (ja) 特徴点検出装置、特徴点検出方法及び特徴点検出プログラム
CN111416938B (zh) 一种增强现实合拍方法、设备及计算机可读存储介质
Morerio et al. A generative superpixel method
KR102382883B1 (ko) 3차원 손 자세 인식 장치 및 방법
Wang et al. Automatic landmark placement for large 3D facial image dataset
Cho et al. Human Action Recognition Using Product Manifold Theory and Procrustes Shape Analysis
Zeng et al. Face alignment refinement
JP7486349B2 (ja) ニューラルネットワーク、ニューラルネットワークの学習方法、プログラム、画像処理装置
Huang et al. Real-Time Human Body Motion Capturing System
WO2022190534A1 (ja) 認識装置、ロボット制御システム、認識方法、およびプログラム
KR20230046038A (ko) 기계학습을 기반으로 하는 물체 자세 추정 시스템 및 그 방법