JP2013015891A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2013015891A
JP2013015891A JP2011146332A JP2011146332A JP2013015891A JP 2013015891 A JP2013015891 A JP 2013015891A JP 2011146332 A JP2011146332 A JP 2011146332A JP 2011146332 A JP2011146332 A JP 2011146332A JP 2013015891 A JP2013015891 A JP 2013015891A
Authority
JP
Japan
Prior art keywords
level feature
feature points
determining
image
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011146332A
Other languages
English (en)
Inventor
Masami Kato
政美 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011146332A priority Critical patent/JP2013015891A/ja
Publication of JP2013015891A publication Critical patent/JP2013015891A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】画像中の対象物の状態によらず、正しい正規化処理を行うことができるようにする。
【解決手段】下位レベル特徴点位置決定部101は、画像の中の対象物に対応する複数の下位レベル特徴点の位置を決定し、属性判定処理部102は、下位レベル特徴点の位置に基づいて前記対象物の表情を判定する。そして、上位レベル特徴点位置決定部103は、複数の下位レベル特徴点の位置と、前記判定された表情とに基づいて、前記対象物を代表する上位レベル特徴点の位置を決定するようにして、様々な表情に対しても上位レベル特徴点の位置を適切に決定し、精度の高い正規化処理を行うことができるようにする。
【選択図】図1

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、顔などの識別処理を行うために用いて好適な技術に関する。
顔画像データから個人を特定する顔認証処理では、一般的に、目、鼻、口等の顔器官を検出し、顔器官の位置や顔位置に基づいて顔画像を正規化する。そして、正規化後に器官位置や顔位置に基づいて特徴量を抽出し、抽出した特徴量に基づいて識別処理を行うことが多い。
顔器官に関連する特徴点を検出する方法としては、例えば非特許文献1に記載されているActive Shape Model法(以下、ASM法とする)が知られている。ASM法は、検出する多数の特徴点の配置関係をPoint Distribution Model(以下、PDMとする)と呼ばれる統計的なモデルで表現し、当該モデルを用いて配置に幾何学的な拘束を与えながら特徴点を探索する。これにより、対象物の輪郭に対応する複数の特徴点の正確な位置を検出できるようにしている。
ASM法など多数の特徴点の検出結果を利用した顔認証方法では、特徴点の検出結果から目や口、顔の中心位置を算出し、当該算出結果に基づいて顔画像を所定のサイズや角度に正規化して識別処理を行う。
一方、特許文献1には、顔の表情変化に対する頑健性を向上した顔認証方法が提案されている。この手法では、正規化した顔画像から顔の属性(顔の表情や顔の向き等)を判断し、属性に基づいて特徴量を抽出する特徴点の位置を決定している。
特開2009−87209号公報
T.F.Cootes, C.J.Taylor, "Active Shape Models - 'Smart Snakes'." Proc. British Machine Vision Conference. Springer-Verlag, 1992, pp.266-275.
ASM法等により決定した特定部位のエッジやコーナーといった多数の下位レベル特徴点から目や口等の上位レベル特徴点を決定する手法は、上位レベル特徴点を直接決定する手法に比べて、一般的に安定性が高い。ASM法を用いた下位レベル特徴点の抽出方法では、表情の変動等を含む学習データに基づいてPDMを生成することにより、特徴点の位置が変動しても追従が可能である。
ところが、表情の変動等により例えば、まぶたに対応するエッジ位置や口角に対応するコーナーの位置等の一部の下位レベル特徴点の位置が大きく変動した場合、対応する上位レベル特徴点の位置が変動する。このため、上位レベル特徴点を利用する顔画像の幾何学的な正規化処理に誤差が生じ、顔認証に適用した場合、その性能が低下する。同様に、上位レベル特徴点の位置を基準として識別処理を行う場合、その基準点位置の変動により性能が低下する。
図2は、下位レベル特徴点から上位レベル特徴点を求める方法の一例を具体的に示す図である。
図2に示すように、向かって右目の中心位置を示す上位レベル特徴点223は、4つの下位レベル特徴点205〜208の座標値の平均値から求められる。同様に、向かって左目の中心位置を示す上位レベル特徴点224は、下位レベル特徴点201〜204の座標値の平均値から求められる。
一方、口の中心位置を示す上位レベル特徴点226は、下位レベル特徴点212〜215の座標値の平均値から求められる。また、顔の中心位置を示す上位レベル特徴点225は全ての下位レベル特徴点201〜222に基づいて求められる。なお、後段の正規化処理では、左右の目の間隔を示す線分227の長さが所定の値になる様に顔画像データが変形(変倍)される。また、線分227と直交し、かつ口の中心位置を示す上位レベル特徴点226を通る線分228は顔の高さを示しており、後段の正規化処理では、線分228が所定の長さで、かつ画像の垂直軸と平行になる様に顔画像データが変形(変倍及び回転処理)される。
図3は、片目を瞑っている顔に対して、上位レベル特徴点を求める方法の一例を示す図である。
図2に示す例と比較すると、下位レベル特徴点207の位置が変動しているため、向かって右目の中心位置を示す上位レベル特徴点301の座標が変動する。このため、目幅を示す線分302及び顔の高さを示す線分303の方向及び長さが変化する。さらに、顔の中心位置を示す上位レベル特徴点304の位置も僅かに変動する。したがって、上位レベル特徴点に基づいて顔画像を正規化した場合、図2に示した例と異なる結果となり、正しい正規化が行われない。
また、特許文献1には、表情の変動等に応じて顔認証のための特徴量を抽出し、特徴点の位置を変える手法が開示されているが、基準となる顔画像の正規化誤差の問題に関しては開示されていない。この様な問題は、顔認証以外のパターン認識においても生じる。
本発明は前述の問題点に鑑み、画像中の対象物の状態によらず、正しい正規化処理を行うことができるようにすることを目的としている。
本発明の画像処理装置は、画像の中の対象物に対応する複数の特徴点の位置を決定する第1の決定手段と、前記対象物の状態を示す属性を判定する判定手段と、前記第1の決定手段によって決定された複数の特徴点の位置と、前記判定手段によって判定された属性とに基づいて、前記対象物を代表する位置を決定する第2の決定手段と、前記第2の決定手段によって決定された前記対象物を代表する位置に基づいて前記画像を所定の条件で正規化する正規化手段とを有することを特徴とする。
本発明によれば、画像中の対象物の状態が通常と異なる場合であっても、安定した正規化処理を行うことができる。
第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 下位レベル特徴点及び上位レベル特徴点の位置を示す図である。 片目を瞑っている状態での下位レベル特徴点及び上位レベル特徴点の位置を示す図である。 実施形態において、表情を判断する例を説明する図である。 実施形態において、正規化処理の動作を説明する図である。 第1の実施形態の識別処理における小領域の分割例を示す図である。 実施形態に係る画像処理装置のハードウェア構成例を示すブロック図である。 第1の実施形態にける顔認証処理の手順の一例を示すフローチャートである。 第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。 第2の実施形態の識別処理における局所領域の例を説明する図である。
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら説明する。
図1は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。以下、本実施形態では顔認証に適用した場合について説明する。
ここで、顔認証とは、対象となる顔画像から個人を特定する処理であり、まず、目、鼻、口等の顔器官を検出し、これらの顔器官の位置や顔位置に基づいて顔画像を正規化する。そして、正規化後の顔器官の位置や顔位置に基づいて特徴量を抽出し、抽出した特徴量に基づいて識別処理を行う。
図1において、下位レベル特徴点位置決定部101は第1の決定手段として機能し、画像データからActive Shape Model法等を用いて、対象物の輪郭に対応する複数の下位レベル特徴点の位置を算出する。例えば、図2に示す下位レベル特徴点201〜222を算出する。このように多数の下位レベル特徴点を利用することにより、後段で用いる上位レベル特徴点の位置を検出する精度が安定化する。一方、上位レベル特徴点を直接検出する方式では、照明の変動等により誤検出の影響を直接受けてしまうが、本実施形態のように多数の下位レベル特徴点の統合に基づく手法では、集団的な決定により誤検出の影響を緩和することができる。また、下位レベル特徴点を用いた手法の方が一般的に上位レベル特徴点の位置を検出する精度が高い。
属性判定処理部102は、下位レベル特徴点位置決定部101の算出結果に基づいて顔の表情を判断する。図4は表情を判断する例を説明する図である。以下、各特徴点の位置は、左上点を原点として水平方向をx方向、垂直方向をy方向とする座標系で表現し、下位レベル特徴点nの座標を(xn,yn)とする。例えば、下位レベル特徴点207、208の座標はそれぞれ、(x207,y207)、(x208,y208)である。
次に、目を瞑っている状態及び笑顔の状態を判定する場合の簡単な例について説明する。目を瞑っている状態は、目の周囲の下位レベル特徴点の変動に基づいて判定される。例えば、向かって右目の状態を判定する場合、下位レベル特徴点207、208の2点間のy方向の距離401(距離de)を、以下の式(1)により算出する。
de=|y208−y207| ・・・式(1)
そして、距離deが所定の閾値Theより小さい場合は、目を瞑っている状態であると判断する。
一方、笑顔の状態は、口の周囲の下位レベル特徴点の変動に基づいて判定される。まず、下位レベル特徴点212、215の2点間のy方向の距離402(距離dm)を、以下の式(2)により算出する。
dm=(y215+y212)/2−y213+(y215+y212)/2−y214 ・・・式(2)
そして、距離dmが所定の閾値Thmより大きい場合は、笑顔であると判断する。これは、口角が上方向に移動した状態を判定することに相当する。
以上のように属性判定処理部102では、下位レベル特徴点の位置に基づいて表情を判定する。そして、これらの何れの条件も満たさない場合は、標準的な顔の表情であると判定する。なお、本実施形態では極めて簡単な判定例について説明したが、他の手法を用いてもよい。例えば、顔画像の画面内の回転変動を考慮して下位レベル特徴点間のユークリッド距離に基づいて判定してもよい。また、より多くの下位レベル特徴点を用い、その各座標値(xn,yn)を要素とするベクトルデータに対してサポートベクトルマシン等の判別器を用いて判定する手法等を用いてもよい。
上位レベル特徴点位置決定部103は第2の決定手段として機能し、下位レベル特徴点位置決定部101の算出結果と属性判定処理部102の判定結果とに基づいて、対象物を代表する位置を示す上位レベル特徴点の位置を決定する。例えば、向かって右目の中心位置を示す上位レベル特徴点223については、標準的な顔である場合には、以下の式(3)及び式(4)に従ってその座標(x223,y223)を算出する。
x223=(x205+x206+x207+x208)/4 ・・・式(3)
y223=(y205+y206+y207+y208)/4 ・・・式(4)
一方、属性判定処理部102により目を瞑っている状態と判定された場合には、以下の式(5)及び式(6)に従ってその座標(x223,y223)を決定する。
x223=(x205+x206+x207+x208)/4 ・・・式(5)
y223=(y205+y206)/2 ・・・式(6)
このように、目を瞑っていることによりまぶたの境界位置に相当するエッジ特徴のy方向成分が変動するため、変動分を選択的に除去して上位レベル特徴点を算出する。左目の場合も同様の手順により、上位レベル特徴点224を算出する。
また、口の中心位置を示す上位レベル特徴点226については、標準的な顔である場合には、以下の式(7)及び式(8)に従ってその座標(x226,y226)を算出する。
x226=(x212+x213+x214+x215)/4 ・・・式(7)
y226=(y212+y213+y214+y215)/4 ・・・式(8)
一方、属性判定処理部102により笑顔の状態と判定された場合には、以下の式(9)及び式(10)式に従ってその座標(x226,y226)を算出する。
x226=(x212+x213+x214+x215)/4 ・・・式(9)
y226=(y212+y215)/2 ・・・式(10)
このように、笑顔により口角の位置に相当する特徴のy方向成分が変動するため、変動分を選択的に除去して上位レベル特徴点を算出する。
顔の中心位置を示す上位レベル特徴点225を算出する場合も、属性判定処理部102の判定結果に基づいて算出式を選択する。顔の中心位置を示す上位レベル特徴点225の座標は、例えば全ての下位レベル特徴点の座標の平均値とする。属性判定処理部102により表情の変動があると判定された場合には、平均値を算出する際に表情の変動の影響を大きく受ける下位レベル特徴点の座標を削除し、補間値を用いて算出する。ここで補間値とは、削除対象となる下位レベル特徴点の近傍に位置する複数の下位レベル特徴点から得られる座標値である。例えば、変動のない複数の顔画像データを用いて、近傍に位置する下位レベル特徴点から削除対処となる下位レベル特徴点の座標を算出する関係式を予め学習しておく。
以上のように上位レベル特徴点位置決定部103は、属性判定処理部102の判定結果に応じて属性毎に異なる算出式により下位レベル特徴点の位置から上位レベル特徴点の位置を算出する。なお、本実施形態では、極めて簡単な例について説明したが、この様な方法に限るわけではない。例えば、複数の下位レベル特徴点の位置から上位レベル特徴点の位置を算出する回帰行列を予め学習しておき、当該回帰行列を用いて変換した結果を上位レベル特徴点とする等の手法を適用してもよい。その場合、表情などの変動毎に回帰行列を用意し、属性判定処理部102の判定結果に従って当該回帰行列を選択的に用いる。回帰行列については、変動毎に用意した複数の学習用顔画像に対する座標データ群を用いて事前に算出しておくことができる。
なお、回帰行列は、複数の下位レベル特徴点の座標を連結したベクトルLと上位レベル特徴点位置の座標値に相当するベクトルUとの関係を行列Wの形式で表現するものであり、従来知られている線形回帰分析手法等を適用して求めることが可能である。回帰行列Wを用いた上位レベル特徴点の算出式としては、例えば以下の式(11)を用いる。
U=WL ・・・式(11)
式(11)において、下位レベル特徴点の数をnとすると、Wは2行、2n+1列の行列で表現される。
正規化処理部104は、上位レベル特徴点位置決定部103の算出結果に従って顔画像を正規化する。ここで正規化とは、顔画像の幾何学的大きさや画像面内の回転等を所定の値に変換する処理である。顔認証処理等においては、登録済みの顔画像と認証対象画像との類似度を算出する際に、幾何学的な正規化処理が精度に大きな影響を与えることが多い。
図5は、正規化処理部104による正規化処理の動作を説明する図である。
正規化処理部104では、入力顔画像501における左右の目の中心位置を示す上位レベル特徴点223、224から、左右の目を結ぶ線分227の長さを示す目幅wを算出する。同様に、左右の目を結ぶ線分227に対する垂線であって、かつ口の中心と交わる線分228の長さ(顔の高さh)を算出する。また、左右の目を結ぶ線分227の画像上のx軸に対する傾きθを算出する。
次に、正規化後の顔画像502の目幅503(目幅w′)と、顔の高さ505(顔の高さh′)とを用い、顔の幅に関してはw′/w倍、顔の長さに関してはh′/h倍に変倍する。また、顔の角度を反時計回りにθ度回転し、顔の中心504を予め定める座標に一致させる。以上の変換はよく知られているアフィン変換式により処理可能である。
xout=Cw×cosθ×xin−Ch×sinθ×yin+Px
yout=Cw×sinθ×xin+Ch×cosθ×yin+Py ・・・式(12)
ここで、座標値(xin,yin)は入力顔画像501上の座標位置を示し、座標値(xout,yout)は正規化後の顔画像502の座標位置を示す。また、Cwはx方向の変倍率を示し、Chはy方向の変倍率を示す。さらに、Px、Pyはそれぞれ、x方向、y方向の平行移動量である。座標変換後の画素値は、対応する入力顔画像501の画素位置の近傍画素値を参照して線形補完法等により算出する。
識別処理部105は、正規化された顔画像データに対して識別処理を実行する。図6は、識別処理における小領域の分割例を示す図である。まず、正規化後の顔画像502をx方向、y方向にそれぞれ6分割し、合計36個の小領域601に分割する。次に小領域601内で局所特徴量を算出する。ここで局所特徴量は、例えば、輝度勾配方向を示す特徴量のヒストグラム(Local Binary Patternヒストグラム等)とする。そして、算出した全ての小領域601のヒストグラムデータを連結してベクトルデータとする。
次に、生成したベクトルデータを主成分分析等により次元圧縮し、得られた圧縮データを識別に使用する特徴ベクトルとする。識別処理部105は、同様の手順で予め抽出した登録顔画像の特徴ベクトルと入力画像に対する特徴ベクトルとの類似度を算出し、その類似度が所定値以上の場合に、入力顔画像が登録顔画像と同一の人物であると判断する。なお、識別処理部105は、従来提案されている様々な手法を適用可能である。
次に、以上の処理をソフトウェアにより実現する場合の例について、図7及び図8を参照しながら説明する。図7は、本実施形態に係る画像処理装置100のハードウェア構成例を示すブロック図である。
図7において、画像入力部701は、光学系デバイス、光電変換デバイス及びセンサーを制御するドライバー回路、ADコンバーター、各種画像の補正を司る信号処理回路、フレームバッファ等により構成されている。
CPU(Central Processing Unit)704は、本実施形態に係る主要な処理を実行するとともに、画像処理装置100全体の動作を制御する。ROM(Read Only Memory)705は、CPU704の動作を実行させるためのプログラムやデータを格納する。RAM(Random Access Memory)706は、CPU704の動作に必要な作業データ、及び画像入力部701で取得した画像データ等を格納する。また、RAM706は、DRAM(Dynamic RAM)等の比較的容量の大きいメモリにより構成され、図示しないメモリコントローラを介して、CPUバス702に接続されている。そして、CPU704は、RAM706に格納された画像データに対して本実施形態に係る顔認証処理を実行する。外部インターフェース部703は、認証結果を外部に出力するためのインターフェースである。
図8は、本実施形態に係る画像処理装置100による顔認証処理の手順の一例を示すフローチャートである。図8に示すフローチャートはCPU704の動作手順を示しており、一枚の入力画像に対して一連の顔認証処理を行う手順を示している。また、当該フローチャートを実行するためのプログラムはROM705に格納されているものとする。
先ず、画像入力部701を介して認証対象の顔を含む画像データをRAM706に記憶する(ステップS801)。そして、CPU704はRAM706に格納された画像データを参照して、画像中に含まれる顔画像を検出する(ステップS802)。なお、顔画像の検出は、従来提案されている公知な手法を適用する。
次に、CPU704は、ステップS803における顔画像の検出結果に基づいて顔画像データを切り出す(ステップS803)。ここでは顔検出処理の過程で得られる概略の顔の大きさや顔の中心位置に基づいて顔領域を含む顔画像データを切り出し、所定のサイズや向きに正規化処理し、RAM706の別の領域に格納する。
次に、CPU704は図1の下位レベル特徴点位置決定部101として機能し、切り出し後の顔画像データに対して、下位レベル特徴点の位置を決定する(ステップS804)。下位レベル特徴点の位置を決定する方法は、前述したように従来提案されているActive Shape Model法等を利用する。Active Shape Model法では、統計的に生成した特徴点配置モデルを用いて配置関係に幾何学的な拘束を与えながら、各低レベル特徴点の位置を探索的に算出する。そして、CPU704は、決定した下位レベル特徴点の位置データをRAM706に格納する。
次に、CPU704は図1の属性判定処理部102として機能し、下位レベル特徴点の位置に基づいて表情を判定する処理を開始する(ステップS805)。そして、RAM706に格納した下位レベル特徴点の位置データの一部を読み出し、目を瞑った表情であるか否かを判定する(ステップS806)。この判定の結果、目を瞑った表情でない場合は、CPU704は図1の上位レベル特徴点位置決定部103として機能し、前述した式(3)及び式(4)と同様の計算方法により左右の目の中心位置を算出する(ステップS807)。一方、ステップS806の判定の結果、目を瞑った表情である場合は、CPU704は図1の上位レベル特徴点位置決定部103として機能し、前述した式(5)及び式(6)と同様の計算方法により左右の目の中心位置を算出する(ステップS808)。
次に、CPU704は図1の属性判定処理部102として機能し、笑顔の表情であるか否かを判定する(ステップS809)。この判定の結果、笑顔の表情でない場合は、CPU704は図1の上位レベル特徴点位置決定部103として機能し、前述した式(7)及び式(8)と同様の計算方法により口の中心位置を算出する(ステップS810)。一方、ステップS809の判定の結果、笑顔の表情である場合は、CPU704は図1の上位レベル特徴点位置決定部103として機能し、前述した式(9)及び式(10)と同様の計算方法により口の中心位置を算出する(ステップS811)。
次に、表情の判定結果が"目を瞑っており、かつ笑顔"、"目を瞑っているのみ"、"笑顔のみ"、"目を瞑ってなく笑顔でもない"のどれに該当するかを判定する。そして、CPU704は図1の上位レベル特徴点位置決定部103として機能し、この判定結果に対応してそれぞれステップS813〜S816で異なる算出式により顔の中心位置を算出する。
次に、CPU704は図1の正規化処理部104として機能し、前述した目の幅や顔の傾き顔の高さ等に基づいて顔画像データを正規化するためのアフィン変換パラメータを算出する。ここで、アフィン変換パラメータとは、式(12)中のx方向の変倍率Cw、y方向の変倍率Ch、傾きθ、及び平行移動量Px、Pyである。次に、当該アフィン変換パラメータに従ってRAM706に格納された顔画像データを所望の形状に変換する。そして、変換した顔画像データをRAM706に格納する(ステップS817)。
次に、CPU704は図1の識別処理部105として機能し、ステップS808で変換しRAM706に格納した顔画像データから特徴量を抽出し、特徴ベクトルを生成する(ステップS818)。前述したように輝度勾配の方向を表現する特徴(LBP特徴等)のヒストグラムを連結してベクトルデータを生成し、このベクトルデータを主成分分析により圧縮することによって特徴ベクトルが得られる。
次に、特定の個人に対応する特徴ベクトル(登録データ)をRAM706から読み出す(ステップS819)。そして、ステップS818で生成した特徴ベクトルとの類似度を算出する(ステップS820)。次に、算出した類似度と所定の閾値とを比較して、ステップS818で生成した特徴ベクトルが特定の個人の登録データと同一の人物であるか否かを判定する(ステップS821)。このとき、類似度が十分に高い場合は、同一人物であると判定する。
次に、全ての登録データと類似度を比較したか否かを判定する(ステップS822)。この判定の結果、類似度を比較していない登録データが残っている場合は、ステップS819に戻る。一方、類似度を比較していない登録データがない場合は、CPU704は、ステップS802において検出されたすべての顔画像について処理が終了したか否かを判定する(ステップS823)。この判定の結果、全ての顔画像について処理が終了していない場合はステップS803に戻り、全ての顔画像について処理が終了した場合はそのまま処理を終了する。
以上のように本実施形態によれば、表情の変動の有無によって上位レベル特徴点の算出方法を変更するようにして、多数の下位レベル特徴点に基づいて正規化処理の基準となる上位レベル特徴点を算出するようにした。これにより、対象画像の正規化処理を安定させることができる。このように、表情の変動等により下位レベル特徴点の位置の一部が変動する場合であっても、簡単な処理を追加することにより正規化処理における誤差を軽減させることが可能になり、顔認証の性能をより安定化させることができる。
(第2の実施形態)
以下、本発明の第2の実施形態について、図9及び図10を参照しながら説明する。図9は、本実施形態に係る画像処理装置900の機能構成例を示すブロック図である。本実施形態は、第1の実施形態とは識別処理部905のみが異なっている。なお、下位レベル特徴点位置決定部901〜正規化処理部904は、それぞれ図1の下位レベル特徴点位置決定部101〜正規化処理部104と同様であるため、説明は省略する。以下、第1の実施形態と異なる部分についてのみ説明する。
図10は、本実施形態の識別処理部905による識別処理で設定される局所領域の例を説明する図である。
図10において、局所特徴を算出する局所領域1001〜1004は、それぞれ上位レベル特徴点223〜226の位置を基準にして決定される領域である。上位レベル特徴点223〜226の位置は、第1の実施形態と同様に、表情の変動に対して異なる算出式により複数の下位レベル特徴点の位置から算出される。
第1の実施形態では、特徴点の位置によらず全領域を36分割した局所領域に基づいて識別処理を行ったが、本実施形態では、上位レベル特徴点の位置に基づいて特徴量を抽出するための局所領域を設定し、識別処理を行う。なお、図10に示す例では、4個の局所領域から特徴量を算出する場合について説明したが、実際には上位レベル特徴点の位置を基準にして多くのオーバーラップした局所領域を設定する。設定する局所領域の位置やサイズは予め複数の顔画像データを用いて識別性能の高い領域を探索して決定しておく。そして、設定した局所領域から特徴量を算出し、当該特徴量から特徴ベクトルを算出し、第1の実施形態と同様に識別処理を行う。したがって、図8のフローチャートにおいては、ステップS818における特徴ベクトル生成処理のみが異なる。
以上のように本実施形態によれば、上位レベル特徴点の位置に基づいて識別に有効な局所領域を設定するため、認証精度が向上する。その際、下位レベル特徴点から上位レベル特徴点を決定する方法を表情の変動等に応じて選択することにより認証性能を安定化させることができる。
(その他の実施形態)
前述した実施形態では、顔画像に基づく個人認証に適用する場合について説明したが、これに限るわけではない。人物の認証に適用する場合、顔以外の情報(例えば指紋・静脈・虹彩)に基づく処理に適用することも可能である。さらに、医用画像処理の病理判断等に適用する等も可能である。その他、様々なオブジェクトの認識処理の前処理として利用することができる。また、本実施形態による正規化画像を用いてさらに高精度な属性(表情・顔の向き・変形等)の認識処理を行ってもよい。
また、前述した実施形態ではパターン認識処理に適用する場合について説明したが、他の様々な処理の画像正規化部に適用してもよい。その場合、図1の正規化処理部104の処理結果を識別処理以外の他の処理に利用することになる。例えば、顔画像の切り出し表示などユーザーインターフェースに適用することも可能である。
さらに、前述した実施形態では、属性判定の判定種別として表情の変動について説明したが、これに限るわけでなく、対象物の変形・向き・照明変動・オクルージョンなど様々な条件を属性として含む。属性は対象物の性質に応じて決定すればよい。
また、前述した実施形態では、属性判定の判定種別として表情等のように簡単に分類可能な属性に関して説明したが、本発明はこれに限るわけではない。下位レベル特徴点の変動を機械学習的に分類してそれに対応する上位レベル特徴点の位置を算出する方法を決定してもよい。
また、第1の実施形態では、下位レベル特徴点位置決定部101の算出結果である複数の下位レベル特徴点の位置に基づいて表情を判定する例について説明したが、これに限るわけではない。例えば、入力された顔画像データから直接表情を判定しても良い。画像データから表情を判定する手法は、従来提案されている様々な手法を適用してよい。画像データから属性を判定する場合、処理負荷は増大するが、判別の精度は向上する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
101 下位レベル特徴点位置決定部
102 属性判定処理部
103 上位レベル特徴点位置決定部
104 正規化処理部
105 識別処理部

Claims (8)

  1. 画像の中の対象物に対応する複数の特徴点の位置を決定する第1の決定手段と、
    前記対象物の状態を示す属性を判定する判定手段と、
    前記第1の決定手段によって決定された複数の特徴点の位置と、前記判定手段によって判定された属性とに基づいて、前記対象物を代表する位置を決定する第2の決定手段と、
    前記第2の決定手段によって決定された前記対象物を代表する位置に基づいて前記画像を所定の条件で正規化する正規化手段とを有することを特徴とする画像処理装置。
  2. 前記正規化手段によって正規化された画像から前記対象物を認識する認識手段をさらに有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記正規化手段によって正規化された画像のうち、前記対象物を含む所定の領域から前記対象物を認識する認識手段をさらに有することを特徴とする請求項1に記載の画像処理装置。
  4. 前記第2の決定手段は、前記判定手段によって判定される属性ごとに異なる方法を用いて前記複数の特徴点の位置から前記対象物を代表する位置を決定することを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
  5. 前記判定手段は、前記第1の決定手段によって決定された複数の特徴点の位置に基づいて前記対象物の属性を判定することを特徴とする請求項1〜4の何れか1項に記載の画像処理装置。
  6. 前記対象物が顔または前記顔の器官であり、前記属性が表情であることを特徴とする請求項1〜5の何れか1項に記載の画像処理装置。
  7. 画像の中の対象物に対応する複数の特徴点の位置を決定する第1の決定工程と、
    前記対象物の状態を示す属性を判定する判定工程と、
    前記第1の決定工程において決定された複数の特徴点の位置と、前記判定工程において判定された属性とに基づいて、前記対象物を代表する位置を決定する第2の決定工程と、
    前記第2の決定工程において決定された前記対象物を代表する位置に基づいて前記画像を所定の条件で正規化する正規化工程とを有することを特徴とする画像処理方法。
  8. 画像の中の対象物に対応する複数の特徴点の位置を決定する第1の決定工程と、
    前記対象物の状態を示す属性を判定する判定工程と、
    前記第1の決定工程において決定された複数の特徴点の位置と、前記判定工程において判定された属性とに基づいて、前記対象物を代表する位置を決定する第2の決定工程と、
    前記第2の決定工程において決定された前記対象物を代表する位置に基づいて前記画像を所定の条件で正規化する正規化工程とをコンピュータに実行させることを特徴とするプログラム。
JP2011146332A 2011-06-30 2011-06-30 画像処理装置、画像処理方法及びプログラム Withdrawn JP2013015891A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011146332A JP2013015891A (ja) 2011-06-30 2011-06-30 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011146332A JP2013015891A (ja) 2011-06-30 2011-06-30 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2013015891A true JP2013015891A (ja) 2013-01-24

Family

ID=47688555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011146332A Withdrawn JP2013015891A (ja) 2011-06-30 2011-06-30 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2013015891A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028723A (ja) * 2013-07-30 2015-02-12 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
WO2016013090A1 (ja) * 2014-07-24 2016-01-28 富士通株式会社 顔認証装置、顔認証方法および顔認証プログラム
JP2017033372A (ja) * 2015-08-04 2017-02-09 日本放送協会 人物認識装置及びそのプログラム
WO2020095400A1 (ja) * 2018-11-08 2020-05-14 日本電気株式会社 特徴点抽出装置、特徴点抽出方法およびプログラム記憶媒体
JP2021064103A (ja) * 2019-10-11 2021-04-22 Kddi株式会社 作業安全管理システム、端末装置、安全判定装置、作業安全管理方法、及びコンピュータプログラム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015028723A (ja) * 2013-07-30 2015-02-12 富士通株式会社 生体特徴ベクトル抽出装置、生体特徴ベクトル抽出方法、および生体特徴ベクトル抽出プログラム
WO2016013090A1 (ja) * 2014-07-24 2016-01-28 富士通株式会社 顔認証装置、顔認証方法および顔認証プログラム
JPWO2016013090A1 (ja) * 2014-07-24 2017-04-27 富士通株式会社 顔認証装置、顔認証方法および顔認証プログラム
US9959454B2 (en) 2014-07-24 2018-05-01 Fujitsu Limited Face recognition device, face recognition method, and computer-readable recording medium
JP2017033372A (ja) * 2015-08-04 2017-02-09 日本放送協会 人物認識装置及びそのプログラム
WO2020095400A1 (ja) * 2018-11-08 2020-05-14 日本電気株式会社 特徴点抽出装置、特徴点抽出方法およびプログラム記憶媒体
JPWO2020095400A1 (ja) * 2018-11-08 2021-09-09 日本電気株式会社 特徴点抽出装置、特徴点抽出方法およびコンピュータプログラム
JP2021064103A (ja) * 2019-10-11 2021-04-22 Kddi株式会社 作業安全管理システム、端末装置、安全判定装置、作業安全管理方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
JP5406705B2 (ja) データ補正装置及び方法
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
CN102375974B (zh) 信息处理设备和信息处理方法
JP5772821B2 (ja) 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
US8280173B2 (en) Feature point location determination method and apparatus
JP3962803B2 (ja) 頭部検出装置、頭部検出方法および頭部検出プログラム
US8811744B2 (en) Method for determining frontal face pose
JP2008191816A (ja) 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US20070242856A1 (en) Object Recognition Method and Apparatus Therefor
JP6071002B2 (ja) 信頼度取得装置、信頼度取得方法および信頼度取得プログラム
CN110069989B (zh) 人脸图像处理方法及装置、计算机可读存储介质
JP2007042072A (ja) 追跡装置
US9213897B2 (en) Image processing device and method
TWI776176B (zh) 手部作業動作評分裝置、方法及電腦可讀取存儲介質
JP4903192B2 (ja) 顔検出装置
US20130243251A1 (en) Image processing device and image processing method
JP2013015891A (ja) 画像処理装置、画像処理方法及びプログラム
JP2021174554A (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
CN110598647A (zh) 一种基于图像识别的头部姿态识别方法
JP5791373B2 (ja) 特徴点位置決定装置、特徴点位置決定方法及びプログラム
JP6430102B2 (ja) 人物属性推定装置、人物属性推定方法及びプログラム
JP2006133941A (ja) 画像処理装置、画像処理方法、画像処理プログラム及び携帯型端末
Tarrataca et al. The current feasibility of gesture recognition for a smartphone using J2ME
Hsu et al. Robust cross-pose face recognition using landmark oriented depth warping
Rabba et al. Discriminative robust gaze estimation using kernel-dmcca fusion

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902