JP2009237669A - 顔認識装置 - Google Patents
顔認識装置 Download PDFInfo
- Publication number
- JP2009237669A JP2009237669A JP2008079802A JP2008079802A JP2009237669A JP 2009237669 A JP2009237669 A JP 2009237669A JP 2008079802 A JP2008079802 A JP 2008079802A JP 2008079802 A JP2008079802 A JP 2008079802A JP 2009237669 A JP2009237669 A JP 2009237669A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image data
- feature
- data
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】顔認識装置において、正面顔画像以外の顔画像について、顔認識を行うことを可能とし、顔認識の誤認率をさらに低減することである。
【解決手段】顔認識装置10において、記憶装置22は、ハーライクフィルタに関するデータ等を記憶するハーライクフィルタ記憶部24,25、S−ガボールフィルタに関するデータ等を記憶するS−ガボールフィルタ記憶部26,27、登録人の様々な斜め向き角度からの顔画像データを記憶する登録人顔画像データ記憶部28、標準的な顔画像データを用いて、顔検知等に用いられる閾値等を記憶する標準人顔画像データ記憶部30を含んで構成される。CPU12は、顔検知モジュール32、顔特徴抽出モジュール34、ノイズ除去モジュール36、特徴圧縮モジュール38、重複特徴帰属モジュール40、登録人特定モジュール42を含んで構成される。
【選択図】図1
【解決手段】顔認識装置10において、記憶装置22は、ハーライクフィルタに関するデータ等を記憶するハーライクフィルタ記憶部24,25、S−ガボールフィルタに関するデータ等を記憶するS−ガボールフィルタ記憶部26,27、登録人の様々な斜め向き角度からの顔画像データを記憶する登録人顔画像データ記憶部28、標準的な顔画像データを用いて、顔検知等に用いられる閾値等を記憶する標準人顔画像データ記憶部30を含んで構成される。CPU12は、顔検知モジュール32、顔特徴抽出モジュール34、ノイズ除去モジュール36、特徴圧縮モジュール38、重複特徴帰属モジュール40、登録人特定モジュール42を含んで構成される。
【選択図】図1
Description
本発明は、顔認識装置に係り、特に、画像データから人の顔領域を抽出し、抽出された顔領域から顔特徴情報を抽出し、これを登録されている顔画像データと比較して該当する人を特定する顔認識装置に関する。
今日では個人認証のために様々な手法が提案されている。代表的な手法として、パスワードによる認証、公開鍵と秘密鍵による認証、生体情報を用いた認証等があげられる。生体情報を用いた認証とは、個人の様々な生体特徴が利用される。例えば、顔、声紋、指紋、DNA、虹彩、手のひら静脈、筆跡等が利用される。この中で顔認証と声紋認証等は、カメラ、マイク等の簡単な装置があれば生体特徴を取り込むことができる。さらに、顔認証は、認証される個人が何かの装置に触れ、あるいは近づく等の特別の行動を要請することなく、遠隔から顔認識ができるという特徴を有することで注目されている。
例えば、特許文献1では、表情認識装置として、カメラによって取得された対象顔画像に対し姿勢を補正して正規化する前処理部と、正規化された対象顔画像と基準画像との差分情報をガボールフィルタ(Gabor Filter)の適用によって得られる表情特徴の差分として求める差分取得部と、差分情報を主成分分析(Principal Component Analysiss:PCA)によって次元圧縮する次元圧縮部と、次元圧縮された出力に基いて表情判定を行う表情判定部を備える構成が開示される。ここでは、前処理部として、入力顔画像に6分割矩形フィルタを適用して眉間候補点を抽出し、眉間周辺についてエッジ検出を行って瞳検索を行い、両瞳のX方向の間隔、Y方向の間隔に基いて入力顔画像における顔の姿勢である傾きθを算出して、傾きを補正した姿勢補正顔画像を得ることが述べられている。
従来技術においては、正面画像を用いて顔認識が行われる。上記特許文献1において顔の姿勢である傾きθの補正が行われるが、これも両瞳のX方向の間隔、Y方向の間隔に基いているので、正面画像に対する左右の傾きの補正を行っているに過ぎない。実際の顔画像は、左横向きまたは右横向きの顔画像もあり、下向きまたは上向きの顔画像もあるが、従来技術では、これらは基準画像である正面画像と比較できないので、認識不可あるいはエラーと判断される。
また、顔領域の抽出には、顔の部分は他の領域よりも明るいことを利用して、ハーライクフィルタ(Haar−like Filter)と呼ばれる矩形形状のフィルタリング面積内で明暗の検出を行う方法、人の肌色検出、特許文献1に述べられているハーライクフィルタの応用である6分割矩形フィルタ等が用いられるが、いずれも顔領域の境界付近の背景等のノイズが入ってくる。これによって、顔領域の抽出が十分に行われないことがある。
また、顔特徴情報の抽出には、輪郭線の方位を抽出できるガボールフィルタの利用が行われるが、ガボールフィルタは2次元ガウス関数と正弦関数との積の関数形を有するので、近接した対象領域の間では関数形が重複してDC成分が生じる。これによって、抽出対象領域の分解能に限界があり、ある程度の粗い抽出に終わってしまうことがある。
また、顔認識において、双子の顔画像のように、共通して重複する顔特徴情報を双方に含む場合がある。従来技術ではこのような重複顔情報を区別しないので、顔画像からその人が誰であるかの特定に誤差が生じやすい。
このようなことから、従来技術においては、顔認識の誤認率の低減に限界がある。
本発明の目的は、顔認識の誤認率をさらに低減できる顔認識装置を提供することである。他の目的は、正面顔画像以外の顔画像について、顔認識を行うことを可能とする顔認識装置を提供することである。他の目的は、ガボールフィルタの分解能を向上させることができる顔認識装置を提供することである。また、他の目的は、顔画像データにおけるノイズをさらに低減できる顔認識装置を提供することである。また、他の目的は、複数の顔画像データに重複する特徴情報がある場合に、顔認識の誤認率を低減できる顔認識装置を提供することである。以下の手段は、上記目的の少なくとも1つに貢献する。
本発明に係る顔認識装置は、少なくとも2人の登録人の顔画像データのそれぞれについて、複数の斜め向き角度ごとに、複数の顔特徴情報データを記憶する登録人顔画像データ記憶装置と、標準とする人の顔画像データについて、予め定められた特性の明暗矩形フィルタにおける予め定められた複数の傾斜角度ごとに、各明暗矩形フィルタに対する出力閾値に関する情報を記憶する標準人顔画像データ記憶装置と、画像データから人の顔領域画像データを抽出する顔検知手段と、抽出された人の顔領域画像データについて、その顔の複数の特徴情報を抽出し、これらを複数の顔特徴情報データとする顔特徴抽出手段と、抽出された複数の顔特徴情報データを、登録人顔画像データ記憶装置に記憶されている各登録人の顔画像データについての複数の顔特徴情報データとそれぞれ比較して、該当する登録人を特定する特定手段と、を備え、顔検知手段は、対象画像データの中で予め定めた検知対象領域画像データについて、予め定められた特性の明暗矩形フィルタを、対象画像データの基準軸方向に対し予め定められた複数の傾斜角度で順次適用して、各傾斜角度ごとに明暗矩形フィルタ出力値を取得する手段と、取得された各傾斜角度ごとの明暗矩形フィルタ出力値を、標準人顔画像データ記憶装置に格納されている傾斜角度ごとの明暗矩形フィルタ出力閾値と比較する手段と、比較の結果、明暗矩形フィルタ出力閾値を超える明暗矩形フィルタ出力値となる明暗矩形フィルタの傾斜角度があるときは、その検知対象領域画像データを候補顔領域画像データとして抽出する手段と、抽出された候補顔領域画像データについて、人の肌色が検出されるか否かを判断し、人の肌色が検出されるときに、候補顔領域画像データを、人の顔領域画像データとして抽出する手段と、を含むことを特徴とする。
また、本発明に係る顔認識装置において、標準人顔画像データ記憶装置は、さらに、標準とする人の顔の画像データについて、予め定められた複数の矩形フィルタリング面積ごとに、複数の明暗矩形フィルタに対する出力閾値に関する情報を記憶し、顔検知手段は、候補顔領域画像データについて、さらに、明暗矩形フィルタを複数の矩形フィルタリング面積で順次適用して、各矩形フィルタリング面積ごとに明暗矩形フィルタ出力を取得する手段と、取得された各矩形フィルタリング面積ごとの明暗矩形フィルタ出力を、標準人顔画像データ記憶装置に格納されている矩形フィルタリング面積ごとの明暗矩形フィルタ出力閾値と比較する手段と、比較の結果、明暗矩形フィルタ出力閾値未満の明暗矩形フィルタ出力値となる明暗矩形フィルタのフィルタリング領域部分があるときは、そのフィルタリング領域部分を候補顔領域画像データから削除して候補顔領域画像データを絞り込む手段と、を含むことが好ましい。
また、本発明に係る顔認識装置において、人の顔領域画像データに適用される輪郭線方位検出フィルタとしての2次元ガウス関数と正弦関数との積の関数形を有する特徴量検出関数について、対象画像データの基準軸方向について複数の予め定めた方位角度ごとの特徴量検出関数と、複数の予め定めた方位フィルタリング面積ごとの特徴量検出関数とを記憶する特徴量検出関数記憶装置を備え、顔特徴抽出手段は、特徴量検出関数記憶装置から、M個の方位角度の中の任意の1つとN個の方位フィルタリング面積の中の任意の1つを構成要素とするM×N通りの組合せのそれぞれに対応する特徴量検出関数を順次読み出し、人の顔領域画像データを構成するP個の各データ要素にそれぞれ順次適用して、P×M×N個の特徴量出力値を取得し、これを複数の顔特徴情報データとする手段と、を含み、特徴量検出関数記憶装置は、2次元ガウス関数と正弦関数との積の関数形に予め定めた周波数帯域を有するハイパスフィルタ処理を施して、DC成分を抑制した特徴量検出関数を記憶することが好ましい。
また、本発明に係る顔認識装置において、特徴量出力値を取得する手段は、さらに、人の顔領域画像データを構成するP個のデータ要素のそれぞれについて、その画素データの評価対象領域を出発領域として、予め定めた拡大係数を順次乗じて周辺画素データを取り込んで評価対象領域をL通りに拡大し、P×L個のデータ要素に拡大する手段と、P×L個のデータ要素について、N×M通りの組合せのそれぞれに対応する特徴量検出関数を順次適用して、P×L×M×N個の特徴量出力値を取得し、これを複数の顔特徴情報データとする手段と、を含むことが好ましい。
また、本発明に係る顔認識装置において、顔特徴抽出手段によって抽出された複数の顔特徴情報データについて、顔領域画像データの明暗特徴基準として、顔領域とされる領域の中ではその中央部付近が最も明るく、最も明るい領域の外側領域が最も暗く、さらにその外側領域が中間的な明暗となるとする基準に従って、この基準に適合しないデータをノイズデータとして顔特徴情報データから削除する手段を備えることが好ましい。
また、本発明に係る顔認識装置において、複数の顔領域画像データに重複する顔特徴情報データをいずれかの顔領域画像データの顔特徴情報データとして帰属させる重複特徴帰属手段を備え、重複特徴帰属手段は、帰属に関係する複数の顔領域画像データごとに、それぞれの顔特徴情報データの特徴量の合計値を顔画像別特徴量合計値として算出する手段と、各顔画像別特徴量合計値を帰属に関係する全顔領域画像データについて総計して特徴量総計値とし、各顔領域画像データごとに、特徴量総計値に対するそれぞれの顔画像別特徴量合計値の寄与率を顔画像別重複寄与率として求める手段と、各顔領域画像データごとに、顔画像別特徴量合計値に対する重複顔特徴情報データの特徴量の占有率を顔画像別重複占有率として求める手段と、顔画像別重複寄与率の大きさと、顔画像別重複占有率の大きさとに基いて、重複顔特徴情報データの帰属先を特定する手段と、を含むことが好ましい。
上記構成により、顔認識装置は、登録人の顔画像データについての顔特徴情報データを記憶する登録人顔画像データ記憶装置と、標準人の顔画像データについて、複数の傾斜角度ごとに、複数の明暗矩形フィルタに対する出力閾値に関する情報を記憶する標準人顔画像データ記憶装置とを備える。そして、画像データから人の顔領域画像データを抽出し、抽出された人の顔領域画像データについて複数の顔特徴情報データを抽出し、抽出された複数の顔特徴情報データを各登録人の複数の顔特徴情報データと比較し、該当する登録人を特定する。
このとき、顔領域画像データについて、予め定められた特性の明暗矩形フィルタを、対象画像データの基準軸方向に対し予め定められた複数の傾斜角度で順次適用して、各傾斜角度ごとに明暗矩形フィルタ出力値を取得し、これを標準人顔画像データ記憶装置に格納されている傾斜角度ごとの明暗矩形フィルタ出力閾値と比較し、比較の結果、明暗矩形フィルタ出力閾値を超える明暗矩形フィルタ出力値となる明暗矩形フィルタの傾斜角度があるときは、その検知対象領域画像データを候補顔領域画像データとして抽出し、さらに、人の肌色が検出されるときに、人の顔領域画像データとして抽出する。これによって、正面顔画像以外の斜め角度向きの顔画像についても顔認識を行うことが可能となる。
また、顔認識装置において、標準人顔画像データ記憶装置は、さらに、標準とする人の顔の画像データについて、予め定められた複数の矩形フィルタリング面積ごとに、複数の明暗矩形フィルタに対する出力閾値に関する情報を記憶する。そして、候補顔領域画像データについて、さらに、明暗矩形フィルタを複数の矩形フィルタリング面積で順次適用して、各矩形フィルタリング面積ごとに明暗矩形フィルタ出力を取得し、これを標準人顔画像データ記憶装置に格納されている矩形フィルタリング面積ごとの明暗矩形フィルタ出力閾値と比較し、比較の結果、明暗矩形フィルタ出力閾値未満の明暗矩形フィルタ出力値となる明暗矩形フィルタのフィルタリング領域部分があるときは、そのフィルタリング領域部分を候補顔領域画像データから削除して候補顔領域画像データを絞り込む。これによって、候補顔領域画像データの領域の大きさを必要最小なものとできる。
また、顔認識装置において、人の顔領域画像データに適用される輪郭線方位検出フィルタとしての特徴量検出関数を、2次元ガウス関数と正弦関数との積の関数形に予め定めた周波数帯域を有するハイパスフィルタ処理を施して、DC成分を抑制したものとする。2次元ガウス関数と正弦関数との積の関数形である輪郭線方位検出フィルタは、ガボールフィルタと呼ばれるが、近接した輪郭線の方位を検出しようとするとDC成分が現れてきて近接検出に限界がある。上記構成によれば、DC成分を抑制するので、より近接し多輪郭線の方位検出を行うことが可能となる。
改善されたガボールフィルタは、M個の方位角度とN個の方位フィルタリング面積のものが準備されるので、ガボールフィルタによる輪郭線方位検出による顔特徴情報データは、人の顔領域画像データを構成するP個の各データ要素につき、M×N個取得することができる。また、顔認識装置において、さらに、人の顔領域画像データを構成するP個のデータ要素のそれぞれについて、その画素データの評価対象領域を出発領域として、予め定めた拡大係数を順次乗じて周辺画素データを取り込んで評価対象領域をL通りに拡大し、P×L個のデータ要素に拡大するので、顔特徴情報データとしては、P×L×M×N個取得することができる。これによって、顔認識のために十分な量の顔特徴情報データを取得することができる。
また、顔認識装置において、顔領域画像データの明暗特徴基準として、顔領域とされる領域の中ではその中央部付近が最も明るく、最も明るい領域の外側領域が最も暗く、さらにその外側領域が中間的な明暗となるとする基準に従って、この基準に適合しないデータをノイズデータとして顔特徴情報データから削除する。これによって、顔特徴情報データとしては不規則に現れるノイズ情報を効果的に抑制することが可能となる。
また、顔認識装置において、複数の顔領域画像データに重複する顔特徴情報データをいずれかの顔領域画像データの顔特徴情報データに帰属させる重複特徴帰属手段を備える。重複特徴帰属手段は、帰属に関係する複数の顔領域画像データごとに、それぞれの顔特徴情報データの特徴量の合計値を顔画像別特徴量合計値として算出し、次に、各顔画像別特徴量合計値を帰属に関係する全顔領域画像データについて総計して特徴量総計値とし、各顔領域画像データごとに、特徴量総計値に対するそれぞれの顔画像別特徴量合計値の寄与率を顔画像別重複寄与率として求める。また、各顔領域画像データごとに、顔画像別特徴量合計値に対する重複顔特徴情報データの特徴量の占有率を顔画像別重複占有率として求める。顔画像別重複寄与率に基いて帰属先を決める考えは、特徴総計量に対する寄与率、つまり、全登録人についての特徴量全体に対する重複特徴量の寄与率が大きいことを評価するものである。これに対し、顔画像別重複占有率に基いて帰属先を決める考えは、特徴量合計量に対する寄与率、つまり、全顔領域画像データにおける重複特徴量の寄与率が大きいことを評価するものである。上記構成によれば、これら2つの考えのバランスをとって重複特徴量の帰属先を決定することができる。
以下に図面を用いて本発明に係る実施の形態につき詳細に説明する。以下に示す顔画像データは説明のための一例であり、これら以外の画像であっても構わない。例えば、眼鏡等をかけていてもよく、背景、顔の表情が様々であっても構わない。また、元の画像データが複数の顔画像データを含むものとして説明するが、勿論1人の顔画像データのみであってもよい。顔画像データは、カメラによって撮像されたものから取得するものとして説明するが、写真等の既に記録されている顔画像データであっても構わない。
以下では、全ての図面において同様の要素には同一の符号を付し、重複する説明を省略する。また、本文中の説明においては、必要に応じそれ以前に述べた符号を用いるものとする。
図1は、顔認識装置10の構成を説明する図である。この顔認識装置10は、カメラ11によって撮像された顔画像データをカメラI/F14を介して取得し、CPU12においてその顔画像データを処理して、記憶装置22に予め記憶されている登録された複数の人の中のどの人であるかを判断し、認識結果を認証出力部16から出力する機能を有する装置である。顔認識装置10は、さらに、キーボード、操作スイッチ、手書き入力画面等の入力部18と、ディスプレイ、スピーカ、プリンタ等の出力部20を備える。
顔認識装置10は、データ処理、特に画像データ処理に適したコンピュータで構成できる。顔認識装置10は、据置型、可搬型のコンピュータ、例えばPC(Personal Computer)で構成できる他、建物等の出入口に設けられるカメラ11、認証出力部16にネットワークで接続される監視装置コンピュータとして構成することもできる。この場合には、建物等の出入口で、カメラ11によって来客等の顔画像データを取得し、登録されている人でない人間が含まれているときに、認証出力部16から警報を出力するものとできる。認証出力部16を建物等のドアの開閉制御、エレベータの昇降制御等に対する制御信号の出力部とすることもできる。また、顔認識装置10をモバイルホン等の携帯型とすることもできる。この場合には、モバイルホン等にカメラ11を備えるものとし、それによって撮像された顔画像データを分析し、その結果をモバイルホン等に内蔵されているスピーカを認証出力部16から音声で「XXさんです」等のように出力することができる。
顔認識装置10が備える記憶装置22は、顔認識のためのプログラム等を記憶する装置であるが、それ以外に顔認識に用いられる各種のデータ等を記憶する。ここでは、以下のデータ等を記憶する機能を有する。すなわち、記憶装置22は、画像データから人の顔領域画像データを抽出するいわゆる顔検知に用いる明暗矩形フィルタであるハーライクフィルタに関するデータ等を記憶するハーライクフィルタ記憶部24,25、顔領域画像データからその顔の特徴情報データを抽出するいわゆる顔特徴抽出に用いる改良型のガボールフィルタに関するデータ等を記憶するS−ガボールフィルタ記憶部26,27、予め登録された人について、様々な斜め向き角度からの顔画像データを記憶する登録人顔画像データ記憶部28、標準的な顔画像データを用いて、顔検知等の際に用いられる基準の閾値等に関する情報を記憶する標準人顔画像データ記憶部30を含んで構成される。かかる記憶装置22は、適当なハードディスク等の磁気記憶装置、半導体メモリ等の半導体記憶装置等を用いることができる。
図2は、一般的に用いられるハーライクフィルタの例を示す図である。ハーライクフィルタは、矩形形状のフィルタで、明暗のパターンが設けられ、そのパターンの種類によってフィルタリングの機能が異なる。例えば、図2において3つに分類されている中の左上の4つは、エッジ特徴型、下欄の8つはライン特徴型、右上の2つは中央包囲型と呼ばれ、それぞれ、画像データにおいて明暗の境界の有無、ラインに沿った明暗の変化の有無、中央とその周囲の明暗の有無等について検出が可能である。
ハーライクフィルタは、このように、様々な形態の明暗矩形フィルタである。そして、このような各種のフィルタを画像データに適用することで、画像データがどのような形態のものであるかを分類することができる。その意味で、ハーライクフィルタは、画像データの分類器である。そこで、顔認識装置10では、画像データに顔が含まれているかいないかを分類するために、ハーライクフィルタを用いる。
図3と図4は、記憶装置22のハーライクフィルタ記憶部24に記憶されているハーライクフィルタに関するデータを示す図である。図3は、4つの基本的なフィルタとして、01フィルタ、02フィルタ、03フィルタ、04フィルタが示されている。01フィルタは以下では第1フィルタと呼ぶことにするが、矩形形状を2分割して、一方側を暗側の黒ストライプとし、他方側を明側の白地のままとするものである。02フィルタは以下では第2フィルタと呼ぶことにするが、第1フィルタの明暗を反転させたものであるが、見方によっては、第1フィルタを角度で180度回転させたものでもある。03フィルタ以下では第3フィルタと呼ぶことにするが、矩形形状を3分割し、中央部を黒ストライプとし、その両側を白地のままとするものである。04フィルタは以下では第4フィルタと呼ぶことにするが、第3フィルタの明暗を反転させたものである。
そして、ハーライクフィルタ記憶部24には、少なくともこれら4つの基本フィルタについて、矩形形状の長辺の延びる方向を基本軸方向として、この基本軸方向に対し、傾斜角度を変更した形態が記憶されている。図3では、第1フィルタについて、傾斜角度を0度、45度、90度、135度、180度、225度、270度、315度の順に変更する様子が示されている。なお、傾斜角度の変更の刻みはここでは45度であるが、勿論これ以外の刻み、例えば、30度おき、10度おき等であっても構わない。同様に、第2フィルタ、第3フィルタ、第4フィルタ、あるいはさらなる他の形態のフィルタについても、傾斜角度を変更した形態が記憶される。なお、第2フィルタは、第1フィルタと傾斜角度が180度ずれたものであるので、第1フィルタの形態に対し、単に傾斜角度が異なるのみである。
また、記憶装置22には、もう1つのハーライクフィルタ記憶部25が設けられる。図4は、もう1つのハーライクフィルタ記憶部25の記憶内容を説明する図である。ここには、少なくともこれら4つの基本フィルタについて、矩形形状の長辺、短辺の寸法をそれぞれ変更した形態が記憶されている。ハーライクフィルタの長辺、短辺の寸法は、フィルタ処理を行う領域の広さを規定するものであるので、フィルタリング面積を変更したものに相当する。図4では、第1フィルタについて、相似形でフィルタリング面積を変更した形態、長辺または短辺の一方側の辺の長さを固定したまま、他方側の辺の長さを変更した形態がそれぞれ示されている。同様に、第2フィルタ、第3フィルタ、第4フィルタ、あるいはさらなる他の形態のフィルタについても、フィルタリング面積を変更した形態が記憶される。
ハーライクフィルタにおいて、傾斜角度を順次変更する形態のものは、顔画像データが正面画像データでなく、顔がある傾き角度で横向き等になっているときに、その傾き角度に適した顔検出を行うために用いることができる。また、フィルタリング面積を順次変更する形態のものは、できるだけ、顔に関する領域のみを抽出するときに用いられる。すなわち、顔が矩形でなく、実際には丸形あるいは楕円形に近く、また、顔画像データには髪等が含まれているので、実際には複雑な輪郭線を有していることが多いが、そのような場合に、ハーライクフィルタ適用における顔か否かの判断基準を用いながら、フィルタリング面積を次第に小さくし、顔であるとする判断基準を満たすぎりぎりまで、絞り込むことによって、必要最小の大きさの顔領域画像データを得ることができる。
図5、図6は、S−ガボールフィルタ記憶部26,27に記憶される内容を説明する図である。S−ガボールフィルタは、従来から用いられているガボールフィルタの周波数特性を改善したものである。S−とは、Superの頭文字である。ガボールフィルタは、周知のように、画像データにおいて輪郭線の方位を検出するために用いられるフィルタで、検出されたデータは、画像データの特徴情報データとされる。すなわち、画像データを細分化し、メッシュごと、あるいはピクセル(pixel)と呼ばれる画素ごとにガボールフィルタを適用すれば、その適用結果として出力されるデータは、画像データを構成する要素の方位角度に関するものである。画像データを構成する各要素の方位角度とは、画像データにおける輪郭線の傾斜程度を示すので、画像データの特徴情報データとできる。
このように、ガボールフィルタは、周波数成分を有する孤立波の関数であり、これを2次元ガウス関数とすることで、平面的な画像データにおけるエッジ検出、すなわち、輪郭線の方位角度の検出に用いることができる。したがって、ガボールフィルタは、画像データにおいて特徴量を検出する特徴量検出関数である。
ところで、近接する輪郭線のエッジ検出を行うときは、孤立波である特徴量検出関数の干渉が起こり、合成された関数にDC成分が現れてくる。DC成分が現れてくると、特徴量検出の分可能が低下する。S−ガボールフィルタは、この合成された関数のDC成分を抑制するために、予め定めた周波数帯域を有するハイパスフィルタ処理を行うものである。
これらの様子が図5に示されている。図5には、上段側から下段側に4つの周波数特性図が示されている。これらの周波数特性図は、横軸に周波数、縦軸に規格化させた出力値をとってある。最上段は、式(1),(2)で示される従来のガボールフィルタの周波数特性図である。上から2段目は、近接して2つのガボールフィルタを適用したときの干渉を説明する図で、合成波形において、出力値が周波数に依存しない領域が現れてくることが示されている。上から3段目は、この合成波形の周波数特性を示すもので、出力値が周波数に依存しない領域に対応して、低周波成分あるいはDC成分があることが示されている。最下段は、式(3)のハイパスフィルタ特性と、式(4)で示されるS−ガボールフィルタの周波数特性を示すもので、低周波側の成分を抑制して、高周波数側に検出領域を有する特性が示されている。
図5における最下段のS−ガボールフィルタ関数形が、記憶装置22のS−ガボールフィルタ記憶部26に記憶されている。S−ガボールフィルタは、このように、高周波数帯域に検出領域を有するので、輪郭線の方位検出の分解能を向上させることができ、例えば、横向きの顔画像データ等で、分解能をあげて輪郭線の特徴情報を得たいとき等に効果的である。
S−ガボールフィルタは、従来のガボールフィルタと同様に、周波数特性と、検出領域の大きさとを可変できる。検出領域は、スケールとも呼ばれるが、画像データにおいてはS−ガボールフィルタが適用される領域の広さを示すので、以下ではフィルタリング面積と呼ぶことにする。記憶装置22におけるもう1つのS−ガボールフィルタ記憶部27は、方位角度とフィルタリング面積とを変更したS−ガボールフィルタを格納するものである。その様子を模式的に図6に示す。
図6には、方位角度を0度、22.5度、45度、67.5度、90度、112.5度、135度、157.5度の8種類、フィルタリング面積を5種類として、合計8×5=40種類の異なるS−ガボールフィルタが示されている。勿論方位角度の種類をこれ以外の種類数としてもよく、フィルタリング面積の種類をこれ以外の種類数として揃えて格納してもよい。方位角度の種類数をM、フィルタリング面積の種類数をNとすれば、M×N通りのS−ガボールフィルタの関数形が記憶装置22のS−ガボールフィルタ記憶部27に記憶される。
図7は、記憶装置22の登録人顔画像データ記憶部28の内容を説明する図である。登録人顔画像データ記憶部28には、少なくとも2人の登録人の顔画像データのそれぞれについて、複数の斜め向き角度ごとに、複数の顔特徴情報データが記憶される。図7では、登録人のID:003について、身長方向を回転軸方向として回転する角度を斜め向き角度とし、正面向きを斜め向き角度=0として、45度、90度、135度、180度、225度、270度、315度の斜め角度ごとの顔画像データが示されている。このように、1人の登録人について、8種類の斜め向き角度ごとの顔画像データが記憶される。図7には、さらに、他の登録人として、ID:114,ID:215等の人についても、それぞれ8種類の斜め向き角度ごとの顔画像データが記憶されている様子が示される。登録人の数は、目的に応じて設定できるが、一般的には多い方が好ましい。斜め向き角度の種類は8種類以外であっても構わない。
登録人顔画像データ記憶部28は、顔画像データそのものの他に、さらに、登録人別に、斜め向き角度ごとに、それぞれ複数の顔特徴情報データが記憶される。顔特徴情報データは、カメラ11を介して取得された顔画像データから抽出される顔特徴情報データと比較して、顔画像データに含まれる人が登録人か否かを判断するために用いられるものである。したがって、登録人顔画像データ記憶部28に記憶される顔特徴情報データは、顔認識装置10によって実行される顔特徴情報抽出処理と同様な処理を行ったものであることが好ましい。すなわち、予め取得された登録人別の各斜め向き角度ごとの顔画像データについて、顔認識装置10を用いて顔特徴情報抽出処理を実行し、その結果得られる顔特徴情報データを得て、それらを登録人顔画像データ記憶部28に記憶することが好ましい。
図8は、標準人顔画像データ記憶部30の内容を説明する図である。標準人顔画像データ記憶部30には、標準とする人の顔画像データについて、図3で説明した明暗矩形フィルタにおける8種類の傾斜角度ごとに、明暗矩形フィルタに対する出力閾値に関する情報が記憶される。図8では、第1フィルタについて、8種類の傾斜角度ごとに、それぞれの出力閾値が示されている。例えば、傾斜角度=0度では、出力閾値=0.6であり、傾斜角度=135度では、出力閾値=0.5である。
ここでは、明暗矩形フィルタの出力値を規格化し、最大明るさと最大暗さの基準を設定し、最大明るさを検出するときの、その明暗矩形フィルタの出力値=1.0とし、最大暗さ、すなわち最小明るさを検出するときの、その明暗矩形フィルタの出力値=0.0としてある。出力閾値は、画像データが顔の画像データであると判断する基準となる明暗矩形フィルタの出力値である。画像データにおいて、顔の部分が最も明るいことが経験的に知られている。出力閾値=0.6とは、最大明るさの出力値の60%以上の出力値のときに、明暗矩形フィルタを適用した画像データは、顔画像データであると判断することを意味する。出力閾値は、実験等によって求めることができる。
そして、標準人顔画像データ記憶部30は、明暗矩形フィルタの傾斜角度ごとに出力閾値を記憶するものである。明暗矩形フィルタの傾斜角度は、図7で説明した斜め向き角度を有する顔画像データのときに、エラーとしないようにできる。つまり、明暗矩形フィルタの傾斜角度を固定とすると、斜め向き角度を有する顔画像データ対する明暗矩形フィルタの出力値は小さくなり、出力閾値を下回ってエラーとなることがある。この場合に、明暗矩形フィルタの傾斜角度を変更すれば、斜め向き角度に適合した傾斜角度で明暗矩形フィルタの出力値が高くなるので、エラーとなることを防げる。このように、明暗矩形フィルタの傾斜角度を変更する場合に、その傾斜角度における出力閾値を定める必要があるが、標準人顔画像データ記憶部30はその出力閾値を記憶するものである。
再び図1に戻り、顔認識装置10のCPU12は、カメラI/F14等から取得した画像データに、記憶装置22に記憶されているハーライクフィルタ、S−ガボールフィルタを適用し、その検出結果を記憶装置22に記憶されている出力閾値、登録人ごとの顔画像データ等を参照して、顔検出、顔特徴抽出等を行い、画像データに含まれる人を登録人の中から特定する機能を有する。
具体的には、画像データから人の顔領域画像データを抽出する顔検知モジュール32、抽出された人の顔領域画像データについて、その顔の複数の特徴情報を抽出し、これらを複数の顔特徴情報データとする顔特徴抽出モジュール34、顔領域画像データの明暗特徴基準に従って、顔特徴情報データのノイズを除去するノイズ除去モジュール36、顔特徴情報データを圧縮する特徴圧縮モジュール38、複数の登録人に重複する顔特徴情報の帰属先を決定する処理を行う重複特徴帰属モジュール40、顔特徴情報データを記憶装置22に記憶されている登録人のデータと比較して、顔画像データの人を登録人の中の人か否かを判断する登録人特定モジュール42を含んで構成される。
これらの機能は、ソフトウェアによって実現でき、具体的には、顔認識プログラムを実行することで実現できる。これらの機能の一部をハードウェアによって実現するものとしてもよい。
かかる構成の作用について、図9から図27を用いて、以下に詳細に説明する。図9は、顔認識処理の全体の手順を示すフローチャートで、図10、図17、図21、図24は、それぞれ、詳細な手順を示すフローチャートである。これらのフローチャートの各手順は、顔認識プログラムの各処理手順にそれぞれ対応する。また、図11から図16は、図10のフローチャートの各手順の内容を説明する図、図18から図20は、図17のフローチャートの各手順の内容を説明する図、図22から図23は、図21のフローチャートの各手順の内容を説明する図、図25から図28は、図24のフローチャートの各手順の内容を説明する図である。
図9において、顔認識処理を実行するには、まず画像データが取得される(S10)。画像データの取得は、図1で説明したカメラ11、カメラI/F14を介して行うことができる他、予め記憶装置22に保存されているものを呼び出して取得することもできる。また、図1では図示されていないが、通信制御部を介し、ネットワーク等によってディジタルデータとして外部から伝送されるもの取得するものとしてもよい。
取得された画像データについて顔検知が行われる(S12)。この工程は、CPU12の顔検知モジュール32の機能によって実行され、具体的には、画像データから、ハーライクフィルタを用いて、人の顔領域画像データが抽出される。顔検知の詳細な手順は、図10、図17、図21のフローチャートを用いて後述する。
顔検知の次に、顔特徴抽出が行われる(S14)。この工程は、CPU12の顔特徴抽出モジュール34の機能によって実行され、具体的には、抽出された人の顔領域画像データについて、S−ガボールフィルタを適用して、その顔の複数の特徴情報を抽出し、これらが複数の顔特徴情報データとされる。顔特徴抽出の詳細な内容は、図24のフローチャートと、図25、図26を用いて後述する。
顔特徴抽出に引き続き、ノイズ除去が行われる(S16)。この工程は、CPU12のノイズ除去モジュール36の機能によって実行され、具体的には、顔領域画像データの明暗特徴基準に従って、顔特徴情報データのノイズが除去される。顔領域画像データの明暗特徴基準とは、顔領域とされる領域の中ではその中央部付近が最も明るく、最も明るい領域の外側領域が最も暗く、さらにその外側領域が中間的な明暗となるとする基準である。この基準に適合しないデータはノイズデータとして顔特徴情報データから削除される。
続いて、特徴圧縮が行われる(S18)。この工程は、CPU12の特徴圧縮モジュール38の機能によって実行される。具体的には、PCA技術を用いて、所定の圧縮率で顔特徴情報データが圧縮される。例えば、500万個の特徴情報データが数10個程度に圧縮される。
そして、重複特徴帰属処理が行われる(S20)。この工程は、CPU12の重複特徴帰属モジュール40の機能によって実行される。例えば、双子のように、同じ特徴情報データが複数人について重複する場合に、その重複特徴を複数人に重複するものとして以後の処理を行うと、顔認識の誤認率が増加することがある。そこで、重複特徴は、いずれかの人に帰属させる。なお、登録人顔画像データ記憶部28においても、予め、重複特徴帰属処理が行われているが、S20の処理は、カメラ11等を介して取得した画像データについて、重複する特徴情報が複数人に渡って存在するときに、いずれかの人に帰属させる処理のことである。重複特徴帰属処理の内容については、図27、図28を用いて後述する。
最後に、登録人特定が行われる(S22)。この工程は、CPU12の登録人特定モジュール42の機能によって実行される。具体的には、S20までにおいて絞られた顔特徴情報データを、記憶装置22に記憶されている登録人の顔特徴情報データと比較して、一致するものがあるか否かを判断し、一致するものがあれば、顔画像データの人を登録人の中の1人であることを図1の認証出力部16に出力し、一致するものがなければ、その旨を出力する。
次に、さらに詳細な顔認識の処理手順について説明する。図10は、顔検知に関する処理手順の最初の部分を示すフローチャートである。図9に説明したように、まず画像データが取得される(S10)。取得された画像データは、適当な数のブロックに分割される(S30)。分割は、ハーライクフィルタを画像全体に適用するのではなく、いくつかのブロックに分けて適用し、どのブロックに顔画像が含まれるかを検知するために行われるものである。したがって、ブロック数は適当に設定してよいが、例えば、4分割として、4つのブロックに分けることができる。
その様子が図11に示される。ここでは、取得された画像データ52が、同じ大きさの4つのブロックに分割されている。取得された画像データ52は矩形形状であるが、勿論、これ以外の形状であっても構わない。矩形形状でない場合には、ハーライクフィルタの適用を容易とするために、矩形領域とそれ以外の領域に最初に区分し、矩形領域を4つのブロック等に分割するものとすることがよい。なお、画像データ52には、2人の人と、1匹の犬が示されている。この2人の人は、後述するように、双子の姉妹で、顔特徴情報が重複している。
再び図10に戻り、分割された各ブロックに順次、ハーライクフィルタの第1フィルタが適用され(S32)、それぞれ出力値が取得され、それぞれ第1フィルタの出力閾値と比較されて出力閾値を超えるか否かが判断され(S34)、出力閾値を超えるものがパスブロックとして抽出される(S36)。パスブロックとは、出力閾値を超えるブロックで、顔がある可能性が高いブロックである。
その様子が図12に示される。すなわち、第1フィルタの大きさであるフィルタリング面積は、各ブロックの大きさと同じかやや大きめに設定される。そして、画像データの基準軸を図12における上下方向として、その基準軸方向に対し傾斜角度を0度として、各ブロックを覆うように第1フィルタが適用される。図8に説明したように、この場合の出力閾値は、0.6である。
図12に示される4段の画像データには、それぞれ、第1フィルタが左上のブロック、右上のブロック、左下のブロック、右下のブロックの順に設定される様子が示される。そして、各画像データの右側にそれぞれ示されるマス目には、第1フィルタを適用して取得された出力値が示されている。すなわち、左上のブロックの出力値は0.1で、右上のブロックの出力値は0.8で、左下のブロックの出力値は0.7で、右下のブロックの出力値は0.1である。したがって、出力閾値を超えるパスブロックは、右上のブロックと左下のブロックの2つである。
第1フィルタについてパスブロックとされた部分のそれぞれには、第2フィルタが同様に適用され(S38)、取得された出力値が出力閾値を超えるか否かが判断され(S40)、出力閾値を超えるものがここでのパスブロックとして抽出される(S42)。その様子が図13に示される。パスブロックは、01フィルタと同じで、右上のブロックと左下のブロックの2つである。
第2フィルタについてパスブロックとされた部分のそれぞれに、第3フィルタが同様に適用される(S44)。その様子が図14に示される。なお、ここでは、第3フィルタの出力値として、明暗パターンのそれぞれについて取得され、出力閾値と比較される。ここでは、右上のブロックの3つに分けられるフィルタリング領域のうち、上2つがパス領域となる。左下のブロックの犬の顔に相当する部分は、出力閾値以下となり、パス領域とならない。同様に第4フィルタが適用される(S46)。その様子は図15に示されるが、図14と同様の結果である。
ここまでで、第1フィルタから第4フィルタについての適用が終わったので、これらについて全て出力閾値を超えるものがパスブロックとして抽出される(S48)。上記のように、抽出されたのは、画像データ52において、右上のブロックを3つに分けた領域の上2つの部分である。その部分をパス画像データ54として、図16に示す。このように、顔がある可能性が高い画像データとして、2人の顔を中心とする部分が抽出された。この2人は、眉毛、目つき、ほくろ等が似通っている双子の姉妹であり、顔を合わせる方向にいずれも横向きである。
次に図17のフローチャートを説明する。図17に示される手順は、横向き画像に対する処理で、ハーライクフィルタの傾斜角度を順次変更してその出力値を取得し、対応する出力比較値と比較して、パスブロックを抽出するものである。
S48においてパスブロックが抽出されると、これがAパス画像データとして取得される(S50)。Aパスとは、図10の手順をパスしたという程度の意味である。ここでも、改めて、いくつかのブロックに分割が行われる(S52)。この分割もハーライクフィルタを適用して、顔画像データを絞り込むためである。ここでは、図18に示されるように、パス画像データ54が4つのブロックに分割される。
そして、最初のブロック1に01フィルタ、すなわち第1フィルタが傾斜角度45度として適用される(S54)。そして、出力値を取得し、出力閾値と比較し、出力閾値を超えるか否かが判断される(S56)。出力閾値を超えてもここではまだパスブロックとされず、引き続き、傾斜角度が90度に設定され(S58)同様な処理が行われる。その後も引き続き、傾斜角度が順次変更され、315度まで適用される(S60,S62)。なお、出力閾値は、図8で説明したように、傾斜角度によって異なる値である。そして、全ての予定された傾斜角度での第1フィルタの適用が終り、それぞれの出力値が取得されると、ここでパスブロックか否かが判断される(S64)。
その様子が図19に示される。ここでは、ブロック1は、パス画像データ54の左上で、背景部分がほとんどであるので、全ての傾斜角度において出力閾値を超えていない。つまり、パスブロックとはされない。
ブロック1がパスブロックであっても、パスブロックでなくても、次に2番目のブロック等、各ブロックについて、同様の処理が行われる(S66)。その様子が図20に示される。ここで、第2ブロックである右上のブロックは、左向きの顔画像であるので、傾斜角度45度において出力値が最大となっている。図7の顔画像を参照してみると、この左向きの顔画像は、顔画像の斜め向き角度45度に対応するものであることが分かるが、ちょうどその斜め向き角度と同じ角度の傾斜角度のハーライクフィルタの出力値が最大値を示していることになる。
また、第3ブロックである左下のブロックは、右向きの顔画像であるが、ここでは、傾斜角度315度において出力値が最大となっている。図7の顔画像を参照してみると、この右向きの顔画像は、顔画像の斜め向き角度315度に対応するものであることが分かるが、やはり、ちょうどその斜め向き角度と同じ角度の傾斜角度のハーライクフィルタの出力値が最大値を示していることになる。
第4ブロックである右下のブロックは、顔がない部分であるが、傾斜角度45度で出力閾値を超える。これは、右側の人の胸の2つの膨らみが明るく見えるためであると考えられるが、やはりここでも傾斜角度45度において出力値が最大となっている。
第1フィルタについて、全部のブロックについて全部の傾斜角度についての出力値の取得と、出力閾値に対する比較が終わると、次に第3フィルタ、第4フィルタについても同様の処理が行われる(S68)。なお、第2フィルタは第1フィルタと180度回転の関係にあるので、適用を省略できる。これらについてもパスブロックが抽出される(S70)。これらの適用によって、ハーライクフィルタの傾斜角度を変更したときのパスブロックは、右上の第2ブロック、左下の第3ブロック、右下の第4ブロックとなる。
次に図21に移り、上記のパスブロックを含むBパス画像データが取得され(S72)、必要があれば他のタイプのハーライクフィルタが適用される(S74)。例えば、図2で説明した中央方位型のハーライクフィルタを用いることで、顔画像の周辺のノイズを除去できる。その他、ハーライクフィルタの明暗配置を工夫することで、背景除去、サングラス、帽子等を顔画像から除去することができる。このようにして、他の一連のハーライクフィルタの適用によってパスブロックがさらに絞り込まれると、その結果が候補顔領域画像データとされる(S78)。
候補顔領域画像データについては、さらに必要最小に画像を絞り込むトリミングが行われる。そのために、第1フィルタが再び用いられ、ここでは、そのサイズが変更されて適用される(S80)。サイズ変更とは、図4で説明したように、フィルタリング面積の変更である。すなわち、絞り込まれた候補顔領域画像データについて、顔画像でない可能性の部分領域に合わせたフィルタリング面積の第1フィルタを適用し、出力値を取得する。そして、出力閾値未満か否かを判断し(S82)、出力閾値未満であれば、その部分領域を候補顔領域画像データから削除して、候補顔領域を絞り込む(S84)。これにより、必要最小の大きさの候補顔領域画像データとすることができる。
そして、この絞り込まれた候補顔領域画像データについて、肌色検出有りか否かが判断される(S86)。肌色検出には、周知の手法を用いることができる。肌色検出有りとされると、ここで、候補顔領域画像データが人の顔領域画像データとされる(S88)。肌色検出有りとされないときは、人の顔でないので、顔認識の手順を終了させる。
その様子を図22、図23に示す。図23には、S48においてパス画像データ54とされたものが示され、その中で、S80によって絞り込まれた候補顔領域画像データとして、左側の人の顔画像データ55、右側の人の顔画像データ57、右側の人の胸画像データ59が示されている。そして、図24には、肌色検出の結果、人の顔領域画像データとされた左側の人の顔領域画像データ56、右側の人の顔領域画像データ58が示されている。このようにして、ハーライクフィルタの傾斜角度を変更する等によって、斜め向き角度を有する人の顔領域画像データを的確に抽出することができる。
図24は、顔検知が行われて、人の顔領域画像データとされたものに対する顔特徴情報データ抽出以後の手順を示すフローチャートである。上記の例では、人の顔領域画像データとしては、左側の人の顔領域画像データ56、右側の人の顔領域画像データ58の2つがあるが、以下では、左側の人の顔領域画像データ56を例にとって説明する。そして、この顔領域画像データ56の大きさを、50画素×50画素とする。勿論これ以外の画素数のものであってもよい。すなわち、人の顔領域画像データとして、P=50×50のデータ量のものを取得する(S90)。取得された顔領域画像データ56の様子を拡大して示す図である。左上端に1つの画素62が代表して示されている。
そして、各画素について、S−ガボールフィルタを適用し、その出力値を取得する(S92)。S−ガボールフィルタは、図6で説明したように、方位角度としてM=8通り、フィルタリング面積としてN=5通りとする。これらを各画素のそれぞれに適用して、それぞれの出力値を取得するので、顔領域画像データ56の全体としては、P×M×N=50×50×8×5=100,000個のS−ガボールフィルタ出力値を取得することになる。このように大きなデータ量は、以後のデータ処理に不便であるので、正方マトリクスに整形されることが好ましい。上記の場合、334×334の正方マトリクス、または、512×512の正方マトリクスとすることが好ましい。ダミーのデータとしては、0または1を用いることができる。
そして、さらに、領域拡大データが追加される(S94)。領域拡大とは、人の顔領域画像データ56を構成するP個のデータ要素のそれぞれについて、その画素データの評価対象領域を出発領域として、予め定めた拡大係数を順次乗じて周辺画素データを取り込んで評価対象領域をL通りに拡大することである。その様子を図26に示す。ここでは、顔領域画像データの左上端の1画素62を出発領域として、2画素×2画素の領域、3画素×3画素の領域というように、縦方向に1画素ずつ、横方向にも1画素ずつ領域拡大が順次行われる。図26では、領域拡大途中の拡大領域70が示されている。この場合、領域拡大の数をLとして、L=50であるので、S−ガボールフィルタの出力値の個数は、L×P×M×N=50×50×50×8×5=5,000,000個となる。
領域拡大は、前の領域を含むようにして行われるので、S−ガボールフィルタ出力値が同じ画素について何度も取得されることになり、これによって、特徴量の相違が次第に拡大されるようになる。つまり、領域拡大は、特徴量の相違を強調する機能を有する。
再び図24に戻り、ノイズ除去が行われる(S16)。この内容は、図9のS16で説明したものと同じであるので、詳細な説明を省略する。この処理によって、ノイズとされて削除されるデータは、実際にはS−ガボール出力値=0とされ、正方マトリクスの形式が維持される。
次に、このような多数のS−ガボールフィルタ出力値に対し、特徴圧縮が行われる(S18)。ここでは、圧縮率を設定し、以後の処理に適した規模の顔特徴情報データに整理される。圧縮率としては、例えば、8×8=64程度の顔特徴情報データに圧縮するものとして設定されることができる。特徴圧縮には周知のPCA技術を用いることができる。なお、PCA技術とは、互いに相関のある多数の変数の情報を、互いに無相関な少数の合成変数に要約する技術である。
次に、重複特徴帰属処理が行われる(S20)。重複特徴とは、複数の顔領域画像データにそれぞれ対応する顔特徴情報データに、重複している顔特徴情報のことである。例えば、図23で説明した2つの顔領域画像データ56,58は、上記のように双子の姉妹のものであるので、特徴情報データとしての眉毛、目つき、ほくろ等が似通っていて、重複することになる。この重複特徴を、いずれの顔領域情報データに帰属させるかの処理が重複特徴帰属処理である。
重複特徴帰属処理は以下の手順で行うことができる。すなわち、最初に、帰属に関係する複数の顔領域画像データごとに、それぞれの顔特徴情報データの特徴量の合計値を顔画像別特徴量合計値として算出する。次に、各顔画像別特徴量合計値を帰属に関係する全顔領域画像データについて総計して特徴量総計値とする。そして、各顔領域画像データごとに、特徴量総計値に対するそれぞれの顔画像別特徴量合計値の寄与率を顔画像別重複寄与率として求める。また、各顔領域画像データごとに、顔画像別特徴量合計値に対する重複顔特徴情報データの特徴量の占有率を顔画像別重複占有率として求める。そして、顔画像別重複占有率が最も大きな値を示す顔領域画像データに、その重複特徴情報データを帰属させる。
この手順を、図27、図28において、例題を用いて説明する。図27には、3つの顔領域画像データとしてA,B,Cが示されている。そして、各顔領域画像データの特徴情報データが楕円で示され、楕円の中の数値が特徴量である。なお特徴情報データがS−ガボールフィルタ出力値そのものであるときは、小数点以下の小さな値を要素として有するベクトル量であるが、図27では、説明のために、1次元の簡単な数値としてある。
図27の例において、顔領域画像データAは、特徴量100を有する特徴情報データX1を含み、その特徴量の合計である顔画像別特徴量合計値=500である。同様に、顔領域画像データBは、特徴量100を有する特徴情報データX1を含み、その特徴量の合計である顔画像別特徴量合計値=300である。顔領域画像データCは、特徴量100を有する特徴情報データX1を含み、その特徴量の合計である顔画像別特徴量合計値=700である。ここで、特徴量100を有する特徴情報データX1は、3つの顔領域画像データA,B,Cにおいて重複する特徴情報データである。図23に近い例でいえば、特徴情報データX1は、三つ子に共通するほくろのようなものである。
図28は、重複特徴帰属処理の具体的な手順を説明する図である。図27の例では、各顔画像別特徴量合計値である500,300,700を帰属に関係する全顔領域画像データ(A+B+C)について総計した特徴量総計値は、1500となる。そして、各顔領域画像データA,B,Cごとに、特徴量総計値=1500に対するそれぞれの顔画像別特徴量合計値500,300,700の寄与率を顔画像別重複寄与率として求めると、次のようになる。すなわち、顔領域画像データAの顔画像別重複寄与率は、(500/1500)=0.33である。また、顔領域画像データBの顔画像別重複寄与率は、(300/1500)=0.20である。また、顔領域画像データCの顔画像別重複寄与率は、(700/1500)=0.47である。
次に、重複する特徴情報データX1の特徴量=100をこの顔画像別重複寄与率で、各顔領域画像データA,B,Cに割り当てる。図28では、特徴量=100が、33,20,47と割り当てられる様子が示される。ここで、割り当てられた特徴量を各顔領域画像データA,B,Cにそれぞれ帰属させて、改めて各顔領域画像データA,B,Cの顔画像別特徴量合計値を計算しなおすと、次のようになる。すなわち、顔領域画像データAの新しい顔画像別特徴量合計値=400+33=433となる。同様に、顔領域画像データBの新しい顔画像別特徴量合計値=200+20=220となる。また、顔領域画像データCの新しい顔画像別特徴量合計値=600+47=647となる。
次に、この新しい顔画像別特徴量合計値における重複する特徴情報データX1の特徴量の割当量の占有率を顔画像別重複占有率として、各顔領域画像データA,B,Cについて求める。図28に示されるように、顔領域画像データAにおける顔画像別重複占有率=(33/433)=0.077となる。同様に、顔領域画像データBにおける顔画像別重複占有率=(20/220)=0.091となる。また、顔領域画像データCにおける顔画像別重複占有率=(47/477)=0.073となる。ここで、3つの値を比較すると、顔領域画像データBにおける顔画像別重複占有率がもっとも大きいので、重複する特徴情報データX1は、顔領域画像データBに帰属させるものとできる。
なお、重複する特徴情報データX1は、顔領域画像データBに帰属させた後の状態は、顔領域画像データAの顔画像別特徴量合計値=400、顔領域画像データBの顔画像別特徴量合計値=300、顔領域画像データCの顔画像別特徴量合計値=600となる。
重複する特徴情報データの帰属については2つの考えがありえる。1つは顔画像別重複寄与率に基いて帰属先を決める考えで、この考えは、特徴総計量に対する寄与率、つまり、全顔領域画像データについての特徴量全体に対する重複特徴量の寄与率が大きいことを評価するものである。上記の例では、顔画像別重複寄与率は顔領域画像データCにおいて最も大きいので、特徴情報データX1は、顔領域画像データCに帰属させることになる。この考えによれば、重複する特徴情報データは、常に、顔画像別特徴量合計値の大きい顔領域画像データCに帰属する。このようにすると、顔画像別特徴量合計値の大きい顔領域画像データCは顔画像別特徴量合計値が不変となる一方で、顔画像別特徴量合計値の小さい顔領域画像データBは、重複帰属後の顔画像別特徴量合計値が著しく少なくなり、特徴の少ない顔領域画像データとなる恐れがある。
もう1つの考えは、顔画像別重複占有率に基いて帰属先を決める考えで、この考えは、特徴量合計量に対する寄与率、つまり、全顔領域画像データにおける重複特徴量の寄与率が大きいことを評価するものである。この考えには2通りの解決法がありえる。1つは、元々の顔画像別重複占有率に基いて帰属先を決めるものである。図27の場合では、元々の顔画像別重複占有率は、顔領域画像データAにおいて、(100/500)=0.20、顔領域画像データBにおいて、(100/300)=0.33、顔領域画像データCにおいて、(100/700)=0.14である。したがって、顔画像別重複占有率は顔領域画像データBにおいて最も大きいので、特徴情報データX1は、顔領域画像データBに帰属させることになる。この考えによれば、重複する特徴情報データは、常に、顔画像別特徴量合計値の小さい顔領域画像データCに帰属する。このようにすると、顔画像別特徴量合計値の小さい顔領域画像データBは顔画像別特徴量合計値が不変となる一方で、顔画像別特徴量合計値の大きい顔領域画像データCにおいても、重複帰属後の顔画像別特徴量合計値の減少率は余り大きくなく、一見公平である。しかしながら、ここでは、全顔領域画像データについての特徴量全体に対する各顔画像別特徴量合計値の寄与、あるいは重複特徴量の寄与が全く考慮されていない。
もう1つの解決法は、図28に説明したように、重複する特徴情報データの特徴量を顔画像別重複寄与率で、各顔領域画像データに割り当てた後の顔画像別重複占有率に基いて帰属先を決めるものである。このようにすることで、顔画像別重複寄与率のみに基いて帰属先を決める考えの欠点と、元々の顔画像別重複占有率のみに基いて帰属先を決める考えの欠点を補って、バランスをとった考えで、重複特徴量の帰属先を決定することができる。
再び図24に戻り、重複特徴帰属処理が行われると、その結果を反映して、顔特徴情報データの抽出が行われる(S96)。そして、抽出された顔特徴情報データと、登録人顔画像データ記憶部28に記憶されている各登録人ごとの顔特徴情報データとが比較され(S98)、一致しているものがあるか否かが判断される(S100)。比較の結果、一致しているものがあれば、その登録人が、画像データにある人であると特定される(S22)。比較の結果、一致するものがなければ、該当なしとされる(S102)。S22とS102の結果は、認証出力部16によって、顔認証として出力される(S104)。例えば、S22の場合、「XXさんです」と表示され、あるいは音声で知らされる。S102の場合では、「該当する人は登録されていません」と表示され、あるいは音声で知らされる。顔認証出力は、建物等の扉開閉、監視システム等と連動させることもできる。
10 顔認識装置、11 カメラ、12 CPU、14 カメラI/F、16 認証出力部、18 入力部、20 出力部、22 記憶装置、24,25 ハーライクフィルタ記憶部、26,27 S−ガボールフィルタ記憶部、28 登録人顔画像データ記憶部、30 標準人顔画像データ記憶部、32 顔検知モジュール、34 顔特徴抽出モジュール、36 ノイズ除去モジュール、38 特徴圧縮モジュール、40 重複特徴帰属モジュール、42 登録人特定モジュール、52 画像データ、54 パス画像データ、55,57 顔画像データ、56,58 顔領域画像データ、59 胸画像データ、62 画素、70 拡大領域。
Claims (6)
- 少なくとも2人の登録人の顔画像データのそれぞれについて、複数の斜め向き角度ごとに、複数の顔特徴情報データを記憶する登録人顔画像データ記憶装置と、
標準とする人の顔画像データについて、予め定められた特性の明暗矩形フィルタにおける予め定められた複数の傾斜角度ごとに、各明暗矩形フィルタに対する出力閾値に関する情報を記憶する標準人顔画像データ記憶装置と、
画像データから人の顔領域画像データを抽出する顔検知手段と、
抽出された人の顔領域画像データについて、その顔の複数の特徴情報を抽出し、これらを複数の顔特徴情報データとする顔特徴抽出手段と、
抽出された複数の顔特徴情報データを、登録人顔画像データ記憶装置に記憶されている各登録人の顔画像データについての複数の顔特徴情報データとそれぞれ比較して、該当する登録人を特定する特定手段と、
を備え、
顔検知手段は、
対象画像データの中で予め定めた検知対象領域画像データについて、予め定められた特性の明暗矩形フィルタを、対象画像データの基準軸方向に対し予め定められた複数の傾斜角度で順次適用して、各傾斜角度ごとに明暗矩形フィルタ出力値を取得する手段と、
取得された各傾斜角度ごとの明暗矩形フィルタ出力値を、標準人顔画像データ記憶装置に格納されている傾斜角度ごとの明暗矩形フィルタ出力閾値と比較する手段と、
比較の結果、明暗矩形フィルタ出力閾値を超える明暗矩形フィルタ出力値となる明暗矩形フィルタの傾斜角度があるときは、その検知対象領域画像データを候補顔領域画像データとして抽出する手段と、
抽出された候補顔領域画像データについて、人の肌色が検出されるか否かを判断し、人の肌色が検出されるときに、候補顔領域画像データを、人の顔領域画像データとして抽出する手段と、
を含むことを特徴とする顔認識装置。 - 請求項1に記載の顔認識装置において、
標準人顔画像データ記憶装置は、さらに、標準とする人の顔の画像データについて、予め定められた複数の矩形フィルタリング面積ごとに、複数の明暗矩形フィルタに対する出力閾値に関する情報を記憶し、
顔検知手段は、
候補顔領域画像データについて、さらに、明暗矩形フィルタを複数の矩形フィルタリング面積で順次適用して、各矩形フィルタリング面積ごとに明暗矩形フィルタ出力を取得する手段と、
取得された各矩形フィルタリング面積ごとの明暗矩形フィルタ出力を、標準人顔画像データ記憶装置に格納されている矩形フィルタリング面積ごとの明暗矩形フィルタ出力閾値と比較する手段と、
比較の結果、明暗矩形フィルタ出力閾値未満の明暗矩形フィルタ出力値となる明暗矩形フィルタのフィルタリング領域部分があるときは、そのフィルタリング領域部分を候補顔領域画像データから削除して候補顔領域画像データを絞り込む手段と、
を含むことを特徴とする顔認識装置。 - 請求項1に記載の顔認識装置において、
人の顔領域画像データに適用される輪郭線方位検出フィルタとしての2次元ガウス関数と正弦関数との積の関数形を有する特徴量検出関数について、対象画像データの基準軸方向について複数の予め定めた方位角度ごとの特徴量検出関数と、複数の予め定めた方位フィルタリング面積ごとの特徴量検出関数とを記憶する特徴量検出関数記憶装置を備え、
顔特徴抽出手段は、
特徴量検出関数記憶装置から、M個の方位角度の中の任意の1つとN個の方位フィルタリング面積の中の任意の1つを構成要素とするM×N通りの組合せのそれぞれに対応する特徴量検出関数を順次読み出し、人の顔領域画像データを構成するP個の各データ要素にそれぞれ順次適用して、P×M×N個の特徴量出力値を取得し、これを複数の顔特徴情報データとする手段と、
を含み、
特徴量検出関数記憶装置は、
2次元ガウス関数と正弦関数との積の関数形に予め定めた周波数帯域を有するハイパスフィルタ処理を施して、DC成分を抑制した特徴量検出関数を記憶することを特徴とする顔認識装置。 - 請求項3に記載の顔認識装置において、
特徴量出力値を取得する手段は、さらに、
人の顔領域画像データを構成するP個のデータ要素のそれぞれについて、その画素データの評価対象領域を出発領域として、予め定めた拡大係数を順次乗じて周辺画素データを取り込んで評価対象領域をL通りに拡大し、P×L個のデータ要素に拡大する手段と、
P×L個のデータ要素について、N×M通りの組合せのそれぞれに対応する特徴量検出関数を順次適用して、P×L×M×N個の特徴量出力値を取得し、これを複数の顔特徴情報データとする手段と、
を含むことを特徴とする顔認識装置。 - 請求項1に記載の顔認識装置において、
顔特徴抽出手段によって抽出された複数の顔特徴情報データについて、顔領域画像データの明暗特徴基準として、顔領域とされる領域の中ではその中央部付近が最も明るく、最も明るい領域の外側領域が最も暗く、さらにその外側領域が中間的な明暗となるとする基準に従って、この基準に適合しないデータをノイズデータとして顔特徴情報データから削除する手段を備えることを特徴とする顔認識装置。 - 請求項1に記載の顔認識装置において、
複数の顔領域画像データに重複する顔特徴情報データをいずれかの顔領域画像データの顔特徴情報データとして帰属させる重複特徴帰属手段を備え、
重複特徴帰属手段は、
帰属に関係する複数の顔領域画像データごとに、それぞれの顔特徴情報データの特徴量の合計値を顔画像別特徴量合計値として算出する手段と、
各顔画像別特徴量合計値を帰属に関係する全顔領域画像データについて総計して特徴量総計値とし、各顔領域画像データごとに、特徴量総計値に対するそれぞれの顔画像別特徴量合計値の寄与率を顔画像別重複寄与率として求める手段と、
各顔領域画像データごとに、顔画像別特徴量合計値に対する重複顔特徴情報データの特徴量の占有率を顔画像別重複占有率として求める手段と、
顔画像別重複寄与率の大きさと、顔画像別重複占有率の大きさとに基いて、重複顔特徴情報データの帰属先を特定する手段と、
を含むことを特徴とする顔認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079802A JP2009237669A (ja) | 2008-03-26 | 2008-03-26 | 顔認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008079802A JP2009237669A (ja) | 2008-03-26 | 2008-03-26 | 顔認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009237669A true JP2009237669A (ja) | 2009-10-15 |
Family
ID=41251578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008079802A Withdrawn JP2009237669A (ja) | 2008-03-26 | 2008-03-26 | 顔認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009237669A (ja) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011096136A (ja) * | 2009-10-30 | 2011-05-12 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
JP2013051617A (ja) * | 2011-08-31 | 2013-03-14 | Toshiba Corp | オブジェクト探索装置、映像表示装置およびオブジェクト探索方法 |
KR101545408B1 (ko) * | 2013-12-11 | 2015-08-19 | 한국 한의학 연구원 | 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치 |
WO2015146389A1 (ja) * | 2014-03-26 | 2015-10-01 | 株式会社メガチップス | 物体検出装置 |
KR20160035290A (ko) * | 2014-09-23 | 2016-03-31 | 경희대학교 산학협력단 | 2차원 코드 인식률 향상 방법, 서버 및 컴퓨터 프로그램 |
KR101731804B1 (ko) * | 2014-12-30 | 2017-05-04 | 순천향대학교 산학협력단 | 차량 번호판 인식 장치 및 방법 |
JP2018045309A (ja) * | 2016-09-12 | 2018-03-22 | 株式会社東芝 | 特徴量抽出装置および認証システム |
JP2019087242A (ja) * | 2017-11-03 | 2019-06-06 | 富士通株式会社 | 顔認識モデルの訓練方法及び訓練装置 |
CN113221774A (zh) * | 2021-05-19 | 2021-08-06 | 重庆幸尚付科技有限责任公司 | 人脸识别系统及考勤装置 |
-
2008
- 2008-03-26 JP JP2008079802A patent/JP2009237669A/ja not_active Withdrawn
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011096136A (ja) * | 2009-10-30 | 2011-05-12 | Canon Inc | オブジェクト識別装置及びオブジェクト識別方法 |
JP2013051617A (ja) * | 2011-08-31 | 2013-03-14 | Toshiba Corp | オブジェクト探索装置、映像表示装置およびオブジェクト探索方法 |
KR101545408B1 (ko) * | 2013-12-11 | 2015-08-19 | 한국 한의학 연구원 | 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치 |
WO2015146389A1 (ja) * | 2014-03-26 | 2015-10-01 | 株式会社メガチップス | 物体検出装置 |
JP2015187782A (ja) * | 2014-03-26 | 2015-10-29 | 株式会社メガチップス | 物体検出装置 |
KR20160035290A (ko) * | 2014-09-23 | 2016-03-31 | 경희대학교 산학협력단 | 2차원 코드 인식률 향상 방법, 서버 및 컴퓨터 프로그램 |
KR101656941B1 (ko) * | 2014-09-23 | 2016-09-12 | 경희대학교 산학협력단 | 2차원 코드 인식률 향상 방법, 서버 및 컴퓨터 프로그램 |
KR101731804B1 (ko) * | 2014-12-30 | 2017-05-04 | 순천향대학교 산학협력단 | 차량 번호판 인식 장치 및 방법 |
JP2018045309A (ja) * | 2016-09-12 | 2018-03-22 | 株式会社東芝 | 特徴量抽出装置および認証システム |
JP2019087242A (ja) * | 2017-11-03 | 2019-06-06 | 富士通株式会社 | 顔認識モデルの訓練方法及び訓練装置 |
JP7119907B2 (ja) | 2017-11-03 | 2022-08-17 | 富士通株式会社 | 顔認識モデルの訓練方法及び訓練装置 |
CN113221774A (zh) * | 2021-05-19 | 2021-08-06 | 重庆幸尚付科技有限责任公司 | 人脸识别系统及考勤装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852160B (zh) | 以图像为基准的生物识别系统及计算机实施方法 | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
CN109948408B (zh) | 活性测试方法和设备 | |
US10726244B2 (en) | Method and apparatus detecting a target | |
JP2009237669A (ja) | 顔認識装置 | |
CN102667810B (zh) | 数字图像中的面部识别 | |
JP2009523266A (ja) | 目に関して取得される画像中の虹彩を表す画素を特定する方法 | |
JP2007188504A (ja) | 画像中の画素強度をフィルタリングする方法 | |
JP2006107288A (ja) | 個人認証方法、装置及びプログラム | |
KR20160037305A (ko) | 지문 인식을 이용한 사용자 인증 방법 | |
CN109416734B (zh) | 用于虹膜图像编码的自适应量化方法 | |
JP2012083938A (ja) | 学習装置、学習方法、識別装置、識別方法、およびプログラム | |
JP4993615B2 (ja) | 画像認識方法および装置 | |
US20230394871A1 (en) | Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image | |
Bruno et al. | Palmprint principal lines extraction | |
Devadethan et al. | Face detection and facial feature extraction based on a fusion of knowledge based method and morphological image processing | |
KR20070088982A (ko) | 변형에 강건한 홍채 인식 방법 | |
JP2007026308A (ja) | 画像処理方法、画像処理装置 | |
CN113610071B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
Sisodia et al. | A conglomerate technique for finger print recognition using phone camera captured images | |
Tan et al. | A novel weighted hausdorff distance for face localization | |
CN114663930A (zh) | 一种活体检测方法、装置、终端设备及存储介质 | |
KR20210050649A (ko) | 모바일 기기의 페이스 인증 방법 | |
JP2005209137A (ja) | 対象物認識方法及び対象物認識装置、並びに顔方向識別装置 | |
JP2001331804A (ja) | 画像領域検出装置及び方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110607 |