JP4222066B2 - Face matching device - Google Patents

Face matching device Download PDF

Info

Publication number
JP4222066B2
JP4222066B2 JP2003059404A JP2003059404A JP4222066B2 JP 4222066 B2 JP4222066 B2 JP 4222066B2 JP 2003059404 A JP2003059404 A JP 2003059404A JP 2003059404 A JP2003059404 A JP 2003059404A JP 4222066 B2 JP4222066 B2 JP 4222066B2
Authority
JP
Japan
Prior art keywords
data
face
time
feature
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003059404A
Other languages
Japanese (ja)
Other versions
JP2004054888A (en
Inventor
澄昭 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2003059404A priority Critical patent/JP4222066B2/en
Publication of JP2004054888A publication Critical patent/JP2004054888A/en
Application granted granted Critical
Publication of JP4222066B2 publication Critical patent/JP4222066B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、目、鼻、口、輪郭、表情、眼鏡…等の顔データを用いて登録者を照合判別する顔照合装置に関し、さらに詳しくは照合判別精度を維持しつつ、登録者照合時のデータベースとなる登録データを追加および削除して管理する顔照合装置に関する。
【0002】
【従来の技術】
近年、この種の顔照合装置は、顔データの登録管理に際して、登録者固有の顔データを照合判別用に登録しているが、登録者の追加や、同じ登録者でも認識精度の向上のため複数の顔データを登録した場合は、データが増加する一方となる。
【0003】
このため、顔データを登録する際に、そのまま顔画像を登録するのではなく、特徴のあるデータのみを抽出して登録することにより登録データ量を削減できるが、削減の方法によっては重要なデータをも削除してしまい照合結果に悪影響が生じ、この結果、顔照合装置の性能を劣化させる原因になっている。
【0004】
例えば、特許文献1に示す登録データを更新する手段を備えた人物認識装置の場合、認証と同時に更新可否の判断を行い、更新可と判断した場合、入力された顔データと現登録データとから新しい更新登録データを生成して更新登録を行うことにより、登録データ量の増加を抑えつつ認識率の精度を高く保っている。
【0005】
しかし、この場合においても入力された顔データの照合度合い値が低い場合には、現登録データにそのまま入力された顔データを追加して更新登録を行うことが記載されており、結果として登録データ量が増加していた。これにより、新たに登録できる登録者の数に制限を受けることとなる。特に、登録データが増加すると、記憶容量が小規模のシステムの場合は適用できず、登録データ量の削減が必要になる。また、記憶容量の拡大が考えられるが、この場合はコスト高の要因になる。
【0006】
さらに、特許文献2に示すように、照合認識用に設けられた辞書(登録データ)において、このうち相互情報量が多く含まれる部分辞書(特徴データ)は残し、相互情報量が少ない部分辞書は削除するという部分辞書削除方法が知られている。これは、辞書中の部分辞書相互の関係において、似ている部分辞書の数が少ないほどその部分辞書を残し、似ている部分辞書の数が多いほどその部分辞書を削除する方法である。
【0007】
ところが、この場合は登録データの部分辞書のうち、似ている部分辞書の数が多いものから一律的に削除する構成であるため、データ量は減少するものの、顔照合装置に適用した場合、経年変化によって人間の顔は変化しているため、通常似ていることの多い現在に近い顔データから削除して、似ていない過去の顔データを残すこととなる。そのため、認識性能は低下せざるを得なくなる。
【0008】
【特許文献1】
特開平11−175718号公報
【特許文献2】
特開2000−90271号公報。
【0009】
【発明が解決しようとする課題】
このように上述した2つの特許文献は、照合判別精度は維持できるが、データ量が増加したり、データ量は減少するものの照合判別精度が低下したりして、データ量の減少と照合判別精度の維持との両方を満足するものではなかった。また、仮に上述した2つの特許文献およびこれらを含む他の類似する公報を組合せたとしても、照合判別精度を維持しつつデータ量を削減するための手段が示唆されていないため課題を解決することができない。
【0010】
そこでこの発明は、登録データの管理に際して、登録データが経年変化によって微妙に変化する人間の顔データであることを考慮して、登録されたときからの経過時間や判別に用いる元になったときからの経過時間に基づいて登録データを削除していくことができる顔照合装置の提供を目的とする。
【0011】
【課題を解決するための手段】
この発明は、複数の特徴量データからなる顔データと、登録時刻とを登録者の全ての人に対応付けて、前記特徴量データに重要度を付与して記憶する記憶手段と、照合用に入力された顔データと前記記憶手段に記憶されている顔データとを比較して照合度合い値を求め、この求めた照合度合い値に基づいて登録者かどうかを判別する判別手段と、前記記憶手段に顔データを新規に登録するとき、該顔データに登録時の時刻を付与して登録するとともに、前記判別手段が登録者かどうかを判別するとき、判別に用いる元になった記憶されている顔データに、判別したときの時刻を付与して再登録する時刻登録手段と、顔データに付与された最新時刻に基づいて、それまでの経過時間を算出する経過時間算出手段と、前記経過時間が、予め定められた時間以上になる顔データを抽出し、前記重要度の低い特徴量データを前記記憶手段に記憶されている顔データから削除する特徴量データ削除手段とを備えた顔照合装置であることを特徴とする。
【0012】
ここで特徴量データとは、登録者の目、鼻、口、頬、輪郭、眉毛などの形や位置や大きさに加えて、表情、眼鏡の有無も含めた、人の顔画像から抽出したデータである。また、顔データはその特徴量データの集合体である。
【0013】
前記重要度とは、特徴量データ毎に付与されており、ある登録者の特徴量データが他の登録者の特徴量データと比較してどの程度の重要性があるのかを表すデータである。ある登録者の特徴量データが他の登録者の特徴量データと近い場合は重要度を低く設定し、他の登録者の特徴量データからかけ離れている場合は重要度を高く設定する。これにより、重要度を高く設定した特徴量データは、他の登録者にはあまりない特徴量データであることから、照合判別時に登録者を特定しやすい特徴量データであるということができる。
【0014】
前記特徴量データ削除手段とは、記憶部に記憶されている顔データから重要度の低くなった登録データ、例えば重要度の最も低い特徴量データを1つ削除、あるいは複数を削除するものであり、登録データを制御する制御部で構成することができる。
【0015】
この発明によれば、顔データを新規登録するとき、その顔データに合せて登録時の時刻を付与して登録するため、顔データが登録されてからの経過時間が分る。また、判別手段が登録者かどうかを判別するとき、判別に用いる元になった記憶されている顔データに、判別したときの時刻を付与して再登録するため、顔データが判別に用いられてからの経過時間も分る。この経過時間が一定時間以上になる顔データは、古くなったデータか、照合判別に用いられていないデータであるため、削除しても照合判別精度に影響のないデータである。また、重要度が低い特徴量データは、他の登録者の特徴量データと近いデータであることから照合判別時に登録者を特定するために重要でないデータである。従って、この経過時間が一定時間以上になる顔データを抽出し、重要度が低い特徴量データから順に削除することで、照合判別精度に影響がなく、登録容量に空きデータスペースを確保した状態で登録更新できる。
【0016】
この結果、登録されたデータ容量が増大しないため、顔照合する際にもデータ検索などに時間がかからず、短時間に能率よく照合できるなど適切なデータ管理が図れる。このため、データ容量が小規模システムの場合であっても適用できるほか、コスト高になることもない。
【0017】
経年変化によって微妙に変化する人間の顔データを考慮した場合、新規登録されたときからの経過時間や、判別に用いる元となったときからの経過時間が、ある一定時間以上になる顔データを抽出して、重要度の低い順に削除するのが適当であり、この結果、照合判別に適した登録データが残り、照合判別時に登録者を特定するために重要な登録データのみを有効管理できる。このため、登録データを増やさずに照合判別精度を維持できる。
【0018】
この発明の他の形態として、判別手段が登録者であることを判別できたとき、元になった顔データに判別したときの時刻を付与する時刻登録手段を備えて構成することができる。
【0019】
照合時に登録者であることを照合判別できたとき、判別に用いる元になった登録データは信頼性の高い有効なデータであるといえる。従ってこのデータに、判別したときの時刻を付与して再登録しておく。判別に用いる元になった登録データでも、照合時に登録者であることを照合判別できなかったものについては、判別したときの時刻を付与しない。例えば、ある非登録者が照合判別を行った場合に、非登録者なので登録者とは照合判別できず、その判別に用いる元になったデータに、判別したときの時刻は付与しない。このようにすることで、信頼性の高い有効なデータだけを確実に残し、不要なデータは経過時間が一定時間以上として削除できるようにする。
【0020】
この発明の他の形態として、重要度を、前記特徴量データ毎に付与され、前記登録者同士の特徴量データを比較して前記特徴量データ毎に求めた照合度合い値の平均値に基づいて、ある登録者とそれ以外の登録者との特徴量データを比較して前記特徴量データ毎に求めた照合度合い値の平均値が隔たっている隔たり度合いデータとすることもできる。
【0021】
このように、ある登録者の特徴量データが他の登録者の特徴量データと比較して、どの程度の重要性があるのかを表すデータである重要度を、登録者同士の照合度合い値の平均値に基づいて、ある登録者とそれ以外の登録者との照合度合い値が隔たっている隔たり度合いデータとすることで、算出が容易で、簡単に構成することができる。
【0022】
【発明の実施の形態】
この発明の一実施の形態を以下図面に基づいて説明する。
図面は人の顔を撮影して照合する顔照合装置を示し、図1において、この顔照合装置11は、カメラ12と、結果表示器13とを接続ケーブル14または無線を介して照合管理用の制御機器15に接続しており、例えば入退室利用する登録者の認証手段として設置される。
【0023】
上述のカメラ12は、CCDカメラ等を用いて人の顔を撮影し、このカメラ12の前面に人が近付いた時点で顔の画像を取得するように設定する。例えば、反射型赤外線センサ等の人検知センサ(図面省略)により人が近付いたことを検知したとき撮影を開始する。このほかにも登録者自身が照合開始用の操作ボタンや操作キーを押下操作したとき、登録者の照合要請と判定してカメラ12の撮影を開始するように構成することができる。
【0024】
このようにして取得した顔画像を制御機器15で分析して照合を開始するが、このとき制御機器15は全登録者の顔画像の登録データを予め登録して記憶させており、この登録データと照合時に実際にカメラ12より取得した顔画像データとを比較照合して、判定した顔画像の一致、不一致の照合結果を結果表示器13に表示出力する。
【0025】
上述の制御機器15は、例えばパーソナルコンピュータで構成することができ、この制御機器15はカメラ12を設置した顔画像データ取得位置の近くに設置して照合管理するようにしてもよく、遠隔位置のセンタ装置で管理するようにしてもよい。さらに、1つの制御系に複数のカメラ12を接続して照合管理することもできる。
【0026】
図2は顔照合装置11の制御回路ブロック図を示し、この顔照合装置11を制御する制御機器15は、カメラ12から顔画像データを取得した生画像をI/F(インターフェース)部21を介して取込み、一旦、制御部22の画像メモリ23に蓄積する。
【0027】
蓄積された生画像から目、鼻、口…等の特徴モデルを元にマッチングによって顔の位置を検出した後、顔抽出部24により撮像した顔領域の抽出を行う。
【0028】
この顔領域を抽出した後、特徴量抽出部25が顔画像から切出された特有な点の集合体として得られる特徴量データを抽出する。この特徴量データは平均顔との差を主成分分析等の統計的手法を用いて抽出するか、あるいは目、鼻、口…等の濃淡画像からテンプレートマッチングによって抽出する。
【0029】
この抽出された特徴量データと、照合判定用に予め登録して記憶部30に記憶されている特徴量データとを本人特定部26で比較照合して照合度合い値を求め、この求めた照合度合い値に基づいて登録者か否かを判定し、その判定結果を結果表示器13に表示する。
【0030】
ところで、記憶部30での登録データの管理に際しては、登録データの経過時間から登録データの有効性を考慮して、特徴量データを重要度の低い順に削除する特徴量データ削除部27を備えている。
【0031】
この特徴量データ削除部27は、先ず、経過時間算出部28で顔データに付与された最新時刻に基づいて、それまでの経過時間を算出し、その算出した経過時間が、予め定められた経過時間以上になる照合価値の低い顔データを抽出し、その中から重要度の最も低い特徴量データを、記憶部30に記憶されている顔データから削除するものである。
【0032】
記憶部30への顔データの新規登録時には、その顔データにタイマTで計時した登録時点の時刻を付与して登録する。また、登録者であるかどうかの判別時、本人特定部26が判別に用いる元になった記憶されている顔データに、その判別したときの時刻を付与して再登録する。
【0033】
また、この記憶部30への新規登録に際しては、顔データを登録者の全ての人に対応付けて、その特徴量に後述する重要度(図5参照)を付与して記憶する。
【0034】
このほか、入力部29では登録開始時に操作されるIDコードの入力操作やIDカードの入力操作を許容して、制御部22に登録者を認証するためのデータが入力される。
【0035】
上述の重要度を求める方法を図3〜図5により説明する。図3は、記憶部30に記憶されている登録済のAさん、Bさん、Cさん…、の顔データに、Xさんの顔データを新規登録する場合の図である。この場合、新規登録するXさんの顔データの特徴量データ毎に重要度を付与して記憶部30に記憶する。先ず、カメラ12で撮像されたXさんの顔画像から、目、鼻、口、…○○○、△△△などの形や位置や大きさに基づいて、特徴量抽出部25にて特徴量データを抽出する。抽出方法については、前述したように平均顔との差と主成分分析などの統計的手法を用いて抽出するか、あるいは目、鼻、口などの濃淡画像からテンプレートマッチングにより抽出するかにより行われる。
【0036】
重要度は、特徴量データ毎に設定される。ここでは、新規登録する『Xさん』の顔データから、目に関する特徴量データに設定される重要度を例にとって説明する。Xさんの目に関する特徴量データと記憶部30に記憶されたXさん以外の登録者の目に関する特徴量データとを比較して、本人特定部26でXさん以外の各登録者個別に照合度合い値を算出する。
【0037】
例えば、Xさんの目に関する特徴量データとAさんの目に関する特徴量データとの比較による照合度合い値、Xさんの目に関する特徴量データとBさんの目に関する特徴量データとの比較による照合度合い値、など、これを登録者全員の目に関する特徴量データと比較して個別に照合度合い値を算出する。ここでは、登録者全員と比較することとしたが、ある定めた人数の登録者との比較としてもよい。次に、Xさん以外の各登録者個別に算出した照合度合い値についての平均値を求め、これをXさんの目に関する特徴量データとXさん以外の登録者の目に関する特徴量データとの平均照合度合い値とする。
【0038】
図4は、記憶部30に記憶された登録者の目に関する特徴量データについて、本人特定部26で登録者同士を比較して算出した全ての照合度合い値を、縦軸を頻度、横軸を目の照合度合い値でグラフ化したものである。ここでは、登録者同士の全員の目に関する特徴量データを比較することとしたが、ある定めた人数の登録者について、比較するようにしてもよい。
【0039】
このグラフにおいて、先ほどのXさんの目に関する特徴量データと、Xさん以外の登録者の目に関する特徴量データとの平均照合度合い値は、登録者同士の全員の目に関する特徴量データから算出した平均照合度合い値から右側に離れた位置にあることが分る。つまり、『Xさん』の目は他の登録者の目の特徴量データからかけ離れており、照合判別時に『Xさん』を特定しやすい特徴量データであるということができる。逆に、このグラフにおいて、先ほどのXさんの目に関する特徴量データとXさん以外の登録者の目に関する特徴量データとの平均照合度合い値が、登録者同士の全員の目に関する特徴量データから算出した平均照合度合い値に近ければ、『Xさん』の目の特徴量データは、照合判別時に『Xさん』を特定するためにあまり重要でない特徴量データであるということができる。
【0040】
図5(A)は特徴量データ毎の重要度を算出した結果を示す。上記で求めたXさんの目に関する特徴量データとXさん以外の登録者の目に関する特徴量データとの平均照合度合い値(X(平均))と、登録者同士の全員の目に関する特徴量データから算出した平均照合度合い値(全員(平均))との隔たり度合いを重要度として算出する。具体的には、登録者同士の全員の目に関する特徴量データを比較して算出した個別の照合度合い値の全てと、登録者同士の全員の目に関する特徴量データから算出した平均照合度合い値(全員(平均))とから算出した標準偏差σで、偏差(=(全員(平均)−X(平均)))を除して求めた値の絶対値として算出する。このようにしてXさんの目に関する特徴量データの重要度を算出し、同じ要領で、その他の特徴量データについても、特徴量データ毎に重要度を算出する。算出した重要度は、特徴量データ毎に付与し、重要度の大きさ順に並べ替えて記憶部30に記憶する。
【0041】
特徴量データ毎に付与した重要度を大きさ順に並べ替えて記憶管理した『Xさん』の重要度順特徴量データを図5(B)に示す。この結果、『Xさん』の重要度が高い鼻3.5や○○○3.1は高重要度であり、口1.2や△△△0.8は低重要度であることが認められる。
【0042】
このように構成された顔照合装置11の登録処理動作を図6のフローチャートを参照して説明する。
【0043】
今、顔照合装置11の前に人が来て、IDコードの入力やIDカードの入力操作等によって登録者のID情報を入力すると(ステップn1)、
その登録する人の顔画像をカメラ12により撮影する(ステップn2)。
【0044】
その撮影した顔画像データを画像キャプチャにより取得し、これを画像メモリ23に記憶する。この顔画像データから顔領域の検索を行って顔領域を検出した後、目、鼻、口…などの特徴から顔の位置を検出して位置決めすると(ステップn3)、
この顔画像から顔の特徴量データ(図3参照)を抽出する(ステップn4)。
【0045】
この抽出された顔の特徴量データと、予め記憶部30に記憶された顔の特徴量データとを本人特定部26で比較して個別に照合度合い値を算出し、特徴量データ毎に照合度合い値の平均値を求める。例えば、目についての特徴量データについて、登録者全員の目に関する特徴量データと比較して個別に照合度合い値を算出する。次に、各登録者と個別に算出した照合度合い値とから平均照合度合い値を求める。これを目以外の全ての特徴量データ毎に行なう(ステップn5)。
【0046】
この求めた特徴量データ毎の平均照合度合い値と、登録者同士の全員の特徴量データから算出した特徴量データ毎の平均照合度合い値との隔たり度合いを、特徴量データ毎の重要度として算出する。重要度の算出は、前述のように、標準偏差σで偏差を除して求めた値の絶対値として、特徴量データ毎に算出する。算出した重要度は、特徴量データ毎に付与し、重要度の大きさ順に並べ替える(ステップn6)。
【0047】
特徴量データ毎に重要度が付与され、重要度の大きさ順に並べ替えられた顔データに登録時の時刻を付与し(ステップn7)、IDデータとともに、記憶部30に記憶することにより、一登録処理が終了する(ステップn8)。
【0048】
次に、顔照合装置11の照合処理動作を図7のフローチャートを参照して説明する。
【0049】
今、カメラ12の前に人が来ると、その人の顔をカメラ12が撮影し、その撮影した顔画像データを画像キャプチャにより取得し、これを画像メモリ23に記憶する(ステップn11)。
【0050】
この顔画像データから顔領域の検索を行って顔領域を検出した後、目、鼻、口…などの特徴から顔の位置を検出して位置決めする(ステップn12)。
【0051】
続いて、顔画像データから顔の特徴量データを抽出する(ステップn13)。
【0052】
この抽出された顔の特徴量データと、予め記憶部30に記憶された特徴量データとを本人特定部26で比較照合して照合度合い値を求める(ステップn14)。
【0053】
この求めた照合度合い値に基づいて、最も高い照合度合い値が閾値以上であることを確認すれば(ステップn15)、カメラ12の前に来た人は、登録者であると判別する(ステップn16)。
【0054】
このとき、登録者かどうかを判別する元になった、この照合度合い値の最も高い顔データに、判別したときの時刻を付与して記憶部30に再登録する(ステップn17)。
【0055】
そして、結果表示器13に登録者である旨を表示出力して、一照合処理が終了する(ステップn18)。
【0056】
一方、上述のステップn15において、最も高い照合度合い値が閾値以下であれば、登録者と特定できないため、照合不可と判定して、その旨を結果表示器13に表示出力する(ステップn19)。
【0057】
以上のようにして記憶部に記憶した、特徴量データ毎に重要度を付与した顔データから、顔データに付与された新規登録時の登録時刻や判別したときの時刻を求める。この求めた顔データに付与された新規登録時の登録時刻や判別したときの時刻を用いて、次にデータを削除する方法について説明する。
【0058】
例えば、図8に示すように、記憶部30に登録されている特定者の登録データについて、高重要度から低重要度順に並べた特徴1〜特徴NまでのN個の特徴データからなる顔画像の特徴量が存在する場合、そのうちの登録開始時点あるいは前回の照合時点から、ある一定の経過時間を経過したデータおよび低重要度のデータを削除対象に設定する。
【0059】
例えば、最も低重要度の特徴N個目の登録データは6ヶ月経過していれば削除対象データとし、その次の2番目に低重要度の特徴N-1番目の登録データは1年経過していれば削除対象データとし、同様に3番目に低重要度の特徴N-2番目の登録データは1年6ヶ月経過していれば削除対象データとし、さらに4番目に低重要度の特徴N-3番目の登録データは2年経過していれば削除対象データとするというように経過時間と重要度との2つの削除要素を複合的に捉えて、きめ細かく設定管理している。
【0060】
次に、顔照合装置11の登録データの削除処理動作を図9のフローチャートを参照して説明する。
【0061】
記憶部30に記憶された顔データの特徴量データの削除に際しては、先ず、経過時間算出部28が顔データに付与されている時刻から、経過時間を算出する(ステップn21)。
【0062】
このとき、例えば登録データの経過時間が6ヶ月未満であれば、新しい顔データであるため、削除対象にはならない(ステップn22)。
【0063】
同様に経過時間をチェックして全てのデータチェックを終えると、削除処理は終了する(ステップn23)。
【0064】
登録データの経過時間をチェックしたときに、6ヶ月以上〜1年未満の経過時間を有する顔データがあれば(ステップn24)、
その顔データのうちの重要度の最も低いN番目の特徴データが削除対象となり、特徴N(図8参照)の削除を行う(ステップn25)。
【0065】
このときの削除対象にならなかった同一人物の他の特徴データは有効であるため、この有効な特徴データを含む顔データに現在の時刻データを付与して記憶部30に再登録する(ステップn26)。
【0066】
また、経過時間をチェックしたときに、1年以上〜1年6ヵ月未満の経過時間を有する顔データがあれば(ステップn27)、
その顔データのうちの重要度の最も低いN番目と、その次に低いN-1番目の特徴データが削除対象となり、特徴N番目と、特徴N-1番目の削除を行う(ステップn28)。
【0067】
さらに、経過時間をチェックしたときに、1年6ヵ月以上〜2年未満の経過時間を有する顔データがあれば(ステップn29)、
その顔データのうちの重要度の最も低いN番目と、N-1番目と、N-2番目の特徴データが削除対象となり、特徴N番目と、特徴N-1番目と、特徴N-2番目との削除を行う(ステップn30)。
【0068】
最後に、経過時間をチェックしたときに、2年以上の経過時間を超えたデータについては、その顔データのうちの重要度の最も低いN番目と、N-1番目と、N-2番目と、N-3番目との特徴データが削除対象となり、特徴N番目と、特徴N-1番目と、特徴N-2番目と、特徴N-3番目との削除を行う(ステップn31)。
【0069】
これらの1つあるいは複数を削除処理した場合も、削除対象にならなかった同一人物の他の特徴データは有効であるため、この有効データに現在の時刻データを付与して記憶部30に再登録する。
【0070】
この発明の構成と、上述の一実施の形態の構成との対応において、
この発明の記憶手段は、実施の形態の記憶部30に対応し、
以下同様に、
判別手段は、本人特定部26に対応し、
時刻登録手段は、タイマTに対応し、
経過時間算出手段は、経過時間算出部28に対応し、
特徴量データ削除手段は、特徴量データ削除部27に対応するも、この発明は、請求項に示される技術思想に基づいて応用することができ、上述の一実施の形態の構成のみに限定されるものではない。
【0071】
【発明の効果】
この発明によれば、登録データの経過時間と重要度の大きさ順に並べて記憶管理する重要度順特徴量データとから削除対象データが明確に分るため、該当する特徴量データを的確に削除でき、最新のデータのうちの重要度の高いものが登録データとして残り、高照合管理用に更新できる。また、古くなった重要度の低いものから順に削除できるほか、データ容量の膨大化を解消できるため顔照合する際にもデータ検索などに時間がかからず、短時間に能率よく照合できる。このため、データ容量が小規模のシステムの場合であっても適用できるほか、データ容量が小規模ゆえにコスト高になることもない。
【図面の簡単な説明】
【図1】 顔照合装置を示す概略構成図。
【図2】 顔照合装置の制御回路ブロック図。
【図3】 顔の特徴量データを示す説明図。
【図4】 目の照合度合い値の分布状態を示す図表。
【図5】 特徴量データ毎の重要度の算出結果を重要度の大きさ順に並べて示す説明図。
【図6】 顔照合装置の登録処理動作を示すフローチャート。
【図7】 顔照合装置の照合処理動作を示すフローチャート。
【図8】 特徴データの構成と削除ポイントを示す説明図。
【図9】 顔照合装置の削除処理動作を示すフローチャート。
【符号の説明】
11…顔照合装置
15…制御機器
22…制御部
26…本人特定部
27…特徴量データ削除部
28…経過時間算出部
30…記憶部
T…タイマ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a face collation apparatus that collates and discriminates a registrant using face data such as eyes, nose, mouth, contour, facial expression, glasses, etc., and more specifically, while maintaining collation discrimination accuracy, The present invention relates to a face collation apparatus that manages by adding and deleting registration data as a database.
[0002]
[Prior art]
In recent years, this type of face collation apparatus has registered registrant-specific face data for collation discrimination when managing the registration of face data. However, in order to improve recognition accuracy even if the registrant is added, When a plurality of face data is registered, the data is increased.
[0003]
For this reason, when registering face data, instead of registering face images as they are, it is possible to reduce the amount of registered data by extracting and registering only characteristic data. Is also deleted, and the collation result is adversely affected. As a result, the performance of the face collation apparatus is deteriorated.
[0004]
For example, in the case of a person recognition apparatus provided with a means for updating registered data shown in Patent Document 1, a determination is made as to whether updating is possible at the same time as authentication, and if it is determined that updating is possible, based on input face data and current registration data By generating new update registration data and performing update registration, the accuracy of the recognition rate is kept high while suppressing an increase in the amount of registration data.
[0005]
However, even in this case, when the collation degree value of the input face data is low, it is described that update registration is performed by adding the face data input as it is to the current registration data. As a result, the registration data The amount was increasing. This limits the number of registrants that can be newly registered. In particular, when the registration data increases, it cannot be applied to a system having a small storage capacity, and the amount of registration data needs to be reduced. In addition, an increase in storage capacity can be considered, but in this case, the cost increases.
[0006]
Further, as shown in Patent Document 2, in a dictionary (registered data) provided for collation recognition, a partial dictionary (feature data) that includes a large amount of mutual information remains, and a partial dictionary that includes a small amount of mutual information A partial dictionary deletion method of deleting is known. This is a method of leaving the partial dictionaries as the number of similar partial dictionaries decreases in relation to the partial dictionaries in the dictionary, and deleting the partial dictionaries as the number of similar partial dictionaries increases.
[0007]
However, in this case, since the configuration is such that, among the partial dictionaries of registered data, the number of similar partial dictionaries is uniformly deleted, the amount of data decreases, but when applied to a face matching device, Since the human face has changed due to the change, it is deleted from the face data close to the present which is usually similar, and the past face data which is not similar is left. For this reason, the recognition performance is inevitably lowered.
[0008]
[Patent Document 1]
JP-A-11-175718
[Patent Document 2]
JP 2000-90271 A.
[0009]
[Problems to be solved by the invention]
As described above, the above two patent documents can maintain the collation discrimination accuracy, but the data amount increases or the collation discrimination accuracy decreases although the data amount decreases, but the data amount decreases and the collation discrimination accuracy. Was not satisfied with both maintenance. Moreover, even if the above-mentioned two patent documents and other similar publications including these are combined, the means for reducing the data amount while maintaining the collation discrimination accuracy is not suggested, so that the problem is solved. I can't.
[0010]
Therefore, in the present invention, when managing registration data, considering that the registration data is human face data that changes slightly due to secular change, the time when the registration data has been registered and the source used for discrimination It is an object of the present invention to provide a face collation apparatus that can delete registered data based on the elapsed time since.
[0011]
[Means for Solving the Problems]
The present invention relates to a storage means for storing face data composed of a plurality of feature amount data and registration time in association with all registrants, giving importance to the feature amount data, and for collation. Determining means for comparing the inputted face data with the face data stored in the storage means to obtain a collation degree value, and discriminating whether the person is a registrant based on the obtained collation degree value; and the storage means When the face data is newly registered, the face data is registered with the time at the time of registration, and when determining whether or not the determination means is a registrant, it is stored as a basis for determination. Time registration means for re-registering the face data with the time when it was determined, elapsed time calculation means for calculating the elapsed time up to that based on the latest time assigned to the face data, and the elapsed time But predetermined A face collation apparatus comprising: feature data deletion means for extracting face data that is longer than a predetermined time and deleting the feature data with low importance from the face data stored in the storage means. And
[0012]
Here, the feature data is extracted from the face image of the person including the facial expression and the presence or absence of eyeglasses in addition to the shape, position and size of the registrant's eyes, nose, mouth, cheek, contour, eyebrows, etc. It is data. The face data is a collection of the feature amount data.
[0013]
The importance is assigned to each feature quantity data, and is data representing how important the feature quantity data of a certain registrant is compared to the feature quantity data of other registrants. When the feature amount data of a registrant is close to the feature amount data of another registrant, the importance level is set low, and when the feature amount data is far from the feature value data of other registrants, the importance level is set high. As a result, the feature amount data set with a high degree of importance is feature amount data that is not so much for other registrants. Therefore, it can be said that the feature amount data can easily identify the registrant at the time of collation determination.
[0014]
The feature data deletion means is for deleting registered data having a lower importance from face data stored in the storage unit, for example, deleting one or more feature data having the lowest importance. The control unit can control the registration data.
[0015]
According to the present invention, when newly registering face data, the registration time is given in accordance with the face data, so that the time elapsed since the face data was registered can be obtained. Also, when determining whether or not the determination means is a registrant, the face data is used for determination because the stored face data used for determination is re-registered with the time when the determination was made. You can also see how much time has passed since then. The face data whose elapsed time is equal to or longer than a certain time is data that is out of date or data that is not used for collation discrimination, and is data that does not affect the collation discrimination accuracy even if it is deleted. The feature amount data with low importance is data that is not important for specifying a registrant at the time of collation determination because it is close to the feature amount data of other registrants. Therefore, by extracting face data whose elapsed time is more than a certain time and deleting in order from feature data with lower importance, there is no effect on collation discrimination accuracy, and a free data space is secured in the registered capacity. You can renew your registration.
[0016]
As a result, since the registered data capacity does not increase, it is possible to perform appropriate data management such that data search does not take time even when face matching is performed, and matching can be efficiently performed in a short time. Therefore, the present invention can be applied even when the data capacity is a small-scale system, and the cost is not increased.
[0017]
When human face data that changes slightly due to secular changes is taken into account, face data whose elapsed time from when it was newly registered or elapsed time from when it was used for discrimination is more than a certain time It is appropriate to extract and delete in ascending order of importance. As a result, registration data suitable for collation determination remains, and only important registration data can be effectively managed to identify a registrant at the time of collation determination. For this reason, the collation discrimination accuracy can be maintained without increasing the registration data.
[0018]
As another embodiment of the present invention, it is possible to provide a time registering unit that gives the time when the determination is made to the original face data when it can be determined that the determination unit is a registrant.
[0019]
When it is possible to collate and determine that the person is a registrant at the time of collation, it can be said that the registered data used for the discrimination is valid data with high reliability. Therefore, this data is re-registered with the time when it was determined. Even in the registration data used as the basis for discrimination, the time when the discrimination was not performed is not given to the registration data that cannot be verified as a registrant at the time of verification. For example, when a certain non-registrant performs a collation determination, since it is a non-registered person, it cannot be collated with a registrant, and the time when the determination is made is not given to the data used for the determination. In this way, it is ensured that only valid data with high reliability remains, and unnecessary data can be deleted with an elapsed time of a certain time or more.
[0020]
As another embodiment of the present invention, the importance is assigned to each feature quantity data, and based on an average value of collation degree values obtained for each feature quantity data by comparing the feature quantity data between the registrants. Further, it is also possible to obtain the distance degree data in which the average values of the matching degree values obtained for each feature amount data are separated by comparing the feature amount data of a certain registrant and other registrants.
[0021]
In this way, the importance level, which is data indicating how important the feature value data of a registrant is compared with the feature value data of other registrants, is expressed as the collation degree value between registrants. Based on the average value, it is easy to calculate and can be easily configured by using the separation degree data in which the matching degree value between a certain registrant and other registrants is separated.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below with reference to the drawings.
The drawing shows a face collation device that captures and collates a human face. In FIG. 1, the face collation device 11 connects a camera 12 and a result display 13 via a connection cable 14 or wirelessly for collation management. It is connected to the control device 15 and is installed, for example, as a means for authenticating a registrant who uses the entrance / exit.
[0023]
The camera 12 described above is set so that a human face is photographed using a CCD camera or the like, and a face image is acquired when the person approaches the front surface of the camera 12. For example, photographing is started when it is detected that a person is approaching by a human detection sensor (not shown) such as a reflective infrared sensor. In addition to this, when the registrant himself presses down the operation button or operation key for starting collation, it is possible to determine that the registrant has requested collation and start photographing by the camera 12.
[0024]
The face image acquired in this way is analyzed by the control device 15 and collation is started. At this time, the control device 15 pre-registers and stores registration data of face images of all registrants. Are compared with the face image data actually obtained from the camera 12 at the time of collation, and the collation result of the determined face image match / mismatch is displayed and output on the result display 13.
[0025]
The above-described control device 15 can be configured by, for example, a personal computer, and this control device 15 may be installed near the face image data acquisition position where the camera 12 is installed and managed for collation. You may make it manage with a center apparatus. Furthermore, a plurality of cameras 12 can be connected to one control system for collation management.
[0026]
FIG. 2 shows a control circuit block diagram of the face collation apparatus 11. The control device 15 that controls the face collation apparatus 11 transmits a raw image obtained from the face image data from the camera 12 via an I / F (interface) unit 21. Are temporarily stored in the image memory 23 of the control unit 22.
[0027]
After the face position is detected by matching based on a feature model such as eyes, nose, mouth, etc. from the accumulated raw image, the face area captured by the face extraction unit 24 is extracted.
[0028]
After extracting the face area, the feature amount extraction unit 25 extracts feature amount data obtained as a collection of unique points cut out from the face image. The feature amount data is extracted by using a statistical method such as principal component analysis to extract a difference from the average face, or extracted from a grayscale image of eyes, nose, mouth, etc. by template matching.
[0029]
The extracted feature amount data and the feature amount data registered in advance for collation determination and stored in the storage unit 30 are compared and collated by the person specifying unit 26 to obtain a collation degree value. It is determined whether or not the user is a registered person based on the value, and the determination result is displayed on the result display 13.
[0030]
By the way, when managing the registration data in the storage unit 30, the feature data deletion unit 27 is provided that deletes the feature data in ascending order of importance in consideration of the validity of the registration data from the elapsed time of the registration data. Yes.
[0031]
The feature amount data deletion unit 27 first calculates the elapsed time so far based on the latest time given to the face data by the elapsed time calculation unit 28, and the calculated elapsed time is a predetermined elapsed time. Face data with a low collation value that is longer than the time is extracted, and feature quantity data having the lowest importance is deleted from the face data stored in the storage unit 30.
[0032]
At the time of new registration of face data in the storage unit 30, the face data is registered with the time of registration timed by the timer T. Further, when determining whether or not the user is a registrant, the person identifying unit 26 re-registers the stored face data used for the determination with the time when the determination is made.
[0033]
In addition, at the time of new registration in the storage unit 30, the face data is associated with all the registrants, and importance (to be described later) (see FIG. 5) is assigned to the feature amount and stored.
[0034]
In addition, the input unit 29 allows an ID code input operation or an ID card input operation operated at the start of registration, and data for authenticating the registrant is input to the control unit 22.
[0035]
A method for obtaining the above-described importance will be described with reference to FIGS. FIG. 3 is a diagram when the face data of Mr. X is newly registered in the registered face data of Mr. A, Mr. B, Mr. C, etc. stored in the storage unit 30. In this case, the importance is assigned to each feature amount data of the face data of Mr. X to be newly registered and stored in the storage unit 30. First, based on the face image of Mr. X taken by the camera 12, the feature amount extraction unit 25 uses the feature amount extraction unit 25 based on the shape, position, and size of eyes, nose, mouth,. Extract data. As described above, the extraction is performed by using a statistical method such as a difference from the average face and principal component analysis as described above, or by template matching from gray images such as eyes, nose, and mouth. .
[0036]
The importance is set for each feature amount data. Here, the importance set in the feature amount data regarding eyes from the newly registered face data of “Mr. X” will be described as an example. The feature amount data relating to Mr. X's eyes and the feature amount data relating to the eyes of registrants other than Mr. X stored in the storage unit 30 are compared. Calculate the value.
[0037]
For example, a matching degree value obtained by comparing feature amount data relating to Mr. X's eye and feature amount data relating to Mr. A's eye, and a matching degree obtained by comparing feature amount data relating to Mr. X's eye and feature amount data relating to Mr. B's eye A comparison degree value is calculated individually by comparing this with feature amount data relating to the eyes of all registrants. Here, the comparison is made with all the registrants, but the comparison may be made with a certain number of registrants. Next, an average value for the matching degree value calculated for each registrant other than Mr. X is obtained, and this is the average of the feature amount data relating to Mr. X's eyes and the feature amount data relating to the eyes of registrants other than Mr. X. The collation degree value is used.
[0038]
FIG. 4 shows all the matching degree values calculated by comparing the registrants by the principal identification unit 26 with respect to the feature amount data relating to the eyes of the registrant stored in the storage unit 30. This is a graph of eye matching degree values. Here, the feature amount data relating to the eyes of all the registrants is compared. However, a certain number of registrants may be compared.
[0039]
In this graph, the average matching degree value between the feature data relating to the eyes of Mr. X and the feature data relating to the eyes of registrants other than Mr. X was calculated from the feature data relating to the eyes of all registrants. It turns out that it exists in the position away from the average collation degree value to the right side. In other words, the eyes of “Mr. X” are far from the feature amount data of the eyes of other registrants, and can be said to be feature amount data that can easily identify “Mr. X” at the time of collation determination. On the contrary, in this graph, the average matching degree value of the feature amount data regarding the eyes of Mr. X and the feature amount data regarding the eyes of the registrants other than Mr. X is obtained from the feature amount data regarding the eyes of all the registrants. If it is close to the calculated average collation degree value, it can be said that the feature amount data of “Mr. X” 's eyes is feature amount data that is not so important for identifying “Mr. X” at the time of collation determination.
[0040]
FIG. 5A shows the result of calculating the importance for each feature amount data. Average matching degree value (X) between the feature amount data relating to Mr. X's eye obtained above and the feature amount data relating to the eyes of registrants other than Mr. X Eye (Average)) and the average matching degree value (all members) calculated from the feature data related to the eyes of all registrants Eye (Average)) is calculated as the degree of importance. Specifically, all of the individual matching degree values calculated by comparing the feature amount data regarding all eyes of registrants and the average matching degree value calculated from the feature amount data regarding all eyes of registrants ( Everyone Eye (Average)) and the standard deviation σ calculated from Eye (Average) -X Eye (Average))) is calculated as the absolute value of the value obtained by dividing. In this way, the importance level of the feature amount data related to Mr. X's eye is calculated, and the importance level is calculated for each feature amount data for the other feature amount data in the same manner. The calculated importance is assigned to each feature amount data, sorted in order of importance, and stored in the storage unit 30.
[0041]
FIG. 5B shows the feature quantity data in order of importance of “Mr. X” that stores and manages the importance assigned to each feature quantity in order of size. As a result, “Nose 3.5” and “XXX” with high importance of “Mr. X” are highly important, and mouth 1.2 and “△△△ 0.8” are low importance. It is done.
[0042]
The registration processing operation of the face collating apparatus 11 configured as described above will be described with reference to the flowchart of FIG.
[0043]
Now, when a person comes in front of the face collation device 11 and inputs the ID information of the registrant by inputting an ID code or an ID card (step n1),
The face image of the person to be registered is taken by the camera 12 (step n2).
[0044]
The photographed face image data is acquired by image capture, and stored in the image memory 23. After detecting the face area from the face image data by detecting the face area, if the position of the face is detected from the features such as eyes, nose, mouth, etc. and positioned (step n3),
Face feature data (see FIG. 3) is extracted from the face image (step n4).
[0045]
The extracted facial feature value data and the facial feature value data stored in advance in the storage unit 30 are compared by the person identifying unit 26 to individually calculate a matching degree value. Find the average value. For example, for the feature amount data for the eyes, the matching degree value is calculated individually by comparing with the feature amount data for the eyes of all registrants. Next, an average matching degree value is obtained from each registrant and the individually calculated matching degree value. This is performed for every feature data other than the eyes (step n5).
[0046]
The degree of separation between the obtained average matching degree value for each feature amount data and the average matching degree value for each feature amount data calculated from the feature amount data of all registrants is calculated as the importance degree for each feature amount data. To do. As described above, the importance is calculated for each feature amount data as an absolute value of a value obtained by dividing the deviation by the standard deviation σ. The calculated importance is assigned to each feature amount data and rearranged in order of importance (step n6).
[0047]
Importance is given to each feature quantity data, and the registration time is given to the face data rearranged in the order of importance (step n7), and is stored in the storage unit 30 together with the ID data. The registration process ends (step n8).
[0048]
Next, the collation processing operation of the face collation apparatus 11 will be described with reference to the flowchart of FIG.
[0049]
Now, when a person comes in front of the camera 12, the camera 12 captures the face of the person, acquires the captured face image data by image capture, and stores it in the image memory 23 (step n11).
[0050]
After searching the face area from the face image data and detecting the face area, the position of the face is detected from the features such as eyes, nose, mouth, etc. and positioned (step n12).
[0051]
Subsequently, face feature data is extracted from the face image data (step n13).
[0052]
The extracted feature value data of the face and the feature value data stored in advance in the storage unit 30 are compared and checked by the person identification unit 26 to obtain a matching degree value (step n14).
[0053]
If it is confirmed that the highest collation degree value is equal to or greater than the threshold based on the obtained collation degree value (step n15), the person who comes in front of the camera 12 is determined to be a registrant (step n16). ).
[0054]
At this time, the face data having the highest collation degree value, which is a source for discriminating whether or not the user is a registrant, is given the time when it was discriminated and re-registered in the storage unit 30 (step n17).
[0055]
Then, the result display 13 displays and outputs the fact that the user is a registrant, and the one verification process ends (step n18).
[0056]
On the other hand, in step n15 described above, if the highest collation degree value is equal to or less than the threshold value, it is not possible to identify the registrant.
[0057]
As described above, the registration time at the time of new registration assigned to the face data and the time at the time of determination are obtained from the face data assigned with the importance for each feature amount data stored in the storage unit. Next, a method for deleting data using the registration time at the time of new registration and the time when it has been determined given to the obtained face data will be described.
[0058]
For example, as shown in FIG. 8, a facial image composed of N feature data from feature 1 to feature N arranged in the order of high importance to low importance for registered data of a specific person registered in the storage unit 30. If the feature amount exists, data that has passed a certain elapsed time and data with low importance from the registration start time or the previous collation time are set as deletion targets.
[0059]
For example, if the Nth registered data with the lowest importance feature has passed 6 months, it will be deleted data, and the second least significant feature N-1 registration data will have passed one year. If it is, the third lowest importance feature N-2 is registered as the deletion target data if one year and six months have passed, and the fourth lowest importance feature N -The third registered data is carefully set and managed by comprehending the two deletion factors of elapsed time and importance so that it will be deleted if two years have passed.
[0060]
Next, the registration data deletion processing operation of the face matching device 11 will be described with reference to the flowchart of FIG.
[0061]
When deleting the feature amount data of the face data stored in the storage unit 30, first, the elapsed time calculation unit 28 calculates the elapsed time from the time given to the face data (step n21).
[0062]
At this time, if the elapsed time of the registered data is less than 6 months, for example, it is new face data and is not a deletion target (step n22).
[0063]
Similarly, when the elapsed time is checked and all data checks are completed, the deletion process ends (step n23).
[0064]
If there is face data having an elapsed time of 6 months or more to less than 1 year when the elapsed time of the registered data is checked (step n24),
Among the face data, the Nth feature data with the lowest importance is to be deleted, and the feature N (see FIG. 8) is deleted (step n25).
[0065]
Since the other feature data of the same person who was not the deletion target at this time is valid, the current time data is added to the face data including the valid feature data and re-registered in the storage unit 30 (step n26). ).
[0066]
Further, when the elapsed time is checked, if there is face data having an elapsed time of one year or more to less than one year and six months (step n27),
Among the face data, the Nth least important feature data and the N−1th feature data having the next lowest level are to be deleted, and the Nth feature and the N−1th feature are deleted (step n28).
[0067]
Furthermore, when the elapsed time is checked, if there is face data having an elapsed time of more than 1 year and 6 months to less than 2 years (step n29),
Among the face data, the Nth, N-1st, and N-2th feature data with the lowest importance are to be deleted, and the feature Nth, feature N-1th, and feature N-2nd Are deleted (step n30).
[0068]
Finally, when the elapsed time is checked, the data that exceeds the elapsed time of two years or more, the Nth, N-1st, and N-2th are the least important of the face data. , The N-3th feature data is a deletion target, and the feature Nth, the feature N-1th, the feature N-2th, and the feature N-3th are deleted (step n31).
[0069]
Even when one or more of these are deleted, other feature data of the same person who was not the deletion target is still valid, so the current time data is added to this valid data and re-registered in the storage unit 30. To do.
[0070]
In correspondence between the configuration of the present invention and the configuration of the above-described embodiment,
The storage means of the present invention corresponds to the storage unit 30 of the embodiment,
Similarly,
The discrimination means corresponds to the person identification unit 26,
The time registration means corresponds to the timer T,
The elapsed time calculation means corresponds to the elapsed time calculation unit 28,
The feature amount data deleting unit corresponds to the feature amount data deleting unit 27, but the present invention can be applied based on the technical idea shown in the claims and is limited to the configuration of the above-described embodiment. It is not something.
[0071]
【The invention's effect】
According to the present invention, since the deletion target data is clearly identified from the importance order feature quantity data stored and managed in order of the elapsed time and importance level of the registered data, the corresponding feature quantity data can be accurately deleted. Of the latest data, the most important data remains as registered data and can be updated for high collation management. In addition, it can be deleted in order of decreasing importance, and since it can eliminate the increase in data capacity, it does not take time to search for a face even when matching faces, and can be efficiently verified in a short time. Therefore, the present invention can be applied to a system having a small data capacity, and the cost is not increased because the data capacity is small.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram showing a face matching device.
FIG. 2 is a control circuit block diagram of the face matching device.
FIG. 3 is an explanatory diagram showing facial feature data.
FIG. 4 is a chart showing a distribution state of eye matching degree values.
FIG. 5 is an explanatory diagram showing calculation results of importance for each feature amount data arranged in order of importance.
FIG. 6 is a flowchart showing a registration processing operation of the face matching device.
FIG. 7 is a flowchart showing a matching process operation of the face matching device.
FIG. 8 is an explanatory diagram showing a configuration of feature data and deletion points.
FIG. 9 is a flowchart showing a deletion processing operation of the face matching device.
[Explanation of symbols]
11. Face matching device
15 ... Control equipment
22 ... Control unit
26 ... Personal identification part
27. Feature data deletion unit
28: Elapsed time calculation unit
30 ... Storage unit
T ... Timer

Claims (3)

複数の特徴量データからなる顔データと、登録時刻とを登録者の全ての人に対応付けて、前記特徴量データに重要度を付与して記憶する記憶手段と、
照合用に入力された顔データと前記記憶手段に記憶されている顔データとを比較して照合度合い値を求め、この求めた照合度合い値に基づいて登録者かどうかを判別する判別手段と、
前記記憶手段に顔データを新規に登録するとき、該顔データに登録時の時刻を付与して登録するとともに、前記判別手段が登録者かどうかを判別するとき、判別に用いる元になった記憶されている顔データに、判別したときの時刻を付与して再登録する時刻登録手段と、
顔データに付与された最新時刻に基づいて、それまでの経過時間を算出する経過時間算出手段と、
前記経過時間が、予め定められた時間以上になる顔データを抽出し、前記重要度の低い特徴量データを前記記憶手段に記憶されている顔データから削除する特徴量データ削除手段と、
を備えた顔照合装置。
Storage means for associating face data composed of a plurality of feature amount data and registration time with all of the registrants, adding importance to the feature amount data, and storing the feature amount data;
Discrimination means for comparing the face data input for collation with the face data stored in the storage means to obtain a collation degree value, and discriminating whether the person is a registrant based on the obtained collation degree value;
When newly registering face data in the storage means, the face data is registered by giving a time at the time of registration, and when determining whether the determination means is a registrant, the memory used as a source for determination Time registration means for re-registering the face data that has been identified with the time when it was determined;
Based on the latest time given to the face data, elapsed time calculating means for calculating the elapsed time so far,
Feature value data deleting means for extracting face data whose elapsed time is equal to or longer than a predetermined time, and deleting the feature value data with low importance from the face data stored in the storage means;
A face matching device.
前記時刻登録手段は、前記判別手段が登録者であることを判別できたとき、前記元になった顔データに判別したときの時刻を付与する請求項1記載の顔照合装置。The face collating apparatus according to claim 1, wherein the time registering unit gives a time when the original face data is determined when it is determined that the determining unit is a registrant. 前記重要度は、前記特徴量データ毎に付与され、前記登録者同士の特徴量データを比較して前記特徴量データ毎に求めた照合度合い値の平均値に基づいて、ある登録者とそれ以外の登録者との特徴量データを比較して前記特徴量データ毎に求めた照合度合い値の平均値が隔たっている隔たり度合いデータである請求項1または2に記載の顔照合装置。The importance is given to each feature amount data, and a registrant and others based on an average value of collation degree values obtained for each feature amount data by comparing feature amount data between the registrants. The face collation apparatus according to claim 1, wherein the face collation device is a separation degree data in which an average value of collation degree values obtained for each feature quantity data is compared by comparing feature quantity data with a registrant.
JP2003059404A 2002-05-31 2003-03-06 Face matching device Expired - Lifetime JP4222066B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003059404A JP4222066B2 (en) 2002-05-31 2003-03-06 Face matching device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002158698 2002-05-31
JP2003059404A JP4222066B2 (en) 2002-05-31 2003-03-06 Face matching device

Publications (2)

Publication Number Publication Date
JP2004054888A JP2004054888A (en) 2004-02-19
JP4222066B2 true JP4222066B2 (en) 2009-02-12

Family

ID=31949133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003059404A Expired - Lifetime JP4222066B2 (en) 2002-05-31 2003-03-06 Face matching device

Country Status (1)

Country Link
JP (1) JP4222066B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004294A (en) * 2004-06-18 2006-01-05 Oki Electric Ind Co Ltd Individual identifying device and individual identifying method
JP2010152744A (en) * 2008-12-25 2010-07-08 Toshiba Corp Reproducing device
JP4636190B2 (en) 2009-03-13 2011-02-23 オムロン株式会社 Face collation device, electronic device, face collation device control method, and face collation device control program
JP5438419B2 (en) 2009-07-29 2014-03-12 富士フイルム株式会社 Person verification device and person verification method
JP5085621B2 (en) * 2009-09-10 2012-11-28 株式会社東芝 Feature information selection device, image recognition processing device, monitoring system, method, and program applied to image recognition processing
JP6254836B2 (en) 2013-11-29 2017-12-27 キヤノン株式会社 Image search apparatus, control method and program for image search apparatus

Also Published As

Publication number Publication date
JP2004054888A (en) 2004-02-19

Similar Documents

Publication Publication Date Title
US7330570B2 (en) Face collation apparatus and biometrics data collation apparatus
US7006671B2 (en) Personal identification apparatus and method
JP3439359B2 (en) Personal identification method, personal identification device, and recording medium
US11798332B2 (en) Information processing apparatus, information processing system, and information processing method
JP5792985B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2004157602A (en) Apparatus and method for person recognition and passage controller
JP6505937B1 (en) Matching system, matching method and matching program
CN111046810A (en) Data processing method and processing device
JP4992517B2 (en) Face matching device
JP6855266B2 (en) Face recognition system, face recognition method, and face recognition program
JP2006085268A (en) Biometrics system and biometrics method
JP4222066B2 (en) Face matching device
CN112771522A (en) Biometric authentication device, biometric authentication method, and biometric authentication program
TWI325568B (en) A method for face varification
KR20100041562A (en) Method and system for performing user authentication by face recognizing and fingerprint recognizing of user needing an authentication
JP2008250829A (en) Pedestrian collation system and pedestrian collation method
JP2005182184A (en) Person recognition apparatus, person recognition method and access control apparatus
CN100419766C (en) Personal checking device, personal checking system and personal checking method
JP2006099374A (en) Biological information collation device and biological information collation system
JP3620938B2 (en) Personal identification device
JPH11283033A (en) Method for utilizing feature amount for image identification and recording medium for storing program therefor
WO2021095732A1 (en) Information processing device, information processing method, program, recording medium, and camera system
JP2004310287A (en) Person recognition device and passing controller
JP2005202732A (en) Biometric collating device, biometric collating method, and passing controller
JP4363994B2 (en) Biometric matching device, biometric matching method, and traffic control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4222066

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131128

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term