JP2004152163A - Face collating device and face collating method - Google Patents

Face collating device and face collating method Download PDF

Info

Publication number
JP2004152163A
JP2004152163A JP2002318733A JP2002318733A JP2004152163A JP 2004152163 A JP2004152163 A JP 2004152163A JP 2002318733 A JP2002318733 A JP 2002318733A JP 2002318733 A JP2002318733 A JP 2002318733A JP 2004152163 A JP2004152163 A JP 2004152163A
Authority
JP
Japan
Prior art keywords
face
photographing
subject
photographed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002318733A
Other languages
Japanese (ja)
Inventor
Kiyotaka Setoguchi
清高 瀬戸口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2002318733A priority Critical patent/JP2004152163A/en
Publication of JP2004152163A publication Critical patent/JP2004152163A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce an influence by the reflection of illumination or outside light on a face image used for face collation even if there is a white area caused by the reflection of the illumination or the outside light within the area to be photographed, and stable face collation can be conducted even if there is a white area caused by the reflection of the illumination or the outside light within the shoot area. <P>SOLUTION: This system detects the white area which exists on the image to be photographed, stores the position of the white area, and instructs so as to photograph a face at a position with less influence of the white area when the face image of an objective is photographed for the face collation. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
この発明は、例えば、特定領域の画像を撮影するカメラにより少なくとも顔を含む画像(顔画像)を撮影して予め登録されている顔画像との顔照合を行う顔照合装置及び顔照合方法に関する。
【0002】
【従来の技術】
従来、顔照合装置では、カメラにて撮影した画像から人物の顔画像を取得する度に顔の特徴量を抽出し、予め辞書に登録されている人物の特徴量と比較して顔照合を行う。また、顔照合を用いて通行制御を行う通行制御装置では、顔照合による予め辞書に登録されている人物との照合結果に基づいてドア制御する。
このような顔照合装置では、設置環境によっては上記カメラにて撮影する範囲内において照明や外光による反射などによって白く光って撮影される部分(白色領域)が存在することがある。上記カメラにて顔照合用の人物の顔を含む画像を撮影する際、上記白色領域の一部が顔の領域に重なった場合あるいは顔の領域の近傍に上記白色領域が存在する場合には、顔の領域を正確に検出できなかったり、顔の特徴量が正確に検出できなかったりすることがある。このため、従来の顔照合装置では、上記白色領域が顔の画像に影響を与える位置に存在すると、顔照合の精度が悪くなってしまうことがあるという問題点がある。
【0003】
【特許文献1】
特開2002−92601号公報
【特許文献2】
特開平11−161790号公報
【0004】
【発明が解決しようとする課題】
上記したように、この発明は、撮影手段が撮影する画像上に照明や外光などの光の反射による白色の領域が存在する場合、上記白色の領域の原因となる光の影響で顔照合の性能が悪化してしまうという問題点を解決するもので、撮影手段にて撮影される画像上に照明や外光などの光の反射による白色の領域が存在する場合であっても、顔照合の性能を維持することができる顔照合装置及び顔照合方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
この発明の顔照合装置は、辞書に登録されている顔画像との照合処理を行うものにおいて、特定領域の画像を撮影する撮影手段と、この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段とを有する。
【0006】
この発明の顔照合方法は、特定領域の画像を撮影する撮影手段を有し、辞書に登録されている顔画像との照合処理を行う顔照合装置に用いられる方法であって、前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程とを有する。
【0007】
【発明の実施の形態】
以下、この発明の実施の形態について図面を参照して説明する。
図1は、この発明の実施の形態に係る顔の画像による個人認証を行う顔照合システム(通行制御システム)を概略的に示す図である。
図1に示すように、ユーザインターフェースユニット11、制御ユニット12、および通行制御ユニット13から構成される。上記ユーザインターフェースユニット11と制御ユニット12とは、顔照合装置を構成するものである。なお、上記ユーザインターフェースユニット11と制御ユニット12は、一体的に構成されていても良い。
【0008】
上記ユーザインターフェースユニット11は、カメラ21、表示部22、操作部23、スピーカ24などを有している。上記カメラ21は、デジタルビデオカメラなどにより構成される。このカメラ21は、設置位置に応じた特定の領域(撮影範囲)の画像を撮影するものであり、顔画像による照合処理時あるいは顔画像の登録時には上記撮影範囲内に存在する少なくとも人物の顔を含む画像を撮影するようになっている。このカメラ21は、常時、画像を撮影しているようにしても良いし、上記制御ユニット12からの指示に基づいて画像の撮影を行うようにしても良い。なお、上記カメラ21は、カラーであっても、モノクロであっても良い。上記表示部22は、液晶表示装置などで構成される。この表示部22は、上記カメラ21にて撮影中の画像、案内表示、あるいは顔照合の結果などを表示するものである。上記操作部23は、テンキーなどで構成される。上記操作部23は、個人識別情報としてのID番号やパスワードなどを入力するものである。上記スピーカ24は、音声案内などの音声を出力するものである。
【0009】
また、上記制御ユニット12は、顔照合システム全体の制御を行うものである。上記制御ユニット12は、顔画像による照合処理などを行うとともに、カメラ21、表示部22、操作部23、スピーカ24、自動ドア31(または電気錠33)などの制御を行うものである。
上記通行制御ユニット13は、自動ドア31、又は、電気錠制御盤32により制御される電気錠33が設置されたドアなどから構成される。例えば、通行制御ユニット13が自動ドア31で構成される場合、上記制御ユニット12は、自動ドア31の開閉を行うドア開閉機構(図示しない)に接続される。また、上記通行制御ユニット13がドアに設置された電気錠33で構成される場合、上記制御ユニット12は、電気錠33を制御する電気錠制御盤32に接続される。
【0010】
次に、上記制御ユニット12の構成について詳細に説明する。
図2は、上記制御ユニット12の内部構成を概略的に示すブロック図である。
図2に示すように、上記制御ユニット12は、CPUボード50、CPU51、メモリ52、画像入力部54、画像出力部55、音声出力部56、操作部インターフェース部57、ドア制御部59、ハードディスク60、および電源部61などを有している。
【0011】
上記CPUボード50には、CPU51、メモリ52、画像入力部54、画像出力部55、音声出力部56、操作部インターフェース部57、及びドア制御部59などが搭載される。上記CPU51は、上記制御ユニット12全体の制御を司るものである。上記メモリ52は、制御プログラムや制御データなどが記憶されるROM、作業用のデータなどを一時的に保存するRAMあるいはシステムの設定情報などが記憶されるPROMなどにより構成される。
上記画像入力部54は、上記カメラ21にて撮影した画像を入力するインターフェースである。上記画像出力部55は、上記表示部22に表示する画像を出力するインターフェースである。上記音声出力部56は、上記スピーカ24にて発生させる音声を出力するインターフェースである。上記操作部インターフェース部57は、上記操作部23にて入力された情報を制御ユニット12内に取り込むインターフェースである。上記ドア制御部59は、通行制御ユニット13に設けられる自動ドア31あるいは電気錠33の開閉制御を行うものである。例えば、ドアに電気錠33が設置される場合、上記ドア制御部59は、電気錠33の開錠および施錠を制御する電気錠制御盤32と接続される。
上記ハードディスク60は、種々のデータが記憶される装置である。このハードディスク60には、予め登録者の顔画像或は顔の特徴量が個人識別情報やパスワードなどに対応して記憶されている辞書60aが設けられている。上記電源部61は、CPUボード50、ドア制御部59、ハードディスク60などの制御ユニット12内の各部に電源を供給するものである。
【0012】
上記のように構成される顔画像照合システムでは、例えば、以下の条件が満たされている場合に、良好な照合精度が維持されるように設計されている。
1.外光を遮断する。
2.昼夜および年間を通して、被撮影者の顔が200ルクス〜600ルクスの照度内であり、かつ、照度の変動範囲が±100ルクスとする。
3.被撮影者がカメラから約40cm離れた位置に立つ。
4.カメラの仰角30°に映る被撮影者の顔を照合する。
しかしながら、上記のような条件に従って本顔照合システムを設置しても、撮影環境が変化した場合、カメラにて撮影される画像に照明や外光の反射による白色の領域が映り込んでしまうことがある。このような場合、照合用に撮影した顔の画像に上記白色領域の影響(白色領域の原因となる光の影響)が現れて、良好な照合精度が得られないことがある。例えば、カメラにて撮影される画像において顔の位置と上記白色領域の一部とが重なった場合(顔の輪郭部分と白色領域とが重なった場合)、撮影される画像において上記白色領域と重なっている顔の輪郭が光って、顔の領域が正確に検出できなかったり、顔の特徴量が正確に検出できなかったりする。このような場合には撮影された顔画像に対する照合精度が低下して良好な照合結果が得られない。そこで、本実施の形態では、上記白色で撮影される照明や外光などの反射に顔照合の性能が影響されないよう被撮影者に撮影位置などの案内を行うものである。
【0013】
次に、上記カメラ21により撮影される画像について説明する。
図3(a)、(b)は、上記カメラ21から入力される画像(取得画像)における各画素を説明するための図である。
上記カメラ21が図3(a)に示すような画像を撮影しているものとする。この場合、上記カメラ21が撮影した画像は、画像入力部54により制御ユニット12に取り込まれる。上記制御ユニット12のCPU51は、図3(b)に示すように、上記画像入力部54により取り込んだ取得画像に対して各画素をX方向にX0、X1、X2、…、Xn、Y方向にY0、Y1、Y2、…、Ynとしたマトリクス状のデータ構造体で示される画像データとする。また、取得画像の輝度は、X方向(X0、X1、X2、…、Xn)とY方向(Y0、Y1、Y2、…、Yn)とのマトリクス状のデータ構造で示される各画素を輝度値に変換することにより各画素の輝度値を示すマトリクス状のデータとして生成される。
【0014】
また、図3(a)には、照明や外光の反射による白色の領域(白領域)Wが存在している。この白領域Wは、照明や外光などがカメラ21のレンズ面などに反射して白く映り込んでいるものである。また、上記白領域Wは、照明や外光などの撮影環境が変化しない限り、上記カメラ21にて撮影される画像上において、常に一定の位置に現れる。
【0015】
例えば、上記白領域Wの一部に人物の顔などが重なった状態で画像を撮影すると、図3(a)に示すように、上記白領域Wが隣接する顔の領域部分が白くなってしまうため、顔画像が正常に撮影されないことがある。この場合には顔画像から顔の特徴量が正確に取得できないことがあるので、顔照合の性能が低下してしまう。しかしながら、上記カメラ21にて人物の顔を撮影する場合、人物の立ち位置によっては、上記白領域Wの原因となっている光を遮ることが可能であり、この場合には上記白領域Wによる顔画像への影響を避けることができる。また、上記白領域Wは、撮影環境が変化しなければ、特定の位置に出現するので上記白領域Wから離れた位置で顔画像を撮影すれば、上記白領域Wによる顔画像への影響を防ぐことも可能である。
【0016】
次に、上記白領域(基準白領域)Wを抽出する白領域抽出処理について説明する。
図4は、背景画像から白領域Wを検出する処理を説明するためのフローチャートである。ここで、白領域Wは、上記カメラ21にて撮影した基準とする背景のみの画像(人物などが存在しない状態で撮影された画像)から検出される白色の領域の画像領域であるものとする。なお、人物等が存在する場合であっても、撮影した画像から背景の領域を抽出し、その背景の領域について以下に説明する処理と同様の処理を行うことにより白領域を検出することができるものである。
【0017】
すなわち、図4に示すように、まず、上記カメラ21にて背景のみの画像(基準背景画像)を撮影する(ステップS11)。上記カメラ21にて撮影された基準背景画像は、上記制御ユニット12の上記画像入力部54により制御ユニット12に取り込まれる。上記制御ユニット12のCPU51は、上記カメラ21にて撮影した基準背景画像(取得画像)の各画素を輝度値に変換することにより取得画像全体における各画素の輝度値を示す輝度データを生成する(ステップS12)。取得画像全体における各画素の輝度値を示す輝度データが得られると、CPU51は、取得画像の各画素の輝度値に基づいて白点(白点画素)を判定する白点判定処理を行う(ステップS13)。この白点判定処理では、取得画像において所定の白点判定閾値Y以上の輝度値を有する画素を白点画素として抽出する。ここで、白点判定閾値Yは、白点と判定する画素の輝度値に対する閾値である。
【0018】
上記白点判定処理により取得画像における白点画素を抽出すると、CPU51は、白点画素からなる白領域Wを抽出する白領域抽出処理を行う(ステップS14)。この白領域抽出処理では、取得画像において隣接する白点画素からなる集合を白領域Wとして抽出する。すなわち、CPU51は、各白点画素に対して隣接する白点画素をカウントし、取得画像上の隣接する白点画素からなる集合を白領域Wとして抽出するものである。このような白点抽出処理により基準背景画像の白領域としての基準白領域Wを抽出すると、CPU51は、上記基準白領域Wの位置を示す情報を上記メモリ52などの記憶手段に記憶する(ステップS15)。上記のような白領域抽出処理により白色の領域(基準白領域)Wを示す情報がメモリ52に記憶される。
【0019】
なお、上記の動作例では、基準とする背景画像から白領域を検出しておくようにしたが、特定のタイミングで上記白領域を更新するようにしても良い。例えば、所定の周期ごとに上記のような背景画像からの白領域抽出処理を行って、上記白領域の位置情報を更新するようにしても良い。また、撮影位置における照明や外光などの環境が変化するタイミングに応じて上記白領域を更新するようにしても良い。また、顔照合を実行する際に背景領域について上記白領域抽出処理を行うことにより、白領域を検出するようにしても良い。これらのように、特定のタイミングで上記白領域抽出処理を行うことにより上記白領域を適宜更新することが可能となる。精度の高い案内を行うことが可能なる。
【0020】
次に、本顔照合システムにおける顔照合処理について説明する。
図5は、上記白領域Wに基づく撮影位置を案内しつつ顔照合を行う動作を説明するためのフローチャートである。
まず、本顔照合システムでは顔照合の待機状態において、上記カメラ21が画像を撮影しているものとする(ステップS21)。この顔照合の待機状態において、上記制御ユニット12のCPU51は、上記カメラ21にて撮影している画像における移動体の有無を判定することにより人物の存在を検出する(ステップS22)。なお、人間検知センサなどにより人物の有無を検出するようにしても良い。上記カメラ21にて撮影した画像から人物を検出すると(ステップS22、YES)、上記CPU51は、顔照合処理を開始する。顔照合処理を開始すると、上記CPU51は、上記画像入力部54により上記カメラ21にて撮影した画像を取得し、取得画像から顔の領域を検出する顔検出処理を行う(ステップS23)。
【0021】
この顔領域検出処理により顔領域を検出すると(ステップS23、YES)、CPU51は、上記メモリ52から上記基準白領域Wの位置を示す情報を読み出す(ステップS24)。これらの情報を読み出すと、CPU51は、上記基準白領域Wの一部に上記ステップS23で検出した顔の領域がオーバーラップしているか否かを判断する(ステップS25)。この判断により上記基準白領域Wの一部に顔領域がオーバーラップしていると判断した場合(ステップS25、YES)、上記CPU51は、顔の撮影位置として適切な顔の位置を判断する顔位置判定処理を行う(ステップS26)。この顔位置の判定処理では、撮影される顔に対して上記基準白領域Wの影響が少なくなるような位置を適切な顔の位置として判定する。
【0022】
このような顔位置判定処理により判定される適切な顔の位置としては、例えば、上記基準白領域Wの原因となっている光を被撮影者自身が隠してしまうような顔の位置(上記基準白領域Wに被撮影者自身が重なる位置)、あるいは、上記基準白領域Wから離れるような顔の位置などがある。また、上記顔位置判定処理により判定される適切な顔の位置は、上記カメラ21にて撮影される画像(撮影領域)上における上記基準白領域Wの位置や大きさなどに基づいて判定される。
【0023】
例えば、図6に示すように、上記カメラ21の撮影領域内において上記基準白領域Wが上記カメラ21の撮影領域の中心付近に存在する場合、CPU51は、被撮影者自身が上記基準白領域Wの原因となっている光を隠すような顔の位置を適切な顔の位置(図6に示すM2の領域)として判定する。また、図7に示すように、上記カメラ21の撮影領域内において上記基準白領域Wが上記カメラ21の撮影領域の端部(撮影領域の中心から離れた位置)付近に存在する場合、CPU51は、被撮影者の顔が上記基準白領域Wから離れた位置で撮影されるような顔の位置を適切な顔の位置(図7に示すM2の領域)として判定する。
【0024】
上記顔位置判定処理により適切な顔の位置を判定すると、CPU51は、上記表示部22により顔の位置として適切であると判定した領域を案内する顔位置の案内を行う(ステップS27)。この顔位置の案内では、例えば、図6及び図7に示すような案内画面が表示される。図6及び図7に示す案内画面では、上記カメラ21にて撮影中の画像上に、上記カメラ21に撮影されている画像から検出されている顔の領域を示すマークM1と顔の位置として適切と判定した顔の位置を示すマークM2が表示される。これらのような表示画面では、マークM2を表示することで適切な顔の位置を示すマークM2内に被撮影者の顔が撮影されるように、被撮影者が顔あるいは立ち位置を移動させるように案内している。つまり、上記表示画面では、被撮影者に対して、検出されている顔領域を示すマークM1と適切な顔の位置を示すマークM2とが一致するように動くよう案内しているものである。
【0025】
上記CPU51は、上記のような顔位置の案内画面を表示するとともに、上記カメラ21にて撮影した画像から顔の領域を検出する顔検出処理を行っている(ステップS28)。このような顔検出処理にて顔領域を検出すると、CPU51は、顔領域が適切な位置であるか否かを判定する処理を行う(ステップS29)。この判定処理では、例えば、検出した顔領域が上記ステップS26にて判定した適切な顔の位置に近いか否かにより顔が適切な位置で撮影されたか否かを判定するものとする。
上記判定処理において顔が適切な位置でないと判定した場合(ステップS29、NO)、上記CPU51は、上記ステップS28へ戻り、顔検出処理を再実行する。さらに、上記判定処理において顔が適切な位置でないと判定した回数が所定回数となった場合、つまり、上記ステップS28の顔検出処理を所定回数実行しても顔が適切な位置であると判定できなかった場合、上記CPU51は、上記ステップS21へ戻り、上記カメラ21にて撮影されている画像を取り込むことにより上記ステップS21からの処理を再度実行するようになっている。
【0026】
上記判定処理において顔が適切な位置で検出されたと判定した場合(ステップS29、YES)、上記CPU51は、適切な位置で顔が検出した画像を取得画像として顔照合処理を行う(ステップS30〜S34)。上記顔照合処理において、上記CPU51は、まず、取得画像から顔の特徴量を検出する顔の特徴量検出処理を行う(ステップS30)。この顔の特徴量検出処理により顔の特徴量を検出すると、上記CPU51は、取得画像から検出した顔の特徴量と上記辞書60aに登録されている顔の特徴量との照合度を算出し(ステップS31)、算出した照合度が所定の照合閾値以上であるか否かを判定する(ステップS32)。この判定により算出した照合度が所定の照合閾値以上である場合には顔照合が成功したものとし、照合度が所定の照合閾値以下である場合には顔照合が失敗したものとする。
【0027】
例えば、顔照合が成功したと判定した場合(ステップS32、YES)、CPU51は、上記表示部22に照合可である旨を案内表示するとともに、上記ドア制御部59により自動ドア31を開放したり、電気錠33を開錠したりすることにより当該人物の通行を許可する(ステップS33)。また、顔照合が失敗したと判定した場合(ステップS32、NO)、CPU51は、上記表示部22に照合が不可である旨を案内表示し、自動ドア31を閉鎖したままとしたり、電気錠33を施錠したままとしたりすることによって当該人物の通行を不可とする(ステップS34)。
【0028】
上記のように、撮影される画像に存在する白領域を検出してその白領域の位置を記憶しておき、顔照合のために被撮影者の顔画像を撮影する際、上記白領域の影響が少ない位置で顔が撮影されるよう案内するようにしたものである。これにより、撮影される領域内に照明や外光の反射に起因する白色の領域が存在していても顔照合に用いる顔画像における照明や外光の反射による影響を低減することができ、撮影領域内に照明や外光の反射による白色領域が存在する場合であっても安定した顔照合を行うことができる。
【0029】
【発明の効果】
以上詳述したように、本発明によれば、撮影手段にて撮影される画像上に照明や外光などの光の反射による白色の領域が存在する場合であっても、顔照合の性能を維持することができる顔照合装置及び顔照合方法を提供できる。
【図面の簡単な説明】
【図1】この発明の実施の形態に係る顔照合システムの概略構成を示す図。
【図2】顔照合システムの制御系統の構成を概略的に示す図。
【図3】カメラにより撮影される画像の例と画像上の画素の構成を示す図。
【図4】白領域を抽出する白領域抽出処理を説明するためのフローチャート。
【図5】本顔照合システムにおける顔照合処理を説明するためのフローチャート。
【図6】表示部に表示される案内画面の例を示す図。
【図7】表示部に表示される案内画面の例を示す図。
【符号の説明】
21…カメラ、22…表示部、23…操作部、31…自動ドア、33…電気錠、51…CPU、52…メモリ、54…画像入力部、55…画像出力部、59…ドア制御部、60…ハードディスク、60a…辞書
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to, for example, a face matching apparatus and a face matching method for taking an image (face image) including at least a face by a camera for taking an image of a specific area and performing face matching with a previously registered face image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a face matching apparatus extracts a face feature amount each time a face image of a person is obtained from an image captured by a camera, and performs face matching by comparing with a feature amount of a person registered in a dictionary in advance. . In a traffic control device that performs traffic control using face matching, door control is performed based on the result of face matching with a person registered in a dictionary in advance.
In such a face collation device, depending on the installation environment, there may be a part (white area) that is illuminated white due to illumination or reflection by external light, etc., within the range photographed by the camera. When capturing an image including the face of a person for face matching with the camera, when a part of the white area overlaps with the face area or when the white area exists near the face area, In some cases, the face area cannot be detected accurately, or the feature amount of the face cannot be detected accurately. For this reason, in the conventional face matching device, there is a problem that if the white area exists at a position that affects the face image, the accuracy of the face matching may be deteriorated.
[0003]
[Patent Document 1]
JP 2002-92601 A [Patent Document 2]
JP-A-11-161790
[Problems to be solved by the invention]
As described above, the present invention provides a method for face matching when an image captured by an image capturing unit includes a white area due to reflection of light such as illumination or external light due to the light that causes the white area. This solves the problem that performance deteriorates, and even when a white area exists due to the reflection of light such as illumination or external light on an image captured by the image capturing unit, face matching can be performed. It is an object of the present invention to provide a face matching device and a face matching method capable of maintaining performance.
[0005]
[Means for Solving the Problems]
A face matching apparatus according to the present invention performs a matching process with a face image registered in a dictionary, and includes: a photographing unit that photographs an image of a specific region; and a white color existing in the specific region photographed by the photographing unit. A storage unit for storing the position of the region, and when capturing a face image including at least the face of the subject by the imaging unit, an appropriate image corresponding to the position of the white region stored in the storage unit Guiding means for guiding the photographing position of the photographed person to the photographed person; collating a face image including the face of the photographed person photographed by the photographing means with a face image registered in the dictionary; Collating means for performing processing.
[0006]
The face matching method according to the present invention is a method used in a face matching device that has a photographing unit that photographs an image of a specific area and performs a matching process with a face image registered in a dictionary. A storage step of storing a position of a white area existing in a specific area to be captured in a storage unit; and storing the face image including at least a face of a subject by the imaging unit in the storage unit. A guiding step of guiding the subject to an appropriate photographing position of the subject corresponding to the position of the white area, and a face image including the face of the subject photographed by the photographing means. And a matching step of performing a matching process with a face image registered in the dictionary.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram schematically showing a face matching system (passage control system) for performing personal authentication using a face image according to an embodiment of the present invention.
As shown in FIG. 1, it comprises a user interface unit 11, a control unit 12, and a traffic control unit 13. The user interface unit 11 and the control unit 12 constitute a face matching device. Note that the user interface unit 11 and the control unit 12 may be integrally configured.
[0008]
The user interface unit 11 has a camera 21, a display unit 22, an operation unit 23, a speaker 24, and the like. The camera 21 is configured by a digital video camera or the like. The camera 21 captures an image of a specific area (photographing range) according to the installation position. At the time of a matching process using a face image or at the time of registration of a face image, at least a person's face present in the photographing range is detected. It is designed to shoot images that include The camera 21 may always capture an image, or may capture an image based on an instruction from the control unit 12. The camera 21 may be color or monochrome. The display unit 22 includes a liquid crystal display device or the like. The display unit 22 displays an image being captured by the camera 21, a guidance display, a result of face matching, and the like. The operation unit 23 includes a numeric keypad or the like. The operation unit 23 inputs an ID number, a password, and the like as personal identification information. The speaker 24 outputs sound such as voice guidance.
[0009]
The control unit 12 controls the entire face matching system. The control unit 12 performs a collation process based on a face image and controls the camera 21, the display unit 22, the operation unit 23, the speaker 24, the automatic door 31 (or the electric lock 33), and the like.
The traffic control unit 13 includes an automatic door 31 or a door on which an electric lock 33 controlled by an electric lock control panel 32 is installed. For example, when the traffic control unit 13 includes the automatic door 31, the control unit 12 is connected to a door opening / closing mechanism (not shown) that opens and closes the automatic door 31. When the traffic control unit 13 is configured by an electric lock 33 installed on a door, the control unit 12 is connected to an electric lock control panel 32 that controls the electric lock 33.
[0010]
Next, the configuration of the control unit 12 will be described in detail.
FIG. 2 is a block diagram schematically showing an internal configuration of the control unit 12.
As shown in FIG. 2, the control unit 12 includes a CPU board 50, a CPU 51, a memory 52, an image input unit 54, an image output unit 55, an audio output unit 56, an operation unit interface unit 57, a door control unit 59, a hard disk 60 , And a power supply unit 61.
[0011]
The CPU board 50 includes a CPU 51, a memory 52, an image input unit 54, an image output unit 55, an audio output unit 56, an operation unit interface unit 57, a door control unit 59, and the like. The CPU 51 controls the entire control unit 12. The memory 52 includes a ROM in which control programs and control data are stored, a RAM in which work data is temporarily stored, and a PROM in which system setting information and the like are stored.
The image input unit 54 is an interface for inputting an image captured by the camera 21. The image output unit 55 is an interface that outputs an image to be displayed on the display unit 22. The audio output unit 56 is an interface that outputs audio generated by the speaker 24. The operation unit interface unit 57 is an interface that takes in the information input by the operation unit 23 into the control unit 12. The door control section 59 controls opening and closing of the automatic door 31 or the electric lock 33 provided in the traffic control unit 13. For example, when the electric lock 33 is installed on the door, the door control unit 59 is connected to the electric lock control panel 32 that controls unlocking and locking of the electric lock 33.
The hard disk 60 is a device that stores various data. The hard disk 60 is provided with a dictionary 60a in which a registrant's face image or face feature amount is stored in advance in correspondence with personal identification information, a password, and the like. The power supply unit 61 supplies power to each unit in the control unit 12, such as the CPU board 50, the door control unit 59, and the hard disk 60.
[0012]
The face image matching system configured as described above is designed to maintain good matching accuracy, for example, when the following conditions are satisfied.
1. Blocks external light.
2. It is assumed that the subject's face is within the illuminance of 200 lux to 600 lux throughout the day and night and throughout the year, and the illuminance variation range is ± 100 lux.
3. The subject stands about 40 cm away from the camera.
4. The subject's face reflected at the camera elevation angle of 30 ° is collated.
However, even if the face matching system is installed in accordance with the above conditions, if the shooting environment changes, a white area due to illumination or reflection of external light may be reflected in an image shot by the camera. is there. In such a case, the effect of the white area (the effect of light that causes the white area) appears on the face image captured for matching, and good matching accuracy may not be obtained. For example, when the position of the face and a part of the white area overlap in an image captured by the camera (when the outline of the face and the white area overlap), the white area overlaps in the captured image. The outline of the face is shining, and the face area cannot be detected accurately, or the feature amount of the face cannot be detected accurately. In such a case, the matching accuracy of the captured face image is reduced, and a good matching result cannot be obtained. Therefore, in the present embodiment, guidance of the photographing position and the like is provided to the subject so that the performance of face collation is not affected by the reflection of the illumination or external light photographed in white.
[0013]
Next, an image captured by the camera 21 will be described.
FIGS. 3A and 3B are diagrams for explaining each pixel in an image (acquired image) input from the camera 21. FIG.
It is assumed that the camera 21 is capturing an image as shown in FIG. In this case, the image captured by the camera 21 is taken into the control unit 12 by the image input unit 54. As shown in FIG. 3B, the CPU 51 of the control unit 12 converts each pixel in the X direction to X0, X1, X2,..., Xn, and Y directions with respect to the acquired image captured by the image input unit 54. It is assumed that the image data is represented by a matrix data structure of Y0, Y1, Y2,..., Yn. Further, the luminance of the acquired image is obtained by dividing each pixel represented by a matrix-like data structure in the X direction (X0, X1, X2,..., Xn) and the Y direction (Y0, Y1, Y2,. Is generated as matrix data indicating the luminance value of each pixel.
[0014]
In FIG. 3A, there is a white area (white area) W due to illumination or reflection of external light. In the white area W, illumination, external light, and the like are reflected on the lens surface of the camera 21 and reflected in white. Further, the white area W always appears at a fixed position on an image photographed by the camera 21 as long as the photographing environment such as illumination and external light does not change.
[0015]
For example, when an image is taken in a state where a person's face or the like overlaps a part of the white area W, the area of the face adjacent to the white area W becomes white as shown in FIG. Therefore, the face image may not be normally captured. In this case, the feature amount of the face cannot be accurately acquired from the face image in some cases, so that the performance of face matching is reduced. However, when the face of a person is photographed by the camera 21, it is possible to block the light that causes the white region W depending on the standing position of the person. The influence on the face image can be avoided. Further, the white region W appears at a specific position if the shooting environment does not change. Therefore, if a face image is taken at a position distant from the white region W, the influence of the white region W on the face image is reduced. It is also possible to prevent it.
[0016]
Next, a white region extraction process for extracting the white region (reference white region) W will be described.
FIG. 4 is a flowchart illustrating a process of detecting a white region W from a background image. Here, the white area W is an image area of a white area detected from an image of only a reference background captured by the camera 21 (an image captured without a person or the like). . Even when a person or the like exists, a white region can be detected by extracting a background region from a captured image and performing the same processing as that described below on the background region. Things.
[0017]
That is, as shown in FIG. 4, first, an image of only the background (reference background image) is captured by the camera 21 (step S11). The reference background image captured by the camera 21 is taken into the control unit 12 by the image input unit 54 of the control unit 12. The CPU 51 of the control unit 12 generates luminance data indicating the luminance value of each pixel in the entire acquired image by converting each pixel of the reference background image (acquired image) photographed by the camera 21 into a luminance value ( Step S12). When the luminance data indicating the luminance value of each pixel in the entire acquired image is obtained, the CPU 51 performs a white point determination process of determining a white point (white point pixel) based on the luminance value of each pixel of the acquired image (step S13). In this white point determination process, a pixel having a luminance value equal to or greater than a predetermined white point determination threshold Y in the acquired image is extracted as a white point pixel. Here, the white point determination threshold value Y is a threshold value for a luminance value of a pixel determined as a white point.
[0018]
When the white point pixels in the acquired image are extracted by the white point determination processing, the CPU 51 performs a white area extraction processing for extracting a white area W including the white point pixels (Step S14). In this white area extraction processing, a set of adjacent white point pixels in the acquired image is extracted as a white area W. That is, the CPU 51 counts white point pixels adjacent to each white point pixel, and extracts a set of adjacent white point pixels on the acquired image as a white area W. When the reference white area W as the white area of the reference background image is extracted by such white point extraction processing, the CPU 51 stores information indicating the position of the reference white area W in a storage unit such as the memory 52 (step S1). S15). The information indicating the white area (reference white area) W is stored in the memory 52 by the white area extraction processing as described above.
[0019]
In the above operation example, the white area is detected from the reference background image. However, the white area may be updated at a specific timing. For example, the white area extraction processing from the background image as described above may be performed at predetermined intervals to update the position information of the white area. Further, the white area may be updated according to the timing at which the environment such as illumination or external light at the shooting position changes. Further, the white area may be detected by performing the above-described white area extraction processing on the background area when performing face matching. As described above, by performing the white area extraction processing at a specific timing, the white area can be appropriately updated. It is possible to provide highly accurate guidance.
[0020]
Next, the face matching process in the face matching system will be described.
FIG. 5 is a flowchart for explaining an operation of performing face matching while guiding the shooting position based on the white area W.
First, in the face matching system, it is assumed that the camera 21 is capturing an image in a standby state of face matching (step S21). In the standby state for face matching, the CPU 51 of the control unit 12 detects the presence of a person by determining the presence or absence of a moving object in the image captured by the camera 21 (step S22). Note that the presence or absence of a person may be detected by a human detection sensor or the like. When a person is detected from the image captured by the camera 21 (step S22, YES), the CPU 51 starts face matching processing. When the face matching process is started, the CPU 51 acquires an image photographed by the camera 21 by the image input unit 54, and performs a face detection process of detecting a face area from the acquired image (Step S23).
[0021]
When the face area is detected by the face area detection processing (step S23, YES), the CPU 51 reads information indicating the position of the reference white area W from the memory 52 (step S24). When these pieces of information are read, the CPU 51 determines whether or not a part of the reference white area W overlaps with the face area detected in step S23 (step S25). When the CPU 51 determines that the face area overlaps a part of the reference white area W (step S25, YES), the CPU 51 determines the appropriate face position as the face photographing position. A determination process is performed (Step S26). In this face position determination processing, a position at which the influence of the reference white region W on the face to be captured is reduced is determined as an appropriate face position.
[0022]
As an appropriate face position determined by such face position determination processing, for example, a face position (the above-described reference There is a position where the subject himself / herself overlaps the white area W), or a position of the face that is away from the reference white area W. The appropriate face position determined by the face position determination process is determined based on the position and size of the reference white region W on an image (photographing region) photographed by the camera 21. .
[0023]
For example, as shown in FIG. 6, when the reference white area W is located near the center of the shooting area of the camera 21 in the shooting area of the camera 21, the CPU 51 determines that the subject himself / herself has the reference white area W Is determined as an appropriate face position (the area of M2 shown in FIG. 6). As shown in FIG. 7, when the reference white area W is located near the end of the shooting area of the camera 21 (position distant from the center of the shooting area) in the shooting area of the camera 21, the CPU 51 Then, the position of the face in which the face of the subject is photographed at a position away from the reference white area W is determined as an appropriate face position (the area M2 shown in FIG. 7).
[0024]
When the appropriate face position is determined by the face position determination process, the CPU 51 performs face position guidance for guiding an area determined to be appropriate as the face position on the display unit 22 (step S27). In the guidance of the face position, for example, a guidance screen as shown in FIGS. 6 and 7 is displayed. In the guidance screens shown in FIGS. 6 and 7, a mark M <b> 1 indicating a face area detected from an image captured by the camera 21 and an appropriate position on the image being captured by the camera 21 are displayed. A mark M2 indicating the position of the face determined to be is displayed. In such a display screen, the subject moves the face or the standing position so that the face of the subject is photographed in the mark M2 indicating the appropriate face position by displaying the mark M2. It is guided to. In other words, on the display screen, the subject is guided to move so that the mark M1 indicating the detected face area matches the mark M2 indicating the appropriate face position.
[0025]
The CPU 51 displays a face position guide screen as described above and performs a face detection process of detecting a face area from an image captured by the camera 21 (step S28). When a face area is detected by such face detection processing, the CPU 51 performs processing to determine whether or not the face area is at an appropriate position (step S29). In this determination processing, for example, it is determined whether or not the face has been photographed at an appropriate position based on whether or not the detected face area is close to the appropriate face position determined in step S26.
If it is determined in the determination processing that the face is not at the appropriate position (step S29, NO), the CPU 51 returns to step S28 and executes the face detection processing again. Further, when the number of times that the face is determined not to be at the appropriate position in the determination processing has reached a predetermined number of times, that is, even if the face detection processing of step S28 is performed a predetermined number of times, the face can be determined to be at the appropriate position. If not, the CPU 51 returns to step S21, and executes the processing from step S21 again by capturing the image captured by the camera 21.
[0026]
When it is determined in the above determination process that a face is detected at an appropriate position (step S29, YES), the CPU 51 performs a face matching process using an image in which a face is detected at an appropriate position as an acquired image (steps S30 to S34). ). In the face matching process, first, the CPU 51 performs a face feature amount detection process of detecting a face feature amount from an acquired image (step S30). When the face feature amount is detected by the face feature amount detection process, the CPU 51 calculates the degree of matching between the face feature amount detected from the acquired image and the face feature amount registered in the dictionary 60a ( Step S31), it is determined whether the calculated degree of collation is equal to or greater than a predetermined collation threshold value (step S32). If the matching degree calculated by this determination is equal to or greater than a predetermined matching threshold, it is determined that the face matching has succeeded, and if the matching degree is equal to or less than the predetermined matching threshold, it is determined that the face matching has failed.
[0027]
For example, when it is determined that the face matching is successful (step S32, YES), the CPU 51 displays a guide indicating that the matching is possible on the display unit 22 and opens the automatic door 31 by the door control unit 59 or the like. Then, the person is allowed to pass by unlocking the electric lock 33 (step S33). If it is determined that the face matching has failed (step S32, NO), the CPU 51 displays a guide indicating that the matching is not possible on the display unit 22, and keeps the automatic door 31 closed or the electric lock 33. By keeping the lock, the passage of the person is disabled (step S34).
[0028]
As described above, when a white area existing in an image to be captured is detected and the position of the white area is stored, and when a face image of a subject is captured for face matching, the influence of the white area is determined. Is provided so that the face is photographed at a position where the number is small. This makes it possible to reduce the influence of illumination and reflection of external light on a face image used for face matching even when a white area due to illumination and reflection of external light exists in the area to be captured. Even when a white area exists due to illumination or reflection of external light in the area, stable face matching can be performed.
[0029]
【The invention's effect】
As described in detail above, according to the present invention, even when a white region exists due to reflection of light such as illumination or external light on an image captured by the capturing unit, the performance of face matching can be improved. A face matching device and a face matching method that can be maintained can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a face matching system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing a configuration of a control system of the face matching system.
FIG. 3 is a diagram illustrating an example of an image captured by a camera and a configuration of pixels on the image.
FIG. 4 is a flowchart illustrating a white region extraction process for extracting a white region.
FIG. 5 is a flowchart for explaining face matching processing in the present face matching system.
FIG. 6 is a view showing an example of a guidance screen displayed on a display unit.
FIG. 7 is a diagram showing an example of a guidance screen displayed on a display unit.
[Explanation of symbols]
21: Camera, 22: Display Unit, 23: Operation Unit, 31: Automatic Door, 33: Electric Lock, 51: CPU, 52: Memory, 54: Image Input Unit, 55: Image Output Unit, 59: Door Control Unit, 60: Hard disk, 60a: Dictionary

Claims (8)

辞書に登録されている顔画像との照合処理を行う顔照合装置において、
特定領域の画像を撮影する撮影手段と、
この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段と、
を有することを特徴する顔照合装置。
In a face matching device that performs a matching process with a face image registered in a dictionary,
Photographing means for photographing an image of a specific area;
Storage means for storing a position of a white area existing in a specific area photographed by the photographing means;
When photographing a face image including at least the face of the subject by the photographing unit, an appropriate photographing position of the subject corresponding to the position of the white region stored in the storage unit is provided to the subject. Guidance means for guiding
Collation means for performing a collation process between a face image including the face of the subject photographed by the imaging means and a face image registered in the dictionary;
A face matching device comprising:
前記案内手段は、前記記憶手段に記憶している前記白領域を前記被撮影者自身が隠すような前記被撮影者の撮影位置を案内することを特徴とする前記請求項1に記載の顔照合装置。2. The face matching apparatus according to claim 1, wherein the guidance unit guides the photographing position of the subject such that the subject hides the white area stored in the storage unit. apparatus. 前記案内手段は、前記被撮影者の顔の位置が前記記憶手段に記憶している前記白領域から離れるような撮影位置を前記被撮影者に対して案内することを特徴とする前記請求項1に記載の顔照合装置。The said guidance means guides the said imaging | photography position to the imaging | photography subject so that the position of the to-be-photographed person's face may leave | separate from the said white area memorize | stored in the said memory | storage means. 2. The face matching device according to claim 1. 辞書に登録されている顔画像との照合処理を行う顔照合装置において、
特定領域の画像を撮影する撮影手段と、
この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に基づいて前記撮影手段により撮影される前記被撮影者の顔の位置として適切な位置を判断する判断手段と、
この判断手段により前記被撮影者の顔の位置として適切と判断した前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段と、
を有することを特徴する顔照合装置。
In a face matching device that performs a matching process with a face image registered in a dictionary,
Photographing means for photographing an image of a specific area;
Storage means for storing a position of a white area existing in a specific area photographed by the photographing means;
When capturing a face image including at least the face of the subject by the photographing unit, the position of the face of the subject to be photographed by the photographing unit based on the position of the white region stored in the storage unit Determining means for determining an appropriate position as
Guide means for guiding the photographing position of the photographed person determined to be appropriate as the position of the face of the photographed person to the photographed person,
Collation means for performing a collation process between a face image including the face of the subject photographed by the imaging means and a face image registered in the dictionary;
A face matching device comprising:
前記判断手段は、前記被撮影者の顔の位置が前記記憶手段に記憶している前記白領域を隠すような顔の位置を判断し、
前記案内手段は、前記判断手段により判断した前記白領域を前記被撮影者自身が隠すような前記被撮影者の撮影位置を前記被撮影者に対して案内する、ことを特徴する前記請求項4に記載の顔照合装置。
The determining means determines the position of the face such that the position of the face of the subject hides the white area stored in the storage means,
5. The photographing device according to claim 4, wherein the guiding unit guides the photographing position of the subject such that the photographing person hides the white area determined by the determining unit. 2. The face matching device according to claim 1.
前記判断手段は、前記被撮影者の顔の位置が前記記憶手段に記憶している前記白領域から離れるような顔の位置を判断し、
前記案内手段は、前記判断手段により判断した前記被認証者の顔の位置が前記白領域から離れるような撮影位置を前記被撮影者に対して案内する、ことを特徴とする前記請求項4に記載の顔照合装置。
The determining means determines the position of the face such that the position of the face of the subject is away from the white area stored in the storage means,
The method according to claim 4, wherein the guiding means guides the photographing position to the subject such that the position of the face of the subject to be determined determined by the determining means is separated from the white area. The face matching device described in the above.
特定領域の画像を撮影する撮影手段を有し、辞書に登録されている顔画像との照合処理を行う顔照合装置に用いられる顔照合方法であって、
前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程と、
を有することを特徴する顔照合方法。
A face matching method used in a face matching device that has a shooting unit that shoots an image of a specific area and performs a matching process with a face image registered in a dictionary,
A storage step of storing a position of a white area existing in a specific area photographed by the photographing means in a storage means,
When photographing a face image including at least the face of the subject by the photographing unit, an appropriate photographing position of the subject corresponding to the position of the white region stored in the storage unit is provided to the subject. A guidance process for guiding
A collation step of performing a collation process between a face image including the face of the subject photographed by the photographing unit and a face image registered in the dictionary;
A face matching method characterized by having:
特定領域の画像を撮影する撮影手段を有し、辞書に登録されている顔画像との照合処理を行う顔照合装置に用いられる顔照合方法であって、
前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に基づいて前記撮影手段により撮影される前記被撮影者の顔の位置として適切な位置を判断する判断工程と、
この判断工程により前記被撮影者の顔の位置として適切と判断した前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程と、
を有することを特徴する顔照合方法。
A face matching method used in a face matching device that has a shooting unit that shoots an image of a specific area and performs a matching process with a face image registered in a dictionary,
A storage step of storing a position of a white area existing in a specific area photographed by the photographing means in a storage means,
When capturing a face image including at least the face of the subject by the photographing unit, the position of the face of the subject to be photographed by the photographing unit based on the position of the white region stored in the storage unit A determining step of determining an appropriate position as
A guiding step of guiding the photographing position of the photographed person determined to be appropriate as the position of the face of the photographed person to the photographed person by the determining step;
A collation step of performing a collation process between a face image including the face of the subject photographed by the photographing unit and a face image registered in the dictionary;
A face matching method characterized by having:
JP2002318733A 2002-10-31 2002-10-31 Face collating device and face collating method Pending JP2004152163A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002318733A JP2004152163A (en) 2002-10-31 2002-10-31 Face collating device and face collating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002318733A JP2004152163A (en) 2002-10-31 2002-10-31 Face collating device and face collating method

Publications (1)

Publication Number Publication Date
JP2004152163A true JP2004152163A (en) 2004-05-27

Family

ID=32461798

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002318733A Pending JP2004152163A (en) 2002-10-31 2002-10-31 Face collating device and face collating method

Country Status (1)

Country Link
JP (1) JP2004152163A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039863A (en) * 2013-08-23 2015-03-02 富士ゼロックス株式会社 Processing device
JP2015041323A (en) * 2013-08-23 2015-03-02 富士ゼロックス株式会社 Processor
CN105612473A (en) * 2013-09-12 2016-05-25 三菱电机株式会社 Manipulation input device and method, program, and recording medium

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015039863A (en) * 2013-08-23 2015-03-02 富士ゼロックス株式会社 Processing device
JP2015041323A (en) * 2013-08-23 2015-03-02 富士ゼロックス株式会社 Processor
CN104427158A (en) * 2013-08-23 2015-03-18 富士施乐株式会社 Processing apparatus
CN105612473A (en) * 2013-09-12 2016-05-25 三菱电机株式会社 Manipulation input device and method, program, and recording medium
US20160209927A1 (en) * 2013-09-12 2016-07-21 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
US9939909B2 (en) 2013-09-12 2018-04-10 Mitsubishi Electric Corporation Gesture manipulation device and method, program, and recording medium
CN105612473B (en) * 2013-09-12 2018-08-28 三菱电机株式会社 Operation input device and method

Similar Documents

Publication Publication Date Title
JP6106921B2 (en) Imaging apparatus, imaging method, and imaging program
JP4254873B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
US7672580B2 (en) Imaging apparatus and method for controlling display device
JP5385032B2 (en) Imaging apparatus and imaging control method
JP5261009B2 (en) Face image registration device
JP5652886B2 (en) Face authentication device, authentication method and program, information device
US20130002885A1 (en) Image pick-up apparatus and tracking method therefor
US20100073508A1 (en) Image-taking apparatus
JP2006211139A (en) Imaging apparatus
KR101248721B1 (en) Device with camera
US8243180B2 (en) Imaging apparatus
KR20120047594A (en) Digital photographing apparatus and control method thereof
KR20100081049A (en) Apparatus and method for photographing image in portable terminal
KR20090023218A (en) Image pickup apparatus, and image pickup method
JP2009117975A (en) Image pickup apparatus and method
JP2004349750A (en) Digital camera and control method therefor
JP2008301162A (en) Photography device, and photographing method
JP2017126915A (en) Imaging apparatus
KR20090038110A (en) Mobile terminal capable face recognition and method for face recognition thereof
JP2008072183A (en) Imaging apparatus and imaging method
JP2004152163A (en) Face collating device and face collating method
JP2005135271A (en) Face collation device and passage controller
JP2007258953A (en) Automatic photography system and instrument
EP2690859B1 (en) Digital photographing apparatus and method of controlling same
JP2004152127A (en) Face collating device and face collating method