JP2004152163A - Face collating device and face collating method - Google Patents
Face collating device and face collating method Download PDFInfo
- Publication number
- JP2004152163A JP2004152163A JP2002318733A JP2002318733A JP2004152163A JP 2004152163 A JP2004152163 A JP 2004152163A JP 2002318733 A JP2002318733 A JP 2002318733A JP 2002318733 A JP2002318733 A JP 2002318733A JP 2004152163 A JP2004152163 A JP 2004152163A
- Authority
- JP
- Japan
- Prior art keywords
- face
- photographing
- subject
- photographed
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
この発明は、例えば、特定領域の画像を撮影するカメラにより少なくとも顔を含む画像(顔画像)を撮影して予め登録されている顔画像との顔照合を行う顔照合装置及び顔照合方法に関する。
【0002】
【従来の技術】
従来、顔照合装置では、カメラにて撮影した画像から人物の顔画像を取得する度に顔の特徴量を抽出し、予め辞書に登録されている人物の特徴量と比較して顔照合を行う。また、顔照合を用いて通行制御を行う通行制御装置では、顔照合による予め辞書に登録されている人物との照合結果に基づいてドア制御する。
このような顔照合装置では、設置環境によっては上記カメラにて撮影する範囲内において照明や外光による反射などによって白く光って撮影される部分(白色領域)が存在することがある。上記カメラにて顔照合用の人物の顔を含む画像を撮影する際、上記白色領域の一部が顔の領域に重なった場合あるいは顔の領域の近傍に上記白色領域が存在する場合には、顔の領域を正確に検出できなかったり、顔の特徴量が正確に検出できなかったりすることがある。このため、従来の顔照合装置では、上記白色領域が顔の画像に影響を与える位置に存在すると、顔照合の精度が悪くなってしまうことがあるという問題点がある。
【0003】
【特許文献1】
特開2002−92601号公報
【特許文献2】
特開平11−161790号公報
【0004】
【発明が解決しようとする課題】
上記したように、この発明は、撮影手段が撮影する画像上に照明や外光などの光の反射による白色の領域が存在する場合、上記白色の領域の原因となる光の影響で顔照合の性能が悪化してしまうという問題点を解決するもので、撮影手段にて撮影される画像上に照明や外光などの光の反射による白色の領域が存在する場合であっても、顔照合の性能を維持することができる顔照合装置及び顔照合方法を提供することを目的とする。
【0005】
【課題を解決するための手段】
この発明の顔照合装置は、辞書に登録されている顔画像との照合処理を行うものにおいて、特定領域の画像を撮影する撮影手段と、この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段とを有する。
【0006】
この発明の顔照合方法は、特定領域の画像を撮影する撮影手段を有し、辞書に登録されている顔画像との照合処理を行う顔照合装置に用いられる方法であって、前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程とを有する。
【0007】
【発明の実施の形態】
以下、この発明の実施の形態について図面を参照して説明する。
図1は、この発明の実施の形態に係る顔の画像による個人認証を行う顔照合システム(通行制御システム)を概略的に示す図である。
図1に示すように、ユーザインターフェースユニット11、制御ユニット12、および通行制御ユニット13から構成される。上記ユーザインターフェースユニット11と制御ユニット12とは、顔照合装置を構成するものである。なお、上記ユーザインターフェースユニット11と制御ユニット12は、一体的に構成されていても良い。
【0008】
上記ユーザインターフェースユニット11は、カメラ21、表示部22、操作部23、スピーカ24などを有している。上記カメラ21は、デジタルビデオカメラなどにより構成される。このカメラ21は、設置位置に応じた特定の領域(撮影範囲)の画像を撮影するものであり、顔画像による照合処理時あるいは顔画像の登録時には上記撮影範囲内に存在する少なくとも人物の顔を含む画像を撮影するようになっている。このカメラ21は、常時、画像を撮影しているようにしても良いし、上記制御ユニット12からの指示に基づいて画像の撮影を行うようにしても良い。なお、上記カメラ21は、カラーであっても、モノクロであっても良い。上記表示部22は、液晶表示装置などで構成される。この表示部22は、上記カメラ21にて撮影中の画像、案内表示、あるいは顔照合の結果などを表示するものである。上記操作部23は、テンキーなどで構成される。上記操作部23は、個人識別情報としてのID番号やパスワードなどを入力するものである。上記スピーカ24は、音声案内などの音声を出力するものである。
【0009】
また、上記制御ユニット12は、顔照合システム全体の制御を行うものである。上記制御ユニット12は、顔画像による照合処理などを行うとともに、カメラ21、表示部22、操作部23、スピーカ24、自動ドア31(または電気錠33)などの制御を行うものである。
上記通行制御ユニット13は、自動ドア31、又は、電気錠制御盤32により制御される電気錠33が設置されたドアなどから構成される。例えば、通行制御ユニット13が自動ドア31で構成される場合、上記制御ユニット12は、自動ドア31の開閉を行うドア開閉機構(図示しない)に接続される。また、上記通行制御ユニット13がドアに設置された電気錠33で構成される場合、上記制御ユニット12は、電気錠33を制御する電気錠制御盤32に接続される。
【0010】
次に、上記制御ユニット12の構成について詳細に説明する。
図2は、上記制御ユニット12の内部構成を概略的に示すブロック図である。
図2に示すように、上記制御ユニット12は、CPUボード50、CPU51、メモリ52、画像入力部54、画像出力部55、音声出力部56、操作部インターフェース部57、ドア制御部59、ハードディスク60、および電源部61などを有している。
【0011】
上記CPUボード50には、CPU51、メモリ52、画像入力部54、画像出力部55、音声出力部56、操作部インターフェース部57、及びドア制御部59などが搭載される。上記CPU51は、上記制御ユニット12全体の制御を司るものである。上記メモリ52は、制御プログラムや制御データなどが記憶されるROM、作業用のデータなどを一時的に保存するRAMあるいはシステムの設定情報などが記憶されるPROMなどにより構成される。
上記画像入力部54は、上記カメラ21にて撮影した画像を入力するインターフェースである。上記画像出力部55は、上記表示部22に表示する画像を出力するインターフェースである。上記音声出力部56は、上記スピーカ24にて発生させる音声を出力するインターフェースである。上記操作部インターフェース部57は、上記操作部23にて入力された情報を制御ユニット12内に取り込むインターフェースである。上記ドア制御部59は、通行制御ユニット13に設けられる自動ドア31あるいは電気錠33の開閉制御を行うものである。例えば、ドアに電気錠33が設置される場合、上記ドア制御部59は、電気錠33の開錠および施錠を制御する電気錠制御盤32と接続される。
上記ハードディスク60は、種々のデータが記憶される装置である。このハードディスク60には、予め登録者の顔画像或は顔の特徴量が個人識別情報やパスワードなどに対応して記憶されている辞書60aが設けられている。上記電源部61は、CPUボード50、ドア制御部59、ハードディスク60などの制御ユニット12内の各部に電源を供給するものである。
【0012】
上記のように構成される顔画像照合システムでは、例えば、以下の条件が満たされている場合に、良好な照合精度が維持されるように設計されている。
1.外光を遮断する。
2.昼夜および年間を通して、被撮影者の顔が200ルクス〜600ルクスの照度内であり、かつ、照度の変動範囲が±100ルクスとする。
3.被撮影者がカメラから約40cm離れた位置に立つ。
4.カメラの仰角30°に映る被撮影者の顔を照合する。
しかしながら、上記のような条件に従って本顔照合システムを設置しても、撮影環境が変化した場合、カメラにて撮影される画像に照明や外光の反射による白色の領域が映り込んでしまうことがある。このような場合、照合用に撮影した顔の画像に上記白色領域の影響(白色領域の原因となる光の影響)が現れて、良好な照合精度が得られないことがある。例えば、カメラにて撮影される画像において顔の位置と上記白色領域の一部とが重なった場合(顔の輪郭部分と白色領域とが重なった場合)、撮影される画像において上記白色領域と重なっている顔の輪郭が光って、顔の領域が正確に検出できなかったり、顔の特徴量が正確に検出できなかったりする。このような場合には撮影された顔画像に対する照合精度が低下して良好な照合結果が得られない。そこで、本実施の形態では、上記白色で撮影される照明や外光などの反射に顔照合の性能が影響されないよう被撮影者に撮影位置などの案内を行うものである。
【0013】
次に、上記カメラ21により撮影される画像について説明する。
図3(a)、(b)は、上記カメラ21から入力される画像(取得画像)における各画素を説明するための図である。
上記カメラ21が図3(a)に示すような画像を撮影しているものとする。この場合、上記カメラ21が撮影した画像は、画像入力部54により制御ユニット12に取り込まれる。上記制御ユニット12のCPU51は、図3(b)に示すように、上記画像入力部54により取り込んだ取得画像に対して各画素をX方向にX0、X1、X2、…、Xn、Y方向にY0、Y1、Y2、…、Ynとしたマトリクス状のデータ構造体で示される画像データとする。また、取得画像の輝度は、X方向(X0、X1、X2、…、Xn)とY方向(Y0、Y1、Y2、…、Yn)とのマトリクス状のデータ構造で示される各画素を輝度値に変換することにより各画素の輝度値を示すマトリクス状のデータとして生成される。
【0014】
また、図3(a)には、照明や外光の反射による白色の領域(白領域)Wが存在している。この白領域Wは、照明や外光などがカメラ21のレンズ面などに反射して白く映り込んでいるものである。また、上記白領域Wは、照明や外光などの撮影環境が変化しない限り、上記カメラ21にて撮影される画像上において、常に一定の位置に現れる。
【0015】
例えば、上記白領域Wの一部に人物の顔などが重なった状態で画像を撮影すると、図3(a)に示すように、上記白領域Wが隣接する顔の領域部分が白くなってしまうため、顔画像が正常に撮影されないことがある。この場合には顔画像から顔の特徴量が正確に取得できないことがあるので、顔照合の性能が低下してしまう。しかしながら、上記カメラ21にて人物の顔を撮影する場合、人物の立ち位置によっては、上記白領域Wの原因となっている光を遮ることが可能であり、この場合には上記白領域Wによる顔画像への影響を避けることができる。また、上記白領域Wは、撮影環境が変化しなければ、特定の位置に出現するので上記白領域Wから離れた位置で顔画像を撮影すれば、上記白領域Wによる顔画像への影響を防ぐことも可能である。
【0016】
次に、上記白領域(基準白領域)Wを抽出する白領域抽出処理について説明する。
図4は、背景画像から白領域Wを検出する処理を説明するためのフローチャートである。ここで、白領域Wは、上記カメラ21にて撮影した基準とする背景のみの画像(人物などが存在しない状態で撮影された画像)から検出される白色の領域の画像領域であるものとする。なお、人物等が存在する場合であっても、撮影した画像から背景の領域を抽出し、その背景の領域について以下に説明する処理と同様の処理を行うことにより白領域を検出することができるものである。
【0017】
すなわち、図4に示すように、まず、上記カメラ21にて背景のみの画像(基準背景画像)を撮影する(ステップS11)。上記カメラ21にて撮影された基準背景画像は、上記制御ユニット12の上記画像入力部54により制御ユニット12に取り込まれる。上記制御ユニット12のCPU51は、上記カメラ21にて撮影した基準背景画像(取得画像)の各画素を輝度値に変換することにより取得画像全体における各画素の輝度値を示す輝度データを生成する(ステップS12)。取得画像全体における各画素の輝度値を示す輝度データが得られると、CPU51は、取得画像の各画素の輝度値に基づいて白点(白点画素)を判定する白点判定処理を行う(ステップS13)。この白点判定処理では、取得画像において所定の白点判定閾値Y以上の輝度値を有する画素を白点画素として抽出する。ここで、白点判定閾値Yは、白点と判定する画素の輝度値に対する閾値である。
【0018】
上記白点判定処理により取得画像における白点画素を抽出すると、CPU51は、白点画素からなる白領域Wを抽出する白領域抽出処理を行う(ステップS14)。この白領域抽出処理では、取得画像において隣接する白点画素からなる集合を白領域Wとして抽出する。すなわち、CPU51は、各白点画素に対して隣接する白点画素をカウントし、取得画像上の隣接する白点画素からなる集合を白領域Wとして抽出するものである。このような白点抽出処理により基準背景画像の白領域としての基準白領域Wを抽出すると、CPU51は、上記基準白領域Wの位置を示す情報を上記メモリ52などの記憶手段に記憶する(ステップS15)。上記のような白領域抽出処理により白色の領域(基準白領域)Wを示す情報がメモリ52に記憶される。
【0019】
なお、上記の動作例では、基準とする背景画像から白領域を検出しておくようにしたが、特定のタイミングで上記白領域を更新するようにしても良い。例えば、所定の周期ごとに上記のような背景画像からの白領域抽出処理を行って、上記白領域の位置情報を更新するようにしても良い。また、撮影位置における照明や外光などの環境が変化するタイミングに応じて上記白領域を更新するようにしても良い。また、顔照合を実行する際に背景領域について上記白領域抽出処理を行うことにより、白領域を検出するようにしても良い。これらのように、特定のタイミングで上記白領域抽出処理を行うことにより上記白領域を適宜更新することが可能となる。精度の高い案内を行うことが可能なる。
【0020】
次に、本顔照合システムにおける顔照合処理について説明する。
図5は、上記白領域Wに基づく撮影位置を案内しつつ顔照合を行う動作を説明するためのフローチャートである。
まず、本顔照合システムでは顔照合の待機状態において、上記カメラ21が画像を撮影しているものとする(ステップS21)。この顔照合の待機状態において、上記制御ユニット12のCPU51は、上記カメラ21にて撮影している画像における移動体の有無を判定することにより人物の存在を検出する(ステップS22)。なお、人間検知センサなどにより人物の有無を検出するようにしても良い。上記カメラ21にて撮影した画像から人物を検出すると(ステップS22、YES)、上記CPU51は、顔照合処理を開始する。顔照合処理を開始すると、上記CPU51は、上記画像入力部54により上記カメラ21にて撮影した画像を取得し、取得画像から顔の領域を検出する顔検出処理を行う(ステップS23)。
【0021】
この顔領域検出処理により顔領域を検出すると(ステップS23、YES)、CPU51は、上記メモリ52から上記基準白領域Wの位置を示す情報を読み出す(ステップS24)。これらの情報を読み出すと、CPU51は、上記基準白領域Wの一部に上記ステップS23で検出した顔の領域がオーバーラップしているか否かを判断する(ステップS25)。この判断により上記基準白領域Wの一部に顔領域がオーバーラップしていると判断した場合(ステップS25、YES)、上記CPU51は、顔の撮影位置として適切な顔の位置を判断する顔位置判定処理を行う(ステップS26)。この顔位置の判定処理では、撮影される顔に対して上記基準白領域Wの影響が少なくなるような位置を適切な顔の位置として判定する。
【0022】
このような顔位置判定処理により判定される適切な顔の位置としては、例えば、上記基準白領域Wの原因となっている光を被撮影者自身が隠してしまうような顔の位置(上記基準白領域Wに被撮影者自身が重なる位置)、あるいは、上記基準白領域Wから離れるような顔の位置などがある。また、上記顔位置判定処理により判定される適切な顔の位置は、上記カメラ21にて撮影される画像(撮影領域)上における上記基準白領域Wの位置や大きさなどに基づいて判定される。
【0023】
例えば、図6に示すように、上記カメラ21の撮影領域内において上記基準白領域Wが上記カメラ21の撮影領域の中心付近に存在する場合、CPU51は、被撮影者自身が上記基準白領域Wの原因となっている光を隠すような顔の位置を適切な顔の位置(図6に示すM2の領域)として判定する。また、図7に示すように、上記カメラ21の撮影領域内において上記基準白領域Wが上記カメラ21の撮影領域の端部(撮影領域の中心から離れた位置)付近に存在する場合、CPU51は、被撮影者の顔が上記基準白領域Wから離れた位置で撮影されるような顔の位置を適切な顔の位置(図7に示すM2の領域)として判定する。
【0024】
上記顔位置判定処理により適切な顔の位置を判定すると、CPU51は、上記表示部22により顔の位置として適切であると判定した領域を案内する顔位置の案内を行う(ステップS27)。この顔位置の案内では、例えば、図6及び図7に示すような案内画面が表示される。図6及び図7に示す案内画面では、上記カメラ21にて撮影中の画像上に、上記カメラ21に撮影されている画像から検出されている顔の領域を示すマークM1と顔の位置として適切と判定した顔の位置を示すマークM2が表示される。これらのような表示画面では、マークM2を表示することで適切な顔の位置を示すマークM2内に被撮影者の顔が撮影されるように、被撮影者が顔あるいは立ち位置を移動させるように案内している。つまり、上記表示画面では、被撮影者に対して、検出されている顔領域を示すマークM1と適切な顔の位置を示すマークM2とが一致するように動くよう案内しているものである。
【0025】
上記CPU51は、上記のような顔位置の案内画面を表示するとともに、上記カメラ21にて撮影した画像から顔の領域を検出する顔検出処理を行っている(ステップS28)。このような顔検出処理にて顔領域を検出すると、CPU51は、顔領域が適切な位置であるか否かを判定する処理を行う(ステップS29)。この判定処理では、例えば、検出した顔領域が上記ステップS26にて判定した適切な顔の位置に近いか否かにより顔が適切な位置で撮影されたか否かを判定するものとする。
上記判定処理において顔が適切な位置でないと判定した場合(ステップS29、NO)、上記CPU51は、上記ステップS28へ戻り、顔検出処理を再実行する。さらに、上記判定処理において顔が適切な位置でないと判定した回数が所定回数となった場合、つまり、上記ステップS28の顔検出処理を所定回数実行しても顔が適切な位置であると判定できなかった場合、上記CPU51は、上記ステップS21へ戻り、上記カメラ21にて撮影されている画像を取り込むことにより上記ステップS21からの処理を再度実行するようになっている。
【0026】
上記判定処理において顔が適切な位置で検出されたと判定した場合(ステップS29、YES)、上記CPU51は、適切な位置で顔が検出した画像を取得画像として顔照合処理を行う(ステップS30〜S34)。上記顔照合処理において、上記CPU51は、まず、取得画像から顔の特徴量を検出する顔の特徴量検出処理を行う(ステップS30)。この顔の特徴量検出処理により顔の特徴量を検出すると、上記CPU51は、取得画像から検出した顔の特徴量と上記辞書60aに登録されている顔の特徴量との照合度を算出し(ステップS31)、算出した照合度が所定の照合閾値以上であるか否かを判定する(ステップS32)。この判定により算出した照合度が所定の照合閾値以上である場合には顔照合が成功したものとし、照合度が所定の照合閾値以下である場合には顔照合が失敗したものとする。
【0027】
例えば、顔照合が成功したと判定した場合(ステップS32、YES)、CPU51は、上記表示部22に照合可である旨を案内表示するとともに、上記ドア制御部59により自動ドア31を開放したり、電気錠33を開錠したりすることにより当該人物の通行を許可する(ステップS33)。また、顔照合が失敗したと判定した場合(ステップS32、NO)、CPU51は、上記表示部22に照合が不可である旨を案内表示し、自動ドア31を閉鎖したままとしたり、電気錠33を施錠したままとしたりすることによって当該人物の通行を不可とする(ステップS34)。
【0028】
上記のように、撮影される画像に存在する白領域を検出してその白領域の位置を記憶しておき、顔照合のために被撮影者の顔画像を撮影する際、上記白領域の影響が少ない位置で顔が撮影されるよう案内するようにしたものである。これにより、撮影される領域内に照明や外光の反射に起因する白色の領域が存在していても顔照合に用いる顔画像における照明や外光の反射による影響を低減することができ、撮影領域内に照明や外光の反射による白色領域が存在する場合であっても安定した顔照合を行うことができる。
【0029】
【発明の効果】
以上詳述したように、本発明によれば、撮影手段にて撮影される画像上に照明や外光などの光の反射による白色の領域が存在する場合であっても、顔照合の性能を維持することができる顔照合装置及び顔照合方法を提供できる。
【図面の簡単な説明】
【図1】この発明の実施の形態に係る顔照合システムの概略構成を示す図。
【図2】顔照合システムの制御系統の構成を概略的に示す図。
【図3】カメラにより撮影される画像の例と画像上の画素の構成を示す図。
【図4】白領域を抽出する白領域抽出処理を説明するためのフローチャート。
【図5】本顔照合システムにおける顔照合処理を説明するためのフローチャート。
【図6】表示部に表示される案内画面の例を示す図。
【図7】表示部に表示される案内画面の例を示す図。
【符号の説明】
21…カメラ、22…表示部、23…操作部、31…自動ドア、33…電気錠、51…CPU、52…メモリ、54…画像入力部、55…画像出力部、59…ドア制御部、60…ハードディスク、60a…辞書[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to, for example, a face matching apparatus and a face matching method for taking an image (face image) including at least a face by a camera for taking an image of a specific area and performing face matching with a previously registered face image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a face matching apparatus extracts a face feature amount each time a face image of a person is obtained from an image captured by a camera, and performs face matching by comparing with a feature amount of a person registered in a dictionary in advance. . In a traffic control device that performs traffic control using face matching, door control is performed based on the result of face matching with a person registered in a dictionary in advance.
In such a face collation device, depending on the installation environment, there may be a part (white area) that is illuminated white due to illumination or reflection by external light, etc., within the range photographed by the camera. When capturing an image including the face of a person for face matching with the camera, when a part of the white area overlaps with the face area or when the white area exists near the face area, In some cases, the face area cannot be detected accurately, or the feature amount of the face cannot be detected accurately. For this reason, in the conventional face matching device, there is a problem that if the white area exists at a position that affects the face image, the accuracy of the face matching may be deteriorated.
[0003]
[Patent Document 1]
JP 2002-92601 A [Patent Document 2]
JP-A-11-161790
[Problems to be solved by the invention]
As described above, the present invention provides a method for face matching when an image captured by an image capturing unit includes a white area due to reflection of light such as illumination or external light due to the light that causes the white area. This solves the problem that performance deteriorates, and even when a white area exists due to the reflection of light such as illumination or external light on an image captured by the image capturing unit, face matching can be performed. It is an object of the present invention to provide a face matching device and a face matching method capable of maintaining performance.
[0005]
[Means for Solving the Problems]
A face matching apparatus according to the present invention performs a matching process with a face image registered in a dictionary, and includes: a photographing unit that photographs an image of a specific region; and a white color existing in the specific region photographed by the photographing unit. A storage unit for storing the position of the region, and when capturing a face image including at least the face of the subject by the imaging unit, an appropriate image corresponding to the position of the white region stored in the storage unit Guiding means for guiding the photographing position of the photographed person to the photographed person; collating a face image including the face of the photographed person photographed by the photographing means with a face image registered in the dictionary; Collating means for performing processing.
[0006]
The face matching method according to the present invention is a method used in a face matching device that has a photographing unit that photographs an image of a specific area and performs a matching process with a face image registered in a dictionary. A storage step of storing a position of a white area existing in a specific area to be captured in a storage unit; and storing the face image including at least a face of a subject by the imaging unit in the storage unit. A guiding step of guiding the subject to an appropriate photographing position of the subject corresponding to the position of the white area, and a face image including the face of the subject photographed by the photographing means. And a matching step of performing a matching process with a face image registered in the dictionary.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram schematically showing a face matching system (passage control system) for performing personal authentication using a face image according to an embodiment of the present invention.
As shown in FIG. 1, it comprises a
[0008]
The
[0009]
The
The
[0010]
Next, the configuration of the
FIG. 2 is a block diagram schematically showing an internal configuration of the
As shown in FIG. 2, the
[0011]
The
The
The
[0012]
The face image matching system configured as described above is designed to maintain good matching accuracy, for example, when the following conditions are satisfied.
1. Blocks external light.
2. It is assumed that the subject's face is within the illuminance of 200 lux to 600 lux throughout the day and night and throughout the year, and the illuminance variation range is ± 100 lux.
3. The subject stands about 40 cm away from the camera.
4. The subject's face reflected at the camera elevation angle of 30 ° is collated.
However, even if the face matching system is installed in accordance with the above conditions, if the shooting environment changes, a white area due to illumination or reflection of external light may be reflected in an image shot by the camera. is there. In such a case, the effect of the white area (the effect of light that causes the white area) appears on the face image captured for matching, and good matching accuracy may not be obtained. For example, when the position of the face and a part of the white area overlap in an image captured by the camera (when the outline of the face and the white area overlap), the white area overlaps in the captured image. The outline of the face is shining, and the face area cannot be detected accurately, or the feature amount of the face cannot be detected accurately. In such a case, the matching accuracy of the captured face image is reduced, and a good matching result cannot be obtained. Therefore, in the present embodiment, guidance of the photographing position and the like is provided to the subject so that the performance of face collation is not affected by the reflection of the illumination or external light photographed in white.
[0013]
Next, an image captured by the camera 21 will be described.
FIGS. 3A and 3B are diagrams for explaining each pixel in an image (acquired image) input from the camera 21. FIG.
It is assumed that the camera 21 is capturing an image as shown in FIG. In this case, the image captured by the camera 21 is taken into the
[0014]
In FIG. 3A, there is a white area (white area) W due to illumination or reflection of external light. In the white area W, illumination, external light, and the like are reflected on the lens surface of the camera 21 and reflected in white. Further, the white area W always appears at a fixed position on an image photographed by the camera 21 as long as the photographing environment such as illumination and external light does not change.
[0015]
For example, when an image is taken in a state where a person's face or the like overlaps a part of the white area W, the area of the face adjacent to the white area W becomes white as shown in FIG. Therefore, the face image may not be normally captured. In this case, the feature amount of the face cannot be accurately acquired from the face image in some cases, so that the performance of face matching is reduced. However, when the face of a person is photographed by the camera 21, it is possible to block the light that causes the white region W depending on the standing position of the person. The influence on the face image can be avoided. Further, the white region W appears at a specific position if the shooting environment does not change. Therefore, if a face image is taken at a position distant from the white region W, the influence of the white region W on the face image is reduced. It is also possible to prevent it.
[0016]
Next, a white region extraction process for extracting the white region (reference white region) W will be described.
FIG. 4 is a flowchart illustrating a process of detecting a white region W from a background image. Here, the white area W is an image area of a white area detected from an image of only a reference background captured by the camera 21 (an image captured without a person or the like). . Even when a person or the like exists, a white region can be detected by extracting a background region from a captured image and performing the same processing as that described below on the background region. Things.
[0017]
That is, as shown in FIG. 4, first, an image of only the background (reference background image) is captured by the camera 21 (step S11). The reference background image captured by the camera 21 is taken into the
[0018]
When the white point pixels in the acquired image are extracted by the white point determination processing, the
[0019]
In the above operation example, the white area is detected from the reference background image. However, the white area may be updated at a specific timing. For example, the white area extraction processing from the background image as described above may be performed at predetermined intervals to update the position information of the white area. Further, the white area may be updated according to the timing at which the environment such as illumination or external light at the shooting position changes. Further, the white area may be detected by performing the above-described white area extraction processing on the background area when performing face matching. As described above, by performing the white area extraction processing at a specific timing, the white area can be appropriately updated. It is possible to provide highly accurate guidance.
[0020]
Next, the face matching process in the face matching system will be described.
FIG. 5 is a flowchart for explaining an operation of performing face matching while guiding the shooting position based on the white area W.
First, in the face matching system, it is assumed that the camera 21 is capturing an image in a standby state of face matching (step S21). In the standby state for face matching, the
[0021]
When the face area is detected by the face area detection processing (step S23, YES), the
[0022]
As an appropriate face position determined by such face position determination processing, for example, a face position (the above-described reference There is a position where the subject himself / herself overlaps the white area W), or a position of the face that is away from the reference white area W. The appropriate face position determined by the face position determination process is determined based on the position and size of the reference white region W on an image (photographing region) photographed by the camera 21. .
[0023]
For example, as shown in FIG. 6, when the reference white area W is located near the center of the shooting area of the camera 21 in the shooting area of the camera 21, the
[0024]
When the appropriate face position is determined by the face position determination process, the
[0025]
The
If it is determined in the determination processing that the face is not at the appropriate position (step S29, NO), the
[0026]
When it is determined in the above determination process that a face is detected at an appropriate position (step S29, YES), the
[0027]
For example, when it is determined that the face matching is successful (step S32, YES), the
[0028]
As described above, when a white area existing in an image to be captured is detected and the position of the white area is stored, and when a face image of a subject is captured for face matching, the influence of the white area is determined. Is provided so that the face is photographed at a position where the number is small. This makes it possible to reduce the influence of illumination and reflection of external light on a face image used for face matching even when a white area due to illumination and reflection of external light exists in the area to be captured. Even when a white area exists due to illumination or reflection of external light in the area, stable face matching can be performed.
[0029]
【The invention's effect】
As described in detail above, according to the present invention, even when a white region exists due to reflection of light such as illumination or external light on an image captured by the capturing unit, the performance of face matching can be improved. A face matching device and a face matching method that can be maintained can be provided.
[Brief description of the drawings]
FIG. 1 is a diagram showing a schematic configuration of a face matching system according to an embodiment of the present invention.
FIG. 2 is a diagram schematically showing a configuration of a control system of the face matching system.
FIG. 3 is a diagram illustrating an example of an image captured by a camera and a configuration of pixels on the image.
FIG. 4 is a flowchart illustrating a white region extraction process for extracting a white region.
FIG. 5 is a flowchart for explaining face matching processing in the present face matching system.
FIG. 6 is a view showing an example of a guidance screen displayed on a display unit.
FIG. 7 is a diagram showing an example of a guidance screen displayed on a display unit.
[Explanation of symbols]
21: Camera, 22: Display Unit, 23: Operation Unit, 31: Automatic Door, 33: Electric Lock, 51: CPU, 52: Memory, 54: Image Input Unit, 55: Image Output Unit, 59: Door Control Unit, 60: Hard disk, 60a: Dictionary
Claims (8)
特定領域の画像を撮影する撮影手段と、
この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段と、
を有することを特徴する顔照合装置。In a face matching device that performs a matching process with a face image registered in a dictionary,
Photographing means for photographing an image of a specific area;
Storage means for storing a position of a white area existing in a specific area photographed by the photographing means;
When photographing a face image including at least the face of the subject by the photographing unit, an appropriate photographing position of the subject corresponding to the position of the white region stored in the storage unit is provided to the subject. Guidance means for guiding
Collation means for performing a collation process between a face image including the face of the subject photographed by the imaging means and a face image registered in the dictionary;
A face matching device comprising:
特定領域の画像を撮影する撮影手段と、
この撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶しておく記憶手段と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に基づいて前記撮影手段により撮影される前記被撮影者の顔の位置として適切な位置を判断する判断手段と、
この判断手段により前記被撮影者の顔の位置として適切と判断した前記被撮影者の撮影位置を前記被撮影者に対して案内する案内手段と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合手段と、
を有することを特徴する顔照合装置。In a face matching device that performs a matching process with a face image registered in a dictionary,
Photographing means for photographing an image of a specific area;
Storage means for storing a position of a white area existing in a specific area photographed by the photographing means;
When capturing a face image including at least the face of the subject by the photographing unit, the position of the face of the subject to be photographed by the photographing unit based on the position of the white region stored in the storage unit Determining means for determining an appropriate position as
Guide means for guiding the photographing position of the photographed person determined to be appropriate as the position of the face of the photographed person to the photographed person,
Collation means for performing a collation process between a face image including the face of the subject photographed by the imaging means and a face image registered in the dictionary;
A face matching device comprising:
前記案内手段は、前記判断手段により判断した前記白領域を前記被撮影者自身が隠すような前記被撮影者の撮影位置を前記被撮影者に対して案内する、ことを特徴する前記請求項4に記載の顔照合装置。The determining means determines the position of the face such that the position of the face of the subject hides the white area stored in the storage means,
5. The photographing device according to claim 4, wherein the guiding unit guides the photographing position of the subject such that the photographing person hides the white area determined by the determining unit. 2. The face matching device according to claim 1.
前記案内手段は、前記判断手段により判断した前記被認証者の顔の位置が前記白領域から離れるような撮影位置を前記被撮影者に対して案内する、ことを特徴とする前記請求項4に記載の顔照合装置。The determining means determines the position of the face such that the position of the face of the subject is away from the white area stored in the storage means,
The method according to claim 4, wherein the guiding means guides the photographing position to the subject such that the position of the face of the subject to be determined determined by the determining means is separated from the white area. The face matching device described in the above.
前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に対応する適切な前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程と、
を有することを特徴する顔照合方法。A face matching method used in a face matching device that has a shooting unit that shoots an image of a specific area and performs a matching process with a face image registered in a dictionary,
A storage step of storing a position of a white area existing in a specific area photographed by the photographing means in a storage means,
When photographing a face image including at least the face of the subject by the photographing unit, an appropriate photographing position of the subject corresponding to the position of the white region stored in the storage unit is provided to the subject. A guidance process for guiding
A collation step of performing a collation process between a face image including the face of the subject photographed by the photographing unit and a face image registered in the dictionary;
A face matching method characterized by having:
前記撮影手段により撮影される特定領域内に存在する白色領域の位置を記憶手段に記憶しておく記憶工程と、
前記撮影手段により少なくとも被撮影者の顔を含む顔画像を撮影する場合、前記記憶手段に記憶している前記白領域の位置に基づいて前記撮影手段により撮影される前記被撮影者の顔の位置として適切な位置を判断する判断工程と、
この判断工程により前記被撮影者の顔の位置として適切と判断した前記被撮影者の撮影位置を前記被撮影者に対して案内する案内工程と、
前記撮影手段にて撮影した前記被撮影者の顔を含む顔画像と前記辞書に登録されている顔画像との照合処理を行う照合工程と、
を有することを特徴する顔照合方法。A face matching method used in a face matching device that has a shooting unit that shoots an image of a specific area and performs a matching process with a face image registered in a dictionary,
A storage step of storing a position of a white area existing in a specific area photographed by the photographing means in a storage means,
When capturing a face image including at least the face of the subject by the photographing unit, the position of the face of the subject to be photographed by the photographing unit based on the position of the white region stored in the storage unit A determining step of determining an appropriate position as
A guiding step of guiding the photographing position of the photographed person determined to be appropriate as the position of the face of the photographed person to the photographed person by the determining step;
A collation step of performing a collation process between a face image including the face of the subject photographed by the photographing unit and a face image registered in the dictionary;
A face matching method characterized by having:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002318733A JP2004152163A (en) | 2002-10-31 | 2002-10-31 | Face collating device and face collating method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002318733A JP2004152163A (en) | 2002-10-31 | 2002-10-31 | Face collating device and face collating method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004152163A true JP2004152163A (en) | 2004-05-27 |
Family
ID=32461798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002318733A Pending JP2004152163A (en) | 2002-10-31 | 2002-10-31 | Face collating device and face collating method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004152163A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015039863A (en) * | 2013-08-23 | 2015-03-02 | 富士ゼロックス株式会社 | Processing device |
JP2015041323A (en) * | 2013-08-23 | 2015-03-02 | 富士ゼロックス株式会社 | Processor |
CN105612473A (en) * | 2013-09-12 | 2016-05-25 | 三菱电机株式会社 | Manipulation input device and method, program, and recording medium |
-
2002
- 2002-10-31 JP JP2002318733A patent/JP2004152163A/en active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015039863A (en) * | 2013-08-23 | 2015-03-02 | 富士ゼロックス株式会社 | Processing device |
JP2015041323A (en) * | 2013-08-23 | 2015-03-02 | 富士ゼロックス株式会社 | Processor |
CN104427158A (en) * | 2013-08-23 | 2015-03-18 | 富士施乐株式会社 | Processing apparatus |
CN105612473A (en) * | 2013-09-12 | 2016-05-25 | 三菱电机株式会社 | Manipulation input device and method, program, and recording medium |
US20160209927A1 (en) * | 2013-09-12 | 2016-07-21 | Mitsubishi Electric Corporation | Gesture manipulation device and method, program, and recording medium |
US9939909B2 (en) | 2013-09-12 | 2018-04-10 | Mitsubishi Electric Corporation | Gesture manipulation device and method, program, and recording medium |
CN105612473B (en) * | 2013-09-12 | 2018-08-28 | 三菱电机株式会社 | Operation input device and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6106921B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP4254873B2 (en) | Image processing apparatus, image processing method, imaging apparatus, and computer program | |
US7672580B2 (en) | Imaging apparatus and method for controlling display device | |
JP5385032B2 (en) | Imaging apparatus and imaging control method | |
JP5261009B2 (en) | Face image registration device | |
JP5652886B2 (en) | Face authentication device, authentication method and program, information device | |
US20130002885A1 (en) | Image pick-up apparatus and tracking method therefor | |
US20100073508A1 (en) | Image-taking apparatus | |
JP2006211139A (en) | Imaging apparatus | |
KR101248721B1 (en) | Device with camera | |
US8243180B2 (en) | Imaging apparatus | |
KR20120047594A (en) | Digital photographing apparatus and control method thereof | |
KR20100081049A (en) | Apparatus and method for photographing image in portable terminal | |
KR20090023218A (en) | Image pickup apparatus, and image pickup method | |
JP2009117975A (en) | Image pickup apparatus and method | |
JP2004349750A (en) | Digital camera and control method therefor | |
JP2008301162A (en) | Photography device, and photographing method | |
JP2017126915A (en) | Imaging apparatus | |
KR20090038110A (en) | Mobile terminal capable face recognition and method for face recognition thereof | |
JP2008072183A (en) | Imaging apparatus and imaging method | |
JP2004152163A (en) | Face collating device and face collating method | |
JP2005135271A (en) | Face collation device and passage controller | |
JP2007258953A (en) | Automatic photography system and instrument | |
EP2690859B1 (en) | Digital photographing apparatus and method of controlling same | |
JP2004152127A (en) | Face collating device and face collating method |