JP2007156541A - Person recognition apparatus and method and entry/exit management system - Google Patents

Person recognition apparatus and method and entry/exit management system Download PDF

Info

Publication number
JP2007156541A
JP2007156541A JP2005346876A JP2005346876A JP2007156541A JP 2007156541 A JP2007156541 A JP 2007156541A JP 2005346876 A JP2005346876 A JP 2005346876A JP 2005346876 A JP2005346876 A JP 2005346876A JP 2007156541 A JP2007156541 A JP 2007156541A
Authority
JP
Japan
Prior art keywords
person
recognition
biometric feature
registered
biometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2005346876A
Other languages
Japanese (ja)
Inventor
Hiroshi Sukegawa
寛 助川
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005346876A priority Critical patent/JP2007156541A/en
Publication of JP2007156541A publication Critical patent/JP2007156541A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person recognition apparatus and method and an entry/exit management system capable of recognizing subjects without depending on speeds at which the subjects pass and the number of subjects. <P>SOLUTION: The person recognition apparatus, for recognizing previously registered persons by means of the persons' face feature information, controls the accuracy of a recognition process and the subjects depending on the degree of load applied to the recognition process according to information about speeds at which the subjects pass, the number of passengers, distances to the passengers, and the time elapsed since the start of the recognition process. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、たとえば、対象者の顔、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈などの生体特徴情報を取得し、あらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置および人物認識方法に関する。   The present invention acquires, for example, biometric feature information such as a subject's face, retina, mouth, iris, fingerprint, palm print, ear, and part of a human body vein, and at least one biometric feature information registered in advance. The person recognition apparatus and the person recognition method for determining whether or not the target person is a person registered in advance.

また、本発明は、上記人物認識装置および人物認識方法を用いてセキュリティを必要とする部屋や施設等の入退場対象エリアに対する入退場を管理する人退場管理システムに関する。   The present invention also relates to a person exit management system for managing entrance / exit to an entrance / exit area such as a room or facility that requires security using the person recognition apparatus and person recognition method.

最近、たとえば、対象者の顔、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈などの生体特徴情報を取得し、あらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定することや、その判定結果に応じて入退場対象エリアに対する入退場の管理や警報を出力するといった技術が開発されている。これらの技術は、認識対象者にその都度立ち止まらせて意図的に認識処理を行なわせる方法もあれば、認識対象者が歩いているうちに本人の知らぬ間に認識処理を行なう方法など、さまざまな組合わせで応用例が見られる。   Recently, for example, biometric feature information such as the subject's face, retina, mouth, iris, fingerprint, palm print, ear, and part of the human body's vein has been acquired and collated with at least one pre-registered biometric feature information As a result, a technology has been developed to determine whether or not the target person is a pre-registered person, and to manage entrance and exit and output an alarm according to the determination result. . These technologies include various methods such as allowing the recognition target person to stop each time and intentionally perform the recognition process, or performing a recognition process while the recognition target person is walking without knowing the person. Application examples can be seen in various combinations.

しかしながら、特に、対象者の顔画像などの生体特徴情報を用いて人物認識を行なう人物認識装置や人退場管理システムにおいては、多くの対象者が連続して通行する場合や、対象者(通行者)の通行速度が速いなどといった場合に処理時間が間に合わず、高精度の認識処理が行なえないといった問題がある。   However, in particular, in a person recognition device or a person exit management system that performs person recognition using biometric feature information such as a face image of a target person, a case where a large number of target persons pass continuously or a target person (passers) ) Has a problem that the processing time is not enough and high-accuracy recognition processing cannot be performed.

そこで、最近、このような問題に対する類似した技術として、たとえば、登録データ間の類似度を総当りで求めておき、入力された照合データとの類似度から次に検索すべき人物の順番を変える技術(たとえば、特許文献1参照)がある。
特開2002−163652号公報
Therefore, recently, as a similar technique for such a problem, for example, the degree of similarity between registered data is obtained by brute force, and the order of persons to be searched next is changed based on the degree of similarity with input collation data. There exists a technique (for example, refer patent document 1).
JP 2002-163652 A

しかしながら、特許文献1の技術は、登録者内で似た人物の優先度を上げるのを主とした手法で、連続して通行する複数の対象者に対する認識処理の高速化に対して効果が得られるものではない。したがって、特許文献1の技術では従来の問題点を解決することはできない。   However, the technique of Patent Document 1 is mainly a technique for increasing the priority of similar persons within a registrant, and is effective in speeding up recognition processing for a plurality of subjects who pass continuously. It is not something that can be done. Therefore, the technique of Patent Document 1 cannot solve the conventional problems.

そこで、本発明は、対象者の通行速度や通行人数に依存せず対象者の認識を行なうことが可能となる人物認識装置、人物認識方法および入退場管理システムを提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a person recognition device, a person recognition method, and an entrance / exit management system that can recognize a subject without depending on the speed of the subject and the number of people.

本発明の人物認識装置は、対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置において、対象者の生体情報を含む画像を取得する画像取得手段と、この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識処理精度を決定する認識処理精度決定手段と、この認識処理精度決定手段により決定された認識処理精度に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識手段とを具備している。   The person recognition device of the present invention checks whether or not the subject is a pre-registered person by collating biometric feature information obtained from the subject with at least one or more biometric feature information registered in advance. In the person recognition device to be determined, an image acquisition unit that acquires an image including biological information of the subject, a biological detection unit that detects a biological region from the image acquired by the image acquisition unit, and the biological detection unit Biometric feature extraction means for extracting personal biometric feature information from the biometric area, registered biometric feature management means in which personal biometric feature information previously obtained from the biometric information of the subject is registered, and the subject The information is determined by the recognition processing accuracy determination means for determining the recognition processing accuracy according to the information related to the determined target person, and the recognition processing accuracy determination means. The target person is a person registered in advance by collating the biometric feature information extracted by the biometric feature extraction unit with the biometric feature information registered in the registered biometric feature management unit based on the recognition processing accuracy. Recognizing means for determining whether or not there is.

本発明の人物認識方法は、対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識方法において、対象者の生体情報を含む画像を取得する画像取得ステップと、この画像取得ステップにより取得された画像から生体領域を検出する生体検出ステップと、この生体検出ステップにより検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出ステップと、前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識処理精度を決定する認識処理精度決定ステップと、この認識処理精度決定ステップにより決定された認識処理精度に基づき、前記生体特徴抽出ステップにより抽出された生体特徴情報と、あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識ステップとを具備している。   According to the person recognition method of the present invention, it is determined whether or not the target person is a pre-registered person by collating biometric feature information obtained from the target person with at least one or more pre-registered biometric feature information. In the person recognition method to be determined, an image acquisition step for acquiring an image including the biological information of the subject person, a biological detection step for detecting a biological region from the image acquired by the image acquisition step, and the biological detection step A biometric feature extraction step for extracting personal biometric feature information from the biometric region, a recognition processing accuracy determination step for obtaining information relating to the subject, and determining a recognition processing accuracy in accordance with the obtained information relating to the subject, The biometric features extracted by the biometric feature extraction step based on the recognition processing accuracy determined by the recognition processing accuracy decision step. The subject is registered in advance by collating the information with the biometric feature information registered in the registered biometric feature management means in which the individual biometric feature information previously obtained from the subject's biometric information is registered. And a recognition step for determining whether the person is a person.

本発明の入退場管理システムは、入退場者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該入退場者はあらかじめ登録された人物であるか否かを判定し、この判定結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場管理システムにおいて、入退場者の生体情報を含む画像を取得する画像取得手段と、この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、あらかじめ入退場者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、前記入退場者に係る情報を求め、この求めた入退場者に係る情報に応じて認識処理精度を決定する認識処理精度決定手段と、この認識処理精度決定手段により決定された認識処理精度に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該入退場者はあらかじめ登録された人物であるか否かを判定する認識手段と、この認識手段の検索結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場制御手段とを具備している。   In the entrance / exit management system according to the present invention, is the entrance / exit person a pre-registered person by collating biometric feature information obtained from the entrance / exit with at least one pre-registered biometric feature information? In an entrance / exit management system that controls whether or not the entrance / exit person enters / exits the entrance / exit area based on the determination result, an image acquisition unit that acquires an image including biometric information of the entrance / exit person, and Biological detection means for detecting a biological area from the image acquired by the image acquisition means, biological feature extraction means for extracting personal biological feature information from the biological area detected by the biological detection means, and biological bodies of the entrance and exit persons in advance The registered biometric feature management means in which the individual biometric feature information obtained from the information is registered, and information related to the entry / exit person is obtained, and the obtained entry / exit person is obtained. Recognition processing accuracy determination means for determining the recognition processing accuracy according to the information, and the biometric feature information extracted by the biometric feature extraction means and the registered biometric feature based on the recognition processing accuracy determined by the recognition processing accuracy determination means Recognizing means for determining whether or not the entry / exit person is a person registered in advance by collating with the biometric feature information registered in the management means, and the entry / exit based on the search result of the recognition means Entry / exit control means for controlling entry / exit of the person to / from the entry / exit target area.

本発明によれば、対象者の通行速度、通行人数、対象者との距離、認識処理開始からの経過時間の情報から、認識処理にかけられる負荷の度合いに応じて認識処理の精度や対象者を制御することにより、できるだけ速い時点で認識処理を完了させることで対象者の通行速度や人数に依存せず対象者の認識を行なうことが可能となる人物認識装置、人物認識方法および入退場管理システムを提供できる。   According to the present invention, the accuracy of the recognition process and the target person are determined based on the degree of load applied to the recognition process from the information on the speed of the target person, the number of people passing, the distance from the target person, and the elapsed time from the start of the recognition process. A person recognition device, a person recognition method, and an entrance / exit management system that enable recognition of a target person without depending on the speed and number of people of the target person by completing recognition processing as quickly as possible by controlling Can provide.

以下、本発明の実施の形態について図面を参照して説明する。
なお、以下の説明では、対象者から得られた顔の特徴情報をあらかじめ登録された少なくとも1つ以上の顔の特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置を例として述べるが、本発明は顔以外の様々な生体特徴情報を含む画像を入力して対象者の認識を行なう方法に適用できるものであり、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈などの生体特徴情報を用いた人物認識装置としても適用可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, it is determined whether or not the target person is a pre-registered person by comparing the face characteristic information obtained from the target person with at least one or more pre-registered face characteristic information. The present invention can be applied to a method for recognizing a target person by inputting an image including various biological feature information other than the face, and includes a retina, mouth, iris, The present invention can also be applied as a person recognition apparatus using biometric feature information such as fingerprints, palm prints, ears, and some veins of the human body.

また、本発明が適用される対象としては、たとえば、指定された人物のみが通行を許可される場所や、通行者の中から要注意人物を検索する場合などが想定される。特に、通過したい場所を通行する人物が非常に多い場所などで効果を発揮し、たとえば、ビルディングや企業の建物のエントランスを出入りする人物を管理する入退場管理システムや、娯楽施設や交通機関などに対する入退場を管理する入退場管理システムといったアプリケーションが想定される。   In addition, as a target to which the present invention is applied, for example, a place where only a designated person is allowed to pass or a case where a person requiring attention is searched from passers-by are assumed. It is especially effective in places where there are a large number of people who pass through where you want to pass, such as for entrance / exit management systems that manage people entering and exiting buildings and corporate buildings, entertainment facilities, and transportation facilities. An application such as an entrance / exit management system for managing entrance / exit is assumed.

まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、対象者(以下、人物、入退場者ともいう)Mの顔画像(少なくとも顔を含んでいる画像)を撮影して入力する画像取得手段としてのカメラ100、カメラ100により撮像された画像をA/D変換してデジタル化するなどの画像処理を行なう画像入力部101、画像入力部101から得られた画像から顔および目、鼻などの顔部位の位置を検出する生体検出手段としての顔検出部102、顔検出部102により検出された顔領域の画像から個人の顔特徴情報を抽出する生体特徴抽出手段としての顔特徴抽出部103、顔の検出結果から認識対象となる人物の人数や通行速度などを求め、認識処理にかかる処理時間見積りと認識結果を出さなければいけない制限時間との関係から認識処理の精度を決定する認識処理精度決定手段としての計算負荷判定部104、あらかじめ対象者の顔画像から得られた個人の顔特徴情報を登録して管理している登録生体特徴管理手段としての登録顔特徴管理部105、計算負荷判定部104により決定された認識処理精度に基づき、入力された顔特徴情報と登録顔特徴管理部105に登録された顔特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識部106、認識部106の認識結果にあわせた制御信号や認識結果そのものを音声や画像等で出力する出力手段および入退場制御手段としての出力部107を有して構成されている。
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration of a person recognition apparatus according to the first embodiment. This person recognition apparatus captures images of a face image (an image including at least a face) of a target person (hereinafter also referred to as a person or an entrance / exit) M as an image acquisition unit that captures and inputs the image. An image input unit 101 that performs image processing such as A / D conversion and digitization of the captured image, and biometric detection that detects the position of a facial part such as the face, eyes, and nose from the image obtained from the image input unit 101 The face detection unit 102 as a means, the face feature extraction unit 103 as a biometric feature extraction means for extracting personal face feature information from the image of the face area detected by the face detection unit 102, and the recognition result from the face detection result Recognition processing accuracy determination that determines the accuracy of recognition processing based on the relationship between the estimated processing time for recognition processing and the time limit for which recognition results must be obtained by obtaining the number of people and the speed of traffic. A calculation load determination unit 104 as a means, a registered face feature management unit 105 as a registered biometric feature management means that registers and manages personal face feature information obtained beforehand from the face image of the subject, a calculation load determination unit Whether the target person is a person registered in advance by collating the input facial feature information with the facial feature information registered in the registered facial feature management unit 105 based on the recognition processing accuracy determined in 104. A recognition unit 106 that determines whether or not, an output unit that outputs a control signal in accordance with the recognition result of the recognition unit 106 or the recognition result itself by sound or image, and an output unit 107 as an entrance / exit control unit. ing.

以下、各部について詳細に説明する。
カメラ100は、対象者Mの顔画像を撮像して入力するもので、たとえば、CCDセンサなどの撮像素子を用いたテレビジョンカメラなどを主体に構成されている。なお、計算負荷判定部104で対象者Mの通行速度を求める場合に画像以外の補助手段を利用するようであれば、カメラ100に対して距離センサや速度測定器などの入力手段を併設することも可能である。その場合、カメラ100で撮像した画像については画像入力部101に出力し、距離センサや速度測定器などの入力手段で取得した情報は計算負荷判定部104に出力する。
画像入力部101は、カメラ100により撮像された画像をA/D変換してデジタル化した後、顔検出部102へ送る。
Hereinafter, each part will be described in detail.
The camera 100 captures and inputs a face image of the subject M, and is mainly composed of, for example, a television camera using an image sensor such as a CCD sensor. Note that if the calculation load determination unit 104 uses the auxiliary means other than the image when obtaining the travel speed of the subject M, an input means such as a distance sensor or a speed measuring device is provided along with the camera 100. Is also possible. In this case, an image captured by the camera 100 is output to the image input unit 101, and information acquired by an input unit such as a distance sensor or a speed measuring device is output to the calculation load determination unit 104.
The image input unit 101 performs A / D conversion on the image captured by the camera 100 and digitizes the image, and then sends the image to the face detection unit 102.

顔検出部102は、まず、カメラ100で入力された画像から対象者Mの顔領域を検出する。たとえば、カメラ100からの入力画像内において、あらかじめ用意されたテンプレートを画像内で移動させながら相関値を求めることにより、最も高い相関値を与える位置を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などの顔検出手段でもよい。   The face detection unit 102 first detects the face area of the subject M from the image input by the camera 100. For example, in the input image from the camera 100, a correlation value is obtained while moving a template prepared in advance in the image, so that the position that gives the highest correlation value is set as the face region. In addition, face detection means such as a face region extraction method using an eigenspace method or a subspace method may be used.

顔検出部102は、次に、検出された顔領域の部分の中から、目、鼻、口といった顔部位の位置を検出する。その検出方法としては、たとえば、文献[1](福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年))に開示されている方法などを用いてよい。   Next, the face detection unit 102 detects the position of a face part such as eyes, nose, and mouth from the detected face area. As the detection method, for example, Document [1] (Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE Transactions (D), vol. J80-D- II, No. 8, pp 2170-2177 (1997)) may be used.

なお、上記目、鼻の検出の他に口領域の検出については、たとえば、文献(湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004))の技術を利用することで容易に実現が可能である。   In addition to the above eye and nose detection, the detection of the mouth area is described, for example, in the literature (Mayumi Yuasa, Akiko Nakajima: “Digital Make System Based on High-Precision Facial Feature Point Detection” Proc. It can be easily realized by using the technology of pp219-224 (2004).

また、指紋や静脈のパターンについても、たとえば、文献[2](財団法人光産業技術振興協会(http://www.oitda.or.jp/index−j.html):2003年度光技術動向調査「15−003−1 光技術動向調査報告書」,5章「ヒューマンインターフェース」(2003年))に記述された入力手段や技術を利用することで実現が可能である。いずれの場合でも、2次元配列状の画像として取扱える情報を取得し、その中から生体特徴の領域を検出することが可能である。   As for fingerprints and vein patterns, for example, reference [2] (Optical Industry Technology Promotion Association (http://www.oitda.or.jp/index-j.html): FY2003 Optical Technology Trend Survey This can be realized by using the input means and technology described in “15-003-1 Optical Technology Trend Survey Report”, Chapter 5 “Human Interface” (2003)). In any case, it is possible to acquire information that can be handled as a two-dimensional array image and detect a region of the biometric feature from the acquired information.

また、これらの処理は1枚の画像の中から1つの生体特徴情報だけを抽出するには全画像に対してテンプレートとの相関値を求め、最大となる位置とサイズを出力すればよいし、複数の生体特徴情報を抽出するには画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込み、最後は連続して入力された過去の画像との関係性(時間的な推移)も考慮して最終的に複数の生体特徴情報を同時に見つけることも可能となる。本実施の形態では、特に複数の生体特徴情報が同時に検出されたときなどに効果が現れやすい。   In addition, in these processes, in order to extract only one piece of biometric feature information from one image, the correlation value with the template is obtained for all images, and the maximum position and size may be output. To extract multiple pieces of biometric feature information, find the local maximum correlation value for the entire image, narrow down the candidate face positions in consideration of the overlap in one image, and finally enter the past It is also possible to finally find a plurality of pieces of biological feature information at the same time in consideration of the relationship (temporal transition) with the image. In the present embodiment, an effect is likely to appear particularly when a plurality of pieces of biological feature information are detected at the same time.

顔特徴抽出部103は、顔検出部102で検出された部品の位置をもとに、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。これらは単純類似度法という手法によりベクトルとベクトルの長さをそれぞれ「1」とするように正規化を行ない、内積を計算することで特徴ベクトル間の類似性を示す類似度が求められる。   The face feature extraction unit 103 cuts out a face area into a certain size and shape based on the position of the component detected by the face detection unit 102, and uses the density information as a feature amount. Here, the gray value of an area of m pixels × n pixels is used as information as it is, and m × n-dimensional information is used as a feature vector. These are normalized so that the vector and the length of each vector are set to “1” by a method called a simple similarity method, and a similarity indicating the similarity between feature vectors is obtained by calculating an inner product.

1枚の画像で認識結果を出すような処理であればこれで特徴抽出は完了するが、連続した複数の画像を利用した動画像による計算をすることで、より精度の高い認識処理が行なえるため、本実施の形態ではこちらの手法を例にとって説明を行なう。カメラ100から連続して得られた画像から、特徴抽出部103と同様にm×nピクセルの画像を切り出し、これらの画像から特徴ベクトルの相関行列を求め、周知のK−L展開による正規直交ベクトルを求めることにより、連続した画像から得られる顔の特徴を示す部分空間を計算する。   If it is a process that produces a recognition result with a single image, the feature extraction is completed in this way, but a more accurate recognition process can be performed by calculating with a moving image using a plurality of consecutive images. For this reason, in this embodiment, this method will be described as an example. Similar to the feature extraction unit 103, images of m × n pixels are cut out from images continuously obtained from the camera 100, a correlation matrix of feature vectors is obtained from these images, and an orthonormal vector by a well-known KL expansion is obtained. To calculate a subspace indicating the facial features obtained from successive images.

部分空間の計算法は、特徴ベクトルの相関行列(または、共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトルの集合を用いて表現する。本実施の形態では、相関行列Cdを特徴ベクトルから求め、相関行列

Figure 2007156541
The subspace calculation method calculates a subspace by obtaining a correlation matrix (or covariance matrix) of feature vectors and obtaining an orthonormal vector (eigenvector) by KL expansion. In the subspace, k eigenvectors corresponding to eigenvalues are selected in descending order of eigenvalues and expressed using a set of the eigenvectors. In the present embodiment, the correlation matrix Cd is obtained from the feature vector, and the correlation matrix is obtained.
Figure 2007156541

と対角化して、固有ベクトルの行列Φを求める。この情報が現在認識対象としている人物の顔の特徴を示す部分空間となる。また、あらかじめ登録顔特徴管理部105に登録される部分空間についても、ここで計算された部分空間そのものを登録するだけでよい。 And a matrix Φ of eigenvectors is obtained. This information becomes a partial space indicating the characteristics of the face of the person currently recognized. In addition, regarding the partial space registered in advance in the registered face feature management unit 105, it is only necessary to register the partial space itself calculated here.

計算負荷判定部104は、入力された画像内から検索された顔の数や現在の顔の存在すると思われる位置、それぞれの人物の通行速度などから統合して計算負荷を計算し、認識部106に対してどのような処理精度での計算を行なえばよいのか、顔1つ1つに対する処理の方法または全体の処理の方法を決定して出力する。ここでの出力値は、1名当たりに許される認識処理時間の長さを示す係数とし、数字の大きいものほど処理時間に余裕があってじっくりと精度の高い計算ができ、その逆で数字が小さい場合には処理時間に余裕がなく精度の簡単な処理のみを行なうべき状態であることを示す。これらの数値の求め方としては基本的には、
・同時通行人数が多ければ多いほど1名当たりの処理時間を短くするよう係数調整を行なう、
・通行者の歩行速度が速ければ早いほど1名あたりの処理時間を短くするよう係数調整する、
・同一人物の認識処理開始からの経過時間が長ければ長いほど1名当たりの処理時間を長くするよう係数調整を行なう、
といったことを遵守するよう計算式を求めておけばよく、上記3要素を係数とした関数を求めてもよいし、たとえば、図2に示すようなテーブルをあらかじめ作成しておくことで、「通行人数N」、「通行速度V」から処理時間の係数が求まり、この係数に「認識処理開始からの経過時間T」を掛けることで、顔の認識にかけるべき処理時間が求められる。
The calculation load determination unit 104 calculates the calculation load by integrating the number of faces searched from the input image, the position where the current face is supposed to be present, the passing speed of each person, and the like, and the recognition unit 106 In what processing accuracy should be calculated for each face, the processing method for each face or the entire processing method is determined and output. The output value here is a coefficient that indicates the length of recognition processing time allowed per person. The larger the number, the more processing time is available and the more accurate calculation can be done, and vice versa. If it is small, it indicates that there is no margin in processing time and only simple processing with accuracy should be performed. Basically, how to get these numbers
・ Coefficient adjustment to shorten the processing time per person as the number of people passing at the same time increases.
・ The faster the passerby's walking speed, the faster the coefficient adjustment to shorten the processing time per person.
-The coefficient adjustment is performed so that the longer the elapsed time from the start of the same person recognition process, the longer the processing time per person.
It is sufficient to obtain a calculation formula so as to comply with the above, and a function with the above three elements as coefficients may be obtained. For example, by creating a table as shown in FIG. A coefficient of processing time is obtained from the “number of people N” and “passing speed V”, and the processing time to be used for face recognition is obtained by multiplying this coefficient by “elapsed time T from the start of recognition processing”.

ここで、図3を例にとって具体的に説明すると、[1]の画像の状態では、まだ全員認識対象となっており、同時に画面に4名の人物A〜Dが存在する状態で、画面手前に向って全員が歩いてきている状況。ここでは人数も多いことから、処理時間が短い処理を選択するように出力する。ここでうまい具合にAとCの人物が充分の信頼度を得た上で認識できれば、当該人物は認識対象から除外する。ここに、「充分の信頼度が得られた」というのは、認識の類似度が充分に高く、確実にその人物だといえるほどの余裕があったことを示す。   Here, FIG. 3 will be specifically described as an example. In the state of the image [1], everyone is still a recognition target, and at the same time there are four persons A to D on the screen, and the front side of the screen. The situation where everyone is walking toward. Here, since there are many people, it outputs so that processing with short processing time may be selected. If the persons A and C can be recognized with good reliability, they are excluded from the recognition targets. Here, “sufficient reliability is obtained” indicates that the degree of similarity in recognition is sufficiently high and there is a margin enough to say that the person is sure.

引き続き、[2]の画像の時点では、同じく4名の人物A〜Dが存在しているが、この時点で既に前の画像からの追跡処理(トラッキング)により、AとCの人物が認識結果を出した人物だと判定できるため、当該人物A,Cは類似度演算の処理対象から除外し、残り2名の人物B,Dだけの類似度演算を行なう。   Subsequently, at the time of the image [2], there are also four persons A to D. At this time, the persons A and C are already recognized by the tracking process (tracking) from the previous image. Therefore, the persons A and C are excluded from the processing target of the similarity calculation, and the similarity calculation is performed only for the remaining two persons B and D.

ここで、2名の人物A,Cが既に対象から除外されているため、残り2名の人物B,Dの処理であることから、[1]の画像に比べ処理時間のかかる類似度演算をするように設定してよい。ただし、処理時間がかかる精度の高い類似度演算を行なった場合には、計算自体の信頼性が高くなるため、類似度演算に対する閾値処理については[1]の画像の場合に比べゆるめても問題がない。
なお、[2]の画像では、残り2名の認識処理で「誰」とは充分な確信度をもって判定できなかった場合は、引き続き次の画像で処理を行なう。
Here, since the two persons A and C have already been excluded from the target, the processing of the remaining two persons B and D is performed, and therefore, similarity calculation that requires more processing time than the image of [1] is performed. You may set it to do. However, when the similarity calculation with high accuracy that takes processing time is performed, the reliability of the calculation itself becomes high. Therefore, it is not necessary to relax the threshold processing for the similarity calculation compared to the case of the image [1]. There is no.
In the case of the image [2], if it is not possible to determine “who” with sufficient certainty in the recognition process for the remaining two persons, the process continues with the next image.

引き続き、[3]の画像では、人物Aが視界から消えたため、残り3名の処理を行えばよいが、人物Cは既に認識済みであるため、[2]の画像と同様に残り2名の人物B,Dの類似度演算を行なえばよい。ただし、[2]の画像に比べ[3]の画像は認識を開始してからの経過時間が異なり、[3]の画像の方が時間が経過しているため、同じ2名であっても処理時間をやや長いものに変更して行なうようにする。ここでBの人物が認識できたとする。   Subsequently, in the image [3], since the person A disappeared from the field of view, the remaining three persons may be processed. However, since the person C has already been recognized, the remaining two persons are similar to the image [2]. What is necessary is just to perform the similarity calculation of the persons B and D. However, since the time elapsed since the start of recognition is different for the image [3] compared to the image [2], and the time for the [3] image has elapsed, Change the processing time to a slightly longer one. Here, it is assumed that the person B can be recognized.

[4]の画像に移行すると、人物Bも視界から消え、人物Cが認識済みであるため、残りの人物Dの1名だけになる。こうなると、1名だけであるため、処理時間は[3]の画像までに比べて充分に時間をとることが可能となる。ここでDの人物も認識できれば、[5]の画像では処理を行なわなくてよいこととなる。   When shifting to the image of [4], the person B also disappears from the field of view, and the person C has already been recognized, so that there is only one person of the remaining person D. In this case, since there is only one person, the processing time can be sufficiently longer than the image up to [3]. If the person D can also be recognized, the image [5] does not have to be processed.

このように、多人数が通行場所に現れた場合には、経過時間や人数にあわせて計算時間の長い処理に移行していくようなことが理想的となる。ここの例で出てこなかった「通行速度」についてであるが、同じ人数が通行している場合であれば、通行速度が速ければ速いほど画面の中に顔が映っている時間が短くなるため、画面から消える前にできるだけ確実に認識できるように、処理時間が長い処理に速めに切換えることとする。   In this way, when a large number of people appear in a traffic place, it is ideal to shift to a process with a long calculation time in accordance with the elapsed time or the number of people. As for “traffic speed” that did not appear in the example here, if the same number of people are passing, the faster the passing speed, the shorter the time the face is reflected in the screen. In order to be able to recognize as reliably as possible before disappearing from the screen, the processing is switched to a processing with a longer processing time.

また、カメラ100から人物Mまでの距離が遠いのか近いのかも画像でわかり、カメラ100に近いことは画面から消える時間までが短いとして、より処理時間のかかる処理で確実に登録されている人物かどうかの判定を行なう。通行速度については、顔の追跡結果から単位時間の移動量が見積もれるため、画像処理で計算できるほか、距離センサや速度計測器を使って実際に通行速度を計算して反映させることも考えられる。   Whether the distance from the camera 100 to the person M is far or near can also be seen in the image. If it is close to the camera 100, the time until it disappears from the screen is short. Judge whether or not. The travel speed can be calculated by image processing because the amount of movement per unit time can be estimated from the face tracking results, and it is also possible to actually calculate and reflect the travel speed using a distance sensor or speed meter. .

同様に、距離についても、顔のサイズや画面内の位置によって推測は可能だが、距離センサを使えば確実に距離が分かることとなる。ここで述べている距離センサや速度計測器については、カメラ100に併設しておき、出力された情報をこの計測負荷判定部104に送ればよい。   Similarly, the distance can be estimated based on the size of the face and the position in the screen, but the distance can be surely understood by using the distance sensor. The distance sensor and speed measuring instrument described here may be provided in the camera 100 and the output information may be sent to the measurement load determination unit 104.

図3の[1]の画像に示すような例では、Aの人物はカメラ100に近く、Dの人物はカメラ100から遠いことが分かる。これらは距離センサを使って実際の距離を計測してもよいし、画像内の顔の大きさやY座標によって顔の近さが計算できるため、こちらの手法を用いてもよい。   In the example shown in the image of [1] in FIG. 3, it can be seen that the person A is close to the camera 100 and the person D is far from the camera 100. For these, the actual distance may be measured using a distance sensor, and since the proximity of the face can be calculated based on the size of the face in the image and the Y coordinate, this method may be used.

ここでは、画面内の人物全体に対して処理時間の長さを同時に切換えている例を示したが、人物別にカメラとの距離や認識処理開始からの経過時間、顔画像の得られる解像度も違うことから、最後まで認識計算に失敗してきた人物は画面から消えると思われる前に処理時間が長く確実な処理を行なうことによって、「未登録者」か「登録者」であるかが分かる。   Here, an example is shown in which the length of processing time is simultaneously switched for the entire person on the screen, but the distance from the camera, the elapsed time from the start of recognition processing, and the resolution for obtaining a face image are different for each person. Therefore, a person who has failed in the recognition calculation until the end can recognize whether it is “unregistered” or “registrant” by performing a certain process with a long processing time before it seems to disappear from the screen.

なお、図3において、(a)は処理内容説明文を、(b)は入力画像を、(c)はカメラ100に対する対象者の位置関係を、それぞれ示している。   In FIG. 3, (a) shows a processing content description, (b) shows an input image, and (c) shows the positional relationship of the subject with respect to the camera 100.

登録顔特徴管理部105は、人物を同定するためにカメラ100から入力される顔特徴情報と同一の顔特徴情報を保存し管理する。本実施の形態では、カメラ100から得られる顔特徴情報と同一の特徴抽出をした後のm×nの特徴ベクトルとするが、特徴抽出をする前の顔画像であってもよいし、利用する部分空間やK−L展開を行なう直前の相関行列でも構わない。これらはID番号をキーとして識別情報を蓄積する。ここで保持する顔特徴情報は1名あたり1つでもよいし、状況によって切換えたり、同時に認識に利用できるように複数の登録顔特徴情報を保持していてもかまわない。   The registered face feature management unit 105 stores and manages the same face feature information as the face feature information input from the camera 100 in order to identify a person. In the present embodiment, the same feature extraction as the face feature information obtained from the camera 100 is used as an m × n feature vector, but a face image before feature extraction may be used or used. A correlation matrix immediately before subspace or KL expansion may be used. These store identification information using an ID number as a key. The face feature information held here may be one per person, or a plurality of registered face feature information may be held so that they can be switched depending on the situation or used for recognition at the same time.

認識部106は、特徴抽出部103で得られた入力部分空間と登録顔特徴管理部105にあらかじめ登録された1つまたは複数の部分空間との類似度を求めることにより、あらかじめ登録された人物が現在の画像中にいるかどうかを判定することが可能となる。   The recognizing unit 106 obtains a similarity between the input subspace obtained by the feature extracting unit 103 and one or a plurality of subspaces registered in advance in the registered face feature managing unit 105, so that a person registered in advance can be obtained. It is possible to determine whether the current image is present.

部分空間同士の類似度を求める計算方法は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での計算方法は、たとえば、文献[3](前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」,電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345〜352(1985年))に開示されている相互部分空間法を用いる。この方法では、あらかじめ蓄えられた登録情報の中の認識データも入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、

Figure 2007156541
As a calculation method for obtaining the similarity between subspaces, a method such as a subspace method or a compound similarity method may be used. The calculation method in the present embodiment is described in, for example, Document [3] (Kenichi Maeda, Sadaichi Watanabe: “Pattern Matching Method Introducing Local Structure”, IEICE Transactions (D), vol. D, No. 3, pp 345-352 (1985)). In this method, recognition data and input data in registration information stored in advance are expressed as partial spaces, and an “angle” formed by two partial spaces is defined as a similarity. The subspace input here is referred to as an input subspace. Similarly, a correlation matrix Cin is obtained for the input data string,
Figure 2007156541

と対角化し、固有ベクトルΦinを求める。2つのΦin,Φdで表される部分空間の部分空間間類似度(0.0〜1.0)を求め、これを認識するための類似度とする。 And the eigenvector Φin is obtained. The similarity between subspaces (0.0 to 1.0) of the subspaces represented by two Φin and Φd is obtained and used as the similarity for recognizing this.

入力画像内に複数の顔が存在する場合には、それぞれ順番に登録顔特徴管理部105に保存された顔画像(辞書)との類似度計算を総当りで計算すれば、全ての人物に対する結果を得ることができる。たとえば、X名の人物が歩いてきた場合に、Y名の辞書が存在すれば、X*Y回の類似度演算を行なうことで、X名全員の結果が出力できる。   When there are a plurality of faces in the input image, if the similarity calculation with the face image (dictionary) stored in the registered face feature management unit 105 is calculated in a round-robin order, the results for all persons are obtained. Can be obtained. For example, when a person with X names walks and a dictionary with Y names exists, the result of all X names can be output by performing the similarity calculation X * Y times.

また、m枚の画像が入力された計算結果で認識結果が出力できない場合(登録者の誰とも判定されず、次のフレーム画像を取得して計算する場合)には、上記部分空間に入力される相関行列をそのフレームの1つ分を過去の複数のフレームで作成された相関行列の和に追加し、再度固有ベクトルの計算、部分空間の作成を行なって入力側の部分空間の更新が可能となる。つまり、通行者の顔画像を連続して撮影して照合を行なう場合、画像を1枚ずつ取得して部分空間を更新しながら照合計算をしていくことで、徐々に精度の高くなる計算も可能となる。   Also, if the recognition result cannot be output as the calculation result when m images are input (when the next frame image is acquired and calculated without being determined by any registrant), it is input to the partial space. It is possible to update the input side subspace by adding one of the frames to the sum of the correlation matrices created in the past multiple frames, calculating the eigenvectors, and creating the subspace again. Become. In other words, when the face images of passersby are photographed continuously and collation is performed, the collation calculation is performed while acquiring the images one by one and updating the partial space. It becomes possible.

ここで、計算負荷判定部104から全員、または1名ずつ個別に計算処理時間にかけられる長さの係数を通知されるようになっているため、係数が大きい人物はより時間をかけて確実に認証処理を行なうようにする。一方で、係数が小さい人は処理時間の短い処理で認識閾値をやや高めにして計算を行なう。   Here, since the calculation load determination unit 104 is notified of the coefficient of the length that can be applied to all or one person individually, the person with a large coefficient is surely authenticated over time. Do processing. On the other hand, a person with a small coefficient performs a calculation with a slightly higher recognition threshold in a process with a short processing time.

具体的に、処理時間の長さの変更については、
(1)入力画像中から得られた顔領域の切り出す解像度を高くする(図4参照)、
(2)処理対象領域を広げる(図5参照)、
(3)類似度演算を用いる部分空間の面数を変更する(文献[3]参照)、
などといったことで調整可能となる。上記(1)は、より顔が近い状態にあるときに選択されることが多く、顔の決まった領域に対してより解像度の高い顔画像を獲得しやすい。上記(2)については、最初は顔の中の一部パーツのみなどにしておき、徐々に処理対象となる顔のパーツを増やすことや、処理対象領域の面積自体を広げることでも可能である。上記(3)の面数とは、相互部分空間法においていくつのベクトルを利用して類似度の計算をするかであり、面数を増やせば精密に、減らせば簡単にという傾向が強い。ただし、あまりに面数を増やすと処理時間の増え方が自乗オーダ以上で変化するため、面数を単純に増やしすぎてしまうと認識精度もまた低下する可能性がある。
Specifically, regarding changes in the length of processing time,
(1) Increasing the resolution of the face region obtained from the input image (see FIG. 4)
(2) Widen the processing target area (see FIG. 5),
(3) Change the number of subspaces using similarity calculation (see reference [3]),
It becomes possible to adjust by such things. The above (1) is often selected when the face is in a closer state, and it is easy to obtain a face image with a higher resolution for a predetermined area of the face. With regard to (2) above, it is possible to initially set only some parts in the face, etc., and gradually increase the number of face parts to be processed or increase the area of the processing target area itself. The number of faces in (3) above is the number of vectors used to calculate the similarity in the mutual subspace method, and there is a strong tendency to increase the number of faces precisely and easily if it decreases. However, if the number of surfaces is increased too much, the method of increasing the processing time changes in a square order or more, so if the number of surfaces is simply increased too much, the recognition accuracy may also decrease.

なお、図4において、(a)は低解像度の場合を、(b)は中解像度の場合を、(c)は高解像度の場合を、それぞれ示している。また、図5において、(a)は対象領域が少ない場合を、(b)は対象領域が中間の場合を、(c)は対象領域が多い場合を、それぞれ示している。   4A shows the case of low resolution, FIG. 4B shows the case of medium resolution, and FIG. 4C shows the case of high resolution. 5A shows a case where the target area is small, FIG. 5B shows a case where the target area is intermediate, and FIG. 5C shows a case where the target area is large.

計算負荷判定部104の結果と認識部106の結果とから、処理時間に対する余裕がなく短時間での照合が必要とされた場合に、計算処理としての信頼度は下がる方向になることから、基本的には認識結果を断定するための閾値については厳しめに設定することが基本となる。つまり、「信頼性の低い計算をした場合でも確実に特定人物だと断言できるだけの類似度」が出た場合に絞込み処理を行なうこととなる。   From the result of the calculation load determination unit 104 and the result of the recognition unit 106, when there is no allowance for the processing time and a short-time collation is required, the reliability as the calculation processing tends to decrease. Basically, the threshold for determining the recognition result is basically set strictly. In other words, the narrowing-down process is performed when a “similarity that can be asserted to be a specific person without fail even when a calculation with low reliability” is obtained.

このようにすることで、セキュリティレベルを下げることなく処理の高速化が可能となるが、他にも人物が多い場合には単純に閾値を下げることが許されれば、そういった手段でも処理の高速化が実現可能となる。
なお、認識処理精度の切換えをしながら処理を行なう方法は、連続した入力画像に対して順次変える方法もあるが、1枚の同じ画像に対して順次精度を切換えながら絞り込み処理をしていくということも適用可能である。
In this way, it is possible to speed up the processing without lowering the security level, but if there are many other people, if it is allowed to simply lower the threshold, such means can also speed up the processing. Is feasible.
In addition, there is a method of changing the recognition processing accuracy while sequentially changing the input images, but the narrowing processing is performed while sequentially changing the accuracy of one same image. It is also applicable.

出力部107は、カメラ100で入力される入力画像、顔検出部102から得られる顔領域や特徴情報、認識部106の認識結果といった情報そのものを出力先となる機器に向けて出力するとともに、認識部106の認識結果にあわせて別途制御信号の内容を変更するなどの処理を行なう。   The output unit 107 outputs information itself such as an input image input by the camera 100, a face area and feature information obtained from the face detection unit 102, and a recognition result of the recognition unit 106 to a device serving as an output destination. Processing such as changing the contents of the control signal separately according to the recognition result of the unit 106 is performed.

最も簡単な例では、入力された顔画像が登録顔特徴管理部105に登録されている人物のどの人物と近いかを並べて表示する監視用画面出力であっても構わないし、認識結果にどの程度の類似性があるかの類似度が付与されていれば、その認識された中で最も高い類似度となる人物の類似度が所定の閾値以上であれば警報を鳴らすといった例や、入退場管理システムにおいて、登録されている人物のいずれかとの類似度が所定の閾値以上であれば、入退場対象エリアに対する入退場を制御するゲート装置108(図1参照)に対しゲート開放信号を出力するといったことが容易に実現可能である。
以上説明したように第1の実施の形態によれば、人物の顔特徴情報を利用してあらかじめ登録されている人物を認識する人物認識装置において、対象者の通行速度、通行人数、通行者との距離、認識処理開始からの経過時間の情報から、認識処理にかけられる負荷の度合いに応じて認識処理の精度や対象者を制御することにより、できるだけ速い時点で認識処理を完了させることで、通行速度や通行人数に依存せず対象者の認識と通行制御を行なうことが可能となる。これらのイメージをまとめた内容を図6に示す。
In the simplest example, it may be a monitoring screen output in which the input face image is displayed side by side as to which person among the persons registered in the registered face feature management unit 105. If there is a similarity that indicates whether there is a similarity, the example that an alarm is sounded if the similarity of the recognized person with the highest similarity is greater than or equal to a predetermined threshold, or entrance / exit management In the system, if the degree of similarity with one of the registered persons is equal to or greater than a predetermined threshold, a gate opening signal is output to the gate device 108 (see FIG. 1) that controls entry / exit for the entry / exit area. Can be easily realized.
As described above, according to the first embodiment, in the person recognition apparatus for recognizing a person registered in advance using the facial feature information of the person, the speed of the target person, the number of people passing, By completing the recognition process at the earliest possible time by controlling the accuracy of the recognition process and the target person according to the degree of load applied to the recognition process from the distance information and the elapsed time from the start of the recognition process, It becomes possible to perform recognition and traffic control of the subject regardless of speed and number of traffic. A summary of these images is shown in FIG.

次に、第2の実施の形態について説明する。
図7は、第2の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、対象者(以下、人物、入退場者ともいう)Mの顔画像(少なくとも顔を含んでいる画像)を撮影して入力する画像取得手段としてのカメラ200、カメラ200により撮像された画像をA/D変換してデジタル化するなどの画像処理を行なう画像入力部201、画像入力部201から得られた画像から顔および目、鼻などの顔部位の位置を検出する生体検出手段としての顔検出部202、顔検出部202により検出された顔領域の画像から個人の顔特徴情報を抽出する生体特徴抽出手段としての顔特徴抽出部203、顔の検出結果から認識対象となる人物の人数や通行速度などを求め、認識処理にかかる処理時間見積りと認識結果を出さなければいけない制限時間との関係から認識対象となる対象者およびその人数を決定する認識対象決定手段としての計算負荷判定部204、あらかじめ対象者の顔画像から得られた個人の顔特徴情報を登録して管理している登録生体特徴管理手段としての登録顔特徴管理部205、計算負荷判定部204により決定された内容に基づき、入力された顔特徴情報と登録顔特徴管理部205に登録された顔特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識部206、認識部206の認識結果にあわせた制御信号や認識結果そのものを音声や画像等で出力する出力手段および入退場制御手段としての出力部207、入退場対象エリアに対する入退場を制御するゲート装置208を有して構成されている。
Next, a second embodiment will be described.
FIG. 7 schematically shows the configuration of the person recognition apparatus according to the second embodiment. This person recognition device captures images of a face image (an image including at least a face) of a target person (hereinafter also referred to as a person or an entry / exit) M as an image acquisition unit that captures and inputs the image. An image input unit 201 that performs image processing such as A / D conversion and digitization of the captured image, and biometric detection that detects the position of a facial part such as the face, eyes, and nose from the image obtained from the image input unit 201 The face detection unit 202 as a means, the face feature extraction unit 203 as a biometric feature extraction means for extracting personal face feature information from the image of the face area detected by the face detection unit 202, and the recognition result from the face detection result The number of persons and the speed of traffic are determined, and the target person and the number of persons to be recognized are determined from the relationship between the estimated processing time for the recognition process and the time limit for which the recognition result must be obtained. A calculation load determination unit 204 as a recognition target determination unit to be registered, a registered face feature management unit 205 as a registered biometric feature management unit that registers and manages personal face feature information obtained beforehand from the face image of the target person, Based on the content determined by the calculation load determination unit 204, the target person is a person registered in advance by collating the input facial feature information with the facial feature information registered in the registered facial feature management unit 205. A recognition unit 206 that determines whether or not there is, an output unit that outputs a control signal in accordance with the recognition result of the recognition unit 206 or the recognition result itself by sound or image, an output unit 207 as an entrance / exit control unit, an entry / exit target The gate device 208 is configured to control entry / exit to / from the area.

以下、各部について詳細に説明するが、カメラ200、画像入力部201、顔検出部202、顔特徴抽出部203、登録顔特徴管理手段205、出力部207、ゲート装置208については、前述した第1の実施の形態におけるそれと同一であるため説明は省略する。   Hereinafter, each unit will be described in detail. The camera 200, the image input unit 201, the face detection unit 202, the face feature extraction unit 203, the registered face feature management unit 205, the output unit 207, and the gate device 208 are described above. Since it is the same as that in the embodiment, the description is omitted.

計算負荷判定部204は、第1の実施の形態と同様に対象者の人数や通行速度、認識処理開始からの経過時間、対象者との距離に応じて認識処理に許される時間から認識対象人物や人数の絞り込みを決定して出力する。たとえば、利用者の利用頻度を基に絞り込み対象を変える場合には、図8に示すように、あらかじめ登録されている対象者の利用頻度を管理しておき、処理時間を短くする場合には絞り込みレベル1以上の利用頻度に該当する人物のみ認識対象とする。ここでは、まず絞込みレベル1でD,H,Mの3名の人物のみで認識処理を行ない、絞込みレベル2の場合にはA,B,D,E,F,G,H,J,K,M,N,O,P,Rと対象人物を増やすことを示す。   Similar to the first embodiment, the calculation load determination unit 204 determines the person to be recognized from the time allowed for the recognition process according to the number of persons and the speed of the target person, the elapsed time from the start of the recognition process, and the distance from the target person. Determine the number of people and the number of people and output. For example, when changing the narrowing target based on the usage frequency of the user, as shown in FIG. 8, the usage frequency of the target person registered in advance is managed, and when the processing time is shortened, the narrowing down is performed. Only people who have a usage frequency of level 1 or higher are recognized. Here, first, recognition processing is performed with only three persons of D, H, and M at the narrowing level 1, and in the narrowing level 2, A, B, D, E, F, G, H, J, K, It shows that M, N, O, P, R and the target person are increased.

同様に、利用頻度ではなく、日時や場所ごとによって対象者が切換る場合なども、その内容にあわせて対象者の絞り込みも可能となる。また、管理者側からみて要注意人物やVIPなどの場合に優先度を高くしたいと希望する人物に対して優先度のレベルを変更するという方法も利用できる。   Similarly, when the target person is switched according to the date and place instead of the frequency of use, the target person can be narrowed down according to the contents. In addition, a method of changing the priority level for a person who wants to increase the priority in the case of a person who needs attention or a VIP as viewed from the manager side can be used.

認識部206は、第1の実施の形態と同様の認識手法で認識結果を出力することが可能であるが、第2の実施の形態では認識対象となる人物を計算負荷判定部204で限定された人物に限って類似度演算を行なう。ここで、認識結果で登録特著管理部206に登録された人物の中に該当者がいないと判定された場合は、同一の画像、または次に入力された画像を用いて認識対象人物の絞り込みレベルをあげて、対象人数を増やして認識処理を繰り返す。つまり、最初はより利用頻度の高い人物のみに絞って少人数で高速に認識処理を行ない、認識結果が出ない場合に徐々に認識対象人数を増やしていくことで、システム全体としての平均的な認識処理時間を減らすことが可能となる。同様に、日時や場所別の対象者情報や要注意人物とVIPを優先度高く行なう手法が適用可能となる。   The recognition unit 206 can output the recognition result using the same recognition method as in the first embodiment. However, in the second embodiment, the person to be recognized is limited by the calculation load determination unit 204. The similarity calculation is performed only for the person who has been selected. If it is determined from the recognition result that there is no corresponding person among the persons registered in the registered special work management unit 206, the recognition target person is narrowed down using the same image or the next input image. Raise the level, increase the number of subjects, and repeat the recognition process. In other words, at first, the recognition process is performed quickly with a small number of people, focusing only on the more frequently used people, and if the recognition result does not appear, the number of people to be recognized is gradually increased. The recognition processing time can be reduced. Similarly, it is possible to apply a method of performing VIP with high priority on subject information by date and place or a person who needs attention.

以上説明したように第2の実施の形態によれば、認識処理を切換えていてもセキュリティレベルが変更されることなく、効果的に認識処理の平均時間短縮ができる。これは歩行者を対象とした連続的な入力画像に対して随時切換える方法にも適用できるが、対象者が静止して認識する場合や、1枚の画像に対しての処理にも同じように適用することができる。   As described above, according to the second embodiment, the average time of the recognition process can be effectively shortened without changing the security level even when the recognition process is switched. This can be applied to the method of switching from time to time for continuous input images for pedestrians, but the same applies to the case where the target person recognizes stationary and processing for a single image. Can be applied.

次に、第3の実施の形態について説明する。
図9は、第3の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、対象者(以下、人物、入退場者ともいう)Mの顔画像(少なくとも顔を含んでいる画像)を撮影して入力する画像取得手段としてのカメラ300、カメラ300により撮像された画像をA/D変換してデジタル化するなどの画像処理を行なう画像入力部301、画像入力部301から得られた画像から顔および目、鼻などの顔部位の位置を検出する生体検出手段としての顔検出部302、顔検出部302により検出された顔領域の画像から個人の顔特徴情報を抽出する生体特徴抽出手段としての顔特徴抽出部303、顔の検出結果から認識対象となる人物の人数や通行速度などを求め、認識処理にかかる処理時間見積りと認識結果を出さなければいけない制限時間との関係から認識対象者の確認方法を決定する認識対象者確認方法決定手段としての計算負荷判定部304、あらかじめ対象者の顔画像から得られた個人の顔特徴情報を登録して管理している登録生体特徴管理手段としての登録顔特徴管理部305、計算負荷判定部304により決定された確認方法に基づき、入力された顔特徴情報と登録顔特徴管理部305に登録された顔特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識部306、認識部306の認識結果にあわせた制御信号や認識結果そのものを音声や画像等で出力する出力手段および入退場制御手段としての出力部307、入退場対象エリアに対する入退場を制御するゲート装置308、必要に応じて対象者の顔画像を記録する保存手段としての履歴保存部309、必要に応じて認識処理の補間演算を行なう遠隔地に設置された確認装置としてのサーバ310を有して構成されている。
Next, a third embodiment will be described.
FIG. 9 schematically shows a configuration of a person recognition apparatus according to the third embodiment. The person recognition apparatus captures images of a face image (an image including at least a face) of a target person (hereinafter, also referred to as a person or an entry / exit person) M as an image acquisition unit that captures and inputs the image. An image input unit 301 that performs image processing such as A / D conversion and digitization of the captured image, and biometric detection that detects the position of a facial part such as the face, eyes, and nose from the image obtained from the image input unit 301 The face detection unit 302 as a means, the face feature extraction unit 303 as a biometric feature extraction means for extracting personal face feature information from the image of the face area detected by the face detection unit 302, and the recognition result from the face detection result A recognition target that determines the number of people and the speed of travel, and determines the recognition target person's confirmation method based on the relationship between the estimated processing time required for recognition processing and the time limit for which recognition results must be obtained. A calculation load determination unit 304 as a confirmation method determination unit, a registered face feature management unit 305 as a registered biometric feature management unit that registers and manages personal facial feature information obtained from a face image of the subject in advance, a calculation Based on the confirmation method determined by the load determination unit 304, the input facial feature information and the facial feature information registered in the registered facial feature management unit 305 are collated, so that the target person is a person registered in advance. A recognition unit 306 that determines whether or not there is, an output unit that outputs a control signal according to the recognition result of the recognition unit 306 or the recognition result itself by sound or image, an output unit 307 as an entrance / exit control unit, an entry / exit target Gate device 308 for controlling entry / exit to / from the area, history storage unit 309 as storage means for recording the face image of the subject as necessary, recognition as necessary A server 310 as the installed validator to a remote location to perform the management of the interpolation operation is constituted.

以下、各部について詳細に説明するが、カメラ300、画像入力部301、顔検出部302、顔特徴抽出部303、登録顔特徴管理手段305、出力部307、ゲート装置308については、前述した第1の実施の形態におけるそれと同一であるため説明は省略する。   Hereinafter, each unit will be described in detail. The camera 300, the image input unit 301, the face detection unit 302, the face feature extraction unit 303, the registered face feature management unit 305, the output unit 307, and the gate device 308 are described above. Since it is the same as that in the embodiment, the description is omitted.

計算負荷判定部304は、第1の実施の形態と同様に対象者の人数や通行速度、認識処理開始からの経過時間、対象者との距離に応じて認識処理に許される時間から確認方法を決定して出力する。本実施の形態では、認識部106において通常の認識処理が行なえないと判断した場合に、
(1)遠隔通知、
(2)履歴保存、
(3)別サーバでの計算、
(4)認識処理の間引き処理、
といった確認方法に切換えることとする。これらの1つの方法を用いてもいいし、2つ以上の方法の組合せで切換えることも可能となる。
Similar to the first embodiment, the calculation load determination unit 304 determines the confirmation method from the time allowed for the recognition process according to the number of persons, the traveling speed, the elapsed time from the start of the recognition process, and the distance from the target person. Determine and output. In the present embodiment, when the recognition unit 106 determines that normal recognition processing cannot be performed,
(1) Remote notification,
(2) Save history,
(3) Calculation on another server,
(4) Thinning process of recognition process,
Switch to the confirmation method. One of these methods may be used, and switching may be performed by a combination of two or more methods.

以下、単体での切換えのみであることを想定し、上記(1)〜(4)の確認方法を順に説明する。
(1)の場合、認識処理にかけられる時間が短いと判断された場合には、認識処理が間に合わない可能性があることから、認識処理が行なえなかった人物のみ出力部307に用意された遠隔管理者に対する通信装置を用いて、遠隔地の管理者に対してカメラ300から得られた顔画像の送信と認識処理が行なえなかったので目視確認を要望する旨の通知を行なう。ここで、管理者による目視確認を行なうことで、処理が間に合わない人物に対しても確認がもれることなく対応が可能となる。
Hereinafter, the confirmation methods (1) to (4) will be described in order, assuming that only switching is performed alone.
In the case of (1), if it is determined that the time required for the recognition process is short, there is a possibility that the recognition process may not be in time, so that only the person who could not perform the recognition process is provided in the output unit 307. Using the communication device for the user, the remote manager is notified that the face image obtained from the camera 300 has not been transmitted and recognized, and that visual confirmation is desired. Here, by performing visual confirmation by the administrator, it is possible to cope with a person whose processing is not in time without confirmation.

(2)の場合、認識処理にかけられる時間が短いと判断された場合には、認識処理が間に合わない可能性があることから、認識処理が行なえなかった人物のみ、履歴保存部309に日時や場所とともにカメラ300から得られた顔画像を保存する。これは、その場で確認ができないまでも、後から管理者によって確認することができ、有事の場合にも確認が可能となることや、当該顔画像を別途新規登録や顔の追加学習をすることで、より認識処理の精度向上も見込める。   In the case of (2), if it is determined that the time required for the recognition process is short, there is a possibility that the recognition process may not be in time, so only the person who could not perform the recognition process is stored in the history storage unit 309 in the date / time and location. At the same time, the face image obtained from the camera 300 is stored. This can be confirmed later by the administrator, even if it cannot be confirmed on the spot, and can be confirmed even in the event of an emergency, or the face image is newly registered or additional learning of the face is performed. Therefore, the accuracy of recognition processing can be improved.

(3)の場合、認識処理にかけられる時間が短いと判断された場合には、認識処理が間に合わない可能性があることから、必要な顔の顔特徴情報を遠隔地のサーバ310へ送信して、サーバ310での類似度演算を行なわせる。この場合、クラスタパーソナルコンピュータのような使い方やクライアントサーバ形式の実現方法は特に限定されないことから、当該人物認識装置の認識部306以外に同様の類似度演算が行なえる確認装置(サーバ310)があることを前提としている。サーバ310での類似度演算の結果を当該人物認識装置に戻すことで、出力部307による出力制御が可能となる。   In the case of (3), if it is determined that the time required for the recognition process is short, the recognition process may not be in time, so the necessary facial feature information of the face is transmitted to the remote server 310. Then, the similarity calculation in the server 310 is performed. In this case, there is no particular limitation on how to use the cluster personal computer or the method of realizing the client server format. Therefore, there is a confirmation device (server 310) that can perform similar similarity calculation in addition to the recognition unit 306 of the person recognition device. It is assumed that. By returning the result of similarity calculation in the server 310 to the person recognition device, output control by the output unit 307 becomes possible.

(4)の場合、認識処理にかけられる時間が短いと判断された場合には、認識処理が間に合わない可能性があることから、認識部306において、必要に応じて認識対象人物の中から認識を行なわない間引きを行なうことや、入力画像のフレーム単位での間引き処理をすることで、必要に応じて負荷を分散させながら認識処理を行なわせることが可能となる。   In the case of (4), if it is determined that the time required for the recognition process is short, the recognition process may not be in time, so the recognition unit 306 recognizes from the recognition target person as necessary. By performing decimation that is not performed or by performing decimation processing in units of frames of the input image, it is possible to perform recognition processing while distributing the load as necessary.

以上説明したように第3の実施の形態によれば、確認方法を切換えていてもセキュリティレベルが変更されることなく、効果的に認識処理の平均時間短縮ができる。これは歩行者を対象とした連続的な入力画像に対して随時切換える方法にも適用できるが、対象者を静止させて認識する場合や1枚の画像に対しての認識処理にも同じように適用することができる。   As described above, according to the third embodiment, the average time of the recognition process can be effectively shortened without changing the security level even if the confirmation method is switched. This can be applied to a method of switching from time to time for continuous input images intended for pedestrians, but the same applies to recognition processing for a single image when the subject is stationary. Can be applied.

本発明の第1の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing the configuration of a person recognition device according to a first embodiment of the present invention. 第1の実施の形態における計算負荷判定部の処理例を説明するための図。The figure for demonstrating the process example of the calculation load determination part in 1st Embodiment. 第1の実施の形態における通行者の位置と処理の内容との関係を示す図。The figure which shows the relationship between the position of a passerby and the content of a process in 1st Embodiment. 第1の実施の形態における計算負荷判定部における認識処理精度の決定方法を説明するための図。The figure for demonstrating the determination method of the recognition process precision in the calculation load determination part in 1st Embodiment. 第1の実施の形態における計算負荷判定部における認識処理精度の決定方法を説明するための図。The figure for demonstrating the determination method of the recognition process precision in the calculation load determination part in 1st Embodiment. 第1の実施の形態における処理の流れを説明する模式図。The schematic diagram explaining the flow of the process in 1st Embodiment. 本発明の第2の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the person recognition apparatus which concerns on the 2nd Embodiment of this invention. 第2の実施の形態における計算負荷判定部における認識処理精度の決定方法を説明するための図。The figure for demonstrating the determination method of the recognition process precision in the calculation load determination part in 2nd Embodiment. 本発明の第3の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the person recognition apparatus which concerns on the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

M…対象者、人物、入退場者、100,200,300…カメラ(画像取得手段)、101,201,301…画像入力部、102,202,302…顔検出部(生体検出手段)、103,203,303…顔特徴抽出部(生体特徴抽出手段)、104,204,304…計算負荷判定部(認識処理精度決定手段、認識対象決定手段、認識対象者確認方法決定手段)、105,205,305…登録顔特徴管理部(登録顔特徴管理手段)、106,206,306…認識部(認識手段)、107,207,307…出力部(出力手段、入退場制御手段)、108,208,308…ゲート装置(入退場制御手段)、309…履歴保存部(保存手段)、310…サーバ(確認装置)。   M: Target person, person, entry / exit, 100, 200, 300 ... camera (image acquisition means), 101, 201, 301 ... image input section, 102, 202, 302 ... face detection section (biological detection means), 103 , 203, 303... Facial feature extraction unit (biological feature extraction unit), 104, 204, 304... Calculation load determination unit (recognition processing accuracy determination unit, recognition target determination unit, recognition target person confirmation method determination unit), 105, 205 , 305 ... registered face feature management unit (registered face feature management unit), 106, 206, 306 ... recognition unit (recognition unit), 107, 207, 307 ... output unit (output unit, entrance / exit control unit), 108, 208 308 ... Gate device (entrance / exit control means) 309 ... History storage unit (storage means) 310 ... Server (confirmation device).

Claims (26)

対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置において、
対象者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識処理精度を決定する認識処理精度決定手段と、
この認識処理精度決定手段により決定された認識処理精度に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識手段と、
を具備したことを特徴とする人物認識装置。
In a person recognition device that determines whether or not the target person is a pre-registered person by comparing biometric feature information obtained from the target person with at least one or more pre-registered biometric feature information,
Image acquisition means for acquiring an image including biological information of the subject;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the subject's biometric information in advance is registered;
Recognizing process accuracy determining means for determining information related to the target person, and determining a recognition process precision according to the information related to the determined target person;
Based on the recognition processing accuracy determined by the recognition processing accuracy determination means, by comparing the biometric feature information extracted by the biometric feature extraction means with the biometric feature information registered in the registered biometric feature management means, Recognizing means for determining whether or not the target person is a person registered in advance;
A person recognition device comprising:
前記認識処理精度決定手段で決定する認識処理精度は、認識処理に利用する生体特徴情報の解像度であることを特徴とする請求項1記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the recognition processing accuracy determined by the recognition processing accuracy determination means is a resolution of biometric feature information used for recognition processing. 前記認識処理精度決定手段で決定する認識処理精度は、認識処理に利用する生体特徴情報の処理対象領域であることを特徴とする請求項1記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the recognition processing accuracy determined by the recognition processing accuracy determination means is a processing target region of biometric feature information used for recognition processing. 前記認識処理精度決定手段で決定する認識処理精度は、認識処理に利用する生体特徴情報の計算精度であることを特徴とする請求項1記載の人物認識装置。   2. The person recognition apparatus according to claim 1, wherein the recognition processing accuracy determined by the recognition processing accuracy determination means is calculation accuracy of biometric feature information used for recognition processing. 前記認識手段は、前記認識処理精度決定手段により決定された認識処理精度に基づき照合処理を行なうことにより、対象者の通行速度が速い時や対象者の人数が多い時に認識開始時から早い時間でかつ簡素な処理で照合処理を完了させ、以降その対象者は照合済みとして処理対象から除外し、処理対象となる他の対象者に対して照合処理の負荷を割当てることを特徴とする請求項1記載の人物認識装置。   The recognizing means performs a collation process based on the recognition processing accuracy determined by the recognition processing accuracy determining means, so that when the target person's passage speed is high or when the number of the target persons is large, the recognition means can be started early The collation processing is completed by simple processing, and thereafter, the target person is excluded from the processing target as being verified, and the load of the collation processing is assigned to another target person to be processed. The person recognition device described. 対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置において、
対象者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識対象となる対象者およびその人数を決定する認識対象決定手段と、
この認識対象決定手段により決定された認識対象となる対象者およびその人数に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識手段と、
を具備したことを特徴とする人物認識装置。
In a person recognition device that determines whether or not the target person is a pre-registered person by comparing biometric feature information obtained from the target person with at least one or more pre-registered biometric feature information,
Image acquisition means for acquiring an image including biological information of the subject;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the subject's biometric information in advance is registered;
Recognizing target determining means for determining information related to the target person, and determining a target person to be recognized and the number of persons according to the information related to the determined target person;
Based on the target person to be recognized determined by the recognition target determination means and the number of persons, the biometric feature information extracted by the biometric feature extraction means and the biometric feature information registered in the registered biometric feature management means Recognizing means for determining whether or not the target person is a person registered in advance by collating;
A person recognition device comprising:
前記認識対象決定手段で決定する認識対象となる対象者およびその人数は、過去の照合履歴などから求められる日時や場所に応じた利用頻度が高い人物を認識対象となる優先度を高く設定することを特徴とする請求項6記載の人物認識装置。   For the target person to be recognized and the number of persons to be determined by the recognition target determining means, a high priority is set for the person who is frequently used according to the date and place obtained from the past matching history etc. The person recognition apparatus according to claim 6. 前記認識対象決定手段で決定する認識対象となる対象者およびその人数は、管理者などがあらかじめ定めた日時や場所に応じた人物を認識対象となる優先度を高く設定することを特徴とする請求項6記載の人物認識装置。   The target person to be recognized and the number of persons to be determined by the recognition target determining means set a high priority to be a person to be recognized according to a date and place predetermined by an administrator or the like. Item 7. The person recognition apparatus according to Item 6. 前記認識対象決定手段で決定する認識対象となる対象者およびその人数は、要注意人物やVIPのような対象者として認識漏れがないことが望まれる人物を認識対象となる優先度を高く設定することを特徴とする請求項6記載の人物認識装置。   For the target person to be recognized and the number of persons to be determined by the recognition target determining means, the priority level to be recognized is set high for a person who needs to be recognized as a target person or a target person such as VIP. The person recognition apparatus according to claim 6. 前記認識手段は、前記認識対象決定手段により決定された認識対象となる対象者およびその人数に基づき照合処理を行なうことにより、対象者の通行速度が速い時や対象者の人数が多い時に認識開始時から早い時間で認識対象の人数を優先度の高い人物に絞った簡素な処理で照合処理を完了させ、以降その対象者は照合済みとして処理対象から除外し、処理対象となる他の対象者に対して照合処理の負荷を割当てることを特徴とする請求項6記載の人物認識装置。   The recognition means starts the recognition when the speed of the target person is high or the number of the target person is large by performing a collation process based on the target person and the number of target persons to be recognized determined by the recognition target determining means. The verification process is completed by a simple process that narrows down the number of people to be recognized to those with high priority at an early time, and then the target person is excluded from the target of processing as verified and other target persons to be processed The person recognition apparatus according to claim 6, wherein a load of a collation process is assigned to. 対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識装置において、
対象者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識手段と、
この認識手段において通常の認識処理が行なえないと判断したとき、前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識対象者の確認方法を決定する認識対象者確認方法決定手段と、
この認識対象者確認方法決定手段により決定された認識対象者の確認方法に基づき当該対象者はあらかじめ登録された人物であるか否かの確認を行なう確認手段と、
を具備したことを特徴とする人物認識装置。
In a person recognition device that determines whether or not the target person is a pre-registered person by comparing biometric feature information obtained from the target person with at least one or more pre-registered biometric feature information,
Image acquisition means for acquiring an image including biological information of the subject;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the subject's biometric information in advance is registered;
By comparing the biometric feature information extracted by the biometric feature extraction unit with the biometric feature information registered in the registered biometric feature management unit, it is determined whether the target person is a person registered in advance. Recognition means to
A recognition target person confirmation method for obtaining information on the target person and determining a confirmation method of the recognition target person according to the information on the obtained target person when it is determined that the recognition means cannot perform normal recognition processing. A determination means;
Confirmation means for confirming whether or not the subject person is a pre-registered person based on the recognition subject person confirmation method determined by the recognition subject person confirmation method decision means;
A person recognition device comprising:
前記確認手段は、対象者に対する認識時間に余裕がない場合、少なくとも前記画像取得手段により取得された画像を遠隔地に設置された確認装置に対し送信することで管理者による目視確認を可能とすることを特徴とする請求項11記載の人物認識装置。   The confirmation means enables visual confirmation by an administrator by transmitting at least the image acquired by the image acquisition means to a confirmation apparatus installed at a remote place when there is no allowance for recognition time for the subject. The person recognition apparatus according to claim 11. 前記確認手段は、対象者に対する認識時間に余裕がない場合、少なくとも前記画像取得手段により取得された画像に対し認識処理が行なわていないという情報を付与した上で履歴情報として保存手段に保存することを特徴とする請求項11記載の人物認識装置。   The confirmation means, when there is no allowance for the recognition time for the target person, at least adds information that the recognition processing is not performed on the image acquired by the image acquisition means, and stores it as history information in the storage means The person recognition device according to claim 11. 前記確認手段は、対象者に対する認識時間に余裕がない場合、前記生体特徴抽出手段により抽出された生体特徴情報を別に準備した認識処理装置に送信して認識処理を行なわせることを特徴とする請求項11記載の人物認識装置。   The confirmation means transmits the biometric feature information extracted by the biometric feature extraction means to a separately prepared recognition processing device to perform recognition processing when there is no allowance for recognition time for the subject. Item 12. The person recognition device according to Item 11. 前記確認手段は、対象者に対する認識時間に余裕がない場合、認識対象者を間引きして人数を減らし一部の対象者のみを認識対象とするよう前記認識手段を制御することを特徴とする請求項11記載の人物認識装置。   The confirmation means controls the recognition means to reduce the number of recognition target persons to reduce the number of persons to be recognized as only a part of the target persons when the recognition time for the target person is not sufficient. Item 12. The person recognition device according to Item 11. 前記生体特徴情報は、人物の顔、網膜、口、虹彩、指紋、掌紋、耳、人体の一部の静脈などの特徴を利用することを特徴とする請求項1、請求項6、請求項11のいずれかに記載の人物認識装置。   The biometric feature information uses features such as a person's face, retina, mouth, iris, fingerprint, palm print, ear, and part of a human body vein. The person recognition device according to any one of the above. 前記対象者に係る情報とは認識対象となる対象者の歩行速度であることを特徴とする請求項1、請求項6、請求項11のいずれかに記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the information related to the subject is a walking speed of the subject to be recognized. 前記対象者に係る情報とは認識対象となる対象者の人数であることを特徴とする請求項1、請求項6、請求項11のいずれかに記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the information related to the target person is the number of target persons to be recognized. 前記対象者に係る情報とは認識対象となる対象者との距離であることを特徴とする請求項1、請求項6、請求項11のいずれかに記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the information related to the target person is a distance from the target person to be recognized. 前記対象者に係る情報とは認識対象となる対象者の認識処理開始からの経過時間であることを特徴とする請求項1、請求項6、請求項11のいずれかに記載の人物認識装置。   The person recognition apparatus according to claim 1, wherein the information related to the target person is an elapsed time from the start of recognition processing of the target person to be recognized. 対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識方法において、
対象者の生体情報を含む画像を取得する画像取得ステップと、
この画像取得ステップにより取得された画像から生体領域を検出する生体検出ステップと、
この生体検出ステップにより検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出ステップと、
前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識処理精度を決定する認識処理精度決定ステップと、
この認識処理精度決定ステップにより決定された認識処理精度に基づき、前記生体特徴抽出ステップにより抽出された生体特徴情報と、あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識ステップと、
を具備したことを特徴とする人物認識方法。
In the person recognition method for determining whether or not the target person is a pre-registered person by comparing the biometric characteristic information obtained from the target person with at least one or more pre-registered biometric characteristic information,
An image acquisition step of acquiring an image including biological information of the subject;
A living body detecting step of detecting a living body region from the image acquired by the image acquiring step;
A biometric feature extraction step of extracting personal biometric feature information from the biometric region detected by the biometric detection step;
A recognition processing accuracy determination step for determining information related to the target person and determining a recognition processing accuracy according to the information related to the determined target person,
Based on the recognition processing accuracy determined in the recognition processing accuracy determination step, biometric feature information extracted in the biometric feature extraction step and personal biometric feature information obtained in advance from the subject's biometric information are registered. A recognition step of determining whether or not the target person is a pre-registered person by collating with biometric feature information registered in the registered biometric feature management means;
A person recognition method comprising:
対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識方法において、
対象者の生体情報を含む画像を取得する画像取得ステップと、
この画像取得ステップにより取得された画像から生体領域を検出する生体検出ステップと、
この生体検出ステップにより検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出ステップと、
前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識対象となる対象者およびその人数を決定する認識対象決定ステップと、
この認識対象決定ステップにより決定された認識対象となる対象者およびその人数に基づき、前記生体特徴抽出ステップにより抽出された生体特徴情報と、あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識ステップと、
を具備したことを特徴とする人物認識方法。
In the person recognition method for determining whether or not the target person is a pre-registered person by comparing the biometric characteristic information obtained from the target person with at least one or more pre-registered biometric characteristic information,
An image acquisition step of acquiring an image including biological information of the subject;
A living body detecting step of detecting a living body region from the image acquired by the image acquiring step;
A biometric feature extraction step of extracting personal biometric feature information from the biometric region detected by the biometric detection step;
A recognition target determination step for determining information related to the target person, and determining a target person to be recognized and the number of persons according to the information related to the determined target person,
The biometric feature information extracted by the biometric feature extraction step and the personal biometric feature information obtained in advance from the biometric information of the subject based on the target subject to be recognized determined by the recognition target determining step and the number of subjects. A step of recognizing whether or not the target person is a person registered in advance by comparing biometric feature information registered in the registered biometric feature management means.
A person recognition method comprising:
対象者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該対象者はあらかじめ登録された人物であるか否かを判定する人物認識方法において、
対象者の生体情報を含む画像を取得する画像取得ステップと、
この画像取得ステップにより取得された画像から生体領域を検出する生体検出ステップと、
この生体検出ステップにより検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出ステップと、
前記生体特徴抽出ステップにより抽出された生体特徴情報と、あらかじめ対象者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該対象者はあらかじめ登録された人物であるか否かを判定する認識ステップと、
この認識ステップにおいて通常の認識処理が行なえないと判断したとき、前記対象者に係る情報を求め、この求めた対象者に係る情報に応じて認識対象者の確認方法を決定する認識対象者確認方法決定ステップと、
この認識対象者確認方法決定ステップにより決定された認識対象者の確認方法に基づき当該対象者はあらかじめ登録された人物であるか否かの確認を行なう確認ステップと、
を具備したことを特徴とする人物認識方法。
In the person recognition method for determining whether or not the target person is a pre-registered person by comparing the biometric characteristic information obtained from the target person with at least one or more pre-registered biometric characteristic information,
An image acquisition step of acquiring an image including biological information of the subject;
A living body detecting step of detecting a living body region from the image acquired by the image acquiring step;
A biometric feature extraction step of extracting personal biometric feature information from the biometric region detected by the biometric detection step;
The biometric feature information extracted in the biometric feature extraction step is compared with biometric feature information registered in registered biometric feature management means in which individual biometric feature information obtained in advance from the subject's biometric information is registered. A recognition step for determining whether the target person is a person registered in advance;
When it is determined that normal recognition processing cannot be performed in this recognition step, information relating to the target person is obtained, and a confirmation method for the person to be recognized is determined according to the information relating to the obtained subject person. A decision step;
A confirmation step for confirming whether or not the subject person is a pre-registered person based on the recognition subject person confirmation method determined in the recognition subject person confirmation method decision step;
A person recognition method comprising:
入退場者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該入退場者はあらかじめ登録された人物であるか否かを判定し、この判定結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場管理システムにおいて、
入退場者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ入退場者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記入退場者に係る情報を求め、この求めた入退場者に係る情報に応じて認識処理精度を決定する認識処理精度決定手段と、
この認識処理精度決定手段により決定された認識処理精度に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該入退場者はあらかじめ登録された人物であるか否かを判定する認識手段と、
この認識手段の検索結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場制御手段と、
を具備したことを特徴とする入退場管理システム。
The biometric feature information obtained from the entry / exit person is checked against at least one or more pre-registered biometric feature information to determine whether the entry / exit person is a pre-registered person, and this determination result In the entrance / exit management system for controlling entrance / exit to the entrance / exit area of the entrance / exit based on
An image acquisition means for acquiring an image including biometric information of the entering / exiting person;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the biometric information of the entrance / exit is registered in advance;
Recognizing process accuracy determining means for determining information related to the entry / exit, and determining the recognition process accuracy according to the information related to the determined entry / exit,
Based on the recognition processing accuracy determined by the recognition processing accuracy determination means, by comparing the biometric feature information extracted by the biometric feature extraction means with the biometric feature information registered in the registered biometric feature management means, Recognizing means for determining whether or not the entry / exit is a person registered in advance;
Entrance / exit control means for controlling entrance / exit of the entrance / exit area for the entrance / exit area based on the search result of the recognition means,
An entrance / exit management system characterized by comprising:
入退場者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該入退場者はあらかじめ登録された人物であるか否かを判定し、この判定結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場管理システムにおいて、
入退場者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ入退場者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記入退場者に係る情報を求め、この求めた入退場者に係る情報に応じて認識対象となる入退場者およびその人数を決定する認識対象決定手段と、
この認識対象決定手段により決定された認識対象となる入退場者およびその人数に基づき、前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該入退場者はあらかじめ登録された人物であるか否かを判定する認識手段と、
この認識手段の検索結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場制御手段と、
を具備したことを特徴とする入退場管理システム。
The biometric feature information obtained from the entry / exit person is checked against at least one or more pre-registered biometric feature information to determine whether the entry / exit person is a pre-registered person, and this determination result In the entrance / exit management system for controlling entrance / exit to the entrance / exit area of the entrance / exit based on
An image acquisition means for acquiring an image including biometric information of the entering / exiting person;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the biometric information of the entrance / exit is registered in advance;
Recognizing target determining means for determining information related to the entrance / exit, and determining the number of entrance / exit persons to be recognized and the number of persons according to the information related to the determined entrance / exit,
Based on the entry / exit persons to be recognized and the number of persons determined by the recognition target determination means, the biometric feature information extracted by the biometric feature extraction means and the biometric feature information registered in the registered biometric feature management means Recognizing means for determining whether or not the entry / exit is a person registered in advance,
Entrance / exit control means for controlling entrance / exit of the entrance / exit area for the entrance / exit area based on the search result of the recognition means,
An entrance / exit management system characterized by comprising:
入退場者から得られた生体特徴情報をあらかじめ登録された少なくとも1つ以上の生体特徴情報と照合することで当該入退場者はあらかじめ登録された人物であるか否かを判定し、この判定結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場管理システムにおいて、
入退場者の生体情報を含む画像を取得する画像取得手段と、
この画像取得手段により取得された画像から生体領域を検出する生体検出手段と、
この生体検出手段により検出された生体領域から個人の生体特徴情報を抽出する生体特徴抽出手段と、
あらかじめ入退場者の生体情報から得られた個人の生体特徴情報が登録されている登録生体特徴管理手段と、
前記生体特徴抽出手段により抽出された生体特徴情報と前記登録生体特徴管理手段に登録されている生体特徴情報とを照合することにより、当該入退場者はあらかじめ登録された人物であるか否かを判定する認識手段と、
この認識手段において通常の認識処理が行なえないと判断したとき、前記入退場者に係る情報を求め、この求めた入退場者に係る情報に応じて認識対象者の確認方法を決定する認識対象者確認方法決定手段と、
この認識対象者確認方法決定手段により決定された認識対象者の確認方法に基づき当該入退場者はあらかじめ登録された人物であるか否かの確認を行なう確認手段と、
この確認手段の確認結果あるいは前記認識手段の認識結果に基づき当該入退場者の入退場対象エリアに対する入退場を制御する入退場制御手段と、
を具備したことを特徴とする入退場管理システム。
The biometric feature information obtained from the entry / exit person is checked against at least one or more pre-registered biometric feature information to determine whether the entry / exit person is a pre-registered person, and this determination result In the entrance / exit management system for controlling entrance / exit to the entrance / exit area of the entrance / exit based on
An image acquisition means for acquiring an image including biometric information of the entering / exiting person;
A living body detecting means for detecting a living body region from the image acquired by the image acquiring means;
Biometric feature extraction means for extracting personal biometric feature information from the biometric area detected by the biometric detection means;
Registered biometric feature management means in which individual biometric feature information obtained from the biometric information of the entrance / exit is registered in advance;
By comparing the biometric feature information extracted by the biometric feature extraction unit with the biometric feature information registered in the registered biometric feature management unit, it is determined whether or not the entry / exit person is a pre-registered person. A recognition means for determining;
When it is determined that normal recognition processing cannot be performed in this recognition means, information regarding the entry / exit person is obtained, and a recognition target person is determined according to the information related to the obtained entry / exit person. Confirmation method determining means;
Confirmation means for confirming whether or not the entry / exit is a person registered in advance based on the recognition target person confirmation method determined by the recognition target person confirmation method determination means;
Entrance / exit control means for controlling entrance / exit of the entrance / exit area of the entrance / exit based on the confirmation result of the confirmation means or the recognition result of the recognition means,
An entrance / exit management system characterized by comprising:
JP2005346876A 2005-11-30 2005-11-30 Person recognition apparatus and method and entry/exit management system Abandoned JP2007156541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005346876A JP2007156541A (en) 2005-11-30 2005-11-30 Person recognition apparatus and method and entry/exit management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005346876A JP2007156541A (en) 2005-11-30 2005-11-30 Person recognition apparatus and method and entry/exit management system

Publications (1)

Publication Number Publication Date
JP2007156541A true JP2007156541A (en) 2007-06-21

Family

ID=38240869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005346876A Abandoned JP2007156541A (en) 2005-11-30 2005-11-30 Person recognition apparatus and method and entry/exit management system

Country Status (1)

Country Link
JP (1) JP2007156541A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064405A1 (en) * 2008-12-05 2010-06-10 パナソニック株式会社 Face detection device
WO2010087451A1 (en) * 2009-01-29 2010-08-05 株式会社東芝 Image display device, image display method, and image display program
US20110074970A1 (en) * 2009-09-28 2011-03-31 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
WO2011121688A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Face recognition device and face recognition method
JP2012164093A (en) * 2011-02-04 2012-08-30 Secom Co Ltd Face image authentication apparatus
JP2012212071A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Face image authentication device
WO2017038100A1 (en) * 2015-09-03 2017-03-09 日本電気株式会社 Monitoring server, method for determining distributed processing, and non-temporary computer-readable medium in which program is stored
WO2019138839A1 (en) 2018-01-12 2019-07-18 日本電気株式会社 Facial recognition device
WO2019138838A1 (en) 2018-01-12 2019-07-18 日本電気株式会社 Facial recognition device
JP2020052484A (en) * 2018-09-25 2020-04-02 Awl株式会社 Object recognition camera system, relearning system, and object recognition program
JP2020205117A (en) * 2019-06-17 2020-12-24 日本電気株式会社 Face authentication device
JPWO2020105091A1 (en) * 2018-11-19 2021-09-27 日本電気株式会社 Media data processing systems, methods and programs
WO2021205844A1 (en) * 2020-04-09 2021-10-14 Necソリューションイノベータ株式会社 Authentication device
WO2022215248A1 (en) * 2021-04-09 2022-10-13 日本電気株式会社 Person authentication support, person authentication support method, and program
WO2023152970A1 (en) * 2022-02-14 2023-08-17 日本電気株式会社 Authentication device, authentication method, and recording medium

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523343B2 (en) * 2008-12-05 2014-06-18 パナソニック株式会社 Face detection device
CN102150181A (en) * 2008-12-05 2011-08-10 松下电器产业株式会社 Face detection device
US8223218B2 (en) 2008-12-05 2012-07-17 Panasonic Corporation Face detection apparatus
WO2010064405A1 (en) * 2008-12-05 2010-06-10 パナソニック株式会社 Face detection device
WO2010087451A1 (en) * 2009-01-29 2010-08-05 株式会社東芝 Image display device, image display method, and image display program
US20110074970A1 (en) * 2009-09-28 2011-03-31 Kabushiki Kaisha Toshiba Image processing apparatus and image processing method
JP2011070576A (en) * 2009-09-28 2011-04-07 Toshiba Corp Image processor and image processing method
WO2011121688A1 (en) * 2010-03-30 2011-10-06 パナソニック株式会社 Face recognition device and face recognition method
JP2011210030A (en) * 2010-03-30 2011-10-20 Panasonic Corp Face recognition device and face recognition method
US9621779B2 (en) 2010-03-30 2017-04-11 Panasonic Intellectual Property Management Co., Ltd. Face recognition device and method that update feature amounts at different frequencies based on estimated distance
CN102822865A (en) * 2010-03-30 2012-12-12 松下电器产业株式会社 Face recognition device and face recognition method
JP2012164093A (en) * 2011-02-04 2012-08-30 Secom Co Ltd Face image authentication apparatus
JP2012212071A (en) * 2011-03-31 2012-11-01 Secom Co Ltd Face image authentication device
WO2017038100A1 (en) * 2015-09-03 2017-03-09 日本電気株式会社 Monitoring server, method for determining distributed processing, and non-temporary computer-readable medium in which program is stored
JPWO2017038100A1 (en) * 2015-09-03 2018-08-30 日本電気株式会社 Monitoring server, distributed processing determination method, and program
US10671058B2 (en) 2015-09-03 2020-06-02 Nec Corporation Monitoring server, distributed-processing determination method, and non-transitory computer-readable medium storing program
WO2019138838A1 (en) 2018-01-12 2019-07-18 日本電気株式会社 Facial recognition device
US11403873B2 (en) 2018-01-12 2022-08-02 Nec Corporation Face authentication apparatus
WO2019138839A1 (en) 2018-01-12 2019-07-18 日本電気株式会社 Facial recognition device
US11682255B2 (en) 2018-01-12 2023-06-20 Nec Corporation Face authentication apparatus
US11210879B2 (en) 2018-01-12 2021-12-28 Nec Corporation Face authentication apparatus
JP2020052484A (en) * 2018-09-25 2020-04-02 Awl株式会社 Object recognition camera system, relearning system, and object recognition program
JP7207630B2 (en) 2018-09-25 2023-01-18 Awl株式会社 Object recognition camera system, re-learning system, and object recognition program
JPWO2020105091A1 (en) * 2018-11-19 2021-09-27 日本電気株式会社 Media data processing systems, methods and programs
JP7103431B2 (en) 2018-11-19 2022-07-20 日本電気株式会社 Media data processing systems, methods and programs
US11768708B2 (en) 2018-11-19 2023-09-26 Nec Corporation Media data processing system, method, and program
JP2020205117A (en) * 2019-06-17 2020-12-24 日本電気株式会社 Face authentication device
WO2021205844A1 (en) * 2020-04-09 2021-10-14 Necソリューションイノベータ株式会社 Authentication device
JP7414327B2 (en) 2020-04-09 2024-01-16 Necソリューションイノベータ株式会社 Authentication device
WO2022215248A1 (en) * 2021-04-09 2022-10-13 日本電気株式会社 Person authentication support, person authentication support method, and program
JP7460016B2 (en) 2021-04-09 2024-04-02 日本電気株式会社 Person authentication support system, person authentication support method and program
WO2023152970A1 (en) * 2022-02-14 2023-08-17 日本電気株式会社 Authentication device, authentication method, and recording medium

Similar Documents

Publication Publication Date Title
JP2007156541A (en) Person recognition apparatus and method and entry/exit management system
US8064651B2 (en) Biometric determination of group membership of recognized individuals
JP4241763B2 (en) Person recognition apparatus and method
JP4772379B2 (en) Person search device, person search method, and entrance / exit management system
JP4984728B2 (en) Subject collation device and subject collation method
JP4156430B2 (en) Face verification method and system using automatic database update method
EP2620896B1 (en) System And Method For Face Capture And Matching
KR101546137B1 (en) Person recognizing device and method
JP2007249953A (en) Person identification device and person identification method
US20080080748A1 (en) Person recognition apparatus and person recognition method
JP2008108243A (en) Person recognition device and person recognition method
JP2004213087A (en) Device and method for personal identification
US11694476B2 (en) Apparatus, system, and method of providing a facial and biometric recognition system
JP7196932B2 (en) Information processing device, information processing method, and program
EP3236366B1 (en) Information processing apparatus, information processing method, and storage medium
US8923576B2 (en) Method for detecting a fake finger for fingerprint acquisition software
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
KR101515214B1 (en) Identification method using face recognition and entrance control system and method thereof using the identification method
US20070253598A1 (en) Image monitoring apparatus
JP2008009689A (en) Face registering device, face authentication device, and face registration method
JP2007249298A (en) Face authentication apparatus and face authentication method
JP2022003526A (en) Information processor, detection system, method for processing information, and program
KR20230077560A (en) Appartus of providing service customized on exhibit hall and controlling method of the same
KR20220085570A (en) Artificial Intelligence Technology-based Medical Institution Access Control System and Method
WO2021250845A1 (en) Authentication method, information processing device, and authentication program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081107

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20100104