JP2010086403A - Facial recognition device, facial recognition method, and passage controller - Google Patents

Facial recognition device, facial recognition method, and passage controller Download PDF

Info

Publication number
JP2010086403A
JP2010086403A JP2008256487A JP2008256487A JP2010086403A JP 2010086403 A JP2010086403 A JP 2010086403A JP 2008256487 A JP2008256487 A JP 2008256487A JP 2008256487 A JP2008256487 A JP 2008256487A JP 2010086403 A JP2010086403 A JP 2010086403A
Authority
JP
Japan
Prior art keywords
unit
person
face
image
collation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008256487A
Other languages
Japanese (ja)
Inventor
Hiroshi Sukegawa
寛 助川
Toshio Sato
俊雄 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008256487A priority Critical patent/JP2010086403A/en
Publication of JP2010086403A publication Critical patent/JP2010086403A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a facial recognition device, a facial recognition method and a passage controller, capable of recognizing a person with high accuracy, in a short time. <P>SOLUTION: This facial recognition device 100 is provided with a registration information storage means 108 for preliminarily storing registration information, and an image input means 102A for consecutively enterinh images, including at least the face of the person. The facial recognition device detects a facial area of the person from among the consecutive images entered from the image input means, in each image. The facial recognition device determines the presence of a recognition intention of the person, based on the position and the size of the face area detected in each image. The facial recognition device selects either of the first collation system for conducting collation, based on the plurality of detected facial area images and the registration information stored by the registration information storage means, or the second collation system for conducting collation based on at least one of the detected facial area images and the registration information stored by the registration information storage means, and determines whether the person is one who has registered in advance. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラにより取得した撮影対象者の顔画像に基づいて撮影対象者の顔を認識する顔認識装置、顔認識方法、及び通行制御装置に関する。   The present invention relates to a face recognition device, a face recognition method, and a traffic control device for recognizing a face of a person to be photographed based on a face image of the person to be photographed acquired by a camera.

一般に、顔認識装置は、ビデオカメラなどのカメラを有している。人物がカメラの前に立ち止まってカメラのレンズに顔を向けた場合、顔認識装置は、この人物(対象人物)の顔画像をカメラにより撮影する。カメラは、撮影した画像を顔認識装置に入力する。   In general, the face recognition apparatus has a camera such as a video camera. When a person stops in front of the camera and faces his face to the lens of the camera, the face recognition device captures a face image of the person (target person) with the camera. The camera inputs the captured image to the face recognition device.

顔認識装置は、入力された画像から顔領域を検出する。顔認識装置は、顔領域の画像(顔画像)の特徴情報を抽出する。顔認識装置は、予め登録情報として、人物の顔の特徴情報を複数記憶している。顔認識装置は、顔画像から抽出した特徴情報と、登録情報とを照合し、一致する特徴情報が存在するか否か認証(顔認証)を行なう。これにより、顔認識装置は、人物を認識する。例えば、通行制御装置に用いられている顔認識装置は、一致する特徴情報が存在すると判定した場合、対象人物は通行が許可された人物であると判断する。   The face recognition device detects a face area from the input image. The face recognition device extracts feature information of a face area image (face image). The face recognition device stores in advance a plurality of feature information of a person's face as registration information. The face recognition device collates the feature information extracted from the face image with the registered information, and performs authentication (face authentication) as to whether there is matching feature information. Thereby, the face recognition device recognizes a person. For example, if the face recognition device used in the traffic control device determines that there is matching feature information, it determines that the target person is a person permitted to pass.

通常、顔認識装置は、複数枚人物の顔画像を撮影した上で特徴情報を抽出する。この為、人物がカメラの前に立ち止まってから撮影を行う場合、認証が完了するまでに時間がかかるという問題がある。そこで、歩行中の人物(歩行者)を撮像して画像を取得し、認証を行なう個人認証システムが提供されている(例えば特許文献1参照)。
特開2005−275869号公報
Usually, the face recognition device extracts feature information after photographing a plurality of human face images. For this reason, when taking a picture after a person stops in front of the camera, there is a problem that it takes time to complete the authentication. Therefore, a personal authentication system is provided in which a person (pedestrian) who is walking is imaged to acquire an image and perform authentication (see, for example, Patent Document 1).
JP 2005-275869 A

上記したような個人認証システムは、人物の歩行している姿を撮影する為のスペースを確保する必要がある。この為に装置を設置する事ができる場所に制限が生じるという問題がある。   The personal authentication system as described above needs to secure a space for photographing a figure of a person walking. For this reason, there is a problem that the place where the apparatus can be installed is limited.

また、上記したような個人認証システムでは、顔の見え方(角度など)、歩き方、または、照明条件などの変動の為に、歩行者の顔画像を安定して得る事が難しい。この為、認証の制度が低下するという問題がある。   Further, in the personal authentication system as described above, it is difficult to stably obtain a pedestrian's face image due to variations in how the face looks (angle etc.), how to walk, or lighting conditions. For this reason, there is a problem that the certification system is lowered.

本発明の一形態における目的は、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することにある。   An object of one embodiment of the present invention is to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

本発明の一実施形態に係る顔認識装置は、予め登録情報を記憶する登録情報記憶手段と、人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出する顔検出手段と、前記顔検出手段により画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定する動作判定手段と、前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第1の照合方式により照合を行う第1の照合手段と、前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第2の照合方式により照合を行う第2の照合手段と、前記第1の照合手段と前記第2の照合手段とのいずれかを選択する選択手段と、前記選択手段により選択した照合手段により、前記人物が予め登録された人物であるか否かを判定する認識手段と、を具備する。   A face recognition apparatus according to an embodiment of the present invention includes a registration information storage unit that stores registration information in advance, an image input unit that continuously inputs an image including at least a face of a person, and an input from the image input unit. Face detection means for detecting the face area of the person for each image from the consecutive images obtained, and determining the presence or absence of the person's authentication intention based on the position and size of the face area detected for each image by the face detection means An action determination unit that performs the matching by a first matching method based on the image of the face area detected by the face detection unit and the registration information stored by the registration information storage unit, A second collation unit that performs collation by a second collation method based on the image of the face area detected by the face detection unit and the registration information stored by the registration information storage unit; A selecting unit that selects one of a matching unit and the second collating unit, and a recognizing unit that determines whether the person is a pre-registered person by the collating unit selected by the selecting unit; It comprises.

また、本発明の一実施形態に係る顔認識方法は、予め登録情報を記憶する登録情報記憶手段と、人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、を具備する顔認識装置に用いられる顔認識方法であって、前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出し、前記画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定し、前記検出した複数枚の顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて照合を行う第1の照合方式と、前記検出した少なくとも1枚以上の顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて照合を行う第2の照合方式とのいずれかを選択し、前記選択した照合方式により、前記人物が予め登録された人物であるか否かを判定する。   In addition, a face recognition method according to an embodiment of the present invention includes a registration information storage unit that stores registration information in advance and an image input unit that continuously inputs an image including at least a face of a person. A face recognition method used in a recognition device, wherein the face area of the person is detected for each image from successive images input from the image input means, and based on the position and size of the face area detected for each image A first verification method for determining whether the person has an authentication intention, and performing verification based on the detected images of the plurality of face regions and the registration information stored in the registration information storage unit, Based on the detected at least one face area image and the registered information stored in the registered information storage means, one of the second matching methods is selected, and the selected matching method is selected. Yo , It is determined whether the person the person is registered in advance.

また、本発明の一実施形態に係る通行制御装置は、通行が制限されるエリアに設けられたドアの開閉を制御する通行制御装置であって、通行を許可する人物の登録情報を予め記憶する登録情報記憶手段と、人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出する顔検出手段と、前記顔検出手段により画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定する動作判定手段と、前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第1の照合方式により照合を行う第1の照合手段と、前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第2の照合方式により照合を行う第2の照合手段と、前記第1の照合手段と前記第2の照合手段とのいずれかを選択する選択手段と、前記選択手段により選択した照合手段により、前記人物が予め登録された人物であるか否かを判定する認識手段と、前記認識手段により前記人物が予め登録された人物であると判定した場合、通行が制限されるエリアに設けられたドアを開くように制御するゲート制御手段と、を具備する。   A traffic control device according to an embodiment of the present invention is a traffic control device that controls opening and closing of a door provided in an area where traffic is restricted, and stores in advance registration information of a person who is permitted to pass. Registration information storage means; image input means for continuously inputting an image including at least a face of a person; and face detection for detecting the face area of the person for each image from the continuous images input from the image input means. Means for determining the presence or absence of the person's authentication intention based on the position and size of the face area detected for each image by the face detection means, the image of the face area detected by the face detection means, A first collation unit that performs collation by a first collation method based on registration information stored in the registration information storage unit; an image of a face area detected by the face detection unit; Selection means for selecting one of the second collating means for performing collation by the second collation method based on the registration information stored by the means, and the first collating means and the second collating means. And a recognizing unit that determines whether or not the person is a pre-registered person by the matching unit selected by the selecting unit, and a case where the recognizing unit determines that the person is a pre-registered person Gate control means for controlling to open a door provided in an area where traffic is restricted.

この発明の一形態によれば、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することができる。   According to one embodiment of the present invention, it is possible to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

以下、図を参照しながら、本発明の第1の実施形態に係る顔認識装置、顔認識方法、及び通行制御装置について詳細に説明する。
図1は、本発明の第1の実施形態に係る顔認識装置100の構成例を概略的に説明するためのブロック図である。顔認識装置100は、例えば、通行を許可する人物を制限する通行制御装置などに組み込まれていると仮定する。顔認識装置100は、特定の人物のみが通行を許可される場所、例えば、ビル及び企業の建物などのエントランス、若しくは、娯楽施設及び交通機関などのゲートなどに設置されると想定される。
Hereinafter, a face recognition device, a face recognition method, and a traffic control device according to a first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram for schematically explaining a configuration example of a face recognition apparatus 100 according to the first embodiment of the present invention. It is assumed that the face recognition device 100 is incorporated in, for example, a traffic control device that restricts persons permitted to pass. The face recognition device 100 is assumed to be installed in a place where only a specific person is allowed to pass, for example, an entrance such as a building and a corporate building, or a gate such as an amusement facility and a transportation facility.

なお、顔認識装置100は、取得した顔画像から得た特徴情報と予め登録情報として登録されている特徴情報とを照合し、特徴情報の一致する人物が少なくとも1名存在するか否かを判定する構成であると仮定する。   Note that the face recognition device 100 collates feature information obtained from the acquired face image with feature information registered in advance as registration information, and determines whether or not there is at least one person with matching feature information. Assuming that the configuration is

図1に示すように、顔認識装置100は、入力部101と制御部102とを備えている。入力部101は、外部から情報を取得するためのユニットである。入力部101は、カメラ103及び操作部104を備えている。   As shown in FIG. 1, the face recognition device 100 includes an input unit 101 and a control unit 102. The input unit 101 is a unit for acquiring information from the outside. The input unit 101 includes a camera 103 and an operation unit 104.

カメラ103は、撮像手段である。カメラ103は、例えば、industrial television(ITV)カメラなどにより構成される。カメラ103は、所定範囲の動画像(複数枚の連続画像)を撮像する。これにより、カメラ103は、歩行者の顔を含む画像を撮像する。カメラ103は、撮像した画像を図示しないA/D変換器によりディジタル変換し、逐次制御部102に送信する。なお、カメラの代わりにスキャナにより写真をスキャンし、登録情報の追加、照合、及び検索が行われるような構成であってもよい。   The camera 103 is an imaging unit. The camera 103 is composed of, for example, an industrial television (ITV) camera. The camera 103 captures a predetermined range of moving images (a plurality of continuous images). Thereby, the camera 103 captures an image including the face of the pedestrian. The camera 103 digitally converts the captured image using an A / D converter (not shown) and sequentially transmits it to the control unit 102. Note that a configuration may be employed in which a photograph is scanned by a scanner instead of a camera, and registration information is added, collated, and searched.

操作部104は、操作者(歩行者を含む)に操作を入力させる為の操作手段である。操作部104は、例えば、入力キー、若しくはカードリーダなどにより構成される。操作部104は、入力キーにより入力された入力情報、若しくは、カードリーダにより歩行者の所持するカード(例えば、ICカードなど)から読み取った情報を制御部102に送信する。   The operation unit 104 is an operation means for causing an operator (including a pedestrian) to input an operation. The operation unit 104 includes, for example, an input key or a card reader. The operation unit 104 transmits, to the control unit 102, input information input using an input key or information read from a card (for example, an IC card) held by a pedestrian using a card reader.

これにより、顔認識装置100は、顔認証のみで人物の認証を行なう1:N照合と、顔認証と識別情報の照合により人物の認証を行なう1:1及び1:n照合とのいずれかにより人物の認証を行なう事ができる。1:N照合は、登録情報と一致する顔が、複数人数(N人)のうちの中に存在するか否か認証を行なう方法である。   As a result, the face recognition apparatus 100 performs either 1: N verification that performs person authentication only by face authentication, or 1: 1 and 1: n verification that performs person authentication by face authentication and identification information verification. The person can be authenticated. 1: N verification is a method of performing authentication to determine whether or not a face that matches registered information exists among a plurality of people (N people).

1:1及び1:n照合は、1名、またはN人より少ない少人数(n人)の認証を行なう為の方法である。1:1及び1:n照合が用いられる場合、顔認識装置100は、顔認証を行なうと共に、入力キー、若しくはカードリーダにより入力される識別情報による認証を行う。   The 1: 1 and 1: n verification is a method for authenticating one person or a small number of persons (n persons) smaller than N persons. When 1: 1 and 1: n verification is used, the face recognition apparatus 100 performs face authentication and authentication using identification information input by an input key or a card reader.

またさらに、入力部101は、歩行者に対して、顔認証の状況等を逐次表示する表示部を備えていてもよい。また、操作部104と表示部が一体に構成されてもよい。この場合、操作部及び表示部はタッチパネルとして機能する。   Furthermore, the input unit 101 may include a display unit that sequentially displays the status of face authentication and the like for pedestrians. Further, the operation unit 104 and the display unit may be configured integrally. In this case, the operation unit and the display unit function as a touch panel.

制御部102は、入力部101により入力された情報に基づいて種々の処理を行うユニットである。制御部102は、顔検出部105、動作判定部106、認識部107、登録情報記憶部108、出力部109、及びゲート制御部110を備えている。また、さらに、制御部102は、インターフェース102A及びインターフェース102Bを備えている。   The control unit 102 is a unit that performs various processes based on information input by the input unit 101. The control unit 102 includes a face detection unit 105, a motion determination unit 106, a recognition unit 107, a registration information storage unit 108, an output unit 109, and a gate control unit 110. Further, the control unit 102 includes an interface 102A and an interface 102B.

インターフェース102A及びインターフェース102Bは、制御部102の外部からの信号を受信する。インターフェース102Aは、カメラ103に接続されている。インターフェース102Aには人物の少なくとも顔を含む画像がカメラ103から連続して入力される。即ち、インターフェース102Aは、画像入力手段として機能する。   The interface 102A and the interface 102B receive signals from the outside of the control unit 102. The interface 102A is connected to the camera 103. Images including at least the face of a person are continuously input from the camera 103 to the interface 102A. That is, the interface 102A functions as an image input unit.

インターフェース102Bは、操作部104に接続されている。インターフェース102Bには操作者による操作信号が操作部104から入力される。即ち、インターフェース102Bは、操作入力手段として機能する。   The interface 102B is connected to the operation unit 104. An operation signal from the operator is input from the operation unit 104 to the interface 102B. That is, the interface 102B functions as an operation input unit.

顔検出部105は、顔検出手段として機能する。顔検出部105は、カメラ103により撮像された入力画像において人物の顔が写っている領域(顔領域)を検出する。即ち、顔検出部105は、カメラ103の撮影範囲内を移動する人物(歩行者)の顔の画像(顔画像)及び位置を入力画像に基づいて検出する。   The face detection unit 105 functions as a face detection unit. The face detection unit 105 detects an area (face area) in which a human face is captured in an input image captured by the camera 103. That is, the face detection unit 105 detects the face image (face image) and position of a person (pedestrian) moving within the shooting range of the camera 103 based on the input image.

顔検出部105は、たとえば、入力画像において、あらかじめ用意されたテンプレートを移動させながら相関値を求めることにより、顔領域を検出する。ここでは、顔検出部105は、最も高い相関値が算出された位置を顔領域として検出する。   For example, the face detection unit 105 detects a face area by obtaining a correlation value while moving a template prepared in advance in an input image. Here, the face detection unit 105 detects the position where the highest correlation value is calculated as a face area.

顔領域を検出する方法は、種々の方法がある。本実施形態に係る顔認識装置100は、例えば、固有空間法、または部分空間法などの他の顔領域を検出する為の方法を用いても実現することが出来る。   There are various methods for detecting the face area. The face recognition apparatus 100 according to the present embodiment can also be realized by using another method for detecting a face area such as an eigenspace method or a subspace method.

また、顔認識装置100は、検出された顔領域から、例えば、目、鼻、及び口などの顔の部位の位置を検出することもできる。具体的には、たとえば、文献[1](福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997年)、文献[2](湯浅真由美、中島朗子:「高精度顔特徴点検出に基づくデジタルメイクシステム」第10回画像センシングシンポジウム予稿集,pp219−224(2004)などに開示されている方法により実現可能である。   The face recognition apparatus 100 can also detect the position of a facial part such as eyes, nose, and mouth from the detected face area. Specifically, for example, document [1] (Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE Transactions (D), vol. J80-D-II. , No. 8, pp2170-2177 (1997), literature [2] (Mayumi Yuasa, Akiko Nakajima: “Digital Make System Based on High-Precision Facial Feature Point Detection” Proceedings of the 10th Image Sensing Symposium, pp219-224 ( 2004) and the like.

なお、本実施形態では、顔画像を用いて認証を行なう構成を例に挙げて説明する。しかし、本発明を実現する為の構成はこれに限定されない。例えば、虹彩、網膜、及び目の画像を用いて認証を行なう構成であってもよい。この場合、顔認識装置100は、画像中の目の領域を検出し、カメラをズームし、目の画像を拡大して取得することが出来る。   In this embodiment, a configuration in which authentication is performed using a face image will be described as an example. However, the configuration for realizing the present invention is not limited to this. For example, the configuration may be such that authentication is performed using images of the iris, retina, and eyes. In this case, the face recognition apparatus 100 can detect an eye region in the image, zoom the camera, and enlarge and acquire the eye image.

いずれの場合でも、顔認識装置100は、二次元に画素が複数配列された画像として扱うことができる情報を取得する。   In any case, the face recognition apparatus 100 acquires information that can be handled as an image in which a plurality of pixels are two-dimensionally arranged.

1枚の入力画像から1つの顔を抽出する場合、顔認識装置100は、画像全体に対してテンプレートとの相関値を求め、最大となる位置及びサイズを顔領域として検出する。   When one face is extracted from one input image, the face recognition apparatus 100 obtains a correlation value with the template for the entire image, and detects the maximum position and size as a face region.

1枚の入力画像から複数の顔を抽出する場合、顔認識装置100は、画像全体に対する相関値の局所最大値を求め、1枚の画像内での重なりを考慮して顔の候補位置を絞り込む。さらに、顔認識装置100は、連続して入力された過去の画像との関係性(時間的な推移)も考慮して複数の顔領域を同時に検出する。   When a plurality of faces are extracted from one input image, the face recognition apparatus 100 obtains a local maximum value of correlation values for the entire image and narrows down candidate face positions in consideration of overlap in one image. . Furthermore, the face recognition apparatus 100 simultaneously detects a plurality of face regions in consideration of the relationship (temporal transition) with past images that have been continuously input.

なお、本実施の形態では、顔認識装置100は、人物の顔領域の検出を行なう事を例として説明しているがこれに限定されない。例えば、顔認識装置100は、人物領域の検出を行なう事もできる。例えば、文献[3](松日楽信人、小川秀樹、吉見卓:「人と共存する生活支援ロボット」東芝レビューVol.60 No.7,pp112−115(2005)に開示されている技術を利用することで、顔認識装置100は、人物領域の検出を行なう事が可能になる。   In the present embodiment, the face recognition apparatus 100 is described as detecting a human face area as an example, but the present invention is not limited to this. For example, the face recognition apparatus 100 can also detect a person area. For example, using the technology disclosed in Document [3] (Nobuhito Matsugura, Hideki Ogawa, Taku Yoshimi: “Life Support Robot Coexisting with People” Toshiba Review Vol. 60 No. 7, pp 112-115 (2005). By doing so, the face recognition apparatus 100 can detect a person area.

なお、カメラ103は、画像を連続して取得し、1フレームずつ制御部102に送信する。このため、顔検出部105は、画像が入力される毎に逐次顔領域を検出する。   Note that the camera 103 continuously acquires images and transmits the images to the control unit 102 frame by frame. For this reason, the face detection unit 105 sequentially detects the face area each time an image is input.

動作判定部106は、動作判定手段として機能する。動作判定部106は、顔検出部105により検出された顔領域の画像(顔画像)に基づいて、人物の動作を判断する。動作判定部106は、顔領域の位置及びサイズから、人物が認証を行なおうとしているか否か、即ち、認証意思(照合意思)が有るか否かを判断する。   The operation determination unit 106 functions as an operation determination unit. The motion determination unit 106 determines the motion of the person based on the face area image (face image) detected by the face detection unit 105. The motion determination unit 106 determines whether or not the person is trying to authenticate from the position and size of the face area, that is, whether or not there is an authentication intention (verification intention).

動作判定部106は、顔検出部105により検出された顔領域の座標を管理する。動作判定部106は、顔検出部105により顔領域が検出された場合、1つ前のフレームとで顔領域が検出された座標及びサイズを比較する。比較の結果に基づいて、動作判定部106は、2つのフレームにおいてそれぞれ検出された顔領域が同じ人物のものであるか否かを判定する。   The operation determination unit 106 manages the coordinates of the face area detected by the face detection unit 105. When the face detection unit 105 detects a face area, the motion determination unit 106 compares the coordinates and size at which the face area was detected with the previous frame. Based on the comparison result, the motion determination unit 106 determines whether the face areas detected in the two frames are of the same person.

同一人物であると判定した場合、動作判定部106は、同一人物であるとして二つの顔画像を対応付ける。即ち、動作判定部106は、連続して入力される画像に写り込んでいる同一人物を追跡する。   If it is determined that they are the same person, the action determination unit 106 associates the two face images as being the same person. That is, the operation determination unit 106 tracks the same person that is reflected in images that are continuously input.

なお、この場合、動作判定部106は、異なる人物を同一人物であると対応付けない為に、1つ前のフレームとで顔領域の画像のパターンのマッチングを行う。マッチングの結果で、予め定める閾値以上の差がある場合、動作判定部106は、前フレームと現フレームとで検出された顔領域の人物は異なる人物であると判定するように構成されていてもよい。   In this case, the motion determination unit 106 matches the pattern of the face area image with the previous frame in order not to associate different persons as the same person. If there is a difference equal to or greater than a predetermined threshold as a result of matching, the motion determination unit 106 may be configured to determine that the person in the face area detected in the previous frame and the current frame is a different person. Good.

上記したように、同一人物の顔領域を追跡することにより、歩行者の動作を判定することが出来る。例えば、顔領域のサイズが大きくなる場合、顔認識装置100は、歩行者が本装置に近づいていると判断することが出来る。また、複数のフレームに写り込んでいる歩行者の顔領域のうちの同一人物であるものを対応付けることにより、顔認証に用いる情報量を増やすことが出来る。これにより、より正確に顔認証を行なう事ができる。   As described above, by tracking the face area of the same person, the movement of the pedestrian can be determined. For example, when the size of the face area increases, the face recognition apparatus 100 can determine that a pedestrian is approaching the present apparatus. In addition, the amount of information used for face authentication can be increased by associating the pedestrian's face areas reflected in a plurality of frames with the same person. Thereby, face authentication can be performed more accurately.

また、例えば図2に示すように、撮像した入力画像10中の顔領域のサイズと、予め定める枠11のサイズとが同程度になった場合、動作判定部106は、歩行者が認証を試みている(照合意思がある)と判定することができる。   For example, as shown in FIG. 2, when the size of the face area in the captured input image 10 and the size of the predetermined frame 11 become approximately the same, the motion determination unit 106 tries to authenticate the pedestrian. It can be determined that there is an intention to collate.

枠11のサイズは、本装置のカメラ103の正面に人物が立っている場合の顔領域のサイズが想定されて設定される。即ち、撮像した入力画像10中の顔領域のサイズと、予め定める枠11のサイズとが同程度になった場合、動作判定部106は、歩行者が本装置に近づき、カメラ103に顔を見せている状態であると判定する。また、前フレームから現フレームにかけての顔領域の座標の変化が予め定める閾値未満である場合、動作判定部106は、人物が立ち止まったと判定する。即ち、動作判定部106は、人物が立ち止まったと判定した場合、照合意思があると判定する。   The size of the frame 11 is set assuming the size of the face area when a person stands in front of the camera 103 of the present apparatus. That is, when the size of the face area in the captured input image 10 and the size of the predetermined frame 11 become approximately the same, the motion determination unit 106 approaches the device and shows the camera 103 a face. It is determined that it is in a state. If the change in the coordinates of the face area from the previous frame to the current frame is less than a predetermined threshold, the action determination unit 106 determines that the person has stopped. That is, when it is determined that the person has stopped, the operation determination unit 106 determines that there is a verification intention.

また、動作判定部106は、操作部104により操作が入力された場合、操作者(歩行者)に照合意思があると判断する。動作判定部106は、照合意思があると判定した場合に照合結果を出力するように、照合結果を出力するタイミングを制御する。   In addition, when an operation is input from the operation unit 104, the operation determination unit 106 determines that the operator (pedestrian) has a intention to collate. The operation determination unit 106 controls the timing of outputting the collation result so that the collation result is output when it is determined that there is an intention to collate.

認識部107は、顔検出部105により検出された顔画像に基づいて特徴情報(顔特徴)を抽出する。登録情報記憶部108は、人物の顔の特徴情報を登録情報として記憶している。登録情報記憶部108は、登録情報記憶手段として機能する。即ち、登録情報記憶部108は、本装置において認識の対象となる人物の顔画像から抽出された特徴情報を予め記憶している。   The recognition unit 107 extracts feature information (face feature) based on the face image detected by the face detection unit 105. The registration information storage unit 108 stores human face feature information as registration information. The registration information storage unit 108 functions as registration information storage means. That is, the registration information storage unit 108 stores in advance feature information extracted from a face image of a person to be recognized in this apparatus.

認識部107は、抽出した特徴情報と、登録情報記憶部108に記憶されている特徴情報とで照合を行う。即ち、認識部107は、顔画像から抽出した特徴情報と一致若しくは近似する特徴情報が登録情報記憶部108に記憶されているか否か判定する。この場合、認識部107は、認識手段と機能する。   The recognition unit 107 compares the extracted feature information with the feature information stored in the registered information storage unit 108. That is, the recognition unit 107 determines whether or not feature information that matches or approximates feature information extracted from the face image is stored in the registered information storage unit 108. In this case, the recognition unit 107 functions as a recognition unit.

認識部107は、複数の照合方式を備えている。認識部107は、認証に用いることができる顔画像の枚数に基づいて、照合方式を適宜選択する。即ち、認識部107は、動作判定部106により照合意思を確認するまでに取得した顔画像の枚数に基づいて、照合方式を適宜選択する。   The recognition unit 107 includes a plurality of verification methods. The recognizing unit 107 appropriately selects a collation method based on the number of face images that can be used for authentication. That is, the recognizing unit 107 appropriately selects a collation method based on the number of face images acquired until the operation determination unit 106 confirms the collation intention.

例えば、認識部107は、第1の照合方式と、第2の照合方式とを備えている。第1の照合方式が選択される場合、認識部107は、複数枚の顔画像を統合し、1つの特徴情報抽出し、抽出した特徴情報により照合を行う。即ち、この場合、認識部107は、第1の照合手段として機能する。   For example, the recognition unit 107 includes a first matching method and a second matching method. When the first matching method is selected, the recognition unit 107 integrates a plurality of face images, extracts one feature information, and performs matching based on the extracted feature information. That is, in this case, the recognition unit 107 functions as a first matching unit.

第2の照合方式が選択される場合、認識部107は、複数枚の顔画像毎に特徴情報を抽出し、抽出した各特徴情報毎に照合を行う。即ち、この場合、認識部107は、第2の照合手段として機能する。   When the second matching method is selected, the recognition unit 107 extracts feature information for each of a plurality of face images, and performs matching for each extracted feature information. That is, in this case, the recognition unit 107 functions as a second matching unit.

第1の照合方式は、複数の画像を統合して特徴情報を抽出する為、第2の照合方式に比べて精度が高い。しかし、第1の照合方式を行なう為に、顔画像が所定枚数以上必要である。   The first matching method is more accurate than the second matching method because the feature information is extracted by integrating a plurality of images. However, in order to perform the first collation method, a predetermined number of face images are required.

第1の照合方式を行なう為に必要な顔画像の所定枚数は、任意に設定することができる。しかし、認識部107による照合の精度は、顔画像の枚数に比例して高くなる。例えば、特徴情報を抽出するために用いる顔画像が少ない場合、人物の顔の動きなどの変動に対応することが出来ない可能性が有る。この為、要望される照合の精度に応じて必要な顔画像の枚数が制限される。   The predetermined number of face images necessary for performing the first collation method can be arbitrarily set. However, the accuracy of collation by the recognition unit 107 increases in proportion to the number of face images. For example, when there are few face images used for extracting feature information, there is a possibility that it is not possible to cope with fluctuations in the movement of a person's face. For this reason, the required number of face images is limited according to the required accuracy of collation.

そこで、本実施形態に係る顔認識装置100の認識部107は、処理時間に余裕がある場合、第1の照合方式を利用し、照合の精度を優先する。また、認識部107は、処理時間に余裕がない場合、第2の照合方式を利用し、照合の処理時間を優先する。   Therefore, the recognition unit 107 of the face recognition apparatus 100 according to the present embodiment uses the first verification method and gives priority to the accuracy of verification when there is a margin in processing time. Further, when the processing time has no allowance, the recognizing unit 107 uses the second verification method and gives priority to the verification processing time.

認識部107は、照合方式の選択を行う選択手段として機能する。即ち、認識部107は、認証意思を確認するまでに所定枚数以上の顔画像を取得できた場合に第1の照合方式を選択する。また、認識部107は、認証意思を確認するまでに所定枚数以上の顔画像を取得できなかった場合に第2の照合方式を選択する。   The recognition unit 107 functions as a selection unit that selects a collation method. That is, the recognizing unit 107 selects the first verification method when a predetermined number or more of face images have been acquired before confirming the authentication intention. The recognizing unit 107 selects the second matching method when a predetermined number or more of face images cannot be acquired before confirming the authentication intention.

即ち、顔認識装置100は、歩行者の動作に合わせて適宜照合方式を選択することができる。この為、顔認識装置100は、短い処理時間で、且つ、高い精度で照合を行うことが出来る。   That is, the face recognition apparatus 100 can select a matching method as appropriate according to the movement of the pedestrian. For this reason, the face recognition apparatus 100 can perform collation with high accuracy in a short processing time.

第1の照合方式、及び第2の照合方式について図3乃至図5を参照し詳細に説明する。   The first collation method and the second collation method will be described in detail with reference to FIGS.

図3は、第1の照合方式について説明するための説明図である。   FIG. 3 is an explanatory diagram for explaining the first collation method.

上記した第1の照合方式は、たとえば、文献[4](福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU、vol97、No.113、pp17−24(1997)、文献[5](前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」電子情報通信学会論文誌(D)、vol.J68−D、No.3、pp345―352(1985)などに開示されている相互部分空間法を用いることにより実現可能である。   The above-mentioned first collation method is described in, for example, Document [4] (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: “Face Recognition System Using Moving Images” IEICE Research Report PRMU, vol 97, No. 113, pp17. -24 (1997), literature [5] (Kenichi Maeda, Sadaichi Watanabe: “Pattern matching method introducing local structure”, IEICE Transactions (D), vol. J68-D, No. 3, pp345. It can be realized by using the mutual subspace method disclosed in 352 (1985).

顔検出部105は、顔の部品の位置を検出し、検出した顔の部品の位置に基づいて、顔領域の画像(顔画像)を切り出す。即ち、顔検出部105は、入力画像から、顔領域(mピクセル×nピクセルの領域の画像)を切り出す。認識部107は、顔検出部105により切り出された顔領域の画像の濃淡情報を特徴情報として抽出する。   The face detection unit 105 detects the position of the face component, and cuts out an image (face image) of the face area based on the detected position of the face component. That is, the face detection unit 105 cuts out a face area (an image of an area of m pixels × n pixels) from the input image. The recognizing unit 107 extracts shading information of the image of the face area cut out by the face detecting unit 105 as feature information.

ここでは、mピクセル×nピクセルの領域の画像の濃淡の値がそのまま濃淡情報として用いられる。即ち、m×nピクセルの次元の情報を特徴ベクトルとして用いる。認識部107は、単純類似度法により複数の画像の類似度を算出する。即ち、認識部107は、ベクトルとベクトルの長さをそれぞれ「1」とするように単純類似度法により正規化を行なう。認識部107は、内積を計算することにより、複数の特徴ベクトルの間の類似性を示す類似度を算出する。カメラ103により取得した画像が一枚である場合、上記した処理により画像の特徴を抽出することができる。   Here, the shade value of the image of the area of m pixels × n pixels is used as the shade information as it is. That is, dimensional information of m × n pixels is used as a feature vector. The recognition unit 107 calculates the similarity of a plurality of images by the simple similarity method. That is, the recognition unit 107 performs normalization by the simple similarity method so that the vector and the length of the vector are set to “1”, respectively. The recognizing unit 107 calculates a similarity indicating a similarity between a plurality of feature vectors by calculating an inner product. When there is one image acquired by the camera 103, the feature of the image can be extracted by the above processing.

また、認識結果を出力する為に、複数の連続した画像により構成される動画像を用いることにより、顔認識装置100は、より精度の高い認識処理を行うことができる。この為、本実施形態では、動画像を用いた認識処理を例に挙げて説明を行う。   Further, by using a moving image composed of a plurality of continuous images in order to output a recognition result, the face recognition device 100 can perform a recognition process with higher accuracy. For this reason, in the present embodiment, description will be given by taking recognition processing using a moving image as an example.

動画像を用いた認識処理を行う場合、カメラ103は、撮影領域を連続して撮影する。顔検出部105は、カメラ103により撮影された連続の複数の画像から、顔領域の画像(m×nピクセルの画像)をそれぞれ切り出す。認識部107は、切り出した複数の顔領域の画像の特徴ベクトルを各画像毎に取得する。認識部107は、取得した画像毎の特徴ベクトルから相関行列を求める。   When performing recognition processing using a moving image, the camera 103 continuously captures an imaging region. The face detection unit 105 cuts out an image of a face area (an image of m × n pixels) from a plurality of continuous images captured by the camera 103. The recognizing unit 107 acquires the feature vector of the extracted plurality of face area images for each image. The recognition unit 107 obtains a correlation matrix from the acquired feature vector for each image.

認識部107は、特徴ベクトルの相関行列から、例えば、Karhunen−Loeve展開(KL展開)等により正規直交ベクトルを求める。これにより、認識部107は、連続した画像おいて、顔の特徴を示す部分空間を算出し、特定することが出来る。   The recognition unit 107 obtains an orthonormal vector from the correlation matrix of the feature vector, for example, by Karhunen-Loeve expansion (KL expansion). As a result, the recognition unit 107 can calculate and specify a partial space indicating facial features in a continuous image.

部分空間を算出する場合、認識部107は、特徴ベクトルの相関行列(または、共分散行列)を求める。認識部107は、特徴ベクトルの相関行列をKL展開することにより正規直交ベクトル(固有ベクトル)を求める。これにより、認識部107は、部分空間を算出する。   When calculating the subspace, the recognition unit 107 obtains a correlation matrix (or covariance matrix) of feature vectors. The recognition unit 107 obtains an orthonormal vector (eigenvector) by performing KL expansion on the correlation matrix of the feature vector. Thereby, the recognition unit 107 calculates the partial space.

認識部107は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選ぶ。認識部107は、k個選んだ固有ベクトルの集合を用いて、部分空間を表現する。   The recognition unit 107 selects k eigenvectors corresponding to eigenvalues in descending order of eigenvalues. The recognizing unit 107 represents a subspace using a set of k selected eigenvectors.

本実施の形態では、認識部107は、特徴ベクトルに基づき、相関行列「Cd=ΦdΔdΦdT」を求める。認識部107は、相関行列「Cd=ΦdΔdΦdT」と対角化して、固有ベクトルの行列Φdを求める。この情報、即ち、行列Φdは、認識対象である人物の顔の特徴を示す部分空間である。   In the present embodiment, the recognition unit 107 obtains a correlation matrix “Cd = ΦdΔdΦdT” based on the feature vector. The recognition unit 107 diagonalizes the correlation matrix “Cd = ΦdΔdΦdT” to obtain a matrix Φd of eigenvectors. This information, that is, the matrix Φd is a partial space indicating the characteristics of the face of the person to be recognized.

登録情報記憶部108は、上記の方法により計算された部分空間を登録情報として記憶する。なお、登録情報記憶部108が記憶している特徴情報は、例えばm×nピクセルの特徴ベクトルである。しかし、登録情報記憶部108が記憶している特徴情報は、特徴の抽出が行われる前の状態の顔画像であってもよい。また、登録情報記憶部108が記憶している特徴情報は、部分空間を示す情報、若しくは、KL展開が行われる前の状態の相関行列であってもよい。   The registration information storage unit 108 stores the partial space calculated by the above method as registration information. Note that the feature information stored in the registered information storage unit 108 is, for example, a feature vector of m × n pixels. However, the feature information stored in the registration information storage unit 108 may be a face image in a state before the feature is extracted. The feature information stored in the registration information storage unit 108 may be information indicating a partial space or a correlation matrix in a state before KL expansion is performed.

認識部107は、算出した部分空間と、登録情報記憶部108に記憶されている1つまたは複数の特徴情報(ここでは部分空間を示す情報)とで類似度を算出する。これにより、認識部107は、カメラ103により撮影した画像中に、予め登録された人物が写っているか否か判定する。   The recognizing unit 107 calculates the degree of similarity between the calculated partial space and one or more pieces of feature information (information indicating the partial space here) stored in the registered information storage unit 108. Thereby, the recognition unit 107 determines whether or not a person registered in advance is included in the image captured by the camera 103.

複数の部分空間の間の類似度を算出する為の方法は、種々の方法がある。上述の方法では、予め記憶されている登録情報の中の認識データと、入力されるデータとが部分空間として表現される。即ち、相互部分空間法は、予め登録情報記憶部108に記憶されている顔特徴情報と、カメラ103により撮影された画像に基づいて作成された特徴情報とを部分空間として特定する。この方法では、この2つの部分空間により形成される「角度」が類似度として算出される。   There are various methods for calculating the similarity between a plurality of subspaces. In the above-described method, the recognition data in the registration information stored in advance and the input data are expressed as a partial space. That is, the mutual subspace method specifies facial feature information stored in advance in the registered information storage unit 108 and feature information created based on an image photographed by the camera 103 as a partial space. In this method, an “angle” formed by the two partial spaces is calculated as the similarity.

ここでは、入力される画像に基づいて算出された部分空間を入力部分空間と称して説明する。認識部107は、入力データ列(カメラ103により撮影された画像)に基づいて相関行列「Cin=ΦinΔinΦinT」を求める。   Here, the partial space calculated based on the input image will be described as an input partial space. The recognizing unit 107 obtains a correlation matrix “Cin = ΦinΔinΦinT” based on the input data string (image captured by the camera 103).

認識部107は、相関行列「Cin=ΦinΔinΦinT」と対角化を行い、固有ベクトルΦinを求める。認識部107は、Φinにより特定される部分空間と、Φdにより特定される部分空間とで類似度を算出する。即ち、認識部107は、2つの部分空間の間の類似度(0.0〜1.0)を求める。   The recognition unit 107 performs diagonalization with the correlation matrix “Cin = ΦinΔinΦinT” to obtain an eigenvector Φin. The recognition unit 107 calculates a similarity between the partial space specified by Φin and the partial space specified by Φd. That is, the recognition unit 107 obtains a similarity (0.0 to 1.0) between two partial spaces.

入力画像内に複数の顔領域が存在する場合、認識部107は、各顔領域に対して順番に認識の処理を行なう。すなわち、認識部107は、登録情報記憶部108に保存されている特徴情報(登録情報)と、顔領域の画像とで類似度を総当りで計算する。これにより、認識部107は、入力画像内の全ての人物に対して認識の処理の結果を得ることができる。たとえば、X人の人物がY人分の辞書を記憶している本装置に向かって歩いてきた場合、認識部107は、認識の処理、即ち、類似度の計算をX×Y回おこなう。これにより、認識部107は、X人のうちの全員に対して認識の処理の結果を出力できる。   When there are a plurality of face areas in the input image, the recognition unit 107 performs recognition processing on each face area in order. That is, the recognizing unit 107 calculates the degree of similarity based on the feature information (registered information) stored in the registered information storage unit 108 and the image of the face area. Thereby, the recognition unit 107 can obtain the result of the recognition process for all persons in the input image. For example, when X persons walk toward the apparatus storing Y dictionary, the recognition unit 107 performs recognition processing, that is, similarity calculation X × Y times. Thereby, the recognition part 107 can output the result of the process of recognition with respect to all of X persons.

登録情報記憶部108に保存されている登録情報と一致する画像が入力された複数の画像の中に見つからなかった場合、即ち、認識部107による認識の結果が出力されなかった場合、認識部107は、次にカメラ103により撮影される画像(次のフレームの画像)に基づいて再び認識の処理を行う。   When an image matching the registration information stored in the registration information storage unit 108 is not found in the plurality of input images, that is, when the recognition result by the recognition unit 107 is not output, the recognition unit 107 Performs the recognition process again based on the next image (the image of the next frame) taken by the camera 103.

この場合、認識部107は、部分空間に入力される相関行列、即ち、1つのフレームに関する相関行列を、過去の複数のフレームに関する相関行列の和に追加する。認識部107は、再び、固有ベクトルの計算を行う。認識部107は、再び、部分空間の作成を行なう。これにより、認識部107は、入力画像に関する部分空間の更新を行う。   In this case, the recognition unit 107 adds the correlation matrix input to the partial space, that is, the correlation matrix related to one frame, to the sum of the correlation matrices related to a plurality of past frames. The recognition unit 107 calculates the eigenvector again. The recognition unit 107 creates a partial space again. As a result, the recognition unit 107 updates the partial space related to the input image.

歩行する人物の顔画像を連続して撮影して照合を行なう場合、認識部107は、逐次部分空間の更新を行う。即ち、認識部107は、画像が入力される度に、認識の処理を行う。これにより、照合の精度が、撮影した画像の枚数に応じて徐々に高まる。   When the face images of the walking person are continuously photographed and collated, the recognition unit 107 sequentially updates the partial space. That is, the recognition unit 107 performs recognition processing every time an image is input. As a result, the accuracy of verification gradually increases in accordance with the number of captured images.

図4及び図5は、第2の照合方式について説明するための説明図である。   4 and 5 are explanatory diagrams for explaining the second collation method.

上記した第2の照合方式は、たとえば、文献[6](エルッキ・オヤ著、小川英光、佐藤誠訳、「パターン認識と部分空間法」、産業図書、1986年)、及び文献[7](東芝(小坂谷達夫):「画像認識装置、方法およびプログラム」特許公報 特開2007−4767)などに開示されている方法を用いることにより実現可能である。   The second collation method described above is described in, for example, Document [6] (Erki Oya, Hidemitsu Ogawa, Makoto Sato, “Pattern Recognition and Subspace Method”, Sangyo Tosho, 1986), and Document [7] ( Toshiba (Tatsuo Kosakaya): It can be realized by using a method disclosed in “Image recognition apparatus, method and program” (Japanese Patent Laid-Open No. 2007-4767).

文献6には、部分空間法により予め複数の顔画像から作成した登録情報としての部分空間への射影により人物を認識する方法が記載されている。図4に示すように、文献6に記載されている方法を用いる場合、認識部107は、1枚の画像を用いて照合を行なう事ができる。   Document 6 describes a method of recognizing a person by projecting onto a partial space as registration information created in advance from a plurality of face images by the partial space method. As shown in FIG. 4, when using the method described in Document 6, the recognition unit 107 can perform collation using one image.

文献7には、1枚の画像に対してモデルを利用して、例えば、顔の向き及び状態などを意図的に変化させた画像(摂動画像)を作成する方法が記載されている。この場合、図5に示すように、顔の向き及び状態などが異なる複数の摂動画像を用いて、上記の第1の照合方式により照合を行うことが出来る。   Document 7 describes a method of creating an image (perturbation image) in which, for example, the orientation and state of a face are intentionally changed using a model for one image. In this case, as shown in FIG. 5, collation can be performed by the first collation method using a plurality of perturbation images having different face orientations and states.

認識部107は、摂動を行う場合、顔検出部105により検出した顔の各部の座標を任意の方向に摂動させることにより摂動画像を生成する。なお、摂動させる量はどのような範囲であってもよい。また、摂動させる顔の部分(顔の特徴点)の種類は、どの部分であってもよい。また、摂動させる顔の部分(顔の特徴点)の種類は、複数種類であってもよい。   When performing the perturbation, the recognition unit 107 generates a perturbation image by perturbing the coordinates of each part of the face detected by the face detection unit 105 in an arbitrary direction. The amount to be perturbed may be in any range. In addition, the type of the face part (facial feature point) to be perturbed may be any part. In addition, the types of face portions (facial feature points) to be perturbed may be a plurality of types.

登録情報記憶部108は、個人の識別情報をキーとして人物の顔の特徴情報を登録情報として記憶している。即ち、登録情報記憶部108は、識別情報と顔特徴情報とを対応付けて記憶する。なお、登録情報記憶部108は、1つの識別情報と複数の顔特徴情報を対応付けて記憶してもよい。撮影した画像に基づいて人物の認識を行う場合、顔認識装置100は、複数の顔特徴情報を認識に利用するようにしてもよい。また、登録情報記憶部108は、顔認識装置100の外部に設けられていてもよい。   The registration information storage unit 108 stores personal face characteristic information as registration information using personal identification information as a key. That is, the registration information storage unit 108 stores identification information and face feature information in association with each other. Note that the registration information storage unit 108 may store one piece of identification information and a plurality of face feature information in association with each other. When recognizing a person based on a photographed image, the face recognition apparatus 100 may use a plurality of pieces of face feature information for recognition. Further, the registered information storage unit 108 may be provided outside the face recognition device 100.

出力部109は、たとえば、入力部101からの入力画像、顔検出部105で検出した顔領域の画像若しくは特徴情報を出力する。また、出力部109は、認識部107による認識結果を外部機器に出力する。出力部109は、例えば、ゲート制御部110に対して認識結果を出力する。   The output unit 109 outputs, for example, an input image from the input unit 101, an image of the face area detected by the face detection unit 105, or feature information. Further, the output unit 109 outputs the recognition result obtained by the recognition unit 107 to an external device. For example, the output unit 109 outputs the recognition result to the gate control unit 110.

ゲート制御部110は、ゲート制御手段として機能する。ゲート制御部110は、図1に示す顔認識装置100の近傍に設置されているドア111の制御を行う。例えば、認識結果OKである場合に出力部109から出力される通行可能信号を受信した場合、ゲート制御部110は、ドア111を開放する。これにより、歩行者は、ドア111を通過できる。なお、ゲート制御部110は、通行可能信号が検知されなくなった場合、ドア111を閉鎖する。   The gate control unit 110 functions as a gate control unit. The gate control unit 110 controls the door 111 installed in the vicinity of the face recognition apparatus 100 shown in FIG. For example, in the case where the recognition result is OK, when the passable signal output from the output unit 109 is received, the gate control unit 110 opens the door 111. Thereby, the pedestrian can pass through the door 111. In addition, the gate control part 110 closes the door 111, when a passable signal is no longer detected.

また、入力部101若しくは制御部102が表示部を備えている場合、出力部109は、認識部107による認識結果を表示部に出力する。表示部は、認識結果を受信した場合、受信した認識結果を表示する。これにより、顔認識装置100は、歩行者に対して認識結果を報知することが出来る。に応じて外部機器への制御信号(ゲート装置へのゲート制御信号等)を出力する。また、表示部は、例えば監視用モニタとして外部に設けられていてもよい。   When the input unit 101 or the control unit 102 includes a display unit, the output unit 109 outputs a recognition result obtained by the recognition unit 107 to the display unit. When the display unit receives the recognition result, the display unit displays the received recognition result. Thereby, the face recognition apparatus 100 can alert | report a recognition result with respect to a pedestrian. In response to this, a control signal (such as a gate control signal to a gate device) is output to an external device. Further, the display unit may be provided outside, for example, as a monitoring monitor.

例えば、出力部109は、登録情報記憶部108により記憶されている複数の特徴情報のうち、入力された顔画像に近いものを表示するように表示画面を作成し、出力する。また、出力部109は、照合の結果、類似度が予め定められる閾値以上である場合に警報を鳴らすように外部機器に信号を出力する。またさらに、出力部109は、照合の結果、類似度が予め定められる閾値以上である場合にゲート制御部110に対して通行可能信号を出力する。   For example, the output unit 109 creates and outputs a display screen so as to display the feature information stored in the registration information storage unit 108 that is close to the input face image. Further, the output unit 109 outputs a signal to an external device so as to sound an alarm when the similarity is equal to or higher than a predetermined threshold as a result of the collation. Furthermore, the output unit 109 outputs a passable signal to the gate control unit 110 when the similarity is greater than or equal to a predetermined threshold value as a result of the collation.

制御部102は、例えば、CPU、RAM、ROM、及び、不揮発性メモリなどの構成を備えている。CPUは、制御部102により行われる制御を司るものである。CPUは、ROMあるいは不揮発性メモリに記憶されている制御プログラムや制御データに基づいて動作することにより、種々の処理手段として機能する。即ち、上記した顔検出部105、動作判定部106、及び認識部107により行われる処理は、CPUがプログラムを実行することにより実現される。   The control unit 102 includes, for example, a configuration such as a CPU, RAM, ROM, and nonvolatile memory. The CPU controls the control performed by the control unit 102. The CPU functions as various processing means by operating based on the control program and control data stored in the ROM or nonvolatile memory. That is, the processing performed by the face detection unit 105, the operation determination unit 106, and the recognition unit 107 is realized by the CPU executing a program.

RAMは、CPUのワーキングメモリとして機能する揮発性のメモリである。即ち、RAMは、CPUが処理中のデータなどを一時保管する記憶手段として機能する。また、RAMは、入力部から受信したデータを一時保管する。ROMは、予め制御用のプログラムや制御データなどが記憶されている不揮発性のメモリである。   The RAM is a volatile memory that functions as a working memory for the CPU. That is, the RAM functions as a storage unit that temporarily stores data being processed by the CPU. The RAM temporarily stores data received from the input unit. The ROM is a non-volatile memory in which a control program, control data, and the like are stored in advance.

不揮発性メモリは、例えば、EEPROMあるいはHDDなどの、データの書き込み及び書換えが可能な記憶媒体により構成される。不揮発性メモリには、当該顔認識装置100の運用用途に応じて制御プログラムや種々のデータが書込まれる。   The nonvolatile memory is configured by a storage medium that can write and rewrite data, such as an EEPROM or an HDD. In the non-volatile memory, a control program and various data are written according to the operation application of the face recognition apparatus 100.

図6は、図1に示す顔認識装置100における処理を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining processing in the face recognition apparatus 100 shown in FIG.

カメラ103は、撮影領域の画像を撮像し、取得する(ステップS11)。カメラ103は、取得した画像を制御部102の顔検出部105に入力する。顔検出部105は、カメラ103から入力された画像(入力画像)において人物の顔が写っている領域(顔領域)を検出する(ステップS12)。
動作判定部106は、顔検出部105により顔領域が検出された場合、1つ前のフレームとで顔領域が検出された座標及びサイズを比較する(ステップS13)。
The camera 103 captures and acquires an image of the shooting area (step S11). The camera 103 inputs the acquired image to the face detection unit 105 of the control unit 102. The face detection unit 105 detects an area (face area) where a person's face is captured in an image (input image) input from the camera 103 (step S12).
When the face detection unit 105 detects a face area, the motion determination unit 106 compares the coordinates and size of the face area detected with the previous frame (step S13).

動作判定部106は、比較の結果に基づいて、2つのフレームにおいてそれぞれ検出された顔領域が同じ人物のものであるか否かを判定する。この為に、動作判定部106は、1つ前のフレームとで顔領域が検出された座標及びサイズの差があらかじめ定める閾値以内であるか否か判定する(ステップS14)。   Based on the comparison result, the motion determination unit 106 determines whether or not the face areas detected in the two frames are of the same person. For this purpose, the motion determination unit 106 determines whether or not the difference between the coordinates and size at which the face area is detected in the previous frame is within a predetermined threshold (step S14).

差が閾値以内であると判定した場合(ステップS14、YES)、動作判定部106は、前フレームと現フレームとで検出された顔領域の人物は同一人物であると判定する(ステップS15)。また、差が閾値を越えていると判定した場合(ステップS14、NO)、動作判定部106は、前フレームと現フレームとで検出された顔領域の人物は異なる人物であると判定する(ステップS16)。   When it is determined that the difference is within the threshold (YES in step S14), the motion determination unit 106 determines that the persons in the face area detected in the previous frame and the current frame are the same person (step S15). If it is determined that the difference exceeds the threshold (NO in step S14), the motion determination unit 106 determines that the person in the face area detected in the previous frame and the current frame is different (step S14). S16).

動作判定部106は、人物の顔領域が所定位置にあるか否か判定する(ステップS17)。即ち、動作判定部106は、図2に示すように、カメラ103により撮像した入力画像10中の顔領域のサイズと、予め定める枠11のサイズとが同程度になったか否か判定する。   The motion determination unit 106 determines whether the face area of the person is at a predetermined position (step S17). That is, as shown in FIG. 2, the motion determination unit 106 determines whether the size of the face area in the input image 10 captured by the camera 103 and the size of the predetermined frame 11 have become comparable.

人物の顔領域が所定位置にないと判定した場合(ステップS17、NO)、動作判定部106は、操作部104により識別情報が入力されたか否か判定する(ステップS18)。識別情報の入力が確認されない場合(ステップS18、NO)、動作判定部106は、照合意思が確認されない(照合意思未確認)と判定する(ステップS19)。顔認識装置100は、照合意思未確認と判定した場合、ステップS11に移行し、次のフレームの画像を取得する。   When it is determined that the face area of the person is not at the predetermined position (step S17, NO), the motion determination unit 106 determines whether identification information is input by the operation unit 104 (step S18). When the input of identification information is not confirmed (step S18, NO), the operation | movement determination part 106 determines with a collation intention not being confirmed (collation intention unconfirmed) (step S19). If the face recognition apparatus 100 determines that the verification intention has not been confirmed, the face recognition apparatus 100 proceeds to step S11 and acquires an image of the next frame.

ステップS17において、人物の顔領域が所定位置に存在すると判定した場合(ステップS17、YES)、若しくは、ステップS18において、識別情報の入力を確認した場合(ステップS18、YES)、動作判定部106は、照合意思があると判定する(ステップS20)。   When it is determined in step S17 that the face area of the person is present at the predetermined position (step S17, YES), or when input of identification information is confirmed in step S18 (step S18, YES), the operation determination unit 106 It is determined that there is an intention to collate (step S20).

認識部107は、動作判定部106により照合意思を確認するまでに、認証する人物の顔画像が所定枚数以上撮影されたか否か判定する(ステップS21)。認識部107は、照合意思を確認するまでに所定枚数以上の顔画像を取得できたと判定した場合(ステップS21、YES)、第1の照合方式を選択する(ステップS22)。また、認識部107は、照合意思を確認するまでに所定枚数以上の顔画像を取得できなかったと判定した場合(ステップS21、NO)、第2の照合方式を選択する(ステップS23)。   The recognizing unit 107 determines whether or not a predetermined number of face images of the person to be authenticated have been photographed before confirming the intention of collation by the operation determining unit 106 (step S21). If the recognition unit 107 determines that a predetermined number or more of face images have been acquired before confirming the verification intention (step S21, YES), the recognition unit 107 selects the first verification method (step S22). If the recognition unit 107 determines that a predetermined number or more of face images have not been acquired before confirming the verification intention (step S21, NO), the recognition unit 107 selects the second verification method (step S23).

認識部107は、選択した照合方式により、人物の認証を行なう(ステップS24)。即ち、認識部107は、顔検出部105により検出された顔画像に基づいて特徴情報を抽出する。認識部107は、抽出した特徴情報と、登録情報記憶部108に記憶されている特徴情報とで照合を行う。即ち、認識部107は、顔画像から抽出した特徴情報と一致若しくは近似する特徴情報が登録情報記憶部108に記憶されているか否か判定する。   The recognition unit 107 authenticates the person using the selected collation method (step S24). That is, the recognition unit 107 extracts feature information based on the face image detected by the face detection unit 105. The recognition unit 107 compares the extracted feature information with the feature information stored in the registered information storage unit 108. That is, the recognition unit 107 determines whether or not feature information that matches or approximates feature information extracted from the face image is stored in the registered information storage unit 108.

認識部107による認証の結果、OKと判定した場合(ステップS24、YES)、出力部109は、通行可能信号を外部機器、若しくはゲート制御部110に出力する(ステップS25)。   As a result of authentication by the recognizing unit 107, when it is determined as OK (step S24, YES), the output unit 109 outputs a passable signal to the external device or the gate control unit 110 (step S25).

また、認識部107による認証の結果、NGと判定した場合(ステップS24、NO)、出力部109は、照合が失敗した旨を外部機器、若しくは表示部などに出力する(ステップS26)。これにより、顔認識装置100は、照合がNGであることを歩行者に対して報知する。   Further, when it is determined as NG as a result of authentication by the recognition unit 107 (NO in step S24), the output unit 109 outputs information indicating that the verification has failed to an external device or a display unit (step S26). Thereby, the face recognition apparatus 100 notifies a pedestrian that the collation is NG.

上記したように、本実施形態に係る顔認識装置は、複数の照合方式を備えている。顔認識装置は、連続して画像を撮像し、人物の顔領域を逐次検出する。顔認識装置は、連続的に検出される顔領域の位置、及び座標に基づいて、人物の動作を判定する。顔認識装置は、判定した人物の動作に基づいて、上述の複数の縫合方式のうちの1つの照合方式を選択し、認証を行なう。これにより、顔認識装置は、人物の動作に併せて最適な照合方式を選択することが出来る。   As described above, the face recognition device according to this embodiment includes a plurality of collation methods. The face recognition device continuously captures images and sequentially detects a human face area. The face recognition device determines the action of a person based on the position and coordinates of a face area that is continuously detected. The face recognition device selects one of the above-described stitching methods based on the determined action of the person and performs authentication. Thereby, the face recognition apparatus can select the optimal collation method according to the movement of the person.

この結果、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することができる。   As a result, it is possible to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

なお、本実施形態では、第1の照合方式と第2の照合方式との2つの内の1つを選択する構成として説明したが、これに限定されない。例えば、3つ以上の照合方式の中から、撮影枚数、及び処理時間などに基づいて段階的に切り替える構成であってもよい。   In the present embodiment, the configuration has been described in which one of the first collation method and the second collation method is selected, but the present invention is not limited to this. For example, a configuration in which switching is performed step by step based on the number of shots, processing time, and the like from among three or more verification methods may be used.

また、本実施形態では、顔認識装置100が入力部101を備えているとして説明したが、これに限定されない。入力部101は、顔認識装置100の外部に設置されていてもよい。即ち、人物の顔画像と、人物による操作に基づく操作信号とを取得する構成であれば、如何なるものであってもよい。   In the present embodiment, the face recognition apparatus 100 is described as including the input unit 101, but the present invention is not limited to this. The input unit 101 may be installed outside the face recognition device 100. That is, any configuration may be used as long as it acquires a human face image and an operation signal based on an operation by the person.

カメラ103は、撮像手段である。カメラ103は、例えば、industrial television(ITV)カメラなどにより構成される。カメラ103は、所定範囲の動画像(複数枚の連続画像)を撮像する。これにより、カメラ103は、歩行者の顔を含む画像を撮像する。カメラ103は、撮像した画像を図示しないA/D変換器によりディジタル変換し、逐次制御部102に送信する。なお、カメラの代わりにスキャナにより写真をスキャンし、登録情報の追加、照合、及び検索が行われるような構成であってもよい。   The camera 103 is an imaging unit. The camera 103 is composed of, for example, an industrial television (ITV) camera. The camera 103 captures a predetermined range of moving images (a plurality of continuous images). Thereby, the camera 103 captures an image including the face of the pedestrian. The camera 103 digitally converts the captured image using an A / D converter (not shown) and sequentially transmits it to the control unit 102. Note that a configuration may be employed in which a photograph is scanned by a scanner instead of a camera, and registration information is added, collated, and searched.

操作部104は、操作者(歩行者を含む)に操作を入力させる為の操作手段である。操作部104は、例えば、入力キー、若しくはカードリーダなどにより構成される。操作部104は、入力キーにより入力された入力情報、若しくは、カードリーダにより歩行者の所持するカード(例えば、ICカードなど)から読み取った情報を制御部102に送信する。   The operation unit 104 is an operation means for causing an operator (including a pedestrian) to input an operation. The operation unit 104 includes, for example, an input key or a card reader. The operation unit 104 transmits, to the control unit 102, input information input using an input key or information read from a card (for example, an IC card) held by a pedestrian using a card reader.

これにより、顔認識装置100は、顔認証のみで人物の認証を行なう1:N照合と、顔認証と識別情報の照合により人物の認証を行なう1:1及び1:n照合とのいずれかにより人物の認証を行なう事ができる。1:N照合は、登録情報と一致する顔が、複数人数(N人)のうちの中に存在するか否か認証を行なう方法である。   As a result, the face recognition apparatus 100 performs either 1: N verification that performs person authentication only by face authentication, or 1: 1 and 1: n verification that performs person authentication by face authentication and identification information verification. The person can be authenticated. 1: N verification is a method of performing authentication to determine whether or not a face that matches registered information exists among a plurality of people (N people).

1:1及び1:n照合は、1名、またはN人より少ない少人数(n人)の認証を行なう為の方法である。1:1及び1:n照合が用いられる場合、顔認識装置100は、顔認証を行なうと共に、入力キー、若しくはカードリーダにより入力される識別情報による認証を行う。   The 1: 1 and 1: n verification is a method for authenticating one person or a small number of persons (n persons) smaller than N persons. When 1: 1 and 1: n verification is used, the face recognition apparatus 100 performs face authentication and authentication using identification information input by an input key or a card reader.

またさらに、入力部101は、歩行者に対して、顔認証の状況等を逐次表示する表示部を備えていてもよい。また、操作部104と表示部が一体に構成されてもよい。この場合、操作部及び表示部はタッチパネルとして機能する。   Furthermore, the input unit 101 may include a display unit that sequentially displays the status of face authentication and the like for pedestrians. Further, the operation unit 104 and the display unit may be configured integrally. In this case, the operation unit and the display unit function as a touch panel.

制御部102は、入力部101により入力された情報に基づいて種々の処理を行うユニットである。制御部102は、顔検出部105、動作判定部106、認識部107、登録情報記憶部108、出力部109、及びゲート制御部110を備えている。また、さらに、制御部102は、インターフェース102A及びインターフェース102Bを備えている。   The control unit 102 is a unit that performs various processes based on information input by the input unit 101. The control unit 102 includes a face detection unit 105, a motion determination unit 106, a recognition unit 107, a registration information storage unit 108, an output unit 109, and a gate control unit 110. Further, the control unit 102 includes an interface 102A and an interface 102B.

インターフェース102A及びインターフェース102Bは、制御部102の外部からの信号を受信する。インターフェース102Aは、カメラ103に接続されている。インターフェース102Aには人物の少なくとも顔を含む画像がカメラ103から連続して入力される。即ち、インターフェース102Aは、画像入力手段として機能する。   The interface 102A and the interface 102B receive signals from the outside of the control unit 102. The interface 102A is connected to the camera 103. Images including at least the face of a person are continuously input from the camera 103 to the interface 102A. That is, the interface 102A functions as an image input unit.

インターフェース102Bは、操作部104に接続されている。インターフェース102Bには操作者による操作信号が操作部104から入力される。即ち、インターフェース102Bは、操作入力手段として機能する。   The interface 102B is connected to the operation unit 104. An operation signal from the operator is input from the operation unit 104 to the interface 102B. That is, the interface 102B functions as an operation input unit.

次に、本発明の第2の実施形態に係る顔認識装置、顔認識方法、及び通行制御装置について、図を参照しながら詳細に説明する。
図7は、本発明の第2の実施形態に係る顔認識装置200の構成例を概略的に説明するためのブロック図である。顔認識装置200は、入力部201、制御部202、入力インターフェース202A、入力インターフェース202B、カメラ203、操作部204、顔検出部205、動作判定部206、認識部207、登録情報記憶部208、出力部209、及びゲート制御部210などを備えている。
Next, a face recognition device, a face recognition method, and a traffic control device according to a second embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 7 is a block diagram for schematically explaining a configuration example of a face recognition apparatus 200 according to the second embodiment of the present invention. The face recognition device 200 includes an input unit 201, a control unit 202, an input interface 202A, an input interface 202B, a camera 203, an operation unit 204, a face detection unit 205, a motion determination unit 206, a recognition unit 207, a registration information storage unit 208, and an output. A unit 209, a gate control unit 210, and the like.

なお、入力部201、入力インターフェース202A、入力インターフェース202B、カメラ203、操作部204、顔検出部205、動作判定部206、登録情報記憶部208、出力部209、及びゲート制御部210の構成は、第1の実施例における入力部101、入力インターフェース102A、入力インターフェース102B、カメラ103、操作部104、顔検出部105、動作判定部106、登録情報記憶部108、出力部109、及びゲート制御部110と同様の構成である為、その詳細な説明を省略する。   The configurations of the input unit 201, the input interface 202A, the input interface 202B, the camera 203, the operation unit 204, the face detection unit 205, the motion determination unit 206, the registration information storage unit 208, the output unit 209, and the gate control unit 210 are as follows. The input unit 101, the input interface 102A, the input interface 102B, the camera 103, the operation unit 104, the face detection unit 105, the motion determination unit 106, the registration information storage unit 108, the output unit 109, and the gate control unit 110 in the first embodiment. Since the configuration is the same as that of FIG.

第2の実施形態に係る顔認識装置200の認識部207は、カメラ203により連続的に取得する画像に基づいて、逐次照合を行う。   The recognition unit 207 of the face recognition apparatus 200 according to the second embodiment performs sequential matching based on images continuously acquired by the camera 203.

即ち、認識部207は、動作判定部206により照合意思が確認されていない場合でも、カメラ203により取得した画像に基づいて、照合を行う。この場合、認識部207は、第2の照合方式を用いて照合を行う。   That is, the recognition unit 207 performs collation based on the image acquired by the camera 203 even when the collation intention is not confirmed by the motion determination unit 206. In this case, the recognition unit 207 performs collation using the second collation method.

しかし、第2の照合方式は、第1の照合方式に比べて精度が低い。この為、認識部207は、類似度を比較する場合に用いる閾値を通常より高い値(精査閾値)に設定した上で第2の照合方式により照合を行う。精査閾値は、通常の照合に用いられる閾値より値が高い閾値である。即ち、照合OKと判定するために、よりより高い類似度が求められる。精査閾値は、予め制御部102が有する図示しないROMまたは不揮発性メモリなどに記憶される。   However, the second matching method is less accurate than the first matching method. For this reason, the recognition unit 207 performs collation by the second collation method after setting a threshold used when comparing the similarity to a value higher than normal (scrutiny threshold). The scrutinization threshold is a threshold that is higher than the threshold used for normal verification. That is, in order to determine that the verification is OK, a higher degree of similarity is required. The scrutiny threshold value is stored in advance in a ROM (not shown) or a non-volatile memory that the control unit 102 has.

図8は、図7に示す顔認識装置200における処理を説明するためのフローチャートである。なお、ステップS31乃至ステップS46は、図6に示すステップS11乃至ステップS26と同様の処理であるので、詳細な説明を省略する。   FIG. 8 is a flowchart for explaining processing in the face recognition apparatus 200 shown in FIG. Steps S31 to S46 are the same as steps S11 to S26 shown in FIG.

動作判定部206により、人物の顔領域が所定位置にないと判定し、且つ、操作部204による識別情報の入力が確認されない場合、動作判定部206は、照合意思が確認されない(照合意思未確認)と判定する(ステップS46)。   When the motion determination unit 206 determines that the face area of the person is not at the predetermined position and the input of identification information by the operation unit 204 is not confirmed, the motion determination unit 206 does not confirm the verification intention (verification intention is not confirmed). (Step S46).

顔認識装置200は、照合意思未確認と判定した場合、認識部207により現フレームの画像に基づいて照合処理を行う。即ち、認識部207は、照合処理に用いる照合方式として第2の照合方式を選択する(ステップS47)。この場合、認識部207は、誤処理を起こさない為の通常より高めの閾値を設定する。   When the face recognition apparatus 200 determines that the verification intention has not been confirmed, the recognition unit 207 performs a verification process based on the image of the current frame. That is, the recognizing unit 207 selects the second collation method as the collation method used for the collation processing (step S47). In this case, the recognizing unit 207 sets a higher threshold than usual so as not to cause erroneous processing.

認識部207は、選択した第2の照合方式により、人物の認証を行なう(ステップS48)。即ち、認識部207は、顔検出部205により検出された顔画像に基づいて特徴情報を抽出する。認識部207は、抽出した特徴情報と、登録情報記憶部208に記憶されている特徴情報とで照合を行う。即ち、認識部207は、顔画像から抽出した特徴情報と一致若しくは近似する特徴情報が登録情報記憶部208に記憶されているか否か判定する。   The recognizing unit 207 authenticates the person by the selected second collation method (step S48). That is, the recognition unit 207 extracts feature information based on the face image detected by the face detection unit 205. The recognition unit 207 collates the extracted feature information with the feature information stored in the registered information storage unit 208. That is, the recognition unit 207 determines whether or not feature information that matches or approximates the feature information extracted from the face image is stored in the registered information storage unit 208.

認識部207による認証の結果、OKと判定した場合(ステップS48、YES)、出力部209は、通行可能信号を外部機器、若しくはゲート制御部210に出力する(ステップS43)。   As a result of the authentication by the recognition unit 207, when it is determined to be OK (step S48, YES), the output unit 209 outputs a passable signal to the external device or the gate control unit 210 (step S43).

また、認識部207による認証の結果、NGと判定した場合(ステップS48、NO)、顔認識装置200は、ステップS31に移行し、次のフレームの画像を取得する。   If the result of authentication by the recognition unit 207 is NG (step S48, NO), the face recognition device 200 moves to step S31 and acquires an image of the next frame.

上記したように、第2の実施形態に係る顔認識装置200によると、動作判定部206により照合意思を確認するまでに照合OKと判定した場合、歩行者がカメラ203の前で立ち止まる必要がない。この為、顔認識装置200は、動作判定部206により照合意思を確認してから行う照合に比べて、早く照合結果を出力することができる。   As described above, according to the face recognition apparatus 200 according to the second embodiment, when it is determined that the verification is successful before the motion determination unit 206 confirms the verification intention, the pedestrian does not need to stop in front of the camera 203. . For this reason, the face recognition apparatus 200 can output a collation result earlier than the collation performed after confirming the collation intention by the operation | movement determination part 206. FIG.

また、動作判定部206により照合意思を確認するまでに照合OKと判定できなかった場合、顔認識装置200は、閾値を通常の値に設定し直した上で第1の実施形態に係る顔認識装置100と同様の処理により照合を行うことができる。   Further, when the verification is not successful before the action determination unit 206 confirms the verification intention, the face recognition apparatus 200 resets the threshold value to a normal value and then performs face recognition according to the first embodiment. Collation can be performed by the same processing as that of the apparatus 100.

この結果として、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することができる。   As a result, it is possible to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

次に、本発明の第3の実施形態に係る顔認識装置、顔認識方法、及び通行制御装置について、図を参照しながら詳細に説明する。
図9は、本発明の第3の実施形態に係る顔認識装置300の構成例を概略的に説明するためのブロック図である。顔認識装置300は、入力部301、制御部302、入力インターフェース302A、入力インターフェース302B、カメラ303、操作部304、顔検出部305、動作判定部306、認識部307、登録情報記憶部308、出力部309、及びゲート制御部310などを備えている。
Next, a face recognition device, a face recognition method, and a traffic control device according to a third embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 9 is a block diagram for schematically explaining a configuration example of a face recognition apparatus 300 according to the third embodiment of the present invention. The face recognition apparatus 300 includes an input unit 301, a control unit 302, an input interface 302A, an input interface 302B, a camera 303, an operation unit 304, a face detection unit 305, a motion determination unit 306, a recognition unit 307, a registration information storage unit 308, and an output. 309, a gate control unit 310, and the like.

なお、入力部301、入力インターフェース302A、入力インターフェース302B、カメラ303、操作部304、顔検出部305、登録情報記憶部308、出力部309、及びゲート制御部310の構成は、第1の実施例における入力部101、入力インターフェース102A、入力インターフェース102B、カメラ103、操作部104、顔検出部105、登録情報記憶部108、出力部109、及びゲート制御部110と同様の構成である為、その詳細な説明を省略する。   The configurations of the input unit 301, the input interface 302A, the input interface 302B, the camera 303, the operation unit 304, the face detection unit 305, the registration information storage unit 308, the output unit 309, and the gate control unit 310 are the same as in the first embodiment. The configuration is the same as the input unit 101, input interface 102A, input interface 102B, camera 103, operation unit 104, face detection unit 105, registration information storage unit 108, output unit 109, and gate control unit 110 in FIG. The detailed explanation is omitted.

第3の実施形態に係る顔認識装置300の認識部307は、照合処理において照合NGと判定した場合、照合処理のリトライ(2回目の照合処理)を行う。   If the recognition unit 307 of the face recognition apparatus 300 according to the third embodiment determines that the verification is NG in the verification process, the verification unit 307 performs a verification process retry (second verification process).

即ち、認識部307は、まず第1の実施形態と同様に、1回目の照合処理を行う。1回目の照合処理において、照合NGと判定した場合、動作判定部306は、現フレームの画像に移りこんでいる人物と前フレームに移りこんでいる人物とが同一人物であるか否か判定する。即ち、動作判定部306は、照合意思の確認をした後も、人物の顔領域の追跡を行う。   That is, the recognizing unit 307 first performs the first matching process as in the first embodiment. In the first verification process, when it is determined that the verification is NG, the operation determination unit 306 determines whether the person moving into the current frame image and the person moving into the previous frame are the same person. . In other words, the motion determination unit 306 tracks the face area of the person even after confirming the verification intention.

なお、動作判定部306は、第1の実施形態と同様の処理により人物が同一人物であるか否かを判定する構成であってもよいし、前フレームまでの画像を利用してパターン・マッチングを追加し、同一人物であるか否かを判定する構成であってもよい。   The motion determination unit 306 may be configured to determine whether or not a person is the same person by the same processing as in the first embodiment, or pattern matching using an image up to the previous frame. It may be configured to determine whether or not they are the same person.

認識部307は、設定記憶部307aを備えている。設定記憶部307aは、設定記憶手段として機能する。設定記憶部307aは、2回目の照合処理に用いられる照合方式を選択させるための情報を記憶する。即ち、認識部307は、2回目の照合処理を行う場合、設定記憶部307aに記憶されている情報を参照する。   The recognition unit 307 includes a setting storage unit 307a. The setting storage unit 307a functions as a setting storage unit. The setting storage unit 307a stores information for selecting a collation method used for the second collation process. That is, the recognition unit 307 refers to the information stored in the setting storage unit 307a when performing the second matching process.

例えば、設定記憶部307aに記憶されている情報が、第1の照合方式を示す情報である場合、認識部307は、第1の照合方式を選択し、2回目の照合処理を行う。また、例えば、設定記憶部307aに記憶されている情報が、第2の照合方式を示す情報である場合、認識部307は、第2の照合方式を選択し、2回目の照合処理を行う。   For example, when the information stored in the setting storage unit 307a is information indicating the first verification method, the recognition unit 307 selects the first verification method and performs the second verification process. For example, when the information stored in the setting storage unit 307a is information indicating the second collation method, the recognition unit 307 selects the second collation method and performs the second collation process.

なお、設定記憶部307aに記憶されている情報は、適宜変更することが出来る。第1の照合方式は、第2の照合方式に比べて照合の精度が高い。この反面、第1の照合方式は、処理に時間がかかる。例えば、連続して照合が失敗することがないように、2回目の照合に第1の照合方式を用いるような設定が考えられる。また、2回目の照合にかかる時間を短縮する必要がある場合、2回目の照合に第2の照合方式を用いるような設定が考えられる。   Note that the information stored in the setting storage unit 307a can be changed as appropriate. The first matching method has higher matching accuracy than the second matching method. On the other hand, the first verification method takes time. For example, a setting that uses the first collation method for the second collation is conceivable so that the collation does not continuously fail. Further, when it is necessary to reduce the time required for the second verification, a setting that uses the second verification method for the second verification can be considered.

認識部307は、動作判定部306により前回の照合処理に用いた画像に写り込んでいる人物と、現フレームに移りこんでいる人物とが同一人物であると判定した場合、設定記憶部307aを参照する。これにより、認識部307は、2回目の照合処理に用いる照合方式を選択する。認識部307は、選択した照合方式を用いて2回目の照合を行う。   When the recognition unit 307 determines that the person in the image used for the previous collation process and the person who has moved into the current frame are the same person by the operation determination unit 306, the recognition unit 307 stores the setting storage unit 307a. refer. Thereby, the recognition unit 307 selects a collation method used for the second collation process. The recognition unit 307 performs the second collation using the selected collation method.

図10は、図9に示す顔認識装置300における処理を説明するためのフローチャートである。   FIG. 10 is a flowchart for explaining processing in the face recognition apparatus 300 shown in FIG.

顔認識装置300は、図6のステップS11乃至ステップS24で述べたように、1回目の照合処理を行う(ステップS51)。   The face recognition device 300 performs the first matching process as described in steps S11 to S24 of FIG. 6 (step S51).

1回目の照合において、照合NGと判定した場合(ステップS52、NO)、顔認識装置300のカメラ303は、撮影領域の画像を撮像し、取得する(ステップS53)。カメラ303は、取得した画像を制御部302の顔検出部305に入力する。顔検出部305は、カメラ303から入力された画像(入力画像)において人物の顔が写っている領域(顔領域)を検出する(ステップS54)。
動作判定部306は、顔検出部305により顔領域が検出された場合、1つ前のフレームとで顔領域が検出された座標及びサイズを比較する(ステップS13)。即ち、動作判定部306は、1回目の照合に用いた画像において検出された顔領域と座標及びサイズの比較を行う。
In the first verification, when it is determined that the verification is NG (step S52, NO), the camera 303 of the face recognition device 300 captures and acquires an image of the imaging region (step S53). The camera 303 inputs the acquired image to the face detection unit 305 of the control unit 302. The face detection unit 305 detects an area (face area) where a person's face is captured in an image (input image) input from the camera 303 (step S54).
When the face detection unit 305 detects a face area, the motion determination unit 306 compares the coordinates and size of the face area detected with the previous frame (step S13). That is, the motion determination unit 306 compares the face area detected in the image used for the first collation with the coordinates and size.

動作判定部306は、比較の結果に基づいて、2つのフレームにおいてそれぞれ検出された顔領域が同じ人物のものであるか否かを判定する。この為に、動作判定部306は、1つ前のフレームとで顔領域が検出された座標及びサイズの差があらかじめ定める閾値以内であるか否か判定する(ステップS56)。   The motion determination unit 306 determines whether the face areas detected in the two frames are those of the same person based on the comparison result. Therefore, the motion determination unit 306 determines whether or not the difference between the coordinates and size at which the face area is detected in the previous frame is within a predetermined threshold (step S56).

差が閾値を越えていると判定した場合(ステップS56、NO)、動作判定部306は、前フレームと現フレームとで検出された顔領域の人物は異なる人物であると判定する(ステップS57)。この場合、顔認識装置300は、1回目の照合処理に移行する。即ち、顔認識装置300は、ステップS51に移行する。   When it is determined that the difference exceeds the threshold (NO in step S56), the motion determination unit 306 determines that the person in the face area detected in the previous frame and the current frame is a different person (step S57). . In this case, the face recognition apparatus 300 proceeds to the first verification process. That is, the face recognition device 300 proceeds to step S51.

ステップS56の判定において、差が閾値以内であると判定した場合(ステップS56、YES)、動作判定部306は、前フレームと現フレームとで検出された顔領域の人物は同一人物であると判定する(ステップS58)。   If it is determined in step S56 that the difference is within the threshold (YES in step S56), the operation determination unit 306 determines that the persons in the face area detected in the previous frame and the current frame are the same person. (Step S58).

認識部307は、動作判定部306により前回の照合処理に用いた画像に写り込んでいる人物と、現フレームに移りこんでいる人物とが同一人物であると判定した場合、リトライ時の照合方式を確認する(ステップS59)。即ち、認識部307は、設定記憶部307aを参照する。   When the recognition unit 307 determines that the person in the image used in the previous collation process and the person who has moved into the current frame are the same person by the operation determination unit 306, the collation method at the time of retry Is confirmed (step S59). That is, the recognition unit 307 refers to the setting storage unit 307a.

設定記憶部307aに記憶されている情報が、第1の照合方式を示す情報である場合、認識部307は、第1の照合方式を選択する(ステップS60)。また、設定記憶部307aに記憶されている情報が、第2の照合方式を示す情報である場合、認識部307は、第2の照合方式を選択する(ステップS61)。認識部307は、選択した照合方式を用いて2回目の照合処理を行う(ステップS62)。   When the information stored in the setting storage unit 307a is information indicating the first collation method, the recognition unit 307 selects the first collation method (step S60). If the information stored in the setting storage unit 307a is information indicating the second collation method, the recognition unit 307 selects the second collation method (step S61). The recognition unit 307 performs the second matching process using the selected matching method (step S62).

1回目の照合処理において認証OKと判定した場合(ステップS52、YES)、若しくは、2回目の照合処理において認証OKと判定した場合(ステップS62、YES)、出力部309は、通行可能信号を外部機器、若しくはゲート制御部310に出力する(ステップS63)。   When it is determined that the authentication is OK in the first verification process (step S52, YES), or when it is determined that the authentication is OK in the second verification process (step S62, YES), the output unit 309 outputs the passable signal to the outside. The data is output to the device or the gate control unit 310 (step S63).

また、2回目の照合処理において認証NGと判定した場合(ステップS62、NO)、出力部309は、照合が失敗した旨を外部機器、若しくは表示部などに出力する(ステップS64)。これにより、顔認識装置300は、照合がNGであることを歩行者に対して報知する。   If it is determined that the authentication is not successful in the second verification process (step S62, NO), the output unit 309 outputs to the external device or the display unit that the verification has failed (step S64). Thereby, the face recognition device 300 notifies the pedestrian that the verification is NG.

上記したように、第3の実施形態に係る顔認識装置300によると、照合が失敗した場合、続けて2回目の照合を行う。また、顔認識装置300は、2回目の照合に用いる照合方式を予め選択に基づいて設定することができる。この為、運用形態に適した状態で、2回目の照合を行うことが出来る。   As described above, according to the face recognition device 300 according to the third embodiment, when the verification fails, the second verification is performed continuously. Further, the face recognition device 300 can set a collation method used for the second collation based on the selection in advance. Therefore, the second verification can be performed in a state suitable for the operation mode.

この結果として、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することができる。   As a result, it is possible to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

なお、本実施形態では、1回目の照合が失敗した場合に2回目の照合を行う構成として説明したがこれに限定されない。照合を繰り返す回数は、如何なる回数であってもよい。また、顔認識装置は、照合に用いる照合方式を、各回の照合毎に設定することが出来る。また、顔認識装置は、照合に用いる照合方式を、照合を行った回数に基づいて選択する構成であってもよい。   In the present embodiment, the configuration is described in which the second verification is performed when the first verification fails, but the present invention is not limited to this. The number of times that the verification is repeated may be any number. Moreover, the face recognition apparatus can set the collation method used for collation for every collation. Further, the face recognition apparatus may be configured to select a collation method used for collation based on the number of collations.

次に、本発明の第4の実施形態に係る顔認識装置、顔認識方法、及び通行制御装置について、図を参照しながら詳細に説明する。
図11は、本発明の第3の実施形態に係る顔認識装置400の構成例を概略的に説明するためのブロック図である。顔認識装置400は、入力部401、制御部402、入力インターフェース402A、入力インターフェース402B、カメラ403、操作部404、顔検出部405、動作判定部406、認識部407、登録情報記憶部408、再登録部409、出力部410、及びゲート制御部411などを備えている。
Next, a face recognition device, a face recognition method, and a traffic control device according to a fourth embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 11 is a block diagram for schematically explaining a configuration example of a face recognition apparatus 400 according to the third embodiment of the present invention. The face recognition device 400 includes an input unit 401, a control unit 402, an input interface 402A, an input interface 402B, a camera 403, an operation unit 404, a face detection unit 405, a motion determination unit 406, a recognition unit 407, a registration information storage unit 408, A registration unit 409, an output unit 410, a gate control unit 411, and the like are provided.

なお、入力部401、入力インターフェース402A、入力インターフェース402B、カメラ403、操作部404、顔検出部405、動作判定部406、出力部410、及びゲート制御部411の構成は、第1の実施例における入力部101、入力インターフェース102A、入力インターフェース102B、カメラ103、操作部104、顔検出部105、動作判定部106、出力部109、及びゲート制御部110と同様の構成である為、その詳細な説明を省略する。   The configurations of the input unit 401, the input interface 402A, the input interface 402B, the camera 403, the operation unit 404, the face detection unit 405, the motion determination unit 406, the output unit 410, and the gate control unit 411 are the same as those in the first embodiment. Since the configuration is the same as the input unit 101, the input interface 102A, the input interface 102B, the camera 103, the operation unit 104, the face detection unit 105, the motion determination unit 106, the output unit 109, and the gate control unit 110, detailed description thereof is provided. Is omitted.

第4の実施形態に係る顔認識装置400は、登録情報の登録時に特徴情報を抽出する為に用いた方法と同じ方法を用いて、カメラ403により取得した顔画像から特徴情報を抽出する。また、顔認識装置400は、登録している登録情報を、カメラ403により取得した顔画像に基づいて更新する。   The face recognition apparatus 400 according to the fourth embodiment extracts feature information from a face image acquired by the camera 403 using the same method as that used to extract feature information when registering registration information. Further, the face recognition device 400 updates the registered registration information based on the face image acquired by the camera 403.

登録情報記憶部408は、認識の対象の人物の顔の特徴情報と、この特徴情報を抽出するために用いた特徴情報の計算方法を示す情報(登録時の照合方式)をあわせて記憶する。   The registration information storage unit 408 stores the feature information of the face of the person to be recognized together with information indicating a calculation method of the feature information used for extracting the feature information (a collation method at the time of registration).

認識部407は、動作判定部406による判定結果に基づき、検出された顔画像から特徴情報を抽出する。この場合、認識部407は、登録情報記憶部408により記憶されている特徴情報の照合方式を示す情報(照合方式情報)を参照する。認識部407は、参照した照合方式情報に基づいて、複数の照合方式のうちの1つを選択する。即ち、認識部407は、登録情報記憶部408に記憶されている特徴情報を抽出するために用いた方法と同じ方法で顔画像から特徴情報の抽出を行う照合方式を選択する。   The recognition unit 407 extracts feature information from the detected face image based on the determination result by the motion determination unit 406. In this case, the recognizing unit 407 refers to information (matching method information) indicating the matching method of the feature information stored in the registered information storage unit 408. The recognition unit 407 selects one of a plurality of verification methods based on the referenced verification method information. That is, the recognizing unit 407 selects a collation method for extracting feature information from a face image by the same method as that used for extracting feature information stored in the registered information storage unit 408.

認識部407は、選択した照合方式を用いて、予め登録された顔の特徴情報と、入力された画像から抽出した顔の特徴情報とを照合し、一致するか否か判定する。   The recognizing unit 407 collates the facial feature information registered in advance with the facial feature information extracted from the input image using the selected collation method, and determines whether or not they match.

再登録部409は、必要に応じて、登録情報記憶部408に記憶されている顔の特徴情報の置き換え、または追加を行う。   The re-registration unit 409 replaces or adds facial feature information stored in the registration information storage unit 408 as necessary.

なお、認識部407による照合処理は、上述した第1の実施形態、第2の実施形態、及び第3の実施形態のどの方法を用いても実現することが出来る。より照合の精度を高めるために、登録情報記憶部408に記憶されている「登録時の照合方式」と同じ方法を用いて特徴情報を計算することが望ましい。認識部407は、登録時の照合方式と同じ方法を用いて特徴情報を計算し、予め登録されている特徴情報との類似度の演算を行う。   In addition, the collation process by the recognition unit 407 can be realized by using any method of the first embodiment, the second embodiment, and the third embodiment described above. In order to further improve the accuracy of collation, it is desirable to calculate feature information using the same method as the “collation method at registration” stored in the registration information storage unit 408. The recognizing unit 407 calculates feature information using the same method as the collation method at the time of registration, and calculates the similarity with the previously registered feature information.

登録時の照合方式は、一般的に登録者の全員が同じ照合方式を用いる場合が多い。この為、例えば、登録者の全員が第1の照合方式で登録されている場合、認識部407は、第一の照合方式を優先的に選択する。また、人によって登録時の照合方式が異なる場合、認識部407は、上記の第1の実施形態、若しくは、第2の実施形態で記載したように、動作に応じて照合方式を選択する構成であってもよい。   As a collation method at the time of registration, in general, all registrants often use the same collation method. For this reason, for example, when all the registrants are registered by the first collation method, the recognition unit 407 preferentially selects the first collation method. In addition, when the verification method at the time of registration differs depending on the person, the recognition unit 407 is configured to select the verification method according to the operation as described in the first embodiment or the second embodiment. There may be.

またさらに、認識部407は、動作に応じて選択した照合方式により登録された特徴情報のみを照合の対象として類似度の演算を行う構成であってもよい。また、認識部407は、後述する再登録部409で優先される特徴情報をベースに類似度の演算を行う構成であってもよい。   Furthermore, the recognition unit 407 may be configured to perform similarity calculation only on feature information registered by a matching method selected according to an operation. Further, the recognition unit 407 may be configured to perform similarity calculation based on feature information prioritized by a re-registration unit 409 described later.

登録情報記憶部408は、認識の対象の人物の顔の特徴情報と、この特徴情報を抽出するために用いた特徴情報の計算方法を示す情報(登録時の照合方式)をあわせて記憶する。登録情報記憶部408は、初めて利用者が登録を行った時に用いられていた照合方式を示す情報を特徴情報と対応付けて記憶する。   The registration information storage unit 408 stores the feature information of the face of the person to be recognized together with information indicating a calculation method of the feature information used for extracting the feature information (a collation method at the time of registration). The registration information storage unit 408 stores information indicating the verification method used when the user performs registration for the first time in association with the feature information.

例えば、異なる向きから顔を撮影して取得した複数枚の顔画像に基づいて第1の照合方式により抽出した特徴情報を記憶する場合、登録情報記憶部408は、第1の照合方式を示す情報を特徴情報と対応付けて記憶する。また、例えば、1枚の顔画像に基づいて第2の照合方式により抽出した特徴情報を記憶する場合、登録情報記憶部408は、第2の照合方式を示す情報を特徴情報と対応付けて記憶する。   For example, when storing feature information extracted by the first matching method based on a plurality of face images acquired by photographing a face from different directions, the registered information storage unit 408 is information indicating the first matching method. Are stored in association with the feature information. In addition, for example, when storing feature information extracted by the second matching method based on one face image, the registration information storage unit 408 stores information indicating the second matching method in association with the feature information. To do.

登録情報記憶部408は、必要に応じて、特徴情報を算出するために利用した顔画像の枚数も記憶する。これにより、顔認識装置400は、特徴情報の再登録を行う場合、学習している顔画像の枚数を参考情報として利用することができる。   The registration information storage unit 408 also stores the number of face images used for calculating the feature information as necessary. As a result, the face recognition device 400 can use the number of learned face images as reference information when re-registering feature information.

再登録部409は、登録情報記憶部408に記憶されている顔の特徴情報の更新、または追加を行なう。例えば、顔の特徴情報を登録情報記憶部408に記憶してから時間が経過した場合、照合の精度が低下する可能性がある。これは、顔に経年変化が生じるためである。また、照合時の顔の向き、立ち位置、及び照明条件の違いなどの為に、照合の精度が低下する可能性がある。   The re-registration unit 409 updates or adds facial feature information stored in the registration information storage unit 408. For example, when the time has elapsed since the facial feature information was stored in the registered information storage unit 408, the accuracy of matching may be reduced. This is because aging occurs on the face. In addition, there is a possibility that collation accuracy may be reduced due to a difference in face direction, standing position, and illumination conditions during collation.

再登録部409は、管理者の操作に基づいて、明示的に登録情報の更新を行う。   The re-registration unit 409 explicitly updates the registration information based on the operation of the administrator.

または、再登録部409は、認証処理の終了後、認証の対象である人物により、操作部404から正しい識別情報及びパスワードが入力された場合、登録情報の更新を行う。この場合、再登録部409は、直前の認証処理に用いた顔画像を用いて、登録情報の更新を行う。なお、再登録部409は、認証処理の終了後、識別情報及びパスワードの確認を行うことなく、自動的に登録情報の更新を行う構成であってもよい。   Alternatively, the re-registration unit 409 updates the registration information when correct identification information and a password are input from the operation unit 404 by the person who is the object of authentication after the authentication process is completed. In this case, the re-registration unit 409 updates the registration information using the face image used in the previous authentication process. Note that the re-registration unit 409 may be configured to automatically update the registration information without confirming the identification information and password after the authentication process is completed.

図12は、図11に示す顔認識装置400における処理を説明するためのフローチャートである。なお、ステップS71乃至ステップS80は、図6に示すステップS11乃至ステップS20と同様の処理であるので、詳細な説明を省略する。   FIG. 12 is a flowchart for explaining processing in the face recognition apparatus 400 shown in FIG. Steps S71 to S80 are the same processes as steps S11 to S20 shown in FIG.

認識部407は、動作判定部406により照合意思を確認するまでに、認証する人物の顔画像が所定枚数以上撮影されたか否か判定する(ステップS81)。認識部407は、照合意思を確認するまでに所定枚数以上の顔画像を取得できたと判定した場合(ステップS81、YES)、登録情報記憶部408を参照し、優先する照合方式を確認する(ステップS82)。優先する照合方式が第1の照合方式である場合、認識部407は、第1の照合方式を選択する(ステップS83)。   The recognizing unit 407 determines whether or not a predetermined number of face images of the person to be authenticated have been photographed before the action determining unit 406 confirms the intention of collation (step S81). When the recognition unit 407 determines that a predetermined number or more of face images have been acquired before confirming the intention to collate (step S81, YES), the recognition unit 407 refers to the registration information storage unit 408 and confirms the priority collation method (step). S82). If the priority collation method is the first collation method, the recognition unit 407 selects the first collation method (step S83).

また、認識部407は、照合意思を確認するまでに所定枚数以上の顔画像を取得できなかったと判定した場合(ステップS81、NO)、若しくは、ステップS82の確認の結果、優先すべき照合方式が第2の照合方式である場合、認識部407は、第2の照合方式を選択する(ステップS84)。   In addition, when the recognition unit 407 determines that a predetermined number or more of face images have not been acquired before confirming the intention to collate (NO in step S81), or as a result of confirmation in step S82, the collation method to be prioritized is determined. In the case of the second collation method, the recognition unit 407 selects the second collation method (step S84).

認識部407は、選択した照合方式により、人物の認証を行なう(ステップS85)。即ち、認識部407は、顔検出部405により検出された顔画像に基づいて特徴情報を抽出する。認識部407は、抽出した特徴情報と、登録情報記憶部408に記憶されている特徴情報とで照合を行う。即ち、認識部407は、顔画像から抽出した特徴情報と一致若しくは近似する特徴情報が登録情報記憶部408に記憶されているか否か判定する。   The recognition unit 407 authenticates the person using the selected collation method (step S85). That is, the recognition unit 407 extracts feature information based on the face image detected by the face detection unit 405. The recognition unit 407 collates the extracted feature information with the feature information stored in the registered information storage unit 408. That is, the recognition unit 407 determines whether or not feature information that matches or approximates feature information extracted from the face image is stored in the registered information storage unit 408.

認識部407による認証の結果、OKと判定した場合(ステップS85、YES)、再登録部409は、必要に応じて登録情報記憶部408に記憶されている登録情報の更新(再登録)を行う(ステップS86)。出力部410は、通行可能信号を外部機器、若しくはゲート制御部411に出力する(ステップS87)。   As a result of the authentication by the recognition unit 407, when it is determined to be OK (step S85, YES), the re-registration unit 409 updates (re-registers) the registration information stored in the registration information storage unit 408 as necessary. (Step S86). The output unit 410 outputs a passable signal to the external device or the gate control unit 411 (step S87).

また、認識部407による認証の結果、NGと判定した場合(ステップS85、NO)、出力部410は、照合が失敗した旨を外部機器、若しくは表示部などに出力する(ステップS88)。これにより、顔認識装置400は、照合がNGであることを歩行者に対して報知する。   As a result of authentication by the recognition unit 407, if it is determined as NG (NO in step S85), the output unit 410 outputs information indicating that the verification has failed to an external device or a display unit (step S88). Thereby, the face recognition apparatus 400 notifies a pedestrian that collation is NG.

上記したように、第4の実施形態に係る顔認識装置400は、登録情報を記憶する場合、顔認識装置400は、特徴情報の抽出に用いた照合方式を示す情報を対応付けて記憶する。顔認識装置400は、認証処理を行う場合、登録情報に対応付けられている照合方式を示す情報に基づいて照合方式を選択する。これにより、照合の精度を高めることが出来る。   As described above, when the face recognition device 400 according to the fourth embodiment stores registration information, the face recognition device 400 stores information indicating a matching method used for extracting feature information in association with each other. When performing the authentication process, the face recognition device 400 selects a collation method based on information indicating the collation method associated with the registration information. Thereby, the precision of collation can be raised.

また、顔認識装置400は、認証処理が正常に行なわれた場合、必要に応じて登録情報の更新、または追加などを行う。顔認識装置400は、記憶している特徴情報を、予め定めた照合方式により抽出した特徴情報に置き換えることが出来る。この為、顔認識装置400は、記憶している特徴情報を、例えば、精度の高い第1の照合方式により抽出した特徴情報に移行させることができる。   In addition, when the authentication process is normally performed, the face recognition device 400 updates or adds registration information as necessary. The face recognition apparatus 400 can replace the stored feature information with feature information extracted by a predetermined collation method. For this reason, the face recognition apparatus 400 can transfer the stored feature information to, for example, feature information extracted by a highly accurate first collation method.

この結果として、短い処理時間で、より高い精度で人物を認識する事ができる顔認識装置、顔認識方法、及び通行制御装置を提供することができる。   As a result, it is possible to provide a face recognition device, a face recognition method, and a traffic control device that can recognize a person with higher accuracy in a short processing time.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。   In addition, this invention is not limited to the said embodiment as it is, It can implement by changing a component in the range which does not deviate from the summary in an implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.

図1は、本発明の第1の実施形態に係る顔認識装置100の構成例を概略的に説明するためのブロック図である。FIG. 1 is a block diagram for schematically explaining a configuration example of a face recognition apparatus 100 according to the first embodiment of the present invention. 図2は、図1に示す顔認識装置の動作判定部の処理を概略的に説明するための説明図である。FIG. 2 is an explanatory diagram for schematically explaining processing of the operation determination unit of the face recognition apparatus shown in FIG. 図3は、第1の照合方式について説明するための説明図である。FIG. 3 is an explanatory diagram for explaining the first collation method. 図4は、第2の照合方式について説明するための説明図である。FIG. 4 is an explanatory diagram for explaining the second collation method. 図5は、第2の照合方式について説明するための説明図である。FIG. 5 is an explanatory diagram for explaining the second collation method. 図6は、図1に示す顔認識装置100における処理を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining processing in the face recognition apparatus 100 shown in FIG. 図7は、本発明の第2の実施形態に係る顔認識装置の構成例を概略的に説明するためのブロック図である。FIG. 7 is a block diagram for schematically explaining a configuration example of a face recognition apparatus according to the second embodiment of the present invention. 図8は、図7に示す顔認識装置における処理を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining processing in the face recognition apparatus shown in FIG. 図9は、本発明の第3の実施形態に係る顔認識装置の構成例を概略的に説明するためのブロック図である。FIG. 9 is a block diagram for schematically explaining a configuration example of a face recognition apparatus according to the third embodiment of the present invention. 図10は、図9に示す顔認識装置における処理を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining processing in the face recognition apparatus shown in FIG. 図11は、本発明の第4の実施形態に係る顔認識装置の構成例を概略的に説明するためのブロック図である。FIG. 11 is a block diagram for schematically explaining a configuration example of a face recognition apparatus according to the fourth embodiment of the present invention. 図12は、図11に示す顔認識装置における処理を説明するためのフローチャートである。FIG. 12 is a flowchart for explaining processing in the face recognition apparatus shown in FIG.

符号の説明Explanation of symbols

10…入力画像、11…枠、100…顔認識装置、101…入力部、102…制御部、103…カメラ、104…操作部、105…顔検出部、106…動作判定部、107…認識部、108…登録情報記憶部、109…出力部、110…ゲート制御部、111…ドア、200…顔認識装置、201…入力部、202…制御部、203…カメラ、204…操作部、205…顔検出部、206…動作判定部、207…認識部、208…登録情報記憶部、209…出力部、210…ゲート制御部、300…顔認識装置、301…入力部、302…制御部、303…カメラ、304…操作部、305…顔検出部、306…動作判定部、307…認識部、307a…設定記憶部、308…登録情報記憶部、309…出力部、310…ゲート制御部、400…顔認識装置、401…入力部、402…制御部、403…カメラ、404…操作部、405…顔検出部、406…動作判定部、407…認識部、408…登録情報記憶部、409…再登録部、410…出力部、411…ゲート制御部。   DESCRIPTION OF SYMBOLS 10 ... Input image, 11 ... Frame, 100 ... Face recognition apparatus, 101 ... Input part, 102 ... Control part, 103 ... Camera, 104 ... Operation part, 105 ... Face detection part, 106 ... Motion determination part, 107 ... Recognition part , 108 ... registered information storage unit, 109 ... output unit, 110 ... gate control unit, 111 ... door, 200 ... face recognition device, 201 ... input unit, 202 ... control unit, 203 ... camera, 204 ... operation unit, 205 ... Face detection unit, 206 ... motion determination unit, 207 ... recognition unit, 208 ... registration information storage unit, 209 ... output unit, 210 ... gate control unit, 300 ... face recognition device, 301 ... input unit, 302 ... control unit, 303 DESCRIPTION OF SYMBOLS ... Camera, 304 ... Operation part, 305 ... Face detection part, 306 ... Motion determination part, 307 ... Recognition part, 307a ... Setting storage part, 308 ... Registration information storage part, 309 ... Output part, 310 ... Gate control part, 40 ... face recognition device, 401 ... input unit, 402 ... control unit, 403 ... camera, 404 ... operation unit, 405 ... face detection unit, 406 ... motion determination unit, 407 ... recognition unit, 408 ... registration information storage unit, 409 ... Re-registration unit, 410 ... output unit, 411 ... gate control unit.

Claims (12)

予め登録情報を記憶する登録情報記憶手段と、
人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、
前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出する顔検出手段と、
前記顔検出手段により画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定する動作判定手段と、
前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第1の照合方式により照合を行う第1の照合手段と、
前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第2の照合方式により照合を行う第2の照合手段と、
前記第1の照合手段と前記第2の照合手段とのいずれかを選択する選択手段と、
前記選択手段により選択した照合手段により、前記人物が予め登録された人物であるか否かを判定する認識手段と、
を具備することを特徴とする顔認識装置。
Registration information storage means for storing registration information in advance;
Image input means for continuously inputting an image including at least a face of a person;
Face detection means for detecting the face area of the person for each image from successive images input from the image input means;
An operation determination unit that determines the presence or absence of the person's authentication intention based on the position and size of the face area detected for each image by the face detection unit;
A first collation unit that performs collation by a first collation method based on an image of a face area detected by the face detection unit and registration information stored by the registration information storage unit;
A second collation unit that performs collation by a second collation method based on the image of the face area detected by the face detection unit and the registration information stored by the registration information storage unit;
Selecting means for selecting one of the first collating means and the second collating means;
Recognizing means for determining whether or not the person is a pre-registered person by the matching means selected by the selecting means;
A face recognition apparatus comprising:
前記選択手段は、前記動作判定手段により前記人物の認証意思を確認するまでに前記人物の顔領域が検出された画像が所定枚数以上存在すると判定した場合、前記第1の照合方式を選択し、前記動作判定手段により前記人物の認証意思を確認するまでに前記人物の顔領域が検出された画像が所定枚数未満存在すると判定した場合、前記第2の照合方式を選択することを特徴とする請求項1に記載の顔認識装置。   The selection means selects the first verification method when it is determined that there are a predetermined number or more of images in which the face area of the person is detected before the action determination means confirms the person's authentication intention, The second verification method is selected when it is determined that there are less than a predetermined number of images in which the face area of the person has been detected before the action determination means confirms the person's intention to authenticate. Item 2. The face recognition device according to Item 1. 前記選択手段は、前記動作判定手段により前記人物の認証意思が確認されない場合、前記第2の照合方式を選択し、
前記認識手段は、精査閾値を用いて前記第2の照合手段により前記人物が予め登録された人物であるか否かを判定する、
ことを特徴とする請求項1に記載の顔認識装置。
The selection unit selects the second verification method when the action determination unit does not confirm the person's authentication intention,
The recognizing means determines whether the person is a person registered in advance by the second collating means using a scrutiny threshold;
The face recognition apparatus according to claim 1.
前記動作判定手段は、前記認識手段により、前フレームに写り込んでいる前記人物が予め登録された人物ではないと判定した場合、現フレームに写り込んでいる人物と前フレームに写り込んでいる人物とが同一人物で有るか否か判定し、
前記認識手段は、前記動作判定手段により同一人物であると判定した場合、再び、前記人物が予め登録された人物であるか否かを判定するリトライを行う、
ことを特徴とする請求項1に記載の顔認識装置。
When the recognition unit determines that the person appearing in the previous frame is not a person registered in advance, the action judging means is a person appearing in the current frame and a person appearing in the previous frame. And whether they are the same person,
The recognizing unit performs a retry to determine again whether or not the person is a pre-registered person when the operation determining unit determines that the person is the same person.
The face recognition apparatus according to claim 1.
前記認識手段によるリトライに用いる照合方式を選択させるための情報を予め記憶する設定記憶手段をさらに具備し、
前記選択手段は、前記設定記憶手段により記憶されている情報に基づいて前記第1の照合手段と前記第2の照合手段とのいずれかを選択する、
ことを特徴とする請求項4に記載の顔認識装置。
Further comprising setting storage means for preliminarily storing information for selecting a collation method used for retry by the recognition means;
The selection means selects either the first collation means or the second collation means based on the information stored in the setting storage means;
The face recognition apparatus according to claim 4.
前記登録情報記憶手段は、画像から特徴情報を抽出するために用いた照合方式を示す照合方式情報を登録情報と対応付けて記憶し、
前記選択手段は、前記動作判定手段により前記人物の認証意思を確認するまでに前記人物の顔領域が検出された画像が所定枚数以上存在すると判定した場合、前記登録情報記憶手段により記憶されている照合方式情報が示す照合方式と同じ照合方式を選択する、
ことを特徴とする請求項1に記載の顔認識装置。
The registration information storage means stores collation method information indicating a collation method used for extracting feature information from an image in association with registration information,
When the selection unit determines that a predetermined number or more of the images in which the person's face area has been detected before the operation determination unit confirms the person's authentication intention, the selection unit stores the registration information storage unit. Select the same verification method as the verification method indicated by the verification method information.
The face recognition apparatus according to claim 1.
前記動作判定手段は、前記画像入力手段から入力された画像から前記顔検出手段により検出された顔領域の位置及びサイズと1つ前のフレームの画像から検出された顔領域の位置及びサイズとの差が所定値未満であると判断した場合に前記人物に認証意思があると判定することを特徴とする請求項1に記載の顔認識装置。   The motion determination means includes the position and size of the face area detected by the face detection means from the image input from the image input means and the position and size of the face area detected from the image of the previous frame. The face recognition apparatus according to claim 1, wherein when the difference is determined to be less than a predetermined value, it is determined that the person has an intention to authenticate. 前記人物による操作が入力される操作入力手段をさらに具備し、
前記動作判定手段は、前記操作入力手段により操作が入力されたと判断した場合に前記人物に認証意思があると判定することを特徴とする請求項1に記載の顔認識装置。
An operation input means for inputting an operation by the person;
The face recognition apparatus according to claim 1, wherein the motion determination unit determines that the person has an intention to authenticate when it is determined that an operation is input by the operation input unit.
前記認識手段は、前記選択手段により前記第1の照合方式が選択された場合、複数の画像に基づいて特徴情報を抽出し、前記登録情報記憶手段に記憶されている登録情報と照合を行うことを特徴とする請求項1に記載の顔認識装置。   The recognizing unit extracts feature information based on a plurality of images when the first collating method is selected by the selecting unit, and collates with registered information stored in the registered information storing unit. The face recognition apparatus according to claim 1. 前記認識手段は、前記選択手段により前記第2の照合方式が選択された場合、少なくとも1枚以上の画像に基づいて特徴情報を抽出し、前記登録情報記憶手段に記憶されている登録情報と照合を行うことを特徴とする請求項1に記載の顔認識装置。   The recognizing unit extracts feature information based on at least one image when the selection unit selects the second collation method, and collates with registration information stored in the registration information storage unit. The face recognition apparatus according to claim 1, wherein: 予め登録情報を記憶する登録情報記憶手段と、人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、を具備する顔認識装置に用いられる顔認識方法であって、
前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出し、
前記画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定し、
前記検出した複数枚の顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて照合を行う第1の照合方式と、前記検出した少なくとも1枚以上の顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて照合を行う第2の照合方式とのいずれかを選択し、
前記選択した照合方式により、前記人物が予め登録された人物であるか否かを判定する、
ことを特徴とする顔認識方法。
A face recognition method used in a face recognition apparatus comprising: a registration information storage unit that stores registration information in advance; and an image input unit that continuously inputs an image including at least a face of a person,
Detecting the face area of the person for each image from the continuous images input from the image input means;
Determining the presence or absence of the person's authentication intention based on the position and size of the face area detected for each image;
A first collation method for performing collation based on the detected plurality of face area images and registration information stored in the registration information storage unit; and at least one detected face area image; Select one of the second verification methods for verification based on the registration information stored by the registration information storage means,
Determining whether the person is a pre-registered person by the selected matching method;
A face recognition method characterized by the above.
通行が制限されるエリアに設けられたドアの開閉を制御する通行制御装置であって、
通行を許可する人物の登録情報を予め記憶する登録情報記憶手段と、
人物の少なくとも顔を含む画像が連続して入力される画像入力手段と、
前記画像入力手段から入力された連続した画像から前記人物の顔領域を画像毎に検出する顔検出手段と、
前記顔検出手段により画像毎に検出した顔領域の位置及びサイズに基づいて前記人物の認証意思の有無を判定する動作判定手段と、
前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第1の照合方式により照合を行う第1の照合手段と、
前記顔検出手段により検出した顔領域の画像と前記登録情報記憶手段により記憶されている登録情報とに基づいて第2の照合方式により照合を行う第2の照合手段と、
前記第1の照合手段と前記第2の照合手段とのいずれかを選択する選択手段と、
前記選択手段により選択した照合手段により、前記人物が予め登録された人物であるか否かを判定する認識手段と、
前記認識手段により前記人物が予め登録された人物であると判定した場合、通行が制限されるエリアに設けられたドアを開くように制御するゲート制御手段と、
を具備することを特徴とする通行制御装置。
A traffic control device for controlling the opening and closing of doors provided in an area where traffic is restricted,
Registration information storage means for storing in advance registration information of persons permitted to pass;
Image input means for continuously inputting an image including at least a face of a person;
Face detection means for detecting the face area of the person for each image from successive images input from the image input means;
An operation determination unit that determines the presence or absence of the person's authentication intention based on the position and size of the face area detected for each image by the face detection unit;
A first collation unit that performs collation by a first collation method based on an image of a face area detected by the face detection unit and registration information stored by the registration information storage unit;
A second collation unit that performs collation by a second collation method based on the image of the face area detected by the face detection unit and the registration information stored by the registration information storage unit;
Selecting means for selecting one of the first collating means and the second collating means;
Recognizing means for determining whether or not the person is a pre-registered person by the matching means selected by the selecting means;
A gate control means for controlling to open a door provided in an area where traffic is restricted when the recognition means determines that the person is a person registered in advance;
A traffic control device comprising:
JP2008256487A 2008-10-01 2008-10-01 Facial recognition device, facial recognition method, and passage controller Withdrawn JP2010086403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008256487A JP2010086403A (en) 2008-10-01 2008-10-01 Facial recognition device, facial recognition method, and passage controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008256487A JP2010086403A (en) 2008-10-01 2008-10-01 Facial recognition device, facial recognition method, and passage controller

Publications (1)

Publication Number Publication Date
JP2010086403A true JP2010086403A (en) 2010-04-15

Family

ID=42250273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008256487A Withdrawn JP2010086403A (en) 2008-10-01 2008-10-01 Facial recognition device, facial recognition method, and passage controller

Country Status (1)

Country Link
JP (1) JP2010086403A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285868B2 (en) 2012-01-16 2016-03-15 Kabushiki Kaisha Toshiba Camera device, communication system, and camera system
JP2017130235A (en) * 2017-04-18 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method
JP2019124855A (en) * 2018-01-18 2019-07-25 株式会社ユピテル Apparatus and program and the like
KR102168699B1 (en) * 2020-06-18 2020-10-21 주식회사 엠디소프트 System for hospital management
JP2021135970A (en) * 2020-02-28 2021-09-13 株式会社東芝 Image collation device, image collation system, and image collation method
US11210496B2 (en) 2017-09-19 2021-12-28 Nec Corporation Collation system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285868B2 (en) 2012-01-16 2016-03-15 Kabushiki Kaisha Toshiba Camera device, communication system, and camera system
JP2017130235A (en) * 2017-04-18 2017-07-27 株式会社ソニー・インタラクティブエンタテインメント Information processing apparatus and information processing method
US11210496B2 (en) 2017-09-19 2021-12-28 Nec Corporation Collation system
US11704932B2 (en) 2017-09-19 2023-07-18 Nec Corporation Collation system
US12080097B2 (en) 2017-09-19 2024-09-03 Nec Corporation Collation system
JP2019124855A (en) * 2018-01-18 2019-07-25 株式会社ユピテル Apparatus and program and the like
JP7130201B2 (en) 2018-01-18 2022-09-05 株式会社ユピテル Equipment and programs, etc.
JP2021135970A (en) * 2020-02-28 2021-09-13 株式会社東芝 Image collation device, image collation system, and image collation method
JP7379213B2 (en) 2020-02-28 2023-11-14 株式会社東芝 Image matching device
KR102168699B1 (en) * 2020-06-18 2020-10-21 주식회사 엠디소프트 System for hospital management

Similar Documents

Publication Publication Date Title
JP4389956B2 (en) Face recognition device, face recognition method, and computer program
JP4650669B2 (en) Motion recognition device
US7120278B2 (en) Person recognition apparatus
US20070291998A1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
JP6409929B1 (en) Verification system
JP4760049B2 (en) Face authentication device, face authentication method, electronic device incorporating the face authentication device, and recording medium recording the face authentication program
JP5662670B2 (en) Image processing apparatus, image processing method, and program
US20090174805A1 (en) Digital camera focusing using stored object recognition
JP2008108243A (en) Person recognition device and person recognition method
JPWO2015136938A1 (en) Information processing method and information processing system
JP2004157602A (en) Apparatus and method for person recognition and passage controller
JP2011070576A (en) Image processor and image processing method
JP2004213087A (en) Device and method for personal identification
WO2019138688A1 (en) Facial recognition device
JP2010086403A (en) Facial recognition device, facial recognition method, and passage controller
JP2012208610A (en) Face image authentication apparatus
JP4521086B2 (en) Face image recognition apparatus and face image recognition method
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP2009059073A (en) Unit and method for imaging, and unit and method for person recognition
JP2013065118A (en) Face recognition device and face recognition method
JP6947202B2 (en) Matching system
KR101596363B1 (en) Access Control Apparatus and Method by Facial Recognition
JP2007249298A (en) Face authentication apparatus and face authentication method
KR20070022446A (en) Method for truth or falsehood judgement of monitoring face image
US20220335766A1 (en) Information processing apparatus, information processing method, and storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20111206