JP2008071172A - Face authentication system, face authentication method, and access control device - Google Patents

Face authentication system, face authentication method, and access control device Download PDF

Info

Publication number
JP2008071172A
JP2008071172A JP2006249822A JP2006249822A JP2008071172A JP 2008071172 A JP2008071172 A JP 2008071172A JP 2006249822 A JP2006249822 A JP 2006249822A JP 2006249822 A JP2006249822 A JP 2006249822A JP 2008071172 A JP2008071172 A JP 2008071172A
Authority
JP
Japan
Prior art keywords
face
person
image
authentication
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006249822A
Other languages
Japanese (ja)
Inventor
Kei Takizawa
圭 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006249822A priority Critical patent/JP2008071172A/en
Publication of JP2008071172A publication Critical patent/JP2008071172A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face authentication system, a face authentication method, and an access control device which allows a person to be authenticated to check whether or not he/she is likely to be out of the scope and improve face authentication performance by preventing the person from being out of the scope. <P>SOLUTION: When the face authentication system authenticates a pedestrian, it is determined whether or not the pedestrian is a preregistered person by comparing a face image acquired from the pedestrian with a preregistered dictionary information. When the face of the pedestrian is likely to be out of the scope of a camera, an end of a zoomed display image is highlighted regarding a side where the face is likely to be out of the scope. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、たとえば、歩行者を認証対象とし、当該歩行者から取得した顔画像をあらかじめ登録された辞書情報と照合することにより当該歩行者はあらかじめ登録された人物であるかを判定する顔認証装置および顔認証方法に関する。   The present invention, for example, uses a pedestrian as an authentication target, and compares the face image acquired from the pedestrian with pre-registered dictionary information to determine whether the pedestrian is a pre-registered person. The present invention relates to an apparatus and a face authentication method.

また、本発明は、上記顔認証装置を用いてセキュリティを必要とする部屋や施設等の入退場対象エリアに対する入退場を管理する入退場管理装置に関する。   The present invention also relates to an entrance / exit management apparatus that manages entrance / exit for an entrance / exit area such as a room or facility that requires security using the face authentication apparatus.

一般に、顔認証装置を用いた入退場管理装置は、ビデオカメラなどのカメラを有していて、認証対象となる人物がカメラの前に立ち止まり、カメラのレンズに顔を向けることで、人物の顔画像をカメラが撮像して入力し、この入力した顔画像から得られる当該人物固有の顔の特徴情報をあらかじめ登録されている辞書情報と照合することにより、当該人物はあらかじめ登録された人物であるかを判定し、あらかじめ登録された人物である場合、入退場対象エリア(部屋や施設等)のドアを開放する(たとえば、特許文献1参照)。   In general, an entrance / exit management device using a face authentication device has a camera such as a video camera, and the person to be authenticated stops in front of the camera and faces the lens of the camera. An image is captured and input by a camera, and the person is a pre-registered person by collating face characteristic information unique to the person obtained from the input face image with dictionary information registered in advance. If the person is registered in advance, the door of the entrance / exit area (room, facility, etc.) is opened (for example, see Patent Document 1).

この種の入退場管理装置(顔認証装置)にあっては、上記したように、認証する人物がカメラの前に立ち止まることで、当該人物の顔を撮像するようになっているため、認証対象が歩行者(移動する人物)であって、当該歩行者がドア(特定の位置)に接近するまでに顔認証を行なう目的に使用する場合、このような歩行する人物の顔を撮像することはできないという問題がある。   In this type of entrance / exit management device (face authentication device), as described above, since the person to be authenticated stops in front of the camera, the person's face is imaged. Is a pedestrian (moving person), and when it is used for the purpose of performing face authentication before the pedestrian approaches the door (specific position), imaging the face of such a walking person is There is a problem that you can not.

そこで、入退場対象エリアの入口の近傍にカメラと表示部を配設し、入口のドアに向かって移動する歩行者の顔認証を行なうものが考えられている。これは、入口のドアに向かって移動する歩行者の顔画像をカメラで撮像して入力し、この入力した顔画像から得られる当該人物固有の顔の特徴情報をあらかじめ登録されている辞書情報と照合することにより、当該歩行者はあらかじめ登録された人物であるかを判定し、あらかじめ登録された人物である場合、入口のドアを開いて通行を許可し、そうでなければ、入口のドアを閉じたままにして通行を阻止するものである。
このように、歩行者が入口のドアに到達するまでに、顔認証処理を終了することで、あらかじめ登録された歩行者は立ち止まることなしに入口を通過できる。
In view of this, it is considered that a camera and a display unit are arranged in the vicinity of the entrance of the entrance / exit area to perform face authentication of a pedestrian moving toward the entrance door. This is because a face image of a pedestrian moving toward the entrance door is captured and input by a camera, and the facial feature information unique to the person obtained from the input face image is registered in advance as dictionary information. By checking, it is determined whether the pedestrian is a pre-registered person. If the pedestrian is a pre-registered person, the entrance door is opened to allow access, otherwise the entrance door is opened. It is closed to prevent traffic.
In this way, by completing the face authentication process before the pedestrian reaches the entrance door, the pedestrian registered in advance can pass through the entrance without stopping.

顔画像により、あらかじめ登録された人物か否かを判定する顔認証処理では、正面顔を安定して撮像することが、顔認証の精度向上の点において重要である。そこで、カメラの近傍に表示部を配設して、当該表示部にカメラで撮像した歩行者の顔をズームで表示し、歩行者が当該表示部を見るように誘導することで、正面顔を撮影しようとする技術も考えられている。   In the face authentication process for determining whether or not a person is registered in advance based on a face image, it is important in terms of improving the accuracy of face authentication to stably capture the front face. Therefore, a display unit is arranged in the vicinity of the camera, the pedestrian's face captured by the camera is displayed on the display unit with zoom, and the pedestrian is guided to look at the display unit, so that the front face is displayed. Techniques for shooting are also being considered.

歩行者の正面顔を取得する技術として、カメラで撮像して得られる顔画像から顔の向きを判定する手法が知られている(たとえば、特許文献2参照)。これは、入力画像から左目、右目、顔の左右輪郭を計算し、次に、前記左眼と顔の左の輪郭間の距離と、右眼と顔の右の輪郭区間の距離との比から顔の向きを判定する。この2つの距離がほぼ等しい場合には、顔が正面を向いていると判定し、上記2つの距離の一方が短ければ、その方向に顔が向いていると判定するものである。   As a technique for acquiring the front face of a pedestrian, a method for determining the face direction from a face image obtained by imaging with a camera is known (for example, see Patent Document 2). This calculates the left and right contours of the left eye, right eye, and face from the input image, and then calculates the ratio between the distance between the left eye and the left contour of the face and the distance between the right eye and the right contour section of the face. Determine the face orientation. If the two distances are substantially equal, it is determined that the face is facing the front, and if one of the two distances is short, it is determined that the face is facing in that direction.

また、入力画像から顔領域を検出する技術として、カメラからの入力画像系列から、人物の顔を検出する手法が知られている(たとえば、特許文献3参照)。これは、入力画像全体について顔パターン検出を数フレームおきに行ない、顔が検出された領域については、引き続くフレームにおいて、その近傍についてのみ顔パターン検出を行なう。これは、毎フレーム、顔パターン検出を入力画像全体について行なうのではなく、一度顔が検出された場合には、引き続くフレームでは顔パターンの検出対象の領域を限定することにより、処理速度を向上させるという考え方に基づく。
特開2001−266152号公報 特開2005−196567号公報 特開2004−171490号公報
As a technique for detecting a face area from an input image, a technique for detecting a human face from an input image series from a camera is known (see, for example, Patent Document 3). In this method, face pattern detection is performed every few frames for the entire input image, and face pattern detection is performed only in the vicinity of the area in which the face is detected in subsequent frames. This is because the face pattern detection is not performed on the entire input image every frame, but when a face is detected once, the processing speed is improved by limiting the target area of the face pattern detection in subsequent frames. Based on this idea.
JP 2001-266152 A JP 2005-196567 A JP 2004-171490 A

人物が検出され表示部に人物の顔がズーム表示された場合に、その人物が自分自身でカメラの視野のどの位置にいるかわからないため、照合が開始しないときに歩行者が誤ってカメラの視野外に出てしまうことである。これは、顔の認証に必要な顔画像の枚数が検出される前に人物がカメラの視野外に出てしまうことになり、認証性能の低下を招く。   When a person is detected and the face of the person is zoomed on the display, it is not known where the person is in the camera's field of view. It is to come out. This causes a person to go out of the field of view of the camera before the number of face images necessary for face authentication is detected, leading to a decrease in authentication performance.

また、特許文献2の顔向き判定は、歩行者の顔が正面でない場合にその人物に対して、カメラに顔を向けるように促す目的で用いられる。この技術は、顔向きの判定にまず顔の部品、具体的には左右の目および顔の左右輪郭を抽出することを前提としており、顔の照明が暗く、上記顔の部品の検出に失敗すると顔向きの判定ができなくなるという問題がある。結果として、歩行者の正面顔が得られる可能性が下がり、顔認証性能の低下を招く。   Further, the face orientation determination in Patent Document 2 is used for the purpose of prompting a person to turn his face to the camera when the face of the pedestrian is not in front. This technology is based on the premise that face parts, specifically left and right eyes and left and right outlines of faces, are extracted first for face orientation determination, and when face illumination is dark and detection of the face parts fails. There is a problem that the face orientation cannot be determined. As a result, the possibility that a pedestrian's front face can be obtained is reduced, leading to a reduction in face authentication performance.

また、特許文献3の顔領域検出では、全体画像の顔検出を数フレームごとに行なうため、そのフレームの間に現れた人物の顔の検出が遅れてしまう。その結果、特許文献3の技術を本発明において歩行者の顔を検出する目的で用いた場合、人物から抽出する顔の枚数が減り、顔の認証に必要な枚数の顔画像が抽出できないことが発生し得る。これにより、顔認証性能の低下が発生するという問題がある。   Further, in the face area detection of Patent Document 3, since the face detection of the entire image is performed every several frames, detection of the face of a person appearing between the frames is delayed. As a result, when the technique of Patent Document 3 is used for the purpose of detecting the face of a pedestrian in the present invention, the number of faces extracted from a person is reduced, and the number of face images necessary for face authentication cannot be extracted. Can occur. Accordingly, there is a problem that the face authentication performance is deteriorated.

そこで、本発明は、認証対象の人物は自分自身撮像視野外にでそうか否かを確認することが可能になり、撮像視野から外れないように対処することにより、顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供することを目的とする。   Therefore, the present invention makes it possible to confirm whether or not the person to be authenticated is out of the imaging field of view, and to prevent the person from being out of the imaging field of view, thereby improving the face authentication performance. An object is to provide an authentication device, a face authentication method, and an entrance / exit management device.

また、本発明は、人物の正面顔が得やすくなり、その結果顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供することを目的とする。   It is another object of the present invention to provide a face authentication device, a face authentication method, and an entrance / exit management device that make it easier to obtain a person's front face and consequently improve face authentication performance.

さらに、本発明は、顔の検出遅れがなくなり、その結果、認証に必要な顔画像が容易に得られ、顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供することを目的とする。   Furthermore, the present invention provides a face authentication device, a face authentication method, and an entrance / exit management device in which face detection delay is eliminated, and as a result, a face image necessary for authentication can be easily obtained and face authentication performance is improved. With the goal.

本発明の顔認証装置は、特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、前記特定の位置の近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段とを具備している。   The face authentication device of the present invention is a face authentication device that performs face authentication of a person moving toward a specific position, and is provided between the moving person and the specific position, and at least of the moving person Image capturing means for capturing an image including a face, face detection means for detecting the face area of the person from the image captured by the image capturing means, and an image of the face area detected by the face detection means Authentication means for determining whether or not the person is a registered person by collating with dictionary information, and provided in the vicinity of the specific position and detected by the face detection means for the moving person Display means for enlarging and displaying an image of the face area, and detecting that the image of the face area displayed by the display means is likely to deviate from the imaging field of view of the imaging means; And comprising a display control means for controlling said display means so as to highlight the end of the enlarged display image on the side was almost off the.

また、本発明の顔認証装置は、特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段とを有して構成され、前記顔検出手段は、前記撮像手段により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする。   The face authentication device of the present invention is a face authentication device that performs face authentication of a person moving toward a specific position, and is provided between the moving person and a specific position, and the moving person Imaging means for capturing an image including at least a face, face detection means for detecting the face area of the person from the image captured by the imaging means, and an image of the face area detected by the face detection means registered in advance Authentication means for determining whether the person is a person registered in advance by collating with the dictionary information, and the face detection means includes a plurality of images captured by the imaging means. The difference between the images is calculated to detect the change area, the optical flow extraction process is performed on the obtained change area, and the obtained optical flow is close in position and the flow is detected. The grouping process is performed so that the optical flows with the same direction and size are in the same group, and the peripheral features are extracted for the group in which the number of optical flows constituting the obtained group is larger than the threshold, and the obtained peripheral features A range in which the value of the first derivative sandwiched between positions where the first derivative of the quantity has a positive value and a negative value is close to “0” is extracted as a head candidate for the person, and face pattern detection is performed on the obtained head candidate. This is characterized in that the face area is detected.

また、本発明の顔認証装置は、特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段とを有して構成され、前記顔向き判定手段は、前記顔検出手段により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする。   The face authentication device of the present invention is a face authentication device that performs face authentication of a person moving toward a specific position, and is provided between the moving person and a specific position, and the moving person Imaging means that captures an image including at least a face, a face detection means that detects the face area of the person from the image captured by the imaging means, and an image of the face area detected by the face detection means The person is registered in advance by collating the face direction determining means for determining whether or not the face is determined and the image of the face area determined to be front facing by the face direction determining means with dictionary information registered in advance. Authentication means for determining whether the person is a person, and the face orientation determination means has a height shorter than the height and width of the circumscribed rectangle of the face area detected by the face detection means. The long When the value divided by the length of the face is greater than or equal to the threshold value, the face is determined not to face the front, and when the value obtained by dividing the shorter length by the longer length is less than or equal to the threshold value, the face pattern Detection is performed, the similarity with a face detection dictionary pattern created in advance from a face facing forward is calculated, and when the obtained similarity is equal to or less than a threshold, it is determined that the face is not facing forward, and the obtained When the similarity is equal to or greater than a threshold, it is determined that the face is facing the front.

また、本発明の顔認証方法は、特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、この顔検出工程により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程と、前記特定の位置の近傍に設けられた表示手段により、前記移動する人物に対し前記顔検出工程により検出された顔領域の画像を拡大して表示する表示工程と、この表示工程により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御工程とを具備している。   Further, the face authentication method of the present invention is a face authentication method for performing face authentication of a person moving toward a specific position, by an imaging means provided between the moving person and the specific position, An imaging step of capturing an image including at least the face of the moving person, a face detection step of detecting the face region of the person from the image captured by the imaging step, and a detection of the face region detected by the face detection step The person who moves by the authentication step of determining whether the person is a person registered in advance by comparing the image with the dictionary information registered in advance and the display means provided in the vicinity of the specific position A display step for enlarging and displaying an image of the face area detected by the face detection step, and an image of the face area displayed by the display step is out of the imaging field of view of the imaging means. Detects that became so, and a display control step for controlling the display means so as to highlight the end of the enlarged display image on the side was almost out from the imaging field.

また、本発明の顔認証方法は、特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、この顔検出工程により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程とを有して構成され、前記顔検出工程は、前記撮像工程により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする。   Further, the face authentication method of the present invention is a face authentication method for performing face authentication of a person moving toward a specific position, by an imaging means provided between the moving person and the specific position, An imaging step of capturing an image including at least the face of the moving person, a face detection step of detecting the face region of the person from the image captured by the imaging step, and a detection of the face region detected by the face detection step An authentication step of determining whether the person is a pre-registered person by comparing an image with pre-registered dictionary information, and the face detection step is imaged by the imaging step. The difference between images is calculated for a plurality of images to detect a change area, optical flow extraction processing is performed on the obtained change area, and the position of the obtained optical flow is determined. In addition, grouping processing is performed so that optical flows whose flow direction and size are close to each other are in the same group, and peripheral features are extracted for a group in which the number of optical flows constituting the obtained group is larger than a threshold value. A range in which the value of the first derivative sandwiched between positions where the first derivative of the obtained peripheral feature value has positive and negative values is close to “0” is extracted as a candidate for the person's head, and the obtained head candidate A face area is detected by performing face pattern detection for.

また、本発明の顔認証方法は、特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、この顔検出工程により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定工程と、この顔向き判定工程により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程とを有して構成され、前記顔向き判定工程は、前記顔検出工程により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする。   Further, the face authentication method of the present invention is a face authentication method for performing face authentication of a person moving toward a specific position, by an imaging means provided between the moving person and the specific position, An imaging step of capturing an image including at least the face of the moving person, a face detection step of detecting the face region of the person from the image captured by the imaging step, and a detection of the face region detected by the face detection step A face orientation determination step for determining whether or not the image is front-facing, and an image of the face area determined to be front-facing by the face orientation determination step and the dictionary information registered in advance are compared. An authentication process for determining whether the person is a registered person, and the face orientation determination process is performed by a height and a width of a circumscribed rectangle of the face area detected by the face detection process. When the value obtained by dividing the length of one side by the length of the longer side is equal to or greater than the threshold value, the face is determined not to face front, and when the value obtained by dividing the length of the shorter side by the length of the longer side is equal to or less than the threshold value Face pattern detection is performed on the face area, the degree of similarity with a face detection dictionary pattern created in advance from a face facing forward is calculated, and when the obtained degree of similarity is equal to or less than a threshold value, the face is not facing forward And determining that the face is facing forward when the obtained similarity is equal to or greater than a threshold value.

また、本発明の入退場管理装置は、入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段と、前記入退場用ゲートの近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段とを具備している。   The entrance / exit management device of the present invention performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit target area, and controls opening / closing of the entrance / exit gate based on the authentication result. An exit management apparatus, which is provided between the moving person and the entrance / exit gate, picks up an image including at least a face of the moving person, and an image picked up by the image pickup means Whether the person is a pre-registered person by collating the face detection means for detecting the face area of the person and the image of the face area detected by the face detection means with previously registered dictionary information. Authentication means for determining, gate control means for controlling opening / closing of the entrance / exit gate based on a determination result of the authentication means, provided near the entrance / exit gate, and moving Display means for enlarging and displaying the image of the face area detected by the face detection means for a person, and the image of the face area displayed by the display means is likely to be out of the imaging field of view of the imaging means. And a display control means for controlling the display means to highlight the end of the enlarged display image on the side that is likely to deviate from the imaging field of view.

また、本発明の入退場管理装置は、入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段とを有して構成され、前記顔検出手段は、前記撮像手段により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする。   The entrance / exit management device of the present invention performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit target area, and controls opening / closing of the entrance / exit gate based on the authentication result. An exit management apparatus, which is provided between the moving person and the entrance / exit gate, picks up an image including at least a face of the moving person, and an image picked up by the image pickup means Whether the person is a pre-registered person by collating the face detection means for detecting the face area of the person and the image of the face area detected by the face detection means with previously registered dictionary information. Authentication means for determining, and gate control means for controlling opening / closing of the entrance / exit gate based on the determination result of the authentication means, wherein the face detecting means is the imaging means The change region is detected by calculating the difference between the images for a plurality of captured images, and the optical flow extraction process is performed on the obtained change region. The grouping process is performed so that the optical flows whose directions and sizes are close to each other are in the same group, and the peripheral features are extracted from the group in which the number of optical flows that make up the obtained group is larger than the threshold, and the obtained peripheral feature amount A range in which the value of the first derivative sandwiched between positions where the first derivative has positive and negative values is close to “0” is extracted as a head candidate for the person, and face pattern detection is performed on the obtained head candidate. Thus, the face area is detected.

さらに、本発明の入退場管理装置は、入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段とを有して構成され、前記顔向き判定手段は、前記顔検出手段により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする。   Furthermore, the entrance / exit management device of the present invention performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit target area, and controls the entrance / exit gate based on the authentication result. An exit management apparatus, which is provided between the moving person and the entrance / exit gate, picks up an image including at least a face of the moving person, and an image picked up by the image pickup means Face detection means for detecting the face area of the person, face orientation determination means for determining whether the image of the face area detected by the face detection means is front-facing, and front-facing by the face orientation determination means Authentication means for determining whether or not the person is a pre-registered person by comparing the image of the face area determined to be a pre-registered dictionary information, and the authentication means Gate control means for controlling opening / closing of the entrance / exit gate based on the determination result, and the face orientation determination means has a height and width of a circumscribed rectangle of the face area detected by the face detection means, When the value obtained by dividing the shorter length by the longer length is equal to or greater than the threshold value, it is determined that the face is not facing the front, and the value obtained by dividing the shorter length by the longer length is equal to or less than the threshold value. When a face pattern is detected for the face area, a similarity with a face detection dictionary pattern created in advance from a face facing forward is calculated. When the obtained similarity is equal to or less than a threshold, the face is not facing front And when the obtained similarity is equal to or greater than a threshold value, it is determined that the face is facing forward.

本発明によれば、認証対象の人物は自分自身撮像視野外にでそうか否かを確認することが可能になり、撮像視野から外れないように対処することにより、顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供できる。   According to the present invention, it becomes possible for a person to be authenticated to check whether or not he / she is outside the imaging field of view, and a face whose face authentication performance is improved by taking care not to deviate from the imaging field of view. An authentication device, a face authentication method, and an entrance / exit management device can be provided.

また、本発明によれば、人物の正面顔が得やすくなり、その結果顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供できる。   Furthermore, according to the present invention, it is possible to provide a face authentication device, a face authentication method, and an entrance / exit management device that make it easier to obtain a person's front face and consequently improve face authentication performance.

さらに、本発明によれば、顔の検出遅れがなくなり、その結果、認証に必要な顔画像が容易に得られ、顔認証性能が向上する顔認証装置、顔認証方法および入退場管理装置を提供できる。   Furthermore, according to the present invention, there is provided a face authentication device, a face authentication method, and an entrance / exit management device in which face detection delay is eliminated, and as a result, a face image necessary for authentication can be easily obtained and face authentication performance is improved. it can.

以下、本発明の実施の形態について図面を参照して説明する。
まず、本発明の概要について簡単に説明する。本発明では、たとえば、図2に示すように、通行帯1を図示矢印e方向に移動して入退場対象エリア(部屋や施設等)2の入口3に設けられたドア(入退場用ゲート)4に向う歩行者(以下、人物ともいう)Mの顔をカメラで撮像する。具体的には、通行帯1におけるd地点からb地点の間に歩行者Mが存在する間に、歩行者Mの少なくとも顏を含む画像をカメラで撮像し、b地点から入口3近傍のa地点まで歩行者Mが到達する間に、取得した画像によって、当該歩行者Mがあらかじめ登録された人物であるか否かを判定する。あらかじめ登録された人物と判定した場合にはドア4を開錠する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the outline of the present invention will be briefly described. In the present invention, for example, as shown in FIG. 2, a door (entrance / exit gate) provided at the entrance 3 of an entrance / exit area (room, facility, etc.) 2 by moving the traffic band 1 in the direction of the arrow e shown in the figure. The face of a pedestrian (hereinafter also referred to as a person) M facing 4 is imaged with a camera. Specifically, while the pedestrian M is present between the point d and the point b in the traffic zone 1, an image including at least a heel of the pedestrian M is captured with a camera, and the point a near the entrance 3 from the point b. While the pedestrian M arrives, it is determined from the acquired image whether the pedestrian M is a person registered in advance. When it is determined that the person is registered in advance, the door 4 is unlocked.

図1は、本実施の形態に係る顔認証装置が適用される入退場管理装置の構成を概略的に示すものである。この入退場管理装置は、歩行者Mの少なくとも顔を含む画像を撮像する撮像手段としてのビデオカメラ(以降、単にカメラと略称する)11、カメラ11により撮像された画像から歩行者Mの顔領域を検出して追跡する顔検出手段としての顔検出追跡部12、顔領域の検出に用いる顔検出辞書パターンを格納している顔検出辞書パターン格納部(メモリ)13、追跡中の歩行者Mの顔向きがカメラ11に対して正面を向いているか否かを判定する顔向き判定手段としての顔向き判定部14、複数の辞書情報があらかじめ登録(記憶)されている辞書記憶手段としての顔認証辞書(メモリ)15、顔検出追跡部12で得られた顔領域の画像(顔画像)と顔認証辞書15にあらかじめ登録された辞書情報とを照合することにより当該歩行者Mはあらかじめ登録された人物であるかを判定する認証手段としての顔認証部16、顔認証部16の判定結果に基づき前記ドア4を制御するゲート制御手段としてのゲート制御部17、歩行者Mに対し現在の顔認証の状況等を表示する表示手段としての表示部18、歩行者Mに対し音声による案内を行なう案内手段としてのスピーカ19、および、全体的な制御を司る制御手段としての表示認証制御部20を有して構成されている。   FIG. 1 schematically shows a configuration of an entrance / exit management apparatus to which the face authentication apparatus according to the present embodiment is applied. The entrance / exit management device includes a video camera (hereinafter simply referred to as a camera) 11 that captures an image including at least a face of the pedestrian M, and a face area of the pedestrian M from an image captured by the camera 11. Detection and tracking unit 12 as a face detection means for detecting and tracking a face detection dictionary pattern storage unit (memory) 13 for storing a face detection dictionary pattern used for detection of a face region, and for a pedestrian M who is tracking Face orientation determination unit 14 as a face orientation determination unit that determines whether or not the face direction is facing the front of the camera 11. Face authentication as a dictionary storage unit in which a plurality of dictionary information is registered (stored) in advance. By comparing the image (face image) of the face area obtained by the dictionary (memory) 15 and the face detection / tracking unit 12 with dictionary information registered in the face authentication dictionary 15 in advance, the pedestrian M A face authentication unit 16 as an authentication unit for determining whether or not a person is registered in advance, a gate control unit 17 as a gate control unit for controlling the door 4 based on a determination result of the face authentication unit 16, and a pedestrian M On the other hand, the display unit 18 as a display means for displaying the current face authentication status, the speaker 19 as a guidance means for guiding the pedestrian M by voice, and the display authentication as a control means for overall control. A control unit 20 is included.

以下、各構成要素について詳細に説明する。
表示部18は、たとえば、図2に示すように、通行帯1の側部で入口3の近傍に設置されている。表示部18の設置高さは、たとえば、歩行者Mの身長の平均値程度にする。
表示部18は、歩行者Mに対して、現在の顔認証の状況等を表示する。具体的には、歩行者Mがドア4から遠く顔が検出できていない場合、または、検出しはじめの場合には、図3(a)に示すように、カメラ11から得られる全体の画像31を表示する。図3(a)における枠32は、検出された顔の領域を示している。
Hereinafter, each component will be described in detail.
For example, as shown in FIG. 2, the display unit 18 is installed in the vicinity of the entrance 3 on the side of the traffic zone 1. The installation height of the display unit 18 is, for example, about the average value of the height of the pedestrian M.
The display unit 18 displays the current face authentication status and the like for the pedestrian M. Specifically, when the pedestrian M cannot detect the face far from the door 4 or when the pedestrian M starts detecting, the entire image 31 obtained from the camera 11 as shown in FIG. Is displayed. A frame 32 in FIG. 3A indicates a detected face area.

顔が検出され、歩行者Mがドア4から一定の距離まで近付いた場合、具体的には図2のc地点よりも近付いた場合には、図3(b)に示すように、検出した顔画像を拡大して表示する。   When a face is detected and the pedestrian M approaches a certain distance from the door 4, more specifically, when approaching a point c in FIG. 2, as shown in FIG. 3B, the detected face Enlarge and display the image.

さらに、歩行者Mがドア4に対して接近した場合、具体的には図2のb地点よりも接近した場合には、カメラ11から得られた画像からあらがめ登録された人物か否かの判定(顔認証)を開始し、a地点に到達するまでに顔認証を終了する。このとき、図3(c)に示すように、「認証中」という案内文を表示する。   Further, when the pedestrian M approaches the door 4, specifically, when approaching the point b in FIG. 2, it is determined whether or not the person is a registered person from the image obtained from the camera 11. Judgment (face authentication) is started, and face authentication is completed before reaching point a. At this time, as shown in FIG. 3C, a guidance sentence “authenticating” is displayed.

認証が終了し、あらかじめ登録された人物であると判定された場合には、当該歩行者Mに対して、図3(d)に示すように、入場が許可されたことを表す案内文を表示する。そうでない場合には、歩行者Mに対して、図3(e)に示すように、入場が拒否されたことを表す案内文を表示する。   When authentication is completed and it is determined that the person is registered in advance, a guidance message indicating that entry is permitted is displayed to the pedestrian M as shown in FIG. To do. Otherwise, as shown in FIG. 3 (e), a guidance sentence indicating that entry has been refused is displayed to the pedestrian M.

カメラ11は、ドア4に向かって移動してくる歩行者Mの顔画像を撮像して、たとえば、図4(a)〜(f)に示すようなカメラ11に対して近付く人物の動画像系列を入力するもので、たとえば、図2に示すように、表示部18の近傍に設置されている。11aはカメラ11の撮像視野を示している。
スピーカ19は、歩行者Mに対し音声による各種案内を行なうもので、たとえば、図2に示すように、カメラ11の近傍に設置されている。
The camera 11 captures a face image of the pedestrian M moving toward the door 4 and, for example, a moving image sequence of a person approaching the camera 11 as shown in FIGS. For example, as shown in FIG. 2, it is installed in the vicinity of the display unit 18. Reference numeral 11 a denotes an imaging field of view of the camera 11.
The speaker 19 provides various guidance by voice to the pedestrian M, and is installed in the vicinity of the camera 11, for example, as shown in FIG.

顔検出追跡部12は、カメラ11から得られる図4のようなカメラ11に対して近付く人物の動画像系列から、顔の存在する領域を顔候補領域として検出する。検出した顔候補領域について時間的な対応付けを行ない、顔候補領域を時系列として得る。ここで、カメラ11からの入力画像で、時間的に最新のものを現フレームの画像と呼び、1回前の画像入力で得られた画像を前フレームの画像と呼ぶことにする。また、現フレームの画像が得られた時刻をtとして表し、前フレームの画像が得られた時刻をt−1と表すこととする。   The face detection / tracking unit 12 detects an area where a face exists as a face candidate area from a moving image sequence of a person approaching the camera 11 as shown in FIG. The detected face candidate areas are temporally correlated to obtain the face candidate areas as a time series. Here, the latest input image from the camera 11 is called the current frame image, and the image obtained by the previous image input is called the previous frame image. In addition, the time when the image of the current frame is obtained is represented as t, and the time when the image of the previous frame is obtained is represented as t-1.

図5は、顔検出追跡部12の処理の流れを示している。まず、ステップS1の画像入力では、カメラ11からの一定時間ごとの画像を入力する。次に、ステップS2の顔初期検出は、入力画像系列から変化のある領域を抽出し、抽出した変化領域から顔の存在する領域を顔候補領域として検出する。   FIG. 5 shows a processing flow of the face detection tracking unit 12. First, in the image input in step S1, an image is input from the camera 11 at regular intervals. Next, in the face initial detection in step S2, a region having a change is extracted from the input image series, and a region where a face exists is detected as a face candidate region from the extracted change region.

次に、ステップS3の顔追跡処理は、顔初期検出で得られた顔候補領域の追跡を行なう。具体的には、前フレームでの顔候補領域が現フレームの画像中でどの位置に存在するかを決定する。顔追跡処理の後、表示認証制御部20に現フレームでの顔候補領域が送られる(ステップS4)。表示認証制御部20は、この状態に応じて表示を切換える。   Next, in the face tracking process in step S3, the face candidate area obtained by the initial face detection is tracked. Specifically, the position where the face candidate region in the previous frame is present in the image of the current frame is determined. After the face tracking process, the face candidate area in the current frame is sent to the display authentication control unit 20 (step S4). The display authentication control unit 20 switches the display according to this state.

顔追跡中の人物について、顔の画像が一定枚数(M_IMG)以上集まった場合(ステップS5)、表示認証制御部20に得られた枚数の顔画像を送る(ステップS6)。表示認証制御部20は、得られた顔画像により顔認証処理を行なう。   If a certain number of face images (M_IMG) or more are collected for the person whose face is being tracked (step S5), the obtained face images are sent to the display authentication control unit 20 (step S6). The display authentication control unit 20 performs face authentication processing using the obtained face image.

ここで、ステップS2の顔初期検出処理について詳細に説明する。顔初期検出処理は、入力画像系列から変化のある領域を抽出し、抽出した変化領域領域から顔パターンの検出を行なうもので、図6に顔初期検出処理の流れを示す。   Here, the face initial detection process in step S2 will be described in detail. In the face initial detection process, an area having a change is extracted from the input image series, and a face pattern is detected from the extracted change area area. FIG. 6 shows the flow of the face initial detection process.

顔初期検出処理の入力は、カメラ11から一定時間ごとに入力される図4のような画像系列である。まず、ステップS11のフレーム間差分は、連続する2つのフレーム画像を比較し、変化のあるピクセルを抽出する処理である。前フレームでの入力画像をIt−1(x,y)、現フレームでの入力画像をIt(x,y)とすると、フレーム間差分画像DIFFt(x,y)は下記数1のように計算される。

Figure 2008071172
The input of the face initial detection process is an image sequence as shown in FIG. First, the inter-frame difference in step S11 is a process of comparing two consecutive frame images and extracting a pixel having a change. When the input image in the previous frame is It-1 (x, y) and the input image in the current frame is It (x, y), the inter-frame difference image DIFFt (x, y) is calculated as Is done.
Figure 2008071172

ここで、DIFFt(x,y)=1となる領域を変化領域とすると、たとえば、フレーム間差分により図7の符号Aように人物の輪郭が変化領域として抽出される。同時に、背景のノイズ等も図7の符号Bのように抽出される。なお、図7では、DIFFt(x,y)=1のピクセルは黒で、DIFFt(x,y)=0のピクセルは白で表されている。   Here, assuming that the area where DIFFt (x, y) = 1 is a change area, for example, the outline of a person is extracted as the change area as indicated by reference numeral A in FIG. At the same time, background noise and the like are also extracted as indicated by reference numeral B in FIG. In FIG. 7, pixels with DIFFt (x, y) = 1 are represented in black, and pixels with DIFFt (x, y) = 0 are represented in white.

フレーム間差分の計算方法として、次のような増分符号フレーム間差分を用いてもよい。具体的には、時刻t−1についての水平方向、垂直方向の増分符号画像DIFF_S_Xt−1(x,y)、DIFF_S_Yt−1(x,y)と、時刻tについての水平方向、垂直方向の増分符号画像DIFF_S_Xt(x,y)、DIFF_S_Yt(x,y)を計算する。   As an inter-frame difference calculation method, the following incremental code inter-frame difference may be used. Specifically, horizontal and vertical incremental code images DIFF_S_Xt-1 (x, y) and DIFF_S_Yt-1 (x, y) for time t-1 and horizontal and vertical increments for time t. Coded images DIFF_S_Xt (x, y) and DIFF_S_Yt (x, y) are calculated.

DIFF_S_Xt(x,y)、DIFF_S_Yt(x,y)は次のような画像である。

Figure 2008071172
DIFF_S_Xt (x, y) and DIFF_S_Yt (x, y) are the following images.
Figure 2008071172

また、増分符号フレーム間差分画像DIF_St(x,y)は次のようになる。

Figure 2008071172
Further, the incremental code inter-frame difference image DIF_St (x, y) is as follows.
Figure 2008071172

フレーム間差分として、輝度フレーム間差分DIFFt(x,y)あるいは増分符号フレーム間差分DIFF_St(x,y)のどちらを用いてもよい。輝度フレーム間差分DIFFt(x,y)は、演算量が少ないが、輝度差の閾値T_DIFFを用いるため、輝度変動に弱いという性質がある。増分符号フレーム間差分DIFF_St(x,y)の方は、輝度フレーム間差分DIFFt(x,y)に対して演算量が多いが、輝度差の閾値を用いないため輝度変動に影響を受けにくいという性質がある。   As the inter-frame difference, either the luminance inter-frame difference DIFFt (x, y) or the incremental code inter-frame difference DIFF_St (x, y) may be used. The luminance frame difference DIFFt (x, y) has a small amount of calculation, but has a property that it is weak against luminance fluctuation because the luminance difference threshold T_DIFF is used. Incremental code inter-frame difference DIFF_St (x, y) is more computationally intensive than luminance inter-frame difference DIFFt (x, y), but is less susceptible to luminance fluctuations because it does not use a luminance difference threshold. There is a nature.

次に、ステップS12のオプティカルフロー抽出は、前フレームの入力画像を、一辺が2×wの固定サイズの小ブロックに分割する。ここで、wは定数とする。分割した小ブロックのうち、フレーム間差分で変化領域があると判定された画素を含むブロックについて、前フレームから現フレームへのオプティカルフローを計算する。たとえば、変化領域が図7に示されるものの場合、図8に示す太線のブロックBLについてオプティカルフローを計算する。   Next, in step S12, the optical flow extraction divides the input image of the previous frame into small blocks having a fixed size of 2 × w on a side. Here, w is a constant. Among the divided small blocks, an optical flow from the previous frame to the current frame is calculated for a block including a pixel that is determined to have a change area due to an inter-frame difference. For example, when the change region is as shown in FIG. 7, the optical flow is calculated for the thick block BL shown in FIG.

前フレームの小ブロックが、たとえば、図9に示したものである場合には、図9における一辺が2×SWの現フレームの矩形領域を探索範囲として、オプティカルフローの計算を行なう。具体的には、時刻t−1のi番目のブロックの中心のピクセルを

Figure 2008071172
When the small block of the previous frame is, for example, as shown in FIG. 9, the optical flow is calculated using the rectangular area of the current frame whose side is 2 × SW in FIG. 9 as a search range. Specifically, the pixel at the center of the i-th block at time t−1 is
Figure 2008071172

として、SADの値

Figure 2008071172
As the value of SAD
Figure 2008071172

が最小となるような(dx,dy)の値を求める。時刻t−1のピクセル

Figure 2008071172
The value of (dx, dy) that minimizes is obtained. Pixel at time t-1
Figure 2008071172

に時刻tのピクセル

Figure 2008071172
Pixel at time t
Figure 2008071172

が対応すると判定する。 Is determined to correspond.

各ブロックについて、オプティカルフローを計算した例を図10に示す。図10では、前フレームの画像上に、前フレームと現フレームとで対応する画素同士を結んだ線としてオプティカルフローを示している。   An example in which the optical flow is calculated for each block is shown in FIG. In FIG. 10, the optical flow is shown as a line connecting corresponding pixels in the previous frame and the current frame on the image of the previous frame.

次に、ステップS13の頭部候補領域抽出は、得られたオプティカルフローを、近接し、かつ、移動量が類似しているもの同士が同じグループに属するように、グループに分割する。図11にオプティカルフローをグループに分割した例を示す。得られたグループを構成するオプティカルフローの個数が閾値以下のものは削除する。たとえば、閾値が「2」の場合、図11における背景のノイズ等C,D,E,F,Gは削除される。   Next, the head candidate region extraction in step S13 divides the obtained optical flows into groups so that those close to each other and similar in movement amount belong to the same group. FIG. 11 shows an example in which the optical flow is divided into groups. If the number of optical flows constituting the obtained group is equal to or less than the threshold value, it is deleted. For example, when the threshold value is “2”, background noises C, D, E, F, and G in FIG. 11 are deleted.

次に、残ったグループについて、ペリフェラル特徴PE(x)を計算する。具体的には、点(x,0)から、入力画像をy軸方向にスキャンする。スキャンした線上のオプティカルフローまでの距離で最小のものをPE(x)とする。スキャンした線上に存在するオプティカルフローが存在しない場合には、PE(x)は入力画像のyサイズ(高さ)となる。図12にペリフェラル特徴の具体例を示す。   Next, the peripheral feature PE (x) is calculated for the remaining group. Specifically, the input image is scanned in the y-axis direction from the point (x, 0). Let PE (x) be the minimum distance to the optical flow on the scanned line. If there is no optical flow present on the scanned line, PE (x) is the y size (height) of the input image. FIG. 12 shows a specific example of the peripheral feature.

次に、図13に示すように、ペリフェラル特徴PE(x)の1次微分をPE′(x)とする。1次微分PE(x)で、左側が負のエッジ、右側が正のエッジであり、それらの絶対値が閾値よりも大きく、その間に挟まれた

Figure 2008071172
Next, as shown in FIG. 13, the first derivative of the peripheral feature PE (x) is defined as PE ′ (x). In the first derivative PE (x), the left side is a negative edge and the right side is a positive edge, and their absolute values are larger than the threshold value and are sandwiched between them.
Figure 2008071172

となる範囲を頭頂候補Hとする。たとえば、図13の場合には、I部が左端の負のエッジ、J部が右側の正のエッジであり、K部がその間に挟まれた

Figure 2008071172
The range which becomes is the vertex candidate H. For example, in the case of FIG. 13, the I portion is the leftmost negative edge, the J portion is the right positive edge, and the K portion is sandwiched between them.
Figure 2008071172

の範囲である。 Range.

次に、求めた頭頂候補から頭部候補領域を抽出する。頭部候補領域とは、頭頂候補領域を上辺とするような、高さが頭頂候補の幅(W_TOP)の定数倍(A_TOP)の矩形である。図14に頭部候補領域の具体例を示す。   Next, a head candidate region is extracted from the obtained top candidate. The head candidate area is a rectangle whose height is a constant multiple (A_TOP) of the width (W_TOP) of the top candidate, with the top candidate area as the upper side. FIG. 14 shows a specific example of the head candidate area.

次に、ステップS14の顔パターン検出は、得られた頭部候補領域について顔パターンの検出を行なう。ただし、顔初期検出処理で既に抽出されおり、顔追跡処理で追跡対象となっているものについては除外する。   Next, in the face pattern detection in step S14, a face pattern is detected for the obtained head candidate region. However, those that have already been extracted in the face initial detection process and are tracked in the face tracking process are excluded.

顔パターン検出の手法としては、たとえば、文献(三田,金子,堀,“微小な差異を含む画像の認証に適した空間差分確率テンプレートの提案”,第9会画像センシングシンポジウム講演論文集,SSII03,2003)に記載された手法を用いることができる。これは、事前に顔の学習パターンから顔検出辞書パターンを作成しておき、顔検出辞書パターンと高い類似度を持つ領域を入力画像中から探す手法である。   Examples of face pattern detection methods include literature (Mita, Kaneko, Hori, “Proposal of Spatial Difference Probability Template Suitable for Authentication of Images Containing Minute Differences”, Proceedings of the 9th Meeting of Image Sensing Symposium, SSII03, The technique described in 2003) can be used. This is a technique in which a face detection dictionary pattern is created in advance from a face learning pattern, and an area having a high similarity with the face detection dictionary pattern is searched from an input image.

顔検出辞書パターンは、たとえば、大量の正面向きの顔画像から作成する。このように作成した顔検出辞書パターンを顔検出辞書パターン格納部13に格納しておき、顔パターン検出の際に用いることで、ほぼ正面向きの顔候補領域が検出される。検出された顔候補領域は、図15に示すように正方形の顔候補矩形として表す。図15において、符号Lは頭部候補領域を示し、符号Nは顔候補領域を示している。   For example, the face detection dictionary pattern is created from a large number of face images facing the front. The face detection dictionary pattern created in this way is stored in the face detection dictionary pattern storage unit 13 and is used when detecting the face pattern, so that a face candidate region facing almost front is detected. The detected face candidate area is represented as a square face candidate rectangle as shown in FIG. In FIG. 15, a symbol L indicates a head candidate region, and a symbol N indicates a face candidate region.

次に、ステップS3の顔追跡処理について詳細に説明する。顔追跡処理は、前フレームの顔候補領域から現フレームでの顔候補領域を得るもので、図16に顔追跡処理の流れを示す。   Next, the face tracking process in step S3 will be described in detail. In the face tracking process, the face candidate area in the current frame is obtained from the face candidate area in the previous frame. FIG. 16 shows the flow of the face tracking process.

まず、前フレームの顔候補領域について、オプティカルフローを抽出する(ステップS21)。具体的には、前フレームの顔候補領域を小ブロックに分割し、各ブロックが現フレームでどの位置にあるかをテンプレートマッチング等を用いて計算する。図17に顔候補領域のオプティカルフローの例を示す。   First, an optical flow is extracted for the face candidate area of the previous frame (step S21). Specifically, the face candidate area of the previous frame is divided into small blocks, and the position of each block in the current frame is calculated using template matching or the like. FIG. 17 shows an example of the optical flow of the face candidate area.

前述した顔初期検出処理(ステップS2)におけるオプティカルフロー抽出は、変化領域を大まかに絞り込むことが目的である。これに対して、顔追跡処理(ステップS3)でのオプティカルフローの抽出では、顔の移動を計算することが目的であるため、顔初期検出処理におけるオプティカルフロー抽出よりも精度が必要となる。   The purpose of the optical flow extraction in the face initial detection process (step S2) described above is to roughly narrow the change region. On the other hand, in the optical flow extraction in the face tracking process (step S3), since the purpose is to calculate the movement of the face, the accuracy is required more than the optical flow extraction in the face initial detection process.

そこで、顔追跡処理でのオプティカルフローの抽出では、顔初期検出処理におけるオプティカルフロー抽出処理と異なる小ブロックの分割の方法を用いてもよい。たとえば、顔追跡処理でのオプティカルフローの計算では、より多くのオプティカルフローを抽出するため、隣り合う小ブロック同士が互いにオーバーラップするように、小ブロックを配置してもよい。これにより、顔追跡処理の精度が向上する。   Therefore, in the extraction of the optical flow in the face tracking process, a small block division method different from the optical flow extraction process in the face initial detection process may be used. For example, in the calculation of the optical flow in the face tracking process, in order to extract more optical flows, the small blocks may be arranged so that the adjacent small blocks overlap each other. This improves the accuracy of the face tracking process.

ここで、前フレームの顔候補領域内の小ブロックの中心点を

Figure 2008071172
Here, the center point of the small block in the face candidate area of the previous frame is
Figure 2008071172

とし、中心点

Figure 2008071172
And the center point
Figure 2008071172

に対応する現フレームの点を

Figure 2008071172
The point of the current frame corresponding to
Figure 2008071172

とする。 And

次に、顔変形パラメータ計算を行なう(ステップS22)。これは、

Figure 2008071172
Next, face deformation parameter calculation is performed (step S22). this is,
Figure 2008071172

に移す変換式を計算する。たとえば、変換式として、

Figure 2008071172
The conversion formula to be transferred to is calculated. For example, as a conversion formula:
Figure 2008071172

を用いる。これは、x軸とy軸それぞれのスケーリングと平行移動の変換式である。 Is used. This is a conversion formula for scaling and translation of the x-axis and y-axis, respectively.

次に、回帰分析を用いて、Ax,Bx,Ay,Byを予測し、得られた値をA′x,B′x,A′y,B′yとする。

Figure 2008071172
Next, Ax, Bx, Ay, By is predicted using regression analysis, and the obtained values are set as A′x, B′x, A′y, B′y.
Figure 2008071172

数15の値が共にあらかじめ定められた閾値よりも小さな場合には、顔変形パラメータの計算が得られたとして(ステップS23)、前フレームの顔候補領域の外接矩形Rt−1から現フレームの顔候補領域の外接矩形Rを計算して、現フレームの顔候補領域の位置とし(ステップS24)、処理を終了する。 If both values of Expression 15 are smaller than a predetermined threshold, calculation of face deformation parameters is obtained (step S23), and the circumscribed rectangle R t-1 of the face candidate area of the previous frame is used to calculate the current frame. calculate the circumscribed rectangle R t of the face candidate region, and the position of the face candidate region of the current frame (step S24), and ends the process.

t−1の左上と右下の点の座標をそれぞれ、(LEFTt−1,TOPt−1)、(RIGHTt−1,BOTTOMt−1とし、Rの左上と右下の点の座標をそれぞれ、(LEFT,TOP)、(RIGHT,BOTTOM)とすると、

Figure 2008071172
R t-1 of the upper left and the coordinates of the points of the lower right, respectively, (LEFT t-1, TOP t-1), (RIGHT t-1, and BOTTOM t-1, of the upper left point and the lower right of the R t If the coordinates are (LEFT t , TOP t ) and (RIGHT t , BOTTOM t ), respectively,
Figure 2008071172

のように変換される。 Is converted as follows.

変形パラメータの計算に失敗した場合(ステップS23)、つまり、数15の値が共にあらかじめ定められた閾値以上の場合には、前フレームの顔候補領域を一定サイズ拡張した領域について顔パターン検出を行なう(ステップS25)。顔パターンにより顔候補領域が検出されれば(ステップS26)、それを現フレームでの顔候補領域とし(ステップS27)、処理を終了する。顔パターンにより顔候補領域が検出されなければ(ステップS26)、前フレームの顔候補領域を現フレームの顔候補領域とする(ステップS28)。   If the calculation of the deformation parameter has failed (step S23), that is, if both of the values of Formula 15 are equal to or greater than a predetermined threshold, face pattern detection is performed for an area obtained by extending the face candidate area of the previous frame by a certain size. (Step S25). If a face candidate area is detected from the face pattern (step S26), it is set as a face candidate area in the current frame (step S27), and the process is terminated. If the face candidate area is not detected by the face pattern (step S26), the face candidate area of the previous frame is set as the face candidate area of the current frame (step S28).

次に、連続で前フレームの顔候補領域を現フレームの顔候補領域としたフレーム数が所定の閾値T_NOT_DETECTED以上か否かをチェックし(ステップS29)、閾値T_NOT_DETECTED以上でない場合は処理を終了し、閾値T_NOT_DETECTED以上の場合には、人物がカメラの視野からいなくなったとみなして、顔の追跡を中止し(ステップS30)、処理を終了する。   Next, it is checked whether or not the number of frames in which the face candidate area of the previous frame is continuously the face candidate area of the current frame is greater than or equal to a predetermined threshold T_NOT_DETECTED (step S29), and if not greater than the threshold T_NOT_DETECTED, the process ends. If it is equal to or greater than the threshold value T_NOT_DETECTED, it is assumed that the person is no longer in the field of view of the camera, face tracking is stopped (step S30), and the process is terminated.

顔向き判定部14は、追跡中の顔の向きがカメラ11に対して正面を向いているか否かを判定する処理である。図18に顔向きと顔候補領域の外接矩形の例を示す。顔の初期検出において検出される顔領域は、図18(e)のような正面向きの顔である。これは、顔パターンの辞書として正面向きの顔の辞書を用いているからである。検出された正面向きの顔に対して、図18(e)のような正方形の矩形を与え、顔候補領域として追跡が行なわれる。顔が図18(e)のように正面向きであれば、顔は正方形のままであり、外接矩形の幅と高さはほぼ等しい値となる。しかし、図18(d)や(f)のように横向きになると、外接矩形の幅に対して高さのほうが大きくなる。同様に、図19(b)や(h)のように、上または下向きになると、外接矩形の高さに対して、幅のほうが長くなる。   The face orientation determination unit 14 is a process of determining whether or not the face orientation being tracked is facing the front with respect to the camera 11. FIG. 18 shows an example of a circumscribed rectangle of the face direction and the face candidate area. The face area detected in the initial face detection is a face facing front as shown in FIG. This is because a face-oriented dictionary is used as the face pattern dictionary. A square rectangle as shown in FIG. 18E is given to the detected front-facing face, and tracking is performed as a face candidate area. If the face is front-facing as shown in FIG. 18E, the face remains square, and the width and height of the circumscribed rectangle are approximately equal. However, as shown in FIGS. 18D and 18F, the height becomes larger than the width of the circumscribed rectangle. Similarly, as shown in FIGS. 19B and 19H, the width becomes longer with respect to the height of the circumscribed rectangle when facing upward or downward.

そこで、顔向き判定部14では、図19に示すフローチャートにしたがった処理を行なう。まず、顔候補領域の外接矩形の縦と横との比に基づいて顔向きの判定を行なう。具体的には、顔候補領域の外接矩形の幅と高さのうち、長い方の長さをlen_long、短い方の長さをlen_shortとする(ステップS41)。

Figure 2008071172
Accordingly, the face orientation determination unit 14 performs processing according to the flowchart shown in FIG. First, the orientation of the face is determined based on the ratio between the length and width of the circumscribed rectangle of the face candidate area. Specifically, among the width and height of the circumscribed rectangle of the face candidate region, the longer length is len_long and the shorter length is len_short (step S41).
Figure 2008071172

のとき(ステップS42)、顔の向きが正面でないと判定し(ステップS43)、処理を終了する。ここで、T_lenは「1」よりも大きな閾値とする。

Figure 2008071172
(Step S42), it is determined that the face is not facing the front (Step S43), and the process is terminated. Here, T_len is a threshold value larger than “1”.
Figure 2008071172

が成立しない場合、つまり、顔候補領域の外接矩形の縦横比が「1」に近い場合は、図18(e)のように顔がカメラに対して正面向きである場合だけでなく、図18(a)、(c)、(g)、(i)のように斜め上、もしくは、斜め下を向いている場合もある。 18 is not satisfied, that is, when the aspect ratio of the circumscribed rectangle of the face candidate region is close to “1”, not only when the face is facing the front as shown in FIG. In some cases, it may face diagonally upward or diagonally downward as in (a), (c), (g), and (i).

そこで、

Figure 2008071172
Therefore,
Figure 2008071172

が成立しない場合(ステップS42)、顔パターン検出を、顔候補領域に対して適用し、顔検出辞書パターンとの類似度を計算する(ステップS44)。得られた類似度が所定の閾値T_simよりも小さい場合(ステップS45)、顔の向きが正面でないと判定し(ステップS43)、処理を終了する。得られた類似度が所定の閾値T_simよりも大きい場合(ステップS45)、顔が正面向きであると判定し(ステップS46)、処理を終了する。 If this is not true (step S42), face pattern detection is applied to the face candidate area, and the similarity to the face detection dictionary pattern is calculated (step S44). When the obtained similarity is smaller than the predetermined threshold T_sim (step S45), it is determined that the face direction is not the front (step S43), and the process is terminated. When the obtained similarity is larger than the predetermined threshold T_sim (step S45), it is determined that the face is facing the front (step S46), and the process ends.

顔認証部16は、顔検出追跡部12で得られた顔画像について、顔認証辞書15にあらかじめ登録された人物か否かの判定を行なう。具体的には、たとえば、特開2001−266152号公報に記載されているように、あらかじめ登録者(歩行者)の顔画像を用意し、その顔画像から抽出した固有の特徴情報を辞書情報として顔認識辞書15に記憶(登録)しておく。そして、顔検出追跡部12で得られた顔領域の画像(特徴情報)と顔認識辞書15にあらかじめ登録された辞書情報とを照合して両者の類似度を求め、求めた類似度があらかじめ設定された閾値以上である場合、当該歩行者Mはあらかじめ登録された人物であると判定し、求めた類似度が閾値以上でない場合、当該歩行者Mはあらかじめ登録された人物でないと判定する。   The face authentication unit 16 determines whether the face image obtained by the face detection tracking unit 12 is a person registered in the face authentication dictionary 15 in advance. Specifically, for example, as described in Japanese Patent Application Laid-Open No. 2001-266152, a registrant (pedestrian) face image is prepared in advance, and unique feature information extracted from the face image is used as dictionary information. It is stored (registered) in the face recognition dictionary 15. Then, the face area image (feature information) obtained by the face detection / tracking unit 12 and the dictionary information registered in advance in the face recognition dictionary 15 are collated to obtain a similarity between them, and the obtained similarity is set in advance. If it is equal to or greater than the threshold value, it is determined that the pedestrian M is a pre-registered person. If the obtained similarity is not equal to or greater than the threshold value, the pedestrian M is determined not to be a pre-registered person.

ゲート制御部17は、図2のように制御する対象がドア4の場合は、表示認証制御部20からの通過可能信号がオンのとき開錠を行ない、通過可能信号がオフのときは施錠状態にする。なお、制御する対象がゲート装置の場合には、通行可能信号がオフにもかかわらず、ゲート装置を通過したときに警告音を出したり、あるいは、ゲート装置に設けられているフラッパを閉じ、通行を阻止したりする。具体的には、図20に示すフローチャートのように制御を行なう。   When the object to be controlled is the door 4 as shown in FIG. 2, the gate control unit 17 unlocks when the passable signal from the display authentication control unit 20 is on, and locks when the passable signal is off. To. In addition, when the object to be controlled is a gate device, a warning sound is emitted when it passes through the gate device even when the pass signal is off, or the flapper provided in the gate device is closed and Or stop. Specifically, control is performed as shown in the flowchart of FIG.

表示認証制御部20は、本装置全体の制御を行なうもので、処理の流れを図21のフローチャートに示す。以下、図21のフローチャートに基づいて処理の流れを説明する。   The display authentication control unit 20 controls the entire apparatus, and the process flow is shown in the flowchart of FIG. Hereinafter, the flow of processing will be described based on the flowchart of FIG.

まず、顔検出追跡部12の処理結果を取得し(ステップS51)、顔向き誘導処理(後で詳細を説明する)を行なう(ステップS52)。次に、認証対象の人物(歩行者M)が通行帯1のd地点よりもカメラ11に近い地点にいるか否かをチェックし(ステップS53)、歩行者Mがd地点よりもカメラ11に近い地点にいない場合、カメラ11から得られる画像を表示部18に表示して(ステップS54)、ステップS51に戻り、上記同様な動作を繰り返す。   First, the processing result of the face detection / tracking unit 12 is acquired (step S51), and a face orientation guidance process (details will be described later) is performed (step S52). Next, it is checked whether or not the person to be authenticated (pedestrian M) is closer to the camera 11 than the point d in the traffic zone 1 (step S53), and the pedestrian M is closer to the camera 11 than the point d. If not, the image obtained from the camera 11 is displayed on the display unit 18 (step S54), the process returns to step S51, and the same operation as described above is repeated.

ステップS53において、顔検出追跡部12で顔領域が検出され、当該顔領域が検出された歩行者Mがd地点よりもカメラ11に近い地点にいる場合、その歩行者Mを顔認証対象として、当該歩行者Mの存在位置に応じて表示部18の表示内容を変える。歩行者の存在位置は、検出した顔候補領域のサイズから予測する。   In step S53, when the face area is detected by the face detection and tracking unit 12, and the pedestrian M from which the face area is detected is located closer to the camera 11 than the point d, the pedestrian M is set as a face authentication target. The display content of the display unit 18 is changed according to the location of the pedestrian M. The location of the pedestrian is predicted from the size of the detected face candidate area.

すなわち、ステップS53において、顔領域が検出された歩行者Mがd地点よりもカメラ11に近い地点にいる場合、当該歩行者Mは通行帯1のd地点とc地点との間にいるか否かをチェックし(ステップS55)、歩行者Mがd地点とc地点との間にいる場合には、図3(a)に示すように、表示部18にカメラ11から得られる全体の画像31を表示するとともに、このとき検出された顔領域を示す枠32を表示して(ステップS56)、ステップS51に戻り、上記同様な動作を繰り返す。ここで、入力画像は、左右鏡像反転して表示するものとする。   That is, in step S53, when the pedestrian M from which the face area is detected is located closer to the camera 11 than the point d, whether the pedestrian M is between the points d and c in the traffic zone 1 or not. (Step S55), and when the pedestrian M is between the point d and the point c, the entire image 31 obtained from the camera 11 is displayed on the display unit 18 as shown in FIG. At the same time, the frame 32 indicating the face area detected at this time is displayed (step S56), and the process returns to step S51 to repeat the same operation as described above. Here, the input image is displayed with the left and right mirror images reversed.

ステップS55におけるチェックの結果、歩行者Mがd地点とc地点との間にいない場合、当該歩行者Mは通行帯1のc地点とb地点との間にいるか否かをチェックし(ステップS57)、歩行者Mがc地点とb地点との間にいる場合、図3(b)に示すように、表示部18に検出した顔画像を拡大して表示し(ステップS58)、ステップS51に戻り、上記同様な動作を繰り返す。ここで、顔画像の拡大表示(ズーム表示)は、左右鏡像反転して表示する。   If the result of the check in step S55 is that the pedestrian M is not between the points d and c, it is checked whether or not the pedestrian M is between the points c and b in the traffic zone 1 (step S57). ) When the pedestrian M is between the points c and b, as shown in FIG. 3B, the detected face image is enlarged and displayed on the display unit 18 (step S58). Return and repeat the same operation as above. Here, the enlarged display (zoom display) of the face image is displayed with the left and right mirror images reversed.

ステップS55におけるチェックの結果、歩行者Mがc地点とb地点との間にいない場合、顔検出追跡部12で検出された認証対象の正面向きの顏画像が、認証に最低限必要な一定枚数(N_IMG枚)以上収集できたか否かをチェックする(ステップS59)。このチェックの結果、認証対象の顏画像が一定枚数以上収集できない場合、図3(e)に示すように、表示部18に認証に失敗したことを表わすメッセージ「認証NG」を表示して(ステップS60)、ステップS51に戻り、上記同様な動作を繰り返す。   If the result of the check in step S55 is that the pedestrian M is not between the points c and b, the number of face-to-face images to be authenticated detected by the face detection and tracking unit 12 is the minimum number required for authentication. It is checked whether or not (N_IMG sheets) or more have been collected (step S59). As a result of this check, if a certain number or more of the images to be authenticated cannot be collected, a message “authentication NG” indicating that the authentication has failed is displayed on the display unit 18 as shown in FIG. S60), returning to step S51, the same operation as described above is repeated.

ステップS59におけるチェックの結果、認証対象の顏画像が一定枚数以上収集できた場合、顔検出追跡部12で得られた顔画像の中から正面向き以外の顔画像を除去し(ステップS61)、残った正面向きの顔画像のみを顏認証部16へ送り、顔認証処理を開始する(ステップS62)。このとき、図3(c)に示すように、表示部18に「認証中」のメッセージを表示し(ステップS63)、顏認証処理が終了するまで待機する(ステップS64)。   As a result of the check in step S59, when a certain number or more of the authentication target saddle images can be collected, the face images other than those facing the front are removed from the face images obtained by the face detection tracking unit 12 (step S61). Only the face image facing the front is sent to the eyelid authentication unit 16, and the face authentication process is started (step S62). At this time, as shown in FIG. 3C, a message “authenticating” is displayed on the display unit 18 (step S63), and the process waits until the wrinkle authentication process is completed (step S64).

顏認証処理が終了すると、認証結果が成功か失敗かをチェックし(ステップS65)、認証結果が成功であれば、図3(d)に示すように、表示部18に「認証OK 通過して下さい」というメッセージを表示するとともに(ステップS66)、ゲート制御部17への通行可能信号を一定時間オンにする(ステップS67)。これにより、歩行者Mはドア4を通過できる。   顏 When the authentication process is completed, it is checked whether the authentication result is successful or unsuccessful (step S65). If the authentication result is successful, as shown in FIG. "Please" message is displayed (step S66), and a signal allowing passage to the gate control unit 17 is turned on for a predetermined time (step S67). Thereby, the pedestrian M can pass through the door 4.

次に、通行可能信号をオンにしてから一定時間経過するか、あるいは、当該歩行者Mの通行完了信号をゲート制御部17から受信するまで待機する(ステップS68)。通行可能信号をオンにしてから一定時間経過するか、あるいは、当該歩行者Mの通行完了信号をゲート制御部17から受信すると、ステップS51に戻り、上記同様な動作を繰り返す。   Next, it waits until a certain time elapses after turning on the passable signal, or until a pass completion signal of the pedestrian M is received from the gate control unit 17 (step S68). When a certain period of time elapses after the passable signal is turned on, or when a pass completion signal of the pedestrian M is received from the gate control unit 17, the process returns to step S51, and the same operation is repeated.

ステップS65におけるチェックの結果、認証結果が失敗であれば、図3(e)に示すように、表示部18に「認証NG」というメッセージを一定時間表示して(ステップS69)、ステップS51に戻り、上記同様な動作を繰り返す。   As a result of the check in step S65, if the authentication result is unsuccessful, as shown in FIG. 3E, a message “authentication NG” is displayed on the display unit 18 for a certain period of time (step S69), and the process returns to step S51. The same operation as above is repeated.

図22は、ステップS52における顔向き誘導処理の流れを示しており、以下、それについて説明する。顔向き誘導処理は、顔向き判定部14の判定結果に応じて行なわれる。すなわち、まず、顔向き判定部14の判定結果を取得し(ステップS71)、歩行者Mの顔向きが正面か否かをチェックする(ステップS72)。このチェックの結果、顔向きが正面であると判定された場合は当該処理を終了し、顔向きが正面でないと判定された場合、当該歩行者Mに対し、スピーカ19から音声で「表示部をみてください」などの音声案内を行ない(ステップS73)、当該処理を終了する。   FIG. 22 shows the flow of the face direction guiding process in step S52, which will be described below. The face direction guidance process is performed according to the determination result of the face direction determination unit 14. That is, first, the determination result of the face direction determination unit 14 is acquired (step S71), and it is checked whether or not the pedestrian M has the front direction (step S72). As a result of this check, when it is determined that the face direction is the front, the process is terminated. When it is determined that the face direction is not the front, Please give a voice guidance such as “Please see” (step S73), and the process is terminated.

図23は、ステップS58におけるズーム表示処理の流れを示しており、以下、それについて説明する。まず、カメラ11から得られる入力画像から、検出された顔候補領域の画像(顔画像)を切り出して表示部18に表示する(ステップS81)。次に、表示された顔画像の頭部位置が入力画像の端に近い位置にあるか否かをチェックし(ステップS82)、頭部位置が入力画像の端に近い位置にない場合は当該処理を終了し、頭部位置が入力画像の端に近い位置にある場合、入力画像の端に近い側についてズーム表示画像の端を強調表示せしめ(ステップS83)、当該処理を終了する。   FIG. 23 shows the flow of zoom display processing in step S58, which will be described below. First, an image (face image) of the detected face candidate area is cut out from the input image obtained from the camera 11 and displayed on the display unit 18 (step S81). Next, it is checked whether or not the head position of the displayed face image is close to the end of the input image (step S82). If the head position is not close to the end of the input image, the processing is performed. When the head position is close to the end of the input image, the end of the zoom display image is highlighted on the side close to the end of the input image (step S83), and the process ends.

このように、ズーム表示処理では、歩行者Mの顔画像が入力画像からはみ出しそうになったとき、すなわち、顔画像がカメラ11の撮像視野から外れそうになったとき、それを検出して、たとえば、図24、図25に示すように、はみ出しそうな側について端部を強調表示する。
図24では、顔画像が入力画像中の左端に近いため、ズーム表示において、同じ側の端部を強調表示している(符号41aの部分)。ズーム画像は鏡像反転表示されるため、図24では右側が強調表示されている。また、図25では、顔画像が入力画像中の上端に近いため、ズーム表示画像において、同じ側の端部(上端)を強調表示している(符号41bの部分)。なお、図24、図25において、(a)は入力画像を示し、(b)は当該入力画像に対するズーム表示画像を示している。
As described above, in the zoom display process, when the face image of the pedestrian M is likely to protrude from the input image, that is, when the face image is likely to be out of the imaging field of view of the camera 11, it is detected, For example, as shown in FIGS. 24 and 25, the end portion is highlighted on the side that is likely to protrude.
In FIG. 24, since the face image is close to the left end in the input image, the end on the same side is highlighted in the zoom display (portion 41a). Since the zoom image is mirror-inverted, the right side is highlighted in FIG. In FIG. 25, since the face image is close to the upper end in the input image, the end (upper end) on the same side is highlighted in the zoom display image (the portion denoted by reference numeral 41b). 24 and 25, (a) shows an input image, and (b) shows a zoom display image corresponding to the input image.

ここに、ズーム表示画像の端部を強調表示する方法としては、たとえば、図24、図25に示すように、強調表示部41a,41bを帯状にし、かつ、他の部分とは異なる色で表示する方法、あるいは、さらに強調表示部41a,41bを点滅させる方法、あるいは、強調表示部41a,41bを絵記号などで表示する方法が考えられる。要は、他の部分と区別できるように強調表示すればよい。   Here, as a method of highlighting the end of the zoom display image, for example, as shown in FIGS. 24 and 25, the highlight display portions 41a and 41b are formed in a strip shape and displayed in a color different from other portions. Or a method of blinking the highlighting portions 41a and 41b, or a method of displaying the highlighting portions 41a and 41b with pictorial symbols or the like. In short, it should be highlighted so that it can be distinguished from other parts.

このように、外枠(端部)を強調表示するのは、認証対象の歩行者Mが、入力画像中でどの位置にいるか、自分自身で把握できるようにするためである。ズーム画像表示中には、認証対象の歩行者Mの顔しか映らないため、カメラ11の視野から外れそうになったことを、強調表示により歩行者Mは気づくことができる。歩行者Mは、これにより歩行の速度を遅くしたり、カメラ11側に寄ったりして、カメラ11で顔が撮影されやすい位置に自ら移動することができる。   Thus, the outer frame (edge) is highlighted so that the position of the authentication target pedestrian M in the input image can be grasped by himself / herself. While the zoom image is displayed, only the face of the authentication target pedestrian M is shown, so that the pedestrian M can notice by the highlighted display that he / she is likely to be out of the field of view of the camera 11. Accordingly, the pedestrian M can move to a position where the face can be easily photographed by the camera 11 by slowing down the walking speed or approaching the camera 11 side.

以上説明したように上記実施の形態によれば、歩行者の顔がカメラの視野から外れそうになったとき、視野から外れそうになった側についてズーム表示画像の端部を強調表示することにより、顔認証性能が向上する。具体的には、認証対象の歩行者は、自分自身、カメラの視野外に出そうか否かを確認することが可能になり、顔認証が開始していないにも関わらず、カメラの視野外に出そうになったときに歩行の方向を変えたり、歩行の速度を遅くしたりして、カメラの視野から外れないように対処することにより、顔認証に必要な枚数の顔画像が得られるようになる。これにより、顔認証性能が向上する。   As described above, according to the above embodiment, when the pedestrian's face is likely to be out of the field of view of the camera, the end of the zoom display image is highlighted on the side that is likely to be out of the field of view. , Face recognition performance is improved. Specifically, the pedestrian to be authenticated can confirm whether or not he / she is going to go out of the field of view of the camera himself / herself. The number of face images required for face authentication can be obtained by changing the direction of walking or slowing down the walking speed so that it does not deviate from the camera's field of view. It becomes like this. Thereby, face authentication performance improves.

また、あらかじめ正面向きの顔画像から作成した顔検出辞書パターンを用いて顔初期検出を行ない、オプティカルフローにより顔追跡を行ない、顔候補領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき、あるいは、上記値が閾値以下で、かつ、顔検出辞書パターンとの類似度が閾値以下のとき、顔が正面向きではないと判定することにより、顔向き判定の精度が向上する。具体的には、たとえば、照明光が暗く、顔の部品を検出してから顔向きを判定する方法で、顔向きの判定ができない場合でも、本発明は、顔の部品検出を行なわないため、顔向きの判定ができる。これにより、顔向き誘導機能処理が機能し、歩行者の正面顔が得やすくなる。その結果、顔認証性能が向上する。   In addition, the face detection dictionary pattern created from the face image facing in front is used for initial face detection, the face is tracked by optical flow, and the shorter length is set by the height and width of the circumscribed rectangle of the face candidate area. When the value divided by the longer length is greater than or equal to the threshold, or when the above value is less than or equal to the threshold and the similarity to the face detection dictionary pattern is less than or equal to the threshold, it is determined that the face is not facing front As a result, the accuracy of the face orientation determination is improved. Specifically, for example, even if the face direction cannot be determined by the method of determining the face direction after the illumination light is dark and the face part is detected, the present invention does not detect the face part. Face orientation can be determined. Thereby, face direction guidance function processing functions and it becomes easy to obtain a pedestrian's front face. As a result, face recognition performance is improved.

さらに、入力画像系列に対してフレーム間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出を行ない、得られたオプティカルフローを位置が近く、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピングし、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについて、ペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を頭頂候補として抽出することにより、顔領域の検出遅れがなくなり、その結果、顔認証に必要な顔画像の枚数が得られない可能性が減少し、顔認証性能が向上する。   Further, the inter-frame difference is calculated for the input image sequence to detect the change region, optical flow extraction is performed for the obtained change region, the obtained optical flow is close in position, and the flow direction and size are Grouping so that near optical flows are in the same group, and extracting the peripheral features for the group in which the number of optical flows constituting the obtained group is larger than the threshold, the first derivative of the obtained peripheral feature value is positive. And a negative first-order differential value sandwiched between positions having negative values is extracted as a candidate for the top of the head, so that there is no detection delay of the face area, and as a result, a face image necessary for face authentication The possibility that the number of images cannot be obtained is reduced and the face recognition performance is improved.

本発明では、カメラに対して近付く歩行者が検出対象であるため、変化がある領域に絞って顔パターン検出を行なえばよい。そこで、本発明では、入力画像から変化領域を検出し、検出した変化領域から更に頭部候補を検出し、得られた頭部候補領域についてのみ、顔パターン検出を毎フレーム行なうことで、処理速度が遅くなることなく、毎フレーム顔パターン検出が行なえる。これにより、顔の検出遅れがなくなる。   In the present invention, since a pedestrian approaching the camera is a detection target, face pattern detection may be performed by narrowing down to a region where there is a change. Therefore, in the present invention, a change area is detected from the input image, a head candidate is further detected from the detected change area, and face pattern detection is performed for each frame only for the obtained head candidate area, thereby processing speed. The face pattern can be detected every frame without slowing down. This eliminates the face detection delay.

本発明の実施の形態に係る顔認証装置が適用される入退場管理装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the entrance / exit management apparatus with which the face authentication apparatus which concerns on embodiment of this invention is applied. 入退場管理装置の設置例を説明する模式図。The schematic diagram explaining the example of installation of an entrance / exit management apparatus. 表示部における表示画面例を示す模式図。The schematic diagram which shows the example of a display screen in a display part. カメラから入力される入力画像系列の例を示す模式図。The schematic diagram which shows the example of the input image series input from a camera. 顔検出追跡部の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a face detection tracking part. 顔初期検出処理の流れを説明するフローチャート。The flowchart explaining the flow of a face initial detection process. 顔初期検出処理におけるフレーム間差分を説明するための図。The figure for demonstrating the difference between frames in a face initial detection process. 顔初期検出処理におけるオプティカルフローの計算を説明するための図。The figure for demonstrating the calculation of the optical flow in a face initial detection process. 顔初期検出処理におけるオプティカルフローの計算を説明するための図。The figure for demonstrating the calculation of the optical flow in a face initial detection process. 顔初期検出処理におけるオプティカルフローの例を示す図。The figure which shows the example of the optical flow in a face initial stage detection process. 顔初期検出処理におけるオプティカルフローのグループ化を説明するための図。The figure for demonstrating grouping of the optical flow in a face initial detection process. 顔初期検出処理におけるペリフェラル特徴の例を示す図。The figure which shows the example of the peripheral characteristic in a face initial stage detection process. 顔初期検出処理においてペリフェラル特徴から頭頂候補を抽出する処理を説明するための図。The figure for demonstrating the process which extracts a vertex candidate from a peripheral feature in a face initial detection process. 顔初期検出処理における頭部候補の例を示す図。The figure which shows the example of the head candidate in a face initial detection process. 顔初期検出処理における顔候補の例を示す図。The figure which shows the example of the face candidate in a face initial detection process. 顔追跡処理の流れを説明するフローチャート。The flowchart explaining the flow of a face tracking process. 顔候補領域についてのオプティカルフローを説明するための図。The figure for demonstrating the optical flow about a face candidate area | region. 顔向き判定部の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a face direction determination part. 顔向きと顔候補領域の外接矩形の例を示す図。The figure which shows the example of the circumscribed rectangle of face direction and a face candidate area | region. ゲート制御部の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a gate control part. 表示認証制御部の処理の流れを説明するフローチャート。The flowchart explaining the flow of a process of a display authentication control part. 顔向き誘導処理の流れを説明するフローチャート。The flowchart explaining the flow of a face direction guidance process. ズーム表示処理の流れを説明するフローチャート。The flowchart explaining the flow of a zoom display process. 顔がカメラの視野外になりそうなときのズーム表示画像の第1の例を示す模式図。The schematic diagram which shows the 1st example of a zoom display image when a face is likely to become out of the visual field of a camera. 顔がカメラの視野外になりそうなときのズーム表示画像の第2の例を示す模式図。The schematic diagram which shows the 2nd example of a zoom display image when a face is likely to become out of the visual field of a camera.

符号の説明Explanation of symbols

M…歩行者、1…通行帯、2…入退場対象エリア(部屋や施設等)、3…入口、4…ドア(入退場用ゲート)、11…ビデオカメラ(撮像手段)、12…顔検出追跡部(顔検出手段)、13…顔検出辞書パターン格納部、14…顔向き判定部(顔向き判定手段)、15…顔認証辞書(辞書記憶手段)、16…顔認証部(認証手段)、17…ゲート制御部(ゲート制御手段)、18…表示部(表示手段)、19…スピーカ(案内手段)、20…表示認証制御部(制御手段)、41a,41b…強調表示部。   M ... Pedestrian, 1 ... Traffic band, 2 ... Entrance / exit area (room, facility, etc.), 3 ... Entrance, 4 ... Door (entrance / exit gate), 11 ... Video camera (imaging means), 12 ... Face detection Tracking unit (face detection unit), 13 ... Face detection dictionary pattern storage unit, 14 ... Face direction determination unit (face direction determination unit), 15 ... Face authentication dictionary (dictionary storage unit), 16 ... Face authentication unit (authentication unit) , 17... Gate control section (gate control means), 18... Display section (display means), 19. Speaker (guide means), 20... Display authentication control section (control means), 41 a and 41 b.

Claims (15)

特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、
前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
前記特定の位置の近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、
この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段と、
を具備したことを特徴とする顔認証装置。
A face authentication device for performing face authentication of a person moving toward a specific position,
An imaging unit that is provided between the moving person and a specific position and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Authentication means for determining whether the person is a pre-registered person by collating an image of the face area detected by the face detection means with pre-registered dictionary information;
Display means provided in the vicinity of the specific position and displaying an enlarged image of the face area detected by the face detection means for the moving person;
It is detected that the image of the face area displayed by the display means is likely to deviate from the imaging visual field of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging visual field. Display control means for controlling the display means,
A face authentication apparatus comprising:
前記顔検出手段は、前記撮像手段により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする請求項1記載の顔認証装置。   The face detection means calculates inter-image differences for a plurality of images captured by the imaging means, detects a change area, performs optical flow extraction processing on the obtained change area, and obtains the obtained optical flow Grouping processing is performed so that optical flows that are close in position and close to the flow direction and size are in the same group. A range in which the first derivative value between the positions where the first derivative of the obtained peripheral feature value is between positive and negative values is close to “0” is extracted as a candidate for the top of the head. The face authentication apparatus according to claim 1, wherein a face region is detected by detecting a face pattern for the top candidate. 特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、
前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段とを有して構成され、
前記顔検出手段は、前記撮像手段により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする顔認証装置。
A face authentication device for performing face authentication of a person moving toward a specific position,
An imaging unit that is provided between the moving person and a specific position and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Authentication means for determining whether or not the person is a pre-registered person by comparing the image of the face area detected by the face detecting means with pre-registered dictionary information,
The face detection means calculates inter-image differences for a plurality of images captured by the imaging means, detects a change area, performs optical flow extraction processing on the obtained change area, and obtains the obtained optical flow Grouping processing is performed so that optical flows that are close in position and close to the flow direction and size are in the same group. A range in which the first derivative value between the positions where the first derivative of the obtained peripheral feature value is between positive and negative values is close to “0” is extracted as a candidate for the top of the head. A face authentication apparatus for detecting a face region by detecting a face pattern for a top candidate.
特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、
前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、
この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
前記特定の位置の近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、
この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段と、
を具備したことを特徴とする顔認証装置。
A face authentication device for performing face authentication of a person moving toward a specific position,
An imaging unit that is provided between the moving person and a specific position and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Face orientation determination means for determining whether or not the image of the face area detected by the face detection means is front-facing;
Authentication means for determining whether or not the person is a pre-registered person by comparing the image of the face area determined to be front-facing by the face orientation determining means with dictionary information registered in advance;
Display means provided in the vicinity of the specific position and displaying an enlarged image of the face area detected by the face detection means for the moving person;
It is detected that the image of the face area displayed by the display means is likely to deviate from the imaging visual field of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging visual field. Display control means for controlling the display means,
A face authentication apparatus comprising:
前記顔向き判定手段は、前記顔検出手段により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする請求項4記載の顔認証装置。   The face orientation determining means is configured so that when the value obtained by dividing the shorter length by the longer length by the height and width of the circumscribed rectangle of the face area detected by the face detecting means is equal to or greater than a threshold value, the face is facing forward If the value obtained by dividing the shorter length by the longer length is equal to or smaller than a threshold value, face pattern detection is performed on the face area, and face detection created in advance from a face facing front is performed. The similarity with the dictionary pattern is calculated, and when the obtained similarity is less than or equal to the threshold, it is determined that the face is not front-facing, and when the obtained similarity is greater than or equal to the threshold, the face is determined to be front-facing The face authentication apparatus according to claim 4, wherein: 特定の位置に向かって移動する人物の顔認証を行なう顔認証装置であって、
前記移動する人物と特定の位置との間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、
この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段とを有して構成され、
前記顔向き判定手段は、前記顔検出手段により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする顔認証装置。
A face authentication device for performing face authentication of a person moving toward a specific position,
An imaging unit that is provided between the moving person and a specific position and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Face orientation determination means for determining whether or not the image of the face area detected by the face detection means is front-facing;
Authentication means for determining whether or not the person is a pre-registered person by collating an image of the face area determined to be front-facing by the face orientation determining means with dictionary information registered in advance. Configured,
The face orientation determining means is configured so that when the value obtained by dividing the shorter length by the longer length by the height and width of the circumscribed rectangle of the face area detected by the face detecting means is equal to or greater than a threshold value, the face is facing forward If the value obtained by dividing the shorter length by the longer length is equal to or smaller than a threshold value, face pattern detection is performed on the face area, and face detection created in advance from a face facing front is performed. The similarity with the dictionary pattern is calculated, and when the obtained similarity is less than or equal to the threshold, it is determined that the face is not front-facing, and when the obtained similarity is greater than or equal to the threshold, it is determined that the face is front-facing A face authentication apparatus characterized by that.
前記顔向き判定手段により正面向きでないと判定された場合、当該人物に対し前記撮像手段あるいは前記表示手段の方向を向くように案内する案内手段をさらに具備したことを特徴とする請求項1または請求項4記載の顔認証装置。   2. The apparatus according to claim 1, further comprising: a guide unit that guides the person to face the imaging unit or the display unit when the face direction determination unit determines that the face is not front-facing. Item 5. The face authentication device according to Item 4. 特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、
前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、
この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、
この顔検出工程により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程と、
前記特定の位置の近傍に設けられた表示手段により、前記移動する人物に対し前記顔検出工程により検出された顔領域の画像を拡大して表示する表示工程と、
この表示工程により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御工程と、
を具備したことを特徴とする顔認証方法。
A face authentication method for performing face authentication of a person moving toward a specific position,
An imaging step of imaging an image including at least a face of the moving person by an imaging unit provided between the moving person and a specific position;
A face detection step of detecting a face area of the person from the image captured by the imaging step;
An authentication step for determining whether or not the person is a pre-registered person by comparing the image of the face area detected by the face detection step with pre-registered dictionary information;
A display step of enlarging and displaying an image of the face area detected by the face detection step on the moving person by a display means provided in the vicinity of the specific position;
It is detected that the image of the face area displayed by this display step is likely to deviate from the imaging field of view of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging field of view. A display control step for controlling the display means;
A face authentication method comprising:
特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、
前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、
この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、
この顔検出工程により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程とを有して構成され、
前記顔検出工程は、前記撮像工程により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする顔認証方法。
A face authentication method for performing face authentication of a person moving toward a specific position,
An imaging step of imaging an image including at least a face of the moving person by an imaging unit provided between the moving person and a specific position;
A face detection step of detecting a face area of the person from the image captured by the imaging step;
An authentication step of determining whether the person is a pre-registered person by comparing the image of the face area detected by the face detection step with dictionary information registered in advance,
The face detection step calculates an inter-image difference for a plurality of images picked up by the image pickup step, detects a change region, performs an optical flow extraction process on the obtained change region, and obtains the obtained optical flow The grouping process is performed so that optical flows that are close in position and close to the flow direction and size are in the same group, and the peripheral characteristics for the groups in which the number of optical flows that make up the obtained group is greater than the threshold value. A range in which the first derivative value between the positions where the first derivative of the obtained peripheral feature value is between positive and negative values is close to “0” is extracted as a candidate for the top of the head. A face authentication method for detecting a face region by detecting a face pattern for a top candidate.
特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、
前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、
この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、
この顔検出工程により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定工程と、
この顔向き判定工程により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程と、
前記特定の位置の近傍に設けられた表示手段により、前記移動する人物に対し前記顔検出工程により検出された顔領域の画像を拡大して表示する表示工程と、
この表示工程により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御工程と、
を具備したことを特徴とする顔認証方法。
A face authentication method for performing face authentication of a person moving toward a specific position,
An imaging step of imaging an image including at least a face of the moving person by an imaging unit provided between the moving person and a specific position;
A face detection step of detecting a face area of the person from the image captured by the imaging step;
A face orientation determination step of determining whether or not the image of the face area detected by the face detection step is front-facing;
An authentication step of determining whether or not the person is a pre-registered person by comparing the image of the face area determined to be front-facing by the face direction determination step with dictionary information registered in advance;
A display step of enlarging and displaying an image of the face area detected by the face detection step on the moving person by a display means provided in the vicinity of the specific position;
It is detected that the image of the face area displayed by this display step is likely to deviate from the imaging field of view of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging field of view. A display control step for controlling the display means;
A face authentication method comprising:
特定の位置に向かって移動する人物の顔認証を行なう顔認証方法であって、
前記移動する人物と特定の位置との間に設けられた撮像手段により、当該移動する人物の少なくとも顔を含む画像を撮像する撮像工程と、
この撮像工程により撮像された画像から前記人物の顔領域を検出する顔検出工程と、
この顔検出工程により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定工程と、
この顔向き判定工程により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証工程とを有して構成され、
前記顔向き判定工程は、前記顔検出工程により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする顔認証方法。
A face authentication method for performing face authentication of a person moving toward a specific position,
An imaging step of imaging an image including at least a face of the moving person by an imaging unit provided between the moving person and a specific position;
A face detection step of detecting a face area of the person from the image captured by the imaging step;
A face orientation determination step of determining whether or not the image of the face area detected by the face detection step is front-facing;
An authentication step for determining whether or not the person is a pre-registered person by collating an image of the face area determined to be front-facing in the face direction determination step with dictionary information registered in advance. Configured,
In the face orientation determination step, the face is front-facing when a value obtained by dividing the shorter length by the longer length by the height and width of the circumscribed rectangle of the face area detected by the face detection step is equal to or greater than a threshold value. If the value obtained by dividing the shorter length by the longer length is equal to or smaller than a threshold value, face pattern detection is performed on the face area, and face detection created in advance from a face facing front is performed. The similarity with the dictionary pattern is calculated, and when the obtained similarity is less than or equal to the threshold, it is determined that the face is not front-facing, and when the obtained similarity is greater than or equal to the threshold, it is determined that the face is front-facing A face authentication method characterized by the above.
入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、
前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段と、
前記入退場用ゲートの近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、
この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段と、
を具備したことを特徴とする入退場管理装置。
An entrance / exit management device that performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit area, and controls opening / closing of the entrance / exit gate based on the authentication result,
An imaging unit that is provided between the moving person and the entrance / exit gate, and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Authentication means for determining whether the person is a pre-registered person by collating an image of the face area detected by the face detection means with pre-registered dictionary information;
Gate control means for controlling opening / closing of the entrance / exit gate based on the determination result of the authentication means;
Display means provided in the vicinity of the entrance / exit gate and displaying an enlarged image of the face area detected by the face detection means for the moving person;
It is detected that the image of the face area displayed by the display means is likely to deviate from the imaging visual field of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging visual field. Display control means for controlling the display means,
The entrance / exit management apparatus characterized by comprising.
入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、
前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段とを有して構成され、
前記顔検出手段は、前記撮像手段により撮像された複数の画像に対して画像間差分を計算して変化領域を検出し、得られた変化領域についてオプティカルフロー抽出処理を行ない、得られたオプティカルフローを位置が近く、かつ、フローの向きと大きさが近いオプティカルフローが同じグループになるようにグルーピング処理を行ない、得られたグループを構成するオプティカルフローの個数が閾値よりも大きなグループについてペリフェラル特徴を抽出し、得られたペリフェラル特徴量の1次微分が正と負の値を持つ位置に挟まれた1次微分の値が「0」に近い範囲を当該人物の頭頂候補として抽出し、得られた頭頂候補について顔パターン検出を行なうことで顔領域の検出を行なうことを特徴とする入退場管理装置。
An entrance / exit management device that performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit area, and controls opening / closing of the entrance / exit gate based on the authentication result,
An imaging unit that is provided between the moving person and the entrance / exit gate, and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Authentication means for determining whether the person is a pre-registered person by collating an image of the face area detected by the face detection means with pre-registered dictionary information;
A gate control means for controlling the opening and closing of the entrance / exit gate based on the determination result of the authentication means,
The face detection means calculates inter-image differences for a plurality of images captured by the imaging means, detects a change area, performs optical flow extraction processing on the obtained change area, and obtains the obtained optical flow The grouping process is performed so that optical flows that are close in position and close to the flow direction and size are in the same group, and the peripheral characteristics for the groups in which the number of optical flows that make up the obtained group is greater than the threshold value. A range in which the first derivative value between the positions where the first derivative of the obtained peripheral feature value is between positive and negative values is close to “0” is extracted as a candidate for the top of the head. An entrance / exit management device for detecting a face area by detecting a face pattern of a candidate for the top of the head.
入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、
前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、
この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段と、
前記入退場用ゲートの近傍に設けられ、前記移動する人物に対し前記顔検出手段により検出された顔領域の画像を拡大して表示する表示手段と、
この表示手段により表示された顔領域の画像が前記撮像手段の撮像視野から外れそうになったことを検出し、当該撮像視野から外れそうになった側について拡大表示画像の端部を強調表示するよう前記表示手段を制御する表示制御手段と、
を具備したことを特徴とする入退場管理装置。
An entrance / exit management device that performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit area, and controls opening / closing of the entrance / exit gate based on the authentication result,
An imaging unit that is provided between the moving person and the entrance / exit gate, and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Face orientation determination means for determining whether or not the image of the face area detected by the face detection means is front-facing;
Authentication means for determining whether or not the person is a pre-registered person by comparing the image of the face area determined to be front-facing by the face orientation determining means with dictionary information registered in advance;
Gate control means for controlling opening / closing of the entrance / exit gate based on the determination result of the authentication means;
Display means provided in the vicinity of the entrance / exit gate and displaying an enlarged image of the face area detected by the face detection means for the moving person;
It is detected that the image of the face area displayed by the display means is likely to deviate from the imaging visual field of the imaging means, and the end of the enlarged display image is highlighted on the side that is likely to deviate from the imaging visual field. Display control means for controlling the display means,
The entrance / exit management apparatus characterized by comprising.
入退場対象エリアに設けられた入退場用ゲートに向かって移動する人物の顔認証を行ない、その認証結果に基づき前記入退場用ゲートを開閉制御する入退場管理装置であって、
前記移動する人物と前記入退場用ゲートとの間に設けられ、当該移動する人物の少なくとも顔を含む画像を撮像する撮像手段と、
この撮像手段により撮像された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段により検出された顔領域の画像が正面向きであるか否かを判定する顔向き判定手段と、
この顔向き判定手段により正面向きであると判定された顔領域の画像とあらかじめ登録された辞書情報とを照合することにより当該人物はあらかじめ登録された人物であるかを判定する認証手段と、
この認証手段の判定結果に基づき前記入退場用ゲートを開閉制御するゲート制御手段とを有して構成され、
前記顔向き判定手段は、前記顔検出手段により検出された顔領域の外接矩形の高さと幅で、短い方の長さを長い方の長さで割った値が閾値以上のとき顔が正面向きではないと判定し、前記短い方の長さを長い方の長さで割った値が閾値以下のとき当該顔領域に対し顔パターン検出を行なって、あらかじめ正面向きの顔から作成された顔検出辞書パターンとの類似度を計算し、得られた類似度が閾値以下のとき顔が正面向きではないと判定し、当該得られた類似度が閾値以上のとき顔が正面向きであると判定することを特徴とする入退場管理装置。
An entrance / exit management device that performs face authentication of a person moving toward an entrance / exit gate provided in an entrance / exit area, and controls opening / closing of the entrance / exit gate based on the authentication result,
An imaging unit that is provided between the moving person and the entrance / exit gate, and that captures an image including at least the face of the moving person;
Face detection means for detecting the face area of the person from the image captured by the imaging means;
Face orientation determination means for determining whether or not the image of the face area detected by the face detection means is front-facing;
Authentication means for determining whether or not the person is a pre-registered person by comparing the image of the face area determined to be front-facing by the face orientation determining means with dictionary information registered in advance;
A gate control means for controlling the opening and closing of the entrance / exit gate based on the determination result of the authentication means,
The face orientation determining means is configured so that when the value obtained by dividing the shorter length by the longer length by the height and width of the circumscribed rectangle of the face area detected by the face detecting means is equal to or greater than a threshold value, the face is facing forward If the value obtained by dividing the shorter length by the longer length is equal to or smaller than a threshold value, face pattern detection is performed on the face area, and face detection created in advance from a face facing front is performed. The similarity with the dictionary pattern is calculated, and when the obtained similarity is less than or equal to the threshold, it is determined that the face is not front-facing, and when the obtained similarity is greater than or equal to the threshold, it is determined that the face is front-facing An entrance / exit management device characterized by that.
JP2006249822A 2006-09-14 2006-09-14 Face authentication system, face authentication method, and access control device Pending JP2008071172A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006249822A JP2008071172A (en) 2006-09-14 2006-09-14 Face authentication system, face authentication method, and access control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006249822A JP2008071172A (en) 2006-09-14 2006-09-14 Face authentication system, face authentication method, and access control device

Publications (1)

Publication Number Publication Date
JP2008071172A true JP2008071172A (en) 2008-03-27

Family

ID=39292691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006249822A Pending JP2008071172A (en) 2006-09-14 2006-09-14 Face authentication system, face authentication method, and access control device

Country Status (1)

Country Link
JP (1) JP2008071172A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113714A (en) * 2010-11-19 2012-06-14 Total Immersion Method and device for detecting in real time and tracking moving nonrigid object of video stream that enable user to communicate with computer system
JP2012128693A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program
JP2013143749A (en) * 2012-01-12 2013-07-22 Toshiba Corp Electronic apparatus and control method of electronic apparatus
JP2013232060A (en) * 2012-04-27 2013-11-14 Canon Inc Image recognition device, control method and control program of the same, and imaging device and display device
JP2014178920A (en) * 2013-03-15 2014-09-25 Oki Electric Ind Co Ltd Face recognition system and face recognition method
JP2014229015A (en) * 2013-05-21 2014-12-08 富士ソフト株式会社 Face recognition device, face recognition method, and computer program
US20170041503A1 (en) * 2015-08-03 2017-02-09 Fuji Xerox Co., Ltd. Authentication device and authentication method
JP2017033357A (en) * 2015-08-03 2017-02-09 富士ゼロックス株式会社 Authentication device
JP2017167727A (en) * 2016-03-15 2017-09-21 Kddi株式会社 Processing device of moving image, processing method, and program
JP2018136897A (en) * 2017-02-24 2018-08-30 富士通フロンテック株式会社 Authentication device and authentication method
JP2018195061A (en) * 2017-05-17 2018-12-06 Jfeスチール株式会社 Authentication system, authentication method, and gate
CN110088761A (en) * 2016-12-20 2019-08-02 三菱电机株式会社 Vehicle-mounted image authentication device
WO2021156996A1 (en) * 2020-02-06 2021-08-12 日本電気株式会社 Gate system, gate device, method for controlling same, and program
US20220101651A1 (en) * 2019-01-17 2022-03-31 Denso Wave Incorporated System, device and method for authentication with use of information code

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012113714A (en) * 2010-11-19 2012-06-14 Total Immersion Method and device for detecting in real time and tracking moving nonrigid object of video stream that enable user to communicate with computer system
JP2012128693A (en) * 2010-12-15 2012-07-05 Canon Inc Video processing device, video processing method and program
JP2013143749A (en) * 2012-01-12 2013-07-22 Toshiba Corp Electronic apparatus and control method of electronic apparatus
US9571740B2 (en) 2012-04-27 2017-02-14 Canon Kabushiki Kaisha Image recognition device that recognizes specific object area, method of controlling the device, and storage medium, as well as image pickup apparatus, and display device
JP2013232060A (en) * 2012-04-27 2013-11-14 Canon Inc Image recognition device, control method and control program of the same, and imaging device and display device
JP2014178920A (en) * 2013-03-15 2014-09-25 Oki Electric Ind Co Ltd Face recognition system and face recognition method
JP2014229015A (en) * 2013-05-21 2014-12-08 富士ソフト株式会社 Face recognition device, face recognition method, and computer program
US10965837B2 (en) 2015-08-03 2021-03-30 Fuji Xerox Co., Ltd. Authentication device and authentication method
US20170041503A1 (en) * 2015-08-03 2017-02-09 Fuji Xerox Co., Ltd. Authentication device and authentication method
JP2017033358A (en) * 2015-08-03 2017-02-09 富士ゼロックス株式会社 Authentication device
JP2017033357A (en) * 2015-08-03 2017-02-09 富士ゼロックス株式会社 Authentication device
US20190230250A1 (en) * 2015-08-03 2019-07-25 Fuji Xerox Co., Ltd. Authentication device and authentication method
JP2017167727A (en) * 2016-03-15 2017-09-21 Kddi株式会社 Processing device of moving image, processing method, and program
CN110088761B (en) * 2016-12-20 2023-11-14 三菱电机株式会社 Image authentication device, image authentication method, and automobile
CN110088761A (en) * 2016-12-20 2019-08-02 三菱电机株式会社 Vehicle-mounted image authentication device
JP2018136897A (en) * 2017-02-24 2018-08-30 富士通フロンテック株式会社 Authentication device and authentication method
JP2018195061A (en) * 2017-05-17 2018-12-06 Jfeスチール株式会社 Authentication system, authentication method, and gate
US20220101651A1 (en) * 2019-01-17 2022-03-31 Denso Wave Incorporated System, device and method for authentication with use of information code
US12019722B2 (en) * 2019-01-17 2024-06-25 Denso Wave Incorporated System, device and method for authentication with use of information code
WO2021156996A1 (en) * 2020-02-06 2021-08-12 日本電気株式会社 Gate system, gate device, method for controlling same, and program
JPWO2021156996A1 (en) * 2020-02-06 2021-08-12
JP7396375B2 (en) 2020-02-06 2023-12-12 日本電気株式会社 Gate system, gate device, its control method, and program

Similar Documents

Publication Publication Date Title
JP2008071172A (en) Face authentication system, face authentication method, and access control device
KR100831122B1 (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
AU2006200828B2 (en) Face authenticating apparatus and entrance and exit management apparatus
JP4836633B2 (en) Face authentication device, face authentication method, and entrance / exit management device
US7127086B2 (en) Image processing apparatus and method
US7574021B2 (en) Iris recognition for a secure facility
JP4241763B2 (en) Person recognition apparatus and method
JP2003141541A (en) Individual recognition device and passage control device
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
JP3636927B2 (en) Face image processing device
EP2309454B1 (en) Apparatus and method for detecting motion
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
JP2012208610A (en) Face image authentication apparatus
JP2007179569A (en) Person recognizing device, person recognizing method, passage control device
JP5766096B2 (en) Face image authentication device
KR101596363B1 (en) Access Control Apparatus and Method by Facial Recognition
KR100706871B1 (en) Method for truth or falsehood judgement of monitoring face image
JP6947202B2 (en) Matching system
JP6915673B2 (en) Information processing system
CN110892412B (en) Face recognition system, face recognition method, and face recognition program
JP2004118359A (en) Figure recognizing device, figure recognizing method and passing controller
CN112465860A (en) Method and equipment for checking running state of door
WO2019151116A1 (en) Information processing device
JP2006099615A (en) Face authentication device and entrance/exit management device
KR20140060081A (en) Apparatus and method for speed gate based on face recognition at a distance