JP2007179569A - Person recognizing device, person recognizing method, passage control device - Google Patents

Person recognizing device, person recognizing method, passage control device Download PDF

Info

Publication number
JP2007179569A
JP2007179569A JP2007060916A JP2007060916A JP2007179569A JP 2007179569 A JP2007179569 A JP 2007179569A JP 2007060916 A JP2007060916 A JP 2007060916A JP 2007060916 A JP2007060916 A JP 2007060916A JP 2007179569 A JP2007179569 A JP 2007179569A
Authority
JP
Japan
Prior art keywords
face
person
registration
image
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007060916A
Other languages
Japanese (ja)
Inventor
Hiroshi Sukegawa
寛 助川
Hiroyoshi Dobashi
浩慶 土橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007060916A priority Critical patent/JP2007179569A/en
Publication of JP2007179569A publication Critical patent/JP2007179569A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person recognizing device, person recognizing method, and passage control device capable of improving a person recognition rate by recognizing stably with high precision without being restrained by a posture, a standing position, and a direction of a face at recognition time. <P>SOLUTION: This person recognizing device recognizes by inputting a face image of a person to be recognized 100 by a camera1 101, and detecting a face from the input face image. Information relating to the face such as a size, direction, and position of the face in the face image input at registration time and information relating to the face such as the size, direction, and position of the face of the face image input at recognition time are simultaneously displayed on a display part 104, and thus, stable and highly precise recognition can be achieved without being retrained by the posture, standing position, and direction of the face. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、たとえば、セキュリティ管理などにおいて人物の顔画像を認識する人物認識装置、人物認識方法、および、この人物認識装置、人物認識方法を用いて通行者の通行を制御する通行制御装置に関する。   The present invention relates to a person recognition apparatus that recognizes a person's face image in security management or the like, a person recognition method, and a traffic control apparatus that controls the passage of a passerby using the person recognition apparatus and the person recognition method.

この種の人物認識装置においては、たとえば、人物の立ち位置や姿勢といった状態が登録時と認識時(照合時)で異なる場合に人物認識率が低下していた。これら人物認識率の低下を軽減させるために、認識時の人物の向きがあらかじめ登録されている人物の向きと異なる場合は、撮影カメラの向きを変えたり(たとえば、特許文献1参照)、装置の上に視線を誘導させる視線誘導装置を設ける方法(たとえば、特許文献2参照)が採用されていた。   In this type of person recognition apparatus, for example, the person recognition rate is reduced when the state such as the standing position and posture of the person differs between registration and recognition (verification). In order to reduce the decrease in the person recognition rate, if the orientation of the person at the time of recognition is different from the orientation of the person registered in advance, the orientation of the photographing camera may be changed (see, for example, Patent Document 1) A method of providing a line-of-sight guidance device for guiding the line of sight on the top (for example, see Patent Document 2) has been adopted.

また、所定の操作を行なうことによって認識動作を開始させるのでなく、人物の顔を検出するだけで自動的に認識動作を開始させるといった、非接触照合といった方法も採用されていた。
特開平11−316836号公報 特開平11−191856号公報
In addition, a method called non-contact collation has been adopted in which a recognition operation is not started by performing a predetermined operation, but a recognition operation is automatically started only by detecting a person's face.
Japanese Patent Application Laid-Open No. 11-316836 Japanese Patent Laid-Open No. 11-191856

このような生体照合を用いた人物認識装置において、登録時と認識時とで入力情報がばらつくことで認識精度の低下を引き起こす問題がある。そのため、できる限り登録時と同じ状態を再現させることが大切である。そこで、特許文献1に開示されているように、認識時の人物の向きがあらかじめ登録されている人物の向きと異なる場合に、撮影カメラの向きを変えたり、特許文献2に開示されているように、装置の上に視線を誘導させる視線誘導装置を設ける方法が提案されているが、撮影カメラの向きを制御するための制御回路や視線誘導装置を新たに設ける必要がある。   In such a person recognition apparatus using biometric matching, there is a problem that recognition accuracy is lowered due to variation in input information between registration and recognition. Therefore, it is important to reproduce the same state as at the time of registration as much as possible. Therefore, as disclosed in Patent Literature 1, when the orientation of the person at the time of recognition is different from the orientation of the person registered in advance, the orientation of the photographing camera is changed, or as disclosed in Patent Literature 2. In addition, a method of providing a line-of-sight guidance device for guiding the line of sight on the device has been proposed, but it is necessary to newly provide a control circuit and a line-of-sight guidance device for controlling the orientation of the photographing camera.

また、登録時において、適切なガイダンスが存在せず、所定時間の間にどのような動作をすればよいのかが分からないため、色々な状態を学習させることで辞書の有効性を増すことができるのに対してほとんどワンパターンの画像のみから辞書を作成してしまうという問題がある。   Moreover, since there is no appropriate guidance at the time of registration and it is not known what operation should be performed during a predetermined time, the effectiveness of the dictionary can be increased by learning various states. On the other hand, there is a problem that a dictionary is created from only one pattern image.

また、顔を検出すると同時に自動的に認識動作を開始させる機能を利用していた場合、画像入力部の視野範囲に人物の顔写真が写った印刷物などがあった場合などに、誤検出により無意味な認識動作が行なわれてしまうといった問題がある。   Also, if a function that automatically starts a recognition operation at the same time that a face is detected is used, or if there is a printed matter with a human face photograph in the field of view of the image input unit, it is not detected due to a false detection. There is a problem that a meaningful recognition operation is performed.

そこで、本発明は、認識時の姿勢や立つ位置、顔の向きなどに拘束されずに安定した高精度の認識を行なうことも可能となり、人物認識率の向上が図れる人物認識装置、人物認識方法および通行制御装置を提供することを目的とする。   Therefore, the present invention makes it possible to perform stable and highly accurate recognition without being constrained by the posture, standing position, face orientation, etc. at the time of recognition, and a person recognition device and person recognition method capable of improving the person recognition rate And it aims at providing a traffic control device.

本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示手段とを具備している。   The person recognition apparatus of the present invention includes an image input unit that inputs at least a face image of a person to be recognized, a face detection unit that detects a face area of the person from an image input by the image input unit, and the face A feature amount extracting unit that extracts a feature amount of the person's face based on a detection result of the detecting unit; a registration information holding unit that holds the feature amount extracted by the feature amount extracting unit as registration information at the time of registration; A recognition means for recognizing the person by comparing the feature quantity extracted by the feature quantity extraction means with the registration information held in the registration information holding means, and a guide pattern having a predetermined shape at the time of registration. And display means for instructing the orientation of the face image to be input by moving and displaying.

また、本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の円パターンで表示するとともに、登録時における顔検出手段の検出結果を第2の円パターンで表示する表示手段とを具備している。   Further, the person recognition device of the present invention includes an image input means for inputting at least a face image of a person to be recognized, a face detection means for detecting the face area of the person from the image input by the image input means, A feature amount extracting unit that extracts a feature amount of the person's face based on a detection result of the face detecting unit; and a registration information holding unit that holds the feature amount extracted by the feature amount extracting unit as registration information at the time of registration. The recognition means for recognizing the person by comparing the feature amount extracted by the feature amount extraction means with the registration information held in the registration information holding means at the time of recognition; In addition to displaying the first circle pattern indicating the position of the face image to be input and the distance from the image input means to the face, etc. Are provided with display means for displaying the detection result of the face detection means in a second circle pattern in.

また、本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の多角形パターンで表示するとともに、登録時における顔検出手段の検出結果を第2の多角形パターンで表示する表示手段とを具備している。   Further, the person recognition device of the present invention includes an image input means for inputting at least a face image of a person to be recognized, a face detection means for detecting the face area of the person from the image input by the image input means, A feature amount extracting unit that extracts a feature amount of the person's face based on a detection result of the face detecting unit; and a registration information holding unit that holds the feature amount extracted by the feature amount extracting unit as registration information at the time of registration. The recognition means for recognizing the person by comparing the feature amount extracted by the feature amount extraction means with the registration information held in the registration information holding means at the time of recognition; As guidance information indicating whether it should be input in such a state, the position is displayed in a first polygon pattern indicating the position of the face image to be input, the distance from the image input means to the face, and the like, Are provided with display means for displaying the detection result of the face detection means in a second polygonal pattern during recording.

また、本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の少なくとも1つ以上の直線で表示するとともに、登録時における顔検出手段の検出結果を第2の少なくとも1つ以上の直線で表示する表示手段とを具備している。   Further, the person recognition device of the present invention includes an image input means for inputting at least a face image of a person to be recognized, a face detection means for detecting the face area of the person from the image input by the image input means, A feature amount extracting unit that extracts a feature amount of the person's face based on a detection result of the face detecting unit; and a registration information holding unit that holds the feature amount extracted by the feature amount extracting unit as registration information at the time of registration. The recognition means for recognizing the person by comparing the feature amount extracted by the feature amount extraction means with the registration information held in the registration information holding means at the time of recognition; As guidance information indicating whether it should be input in such a state, it is displayed by at least one straight line indicating the position of the face image to be input, the distance from the image input means to the face, and the like. Both, and a display means for displaying a detection result of the face detection unit at the time of registration in the second at least one or more straight lines.

また、本発明の人物認識装置は、認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、登録時、入力すべき顔画像の向きを矢印パターンで描画することで表示する、あるいは、当該入力画像内に描画した円パターンの位置で表示する表示手段とを具備している。   Further, the person recognition device of the present invention includes an image input means for inputting at least a face image of a person to be recognized, a face detection means for detecting the face area of the person from the image input by the image input means, A feature amount extracting unit that extracts a feature amount of the person's face based on a detection result of the face detecting unit; and a registration information holding unit that holds the feature amount extracted by the feature amount extracting unit as registration information at the time of registration. A recognition means for recognizing the person by comparing the feature amount extracted by the feature amount extraction means with the registration information held in the registration information holding means at the time of recognition, and a face to be input at the time of registration Display means for displaying the orientation of the image by drawing with an arrow pattern, or displaying at the position of a circle pattern drawn in the input image.

また、本発明の人物認識方法は、認識対象となる人物の少なくとも顔画像を入力する画像入力工程と、この画像入力工程により入力された画像から前記人物の顔領域を検出する顔検出工程と、この顔検出工程の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出工程と、登録時、前記特徴量抽出工程により抽出された特徴量を登録情報として登録情報保持手段に保持する登録情報保持工程と、認識時、前記特徴量抽出工程により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識工程と、登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示工程とを具備している。   The person recognition method of the present invention includes an image input step of inputting at least a face image of a person to be recognized, a face detection step of detecting the face area of the person from the image input by the image input step, A feature amount extraction step for extracting the feature amount of the person's face based on the detection result of the face detection step, and at the time of registration, the feature amount extracted by the feature amount extraction step is held in registration information holding means as registration information A registration information holding step, a recognition step of recognizing the person by comparing the feature quantity extracted by the feature quantity extraction step with the registration information held in the registration information holding means, and at the time of registration And a display step for instructing the orientation of the face image to be input by moving and displaying a guide pattern of a predetermined shape.

さらに、本発明の通行制御装置は、通行者を認識して前記通行者の通行を制御する通行制御装置において、前記通行者の少なくとも顔画像を入力する画像入力手段と、この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示手段とを具備している。   Further, the traffic control device of the present invention is a traffic control device for recognizing a passerby and controlling the passerby's traffic, an image input unit for inputting at least a face image of the passer, and an input by the image input unit. A face detection means for detecting a face area of the passer-by from the captured image, a feature quantity extraction means for extracting a feature quantity of the passer's face based on a detection result of the face detection means, and the feature quantity at the time of registration Registration information holding means for holding the feature quantity extracted by the extraction means as registration information, and at the time of recognition, the feature quantity extracted by the feature quantity extraction means and the registration information held in the registration information holding means are collated A recognition means for recognizing the passerby, a passage control means for controlling the passage of the passer according to the recognition result of the recognition means, and a guide pattern of a predetermined shape at the time of registration display. By causing, and a display means for indicating the orientation of the to be input face image.

本発明によれば、認識時の姿勢や立つ位置、顔の向きなどに拘束されずに安定した高精度の認識を行なうことが可能となり、人物認識率の向上が図れる人物認識装置、人物認識方法および通行制御装置を提供できる。   According to the present invention, it is possible to perform stable and highly accurate recognition without being constrained by the posture, standing position, face orientation, etc. at the time of recognition, and a person recognition device and person recognition method capable of improving the person recognition rate And a traffic control device can be provided.

以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る人物認識装置の構成を概略的に示すものである。この人物認識装置は、認識対象者(以下、人物ともいう)100の顔画像(少なくとも顔を含んでいる画像)を撮像して入力する画像入力手段としてのカメラ101、カメラ101の近傍(たとえば、右上方あるいは左上方)から認識対象者100の少なくとも顔に向けて一定の照度で光を照射する照明手段としての照明部102、認識対象者100に対して入力された顔画像や各種案内を表示する表示手段としての表示部104、および、カメラ101から入力された顔画像を処理して顔画像の認識処理などを行なう処理部105から構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the first embodiment will be described.
FIG. 1 schematically shows a configuration of a person recognition apparatus according to the first embodiment. This person recognition apparatus includes a camera 101 as an image input unit that captures and inputs a face image (an image including at least a face) of a person to be recognized (hereinafter also referred to as a person) 100, and the vicinity of the camera 101 (for example, Illumination unit 102 as an illuminating unit that emits light at a certain illuminance toward at least the face of the recognition target person 100 from the upper right or upper left), and the face image and various guidance input to the recognition target person 100 are displayed. And a processing unit 105 that processes a face image input from the camera 101 and performs face image recognition processing and the like.

なお、以下の説明では、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、登録の時刻、日時、場所などの状況情報、暗証番号、IDコードなどの個人情報の各情報が登場してくる。そして、認識データと言うときは、部分空間、または、部分空間を構成するための固有ベクトルを含み、登録情報と言うときは、画像入力データ、抽出した特徴量、部分空間、部分空間を構成するための固有ベクトル、相関行列、状況情報、個人情報を含んでいる。したがって、認識データは登録情報に含まれる。   In the following description, image input data, extracted feature quantities, subspaces, eigenvectors for constructing subspaces, correlation matrices, status information such as registration time, date and time, location, passwords, ID codes, etc. Each piece of personal information appears. And when it says “recognition data”, it includes a partial space or an eigenvector for constructing the partial space, and when it says “registration information”, it constitutes image input data, extracted feature quantity, subspace, and subspace. Eigenvector, correlation matrix, situation information, and personal information. Accordingly, the recognition data is included in the registration information.

カメラ101は、認識対象者100の顔画像を撮像して入力するものであり、たとえば、CCDセンサなどの撮像素子を用いたテレビジョンカメラから構成されている。   The camera 101 captures and inputs a face image of the person 100 to be recognized, and includes, for example, a television camera using an image sensor such as a CCD sensor.

照明部102は、カメラ101の近傍(たとえば、右上方あるいは左上方)から認識対象者100の顔に向けて一定の照度で光を照射する蛍光灯などの照明器具である。   The illumination unit 102 is an illumination device such as a fluorescent lamp that irradiates light at a constant illuminance from the vicinity of the camera 101 (for example, upper right or upper left) toward the face of the recognition target person 100.

表示部104は、カメラ101で撮影されている認識対象者100の顔画像や各種ガイダンス、処理結果などを表示するモニタである。   The display unit 104 is a monitor that displays a face image, various guidance, a processing result, and the like of the recognition target person 100 captured by the camera 101.

処理部105は、画像入力手段としての画像入力部106、画像入力部101から得られた人物の顔画像を用いて、あらかじめ準備されたパターン辞書との照合で顔および目、鼻などの顔部品の位置を検出する顔検出手段としての顔検出部107、顔検出部107の出力に基づき濃淡情報あるいは部分空間情報などの特徴量を抽出する特徴量抽出手段としての特徴量抽出部108、人物情報登録時には、特徴量抽出部108で抽出された特徴量を認識データ(登録情報)として保持する登録情報保持手段としての登録情報保持部109、人物認識時には、特徴量抽出部108で抽出された特徴量と登録情報保持部109に登録されている認識データとを照合することにより認識対象者100の顔を認識する認識手段としての認識部110、および、表示部104を制御する表示手段としての表示制御部111から構成されている。   The processing unit 105 uses a face image of a person obtained from the image input unit 106 and the image input unit 101 as an image input unit, and collates with a pattern dictionary prepared in advance, and facial parts such as a face, eyes, and nose A face detection unit 107 as a face detection unit for detecting the position of the face, a feature quantity extraction unit 108 as a feature quantity extraction unit for extracting feature quantities such as grayscale information or partial space information based on the output of the face detection unit 107, and person information At the time of registration, the registration information holding unit 109 as a registration information holding unit that holds the feature quantity extracted by the feature quantity extraction unit 108 as recognition data (registration information). At the time of person recognition, the feature value extracted by the feature quantity extraction unit 108 A recognizing unit 110 as a recognizing means for recognizing the face of the person to be recognized 100 by comparing the amount and the recognition data registered in the registered information holding unit 109; Beauty, and a display control unit 111 as display means for controlling the display unit 104.

画像入力部106は、カメラ101からの顔画像を入力し、A/D変換してデジタル化した後、顔検出部107へ送る。   The image input unit 106 receives a face image from the camera 101, digitizes the image by A / D conversion, and sends it to the face detection unit 107.

顔検出部107は、まず、画像入力部106で入力された顔画像から認識対象者100の顔の領域を検出する。たとえば、あらかじめ用意されたテンプレートと画像中を移動させながら相関値を求めることにより、最も高い相関値を持った場所を顔領域とする。なお、その他に、固有空間法や部分空間法を利用した顔領域抽出法などの顔検出手段でもよい。   First, the face detection unit 107 detects the face area of the recognition target person 100 from the face image input by the image input unit 106. For example, a location having the highest correlation value is determined as a face region by obtaining a correlation value while moving the template prepared in advance and the image. In addition, face detection means such as a face region extraction method using an eigenspace method or a subspace method may be used.

顔検出部107は、次に、検出された顔領域の部分の中から、目、鼻、口といった顔部品の位置を検出する。その検出方法は、たとえば、文献(福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌(D),vol.J80−D−II,No.8,pp2170−2177(1997))などの方法を用いてよい。   Next, the face detection unit 107 detects the position of the facial parts such as eyes, nose, and mouth from the detected face area. The detection method is described in, for example, literature (Kazuhiro Fukui, Osamu Yamaguchi: “Face Feature Point Extraction by Combination of Shape Extraction and Pattern Matching”, IEICE Transactions (D), vol. J80-D-II, No. 8, pp2170-2177 (1997)).

ここで、顔のテンプレートによる顔検出と、目、鼻などの顔部品の検出座標の相対位置によって顔の方向を調べることも可能になる。たとえば、図2に示すように、顔検出結果の中心座標を顔の中心座標(fx,fy)、顔の大きさを(fw,fh)とし、左右の目と鼻の検出結果をそれぞれ(EyeLx,EyeLy)、(EyeRx,EyeRy)、(NoseLx,NoseLy)、(NoseRx,NoseRy)とすれば、以下の方法で顔の方法を示す指標が得られる。   Here, it is also possible to check the face direction based on the face detection based on the face template and the relative position of the detection coordinates of the face parts such as eyes and nose. For example, as shown in FIG. 2, the center coordinates of the face detection result are the face center coordinates (fx, fy), the face size is (fw, fh), and the left and right eye and nose detection results are (EyeLx). , EyeLy), (EyeRx, EyeRy), (NoseLx, NoseLy), (NoseRx, NoseRy), an index indicating the face method can be obtained by the following method.

顔の方向(X方向)=((EyeRx+EyeLx)/2−fx)/fw
顔の方向(Y方向)=((EyeRy+EyeLy)/2−fy)/fh
これらの座標の原点が画面左上だとした場合、数値は顔が右下に向くほど大きくなる値となる。
Face direction (X direction) = ((EyeRx + EyeLx) / 2−fx) / fw
Face direction (Y direction) = ((EyeRy + EyeLy) / 2-fy) / fh
When the origin of these coordinates is the upper left of the screen, the numerical value becomes larger as the face faces the lower right.

特徴量抽出部108は、顔検出部107で検出された顔部品の位置を基に、顔領域を一定の大きさ、形状に切り出し、その濃淡情報を特徴量として用いる。ここでは、たとえば、mピクセル×nピクセルの領域の濃淡値をそのまま情報として用い、m×n次元の情報を特徴ベクトルとして用いる。   Based on the position of the face part detected by the face detection unit 107, the feature amount extraction unit 108 cuts the face region into a certain size and shape, and uses the density information as a feature amount. Here, for example, the gray value of an area of m pixels × n pixels is used as information as it is, and information of m × n dimensions is used as a feature vector.

図3は、入力画像を特徴量抽出部108により処理して得られた顔画像データであり、時系列的に得られたものである。これらのデータに対し特徴ベクトルの相関行列を求め、周知のK−L展開による正規直交ベクトルを求めることにより、部分空間を計算する。部分空間の計算方法は、特徴ベクトルの相関行列(または共分散行列)を求め、そのK−L展開による正規直交ベクトル(固有ベクトル)を求めることにより、部分空間を計算する。部分空間は、固有値に対応する固有ベクトルを、固有値の大きな順にk個選び、その固有ベクトル集合を用いて表現する。   FIG. 3 shows face image data obtained by processing the input image by the feature amount extraction unit 108 and is obtained in time series. A partial space is calculated by obtaining a correlation matrix of feature vectors for these data and obtaining an orthonormal vector by a well-known KL expansion. The subspace calculation method calculates a subspace by obtaining a correlation matrix (or covariance matrix) of feature vectors and obtaining an orthonormal vector (eigenvector) by KL expansion. In the subspace, k eigenvectors corresponding to eigenvalues are selected in descending order of eigenvalues, and expressed using the eigenvector set.

本実施の形態では、相関行列Cdを特徴ベクトルから求め、相関行列

Figure 2007179569
In the present embodiment, the correlation matrix Cd is obtained from the feature vector, and the correlation matrix is obtained.
Figure 2007179569

と対角化して、固有ベクトルのΦを求める。この部分空間は、人物の同定を行なうための認識辞書として利用する。この情報をあらかじめ登録しておいて、それを辞書として登録しておけばよい。 And Φ of the eigenvector is obtained. This partial space is used as a recognition dictionary for identifying a person. This information may be registered in advance and registered as a dictionary.

また、後で述べるように、認識を行なうための入力データとして部分空間自身を利用してもよい。したがって、部分空間を算出した結果は、認識部110および登録情報保持部109に送られる。   Further, as will be described later, the partial space itself may be used as input data for recognition. Therefore, the result of calculating the partial space is sent to the recognition unit 110 and the registration information holding unit 109.

認識部110は、登録情報保持部109に蓄えられた認識データ(部分空間)と特徴量抽出部108で得られた特徴量(濃淡情報あるいは部分空間情報)とを照合(比較)することにより、カメラ101に写っている認識対象者100が誰であるかを認識、あるいは、該当人物であるかどうかを同定する。人物を認識するためには、どの人物のデータに最も類似しているかを求めればよく、最大類似度をとるデータに対応する人物を認識結果とすればよい。   The recognition unit 110 collates (compares) the recognition data (partial space) stored in the registration information holding unit 109 with the feature amount (grayscale information or partial space information) obtained by the feature amount extraction unit 108. It recognizes who the recognition target person 100 shown in the camera 101 is, or identifies whether it is a corresponding person. In order to recognize a person, it suffices to determine which person's data is most similar, and the person corresponding to the data having the maximum similarity may be used as the recognition result.

また、カードや登録番号、暗証番号、鍵などを用いて、顔画像による認識を行なう場合には、それぞれの人物のカードや番号などの個人情報に対応する認識データとの類似度を計算して、設定した閾値と照合し、その閾値を越えた場合に、その人物と同定する。   Also, when performing facial recognition using a card, registration number, personal identification number, key, etc., the similarity to the recognition data corresponding to personal information such as each person's card or number is calculated. When the threshold value is exceeded, the person is identified.

これらカードや登録番号、暗証番号、鍵など入力する手段が必要であるが、たとえば、カードならICカード、IDカード、無線カードなどを用いることで実現できる。登録番号や暗証番号を用いる場合は、キー入力手段を設ければよい。   Means for inputting such a card, a registration number, a personal identification number, a key, and the like are necessary. When a registration number or a password is used, key input means may be provided.

認識の方法としては、特徴量抽出部108の情報を用いる場合は、部分空間法や複合類似度法などの方法を用いてよい。本実施の形態での認識方法は、たとえば、文献(前田賢一、渡辺貞一:「局所的構造を導入したパターン・マッチング法」、電子情報通信学会論文誌(D),vol.J68−D,No.3,pp345−352(1985))に記載されている公知の認識方法である相互部分空間法を用いる。   As a recognition method, when the information of the feature quantity extraction unit 108 is used, a method such as a subspace method or a composite similarity method may be used. The recognition method in this embodiment is, for example, literature (Kenichi Maeda, Sadaichi Watanabe: “Pattern Matching Method Introducing Local Structure”, IEICE Transactions (D), vol. J68-D, No. 3, pp 345-352 (1985)), a mutual subspace method which is a known recognition method is used.

この方法では、あらかじめ蓄えられた登録情報の中の認識データも、入力されるデータも部分空間として表現され、2つの部分空間のなす「角度」を類似度として定義する。ここで入力される部分空間を入力部分空間という。入力データ列に対して同様に相関行列Cinを求め、

Figure 2007179569
In this method, both the recognition data in the registration information stored in advance and the input data are expressed as partial spaces, and the “angle” formed by the two partial spaces is defined as the similarity. The subspace input here is referred to as an input subspace. Similarly, a correlation matrix Cin is obtained for the input data string,
Figure 2007179569

と対角化し、固有ベクトルΦinを求める。2つのΦin、Φdで表わされる部分空間の部分空間類似度(0.0〜1.0)を求め、それを認識するための類似度とする。 And the eigenvector Φin is obtained. The subspace similarity (0.0 to 1.0) of the subspace represented by two Φin and Φd is obtained and used as the similarity for recognizing it.

認識部110は、図4に示すフローチャートのように動作する。まず、認識部110は、認識作業を行なうか、同定作業を行なうかによって動作が異なる(ステップST1)。同定動作を行なう場合は、まず対象とする認識対象者のIDコードを読込む(ステップST2)。次に、対象とするIDコードに対応した登録情報(部分空間)を登録情報保持部109から読出す(ステップST3)。   The recognition unit 110 operates as in the flowchart shown in FIG. First, the recognition unit 110 operates differently depending on whether recognition work or identification work is performed (step ST1). When performing the identification operation, first, the ID code of the person to be recognized is read (step ST2). Next, the registration information (partial space) corresponding to the target ID code is read from the registration information holding unit 109 (step ST3).

次に、上述したように、部分空間法などにより認識を行なうため、各登録情報の部分空間と、入力ベクトル(特徴量抽出部108からの固有ベクトル)、または、入力部分空間との類似度を計算する(ステップST4)。次に、その類似度をあらかじめ設定されている閾値と比較し(ステップST5,ST6)、同定結果を出力する(ステップST7)。   Next, as described above, in order to perform recognition using a subspace method or the like, the similarity between the subspace of each registered information and the input vector (eigenvector from the feature quantity extraction unit 108) or the input subspace is calculated. (Step ST4). Next, the similarity is compared with a preset threshold value (steps ST5 and ST6), and the identification result is output (step ST7).

認識作業を行なう場合、認識対象となるデータを全て登録情報保持部109から読出す(ステップST8)。そして、それぞれの登録情報との類似度を計算する(ステップST9)。次に、計算された類似度の中から最大のものを選択し(ステップST10)、それを認識結果として出力する(ステップST12)。   When performing the recognition work, all the data to be recognized is read from the registered information holding unit 109 (step ST8). And the similarity with each registration information is calculated (step ST9). Next, the maximum similarity is selected from the calculated similarities (step ST10), and is output as a recognition result (step ST12).

なお、図4の破線で囲んだステップST11のように、最大類似度を閾値判定することによって、認識結果が正しいかどうかを検証することもできる(ステップST13)。たとえば、類似度があまりに低い場合には、どの認識対象でもないと判断することもできる。   Note that it is also possible to verify whether the recognition result is correct by determining the maximum similarity as a threshold value as in step ST11 surrounded by a broken line in FIG. 4 (step ST13). For example, when the degree of similarity is too low, it can be determined that it is not any recognition target.

登録情報保持部109は、認識対象者を同定するために利用する部分空間(または、相関行列など)や、登録の際の時刻、日時、場所などの状況情報などを蓄積できる。なお、画像入力データや抽出した特徴量などでもよい。   The registration information holding unit 109 can accumulate a partial space (or correlation matrix or the like) used for identifying a recognition target person, status information such as time, date and time at the time of registration, and the like. Note that image input data, extracted feature amounts, or the like may be used.

以上までの処理で基本的な人物認識の動作を行なうことが可能となるが、図5に示すように、人間の立ち位置や姿勢の経年変化、経時変化により認識率の低下を引き起こしてしまう。図5において、破線で示す枠aが登録時の顔の大きさ(顔サイズ)を示している。   Although the basic person recognition operation can be performed by the above processing, as shown in FIG. 5, the recognition rate is lowered due to the secular change and the secular change of the human standing position and posture. In FIG. 5, a frame a indicated by a broken line indicates a face size (face size) at the time of registration.

たとえば、図5(a)に示すように、登録時と同じ状態で認識時(照合時)も顔が画像内に存在している場合には、登録時と近い状態で特徴情報が抽出できるために登録辞書との類似度が高くなりやすいが、図5(b)、(c)に示すように、登録時よりも顔が大きかったり小さかったりした場合や、図には示されていないが顔の向きなどが異なる場合に類似度が低下しやすくなる。   For example, as shown in FIG. 5A, when the face is present in the image in the same state as that at the time of registration (when matching), the feature information can be extracted in a state close to that at the time of registration. Although the similarity to the registered dictionary tends to be high, as shown in FIGS. 5B and 5C, when the face is larger or smaller than at the time of registration, or the face is not shown in the figure Similarity is likely to decrease when the orientations are different.

こういった問題点を抑制するために、本実施の形態では、表示制御部111および表示部104により、たとえば、図6に示すように、撮影されている人物の顔の動画像を表示するだけでなく、撮影された画像で検出した顔の位置、大きさ、方向といった検出結果cと、登録時に顔がどの位置、どの大きさ、どのサイズで存在したかといった検出結果bを同時に表示することによって、認識対象者100がどの状態にすれば本人と確認されやすいかを分かりやすく表示するようにする。これにより、正しく顔が写っていない状態が分からないまま認識処理が終了してしまうことを防ぐことができる。   In order to suppress such problems, in the present embodiment, the display control unit 111 and the display unit 104 only display a moving image of the face of the person being photographed, for example, as shown in FIG. In addition, the detection result c such as the position, size, and direction of the face detected in the photographed image and the detection result b such as the position, size, and size of the face at the time of registration are displayed simultaneously. Thus, it is displayed in an easy-to-understand manner which state the recognition target person 100 can easily confirm with the person. As a result, it is possible to prevent the recognition process from ending without knowing that the face is not correctly captured.

すなわち、登録情報保持部109には、登録時に入力された顔画像の大きさ、位置、方向といった情報も保持されている。それぞれの値は、登録に利用された全画像における平均値でも構わないし、最大値、最小値といった値でもよいし、あるいは、これらを組合わせて幅を持たせた数値の組合わせであっても構わない。   In other words, the registration information holding unit 109 also holds information such as the size, position, and direction of the face image input at the time of registration. Each value may be an average value in all images used for registration, or may be a maximum value, a minimum value, or a combination of numerical values obtained by combining these values to give a width. I do not care.

表示部104における表示方法の例であるが、たとえば、目および鼻の4点の重心を中心座標とし、その中心座標から目および鼻の4点までの平均距離を半径とする円によって顔の位置と大きさを表現することができる。この方法を登録時の平均的な顔の位置、大きさ、および、入力画像において顔を検出したときの位置、大きさを基に太さや色、線の種類を変えて同時に描画させることで、現在の状態が登録時に比べてどれだけ状態が違っているかを示すことが可能となる。   An example of the display method in the display unit 104 is as follows. For example, the position of the face is a circle whose center coordinates are the center of gravity of the four points of the eyes and nose and whose radius is the average distance from the center coordinates to the four points of the eyes and nose. And the size can be expressed. By this method, the average face position and size at the time of registration, and the position and size when the face is detected in the input image are drawn simultaneously by changing the thickness, color, line type, It is possible to indicate how different the current state is compared to the time of registration.

これを表示した結果の例を図7に示す。図7において、破線で示す円パターンbは登録時に顔が存在した平均的な位置、大きさを示し、実線で示す円パターンcは認識時の入力画像で検出された顔領域を示している。なお、ここでは実際の入力画像が、この円パターンb、cの背景に存在していることになるが、図形がわかりやすいように省略している。   An example of the result of displaying this is shown in FIG. In FIG. 7, a circle pattern b indicated by a broken line indicates an average position and size where the face exists at the time of registration, and a circle pattern c indicated by a solid line indicates a face area detected in the input image at the time of recognition. Here, the actual input image is present in the background of the circular patterns b and c, but is omitted for easy understanding of the figure.

また、図7の例に加えて、顔の方向を曲線で示すといった内容を追加した例が図8である。上下方向と左右方向ともに正面であれば、曲線ではなく直線で表示されることになり、上下または左右に顔の向きが動けば動くほど、その方向側が凸となるように曲率を上げていく。図8において、破線で示す曲線(中心線を示す)dは登録時の顔の方向を示し、実線で示す曲線(中心線を示す)eは認識時の顔の方向を示し、これらは図示のように円パターンb、c内に描画される。   In addition to the example of FIG. 7, FIG. 8 shows an example in which contents such as the face direction indicated by a curve are added. If it is front in both the vertical and horizontal directions, it will be displayed as a straight line instead of a curve, and the curvature will be increased so that the more the face moves up and down or left and right, the more convex the direction will be. In FIG. 8, a curve d (showing the center line) d shown by a broken line indicates the face direction at the time of registration, and a curve (showing the center line) e shown by a solid line shows the direction of the face at the time of recognition. Thus, the circle patterns b and c are drawn.

また、単純にX方向、Y方向のクロス点を十字印で示した例が図9である。図9において、破線で示す十字印fは登録時の顔の方向を示し、実線で示す十字印gは認識時の顔の方向を示し、これらは図示のように円パターンb、c内に描画される。   FIG. 9 shows an example in which cross points in the X direction and Y direction are simply indicated by cross marks. In FIG. 9, a cross mark f indicated by a broken line indicates the face direction at the time of registration, a cross mark g indicated by a solid line indicates the face direction at the time of recognition, and these are drawn in the circular patterns b and c as shown in the figure. Is done.

さらに、単純に矢印で表示した例が図10である。図10において、破線で示す矢印hは登録時の顔の方向を示し、実線で示す矢印iは認識時の顔の方向を示し、これらは図示のように円パターンb、c内に描画される。   Furthermore, FIG. 10 shows an example displayed simply by arrows. In FIG. 10, an arrow h indicated by a broken line indicates the direction of the face at the time of registration, and an arrow i indicated by a solid line indicates the direction of the face at the time of recognition, and these are drawn in the circular patterns b and c as illustrated. .

また、既に説明した例は、登録時の顔の大きさ、位置、方向の平均的な値を利用しており、1つの円または楕円で表示しているものであるが、各値の最大値と最小値を利用して幅を持たせることも可能である。たとえば、図7の例において、大きさ、位置、方向に対して最大値、最小値の概念を入れた場合の例をそれぞれ図11、図12、図13に示す。大きさに関しては最大の大きさと最小の大きさを二重で示した円、位置に関しては移動範囲内で円を移動させたときの外接閉曲線、方向に関しても同様に顔の方向の移動した最大幅を示す領域を各方向それぞれ2つの曲線で表示する。   The example already described uses the average value of the face size, position, and direction at the time of registration, and is displayed as one circle or ellipse. It is also possible to give a width using the minimum value. For example, in the example of FIG. 7, examples in which the concept of the maximum value and the minimum value are entered for the size, position, and direction are shown in FIGS. 11, 12, and 13, respectively. As for the size, the maximum size and the minimum size are shown in double circles. As for the position, the circumscribed closed curve when the circle is moved within the movement range. The area indicating is indicated by two curves in each direction.

なお、図11は、登録時に検出した顔の最大と最小の大きさを示す二重の円パターンb1,b2を描画した例を示す。図12は、登録時に顔の中心座標がAからBの間で上下方向に移動した例であり、登録時に検出した顔の平均の大きさを示す円を移動させた際の概説領域jを描画した例を示す。図13は、登録時の顔の向きの最大値と最小値を示す曲線(中心線を示す)d1,d2を描画した例を示す。
また、上述した方法に限らず、登録時の顔の位置、大きさ、方向の範囲を示すことのできる図形であれば、どのような表示方法でも構わないのは明らかである。
FIG. 11 shows an example in which double circle patterns b1 and b2 indicating the maximum and minimum face sizes detected during registration are drawn. FIG. 12 shows an example in which the center coordinates of the face are moved up and down between A and B during registration, and the outline region j is drawn when the circle indicating the average size of the face detected during registration is moved. An example is shown. FIG. 13 shows an example in which curves (indicating center lines) d1 and d2 indicating the maximum value and minimum value of the face orientation at the time of registration are drawn.
Further, the display method is not limited to the above-described method, and any display method may be used as long as it is a graphic that can indicate the range of the position, size, and direction of the face at the time of registration.

また、前述の例では、顔の情報を円や楕円パターンで表示する例を説明したが、円パターンに限らず、たとえば、図14に示すような矩形パターン(多角形パターン)であったり、図15に示すような十字の線パターンであったりしてもよい。なお、図14は、登録時に顔が存在した平均的な位置、大きさを示す矩形パターンkを描画した例を示す。図15は、登録時に顔が存在していた領域(上下方向と左右方向)を示す十字の線パターンlを描画した例を示す。   In the above example, the face information is displayed as a circle or an ellipse pattern. However, the face information is not limited to the circle pattern, and may be a rectangular pattern (polygon pattern) as shown in FIG. A cross line pattern as shown in FIG. FIG. 14 shows an example in which a rectangular pattern k indicating the average position and size of the face at the time of registration is drawn. FIG. 15 shows an example in which a cross line pattern l indicating the area (vertical direction and horizontal direction) where the face was present at the time of registration is drawn.

さらには、線の描画でなく、図16に示すように、登録時に存在した顔領域m以外の領域nには入力画像を表示せず、存在した顔領域mのみ入力画像を描画する方法でも有効である。
ここでは、以上の例のみを説明をしているが、顔の存在を示すことのできる図形であれば、前述の図形にこだわる必要がないことも明らかである。
Furthermore, instead of drawing a line, as shown in FIG. 16, the input image is not displayed in the area n other than the face area m existing at the time of registration, and the method of drawing the input image only in the existing face area m is also effective. It is.
Here, only the above example has been described, but it is also clear that there is no need to stick to the above-described graphic as long as it can indicate the presence of a face.

このように、登録時の顔に関する情報と認識時の入力された顔に関する情報とを同時に表示することによって、認識対象者がどのようにすれば本人と確認されやすいかの指標を示すことができ、認識失敗で再試行といった負担を減らすことが可能となる。   In this way, by displaying the information about the face at the time of registration and the information about the input face at the time of recognition at the same time, it is possible to show an index of how the person to be recognized can easily be identified as the person. It is possible to reduce the burden of retrying due to recognition failure.

また、音声によって、たとえば、「もう少し顔をカメラから遠ざけて下さい。」とか「もう少し顔をカメラに近づけて下さい。」というようにガイダンスすることや、類似の内容を画面に表示するといったことをすることで、さらに有効性を増すこともできる。   Also, for example, guidance such as “Please keep your face a little closer to the camera” or “Please bring your face a little closer to the camera” or display similar content on the screen. Thus, the effectiveness can be further increased.

なお、本実施の形態では、部分空間を保持するだけでなく、部分空間を計算するための前段階の相関行列も保持する形態での説明を行なう。登録情報保持部109は、1人の人物、または、あるIDコードに対応して、1つまたは複数の認識データを保持する。部分空間は、その取得された時間などの付帯情報とともに記憶される。複数を保持する理由として、ある1人の人物に対応した複数の部分空間を同時に、認識部110に渡して認識を行なうことが挙げられる。   In the present embodiment, description will be made in a form that not only holds a partial space but also holds a correlation matrix in the previous stage for calculating the partial space. The registration information holding unit 109 holds one or a plurality of recognition data corresponding to one person or a certain ID code. The partial space is stored together with accompanying information such as the acquired time. The reason for holding a plurality is that a plurality of partial spaces corresponding to a single person are simultaneously passed to the recognition unit 110 for recognition.

以上説明したように、第1の実施の形態によれば、登録時の人物の顔画像の大きさを取得し、その大きさと認識時の顔画像の大きさを一定範囲内に保つように誘導させる顔画像の表示手段を備えることで、人物の顔に照射する照明の角度や人物の顔画像の大きさの違いによる人物認識率の低下を軽減することができ、高精度な人物の認識が可能となる。   As described above, according to the first embodiment, the size of the face image of the person at the time of registration is acquired, and the size and the size of the face image at the time of recognition are guided within a certain range. The facial image display means to reduce the reduction in the human recognition rate due to the difference in the illumination angle applied to the person's face and the size of the person's face image. It becomes possible.

次に、第2の実施の形態について説明する。
第2の実施の形態の構成や基本的な動作、実施方法に関しては前述した第1の実施の形態と同様であるため、ここでは説明を省略する。
Next, a second embodiment will be described.
Since the configuration, basic operation, and implementation method of the second embodiment are the same as those of the first embodiment described above, description thereof is omitted here.

第2の実施の形態では、顔の登録時に顔の位置、カメラからの近さ、顔の向きをどのようにすべきかを表示部104にガイダンス表示することによって、ある特定の状態だけの顔画像だけでなく、バリエーション豊かな顔画像を収集することができ、認識精度向上につながる有効な辞書を作成することを目的としている。   In the second embodiment, a face image only in a specific state is displayed by displaying on the display unit 104 guidance on how the face position, proximity to the camera, and face orientation should be when registering the face. Not only is it possible to collect face images rich in variations, and the purpose is to create an effective dictionary that leads to improved recognition accuracy.

登録時には、顔検出部107で検出された顔の位置、大きさ、向きといった情報を表示部104に表示する。その表示方法に関しては、第1の実施の形態と同様に円パターン、矩形パターン、十字印で表示することが可能である。   At the time of registration, information such as the position, size, and orientation of the face detected by the face detection unit 107 is displayed on the display unit 104. As for the display method, it is possible to display with a circular pattern, a rectangular pattern, or a cross mark as in the first embodiment.

また、その情報に加えてこの状態にしてほしい、というガイダンスも同時に表示する。その表示方法に関しても、第1の実施の形態で「登録時の情報」としている情報に代えて、「この位置に顔をもってきてください」という情報にすりかえて表示することで実現が可能である。たとえば、円パターン、矩形パターン、十字印、そして要望する場所以外はカメラ画像を表示しないクリッピングといった方法で実現できる。円パターンで表示した場合の表示部104の表示例を図17に示す。図17において、破線で示す円パターンpは収集(入力)すべき顔の位置と大きさを示し、実線で示す円パターンqは検出された顔の位置と大きさを示している。   In addition to the information, a guidance that you want to be in this state is displayed at the same time. The display method can also be realized by replacing the information “information at the time of registration” in the first embodiment with the information “Please bring your face to this position”. . For example, it can be realized by a method such as a circle pattern, a rectangular pattern, a cross mark, and clipping that does not display a camera image except for a desired place. A display example of the display unit 104 when displayed in a circle pattern is shown in FIG. In FIG. 17, a circle pattern p indicated by a broken line indicates the position and size of the face to be collected (input), and a circle pattern q indicated by a solid line indicates the position and size of the detected face.

これにより、要望する位置と場所に比べて現在検出された顔の位置が異なる場合には、メッセージ表示として「もっと右に寄ってください」などと表示部104に表示し、要望する顔の大きさに比べて検出結果が異なる場合には、「もっとカメラに近づいてください」、「もっとカメラから離れてください」といったメッセージを表示部104に表示する。なお、画面への表示のみならず、音声メッセージなどを同時に出力してもよい。   As a result, when the position of the currently detected face is different from the desired position and location, a message display such as “Please move further to the right” is displayed on the display unit 104, and the desired face size is displayed. If the detection result is different from the above, a message such as “Please move closer to the camera” or “Please move away from the camera” is displayed on the display unit 104. In addition to the display on the screen, a voice message or the like may be output simultaneously.

また、顔の位置や大きさと同様に顔の向きも指示するために、表示部104では、「顔を少し上向きにしてください」、「顔を少し下向きにしてください」といった内容を示すために矢印や円の移動によって指示を行なう。たとえば、矢印パターンrの表示で指示する例が図18であり、左から順に「正面」、「右」、「左」、「上」、「下」に顔を向かせるためのガイダンスの例である。同様に、カメラの画像内の円パターンsの位置によって顔の向きを変更させる例が図19である。   In addition, in order to indicate the face direction as well as the position and size of the face, the display unit 104 has an arrow to indicate contents such as “please face up slightly” and “face down slightly” Or by moving the circle. For example, FIG. 18 shows an example in which an arrow pattern r is displayed, which is an example of guidance for directing the face from the left to “front”, “right”, “left”, “up”, “down”. is there. Similarly, FIG. 19 shows an example in which the face orientation is changed depending on the position of the circular pattern s in the camera image.

このように、顔の向きを変更させやすいガイダンス表示方法であれば、これらの例に限らず、他の図形やメッセージ、あるいは、音声を利用しても同様に実現することは可能である。   As described above, the guidance display method that can easily change the orientation of the face is not limited to these examples, and can be similarly realized by using other graphics, messages, or voices.

以上説明したように、第2の実施の形態によれば、登録時にできる限り色々な方向を向いた顔画像、カメラからの距離が変化した顔画像、画面内で写る顔の位置が異なる顔画像を収集(入力)し、その顔画像から学習された顔画像の登録辞書を作成することによって、認識時にカメラの前に立つ位置や顔の向き、姿勢などが拘束されずに精度のよい認識を行なうことが可能となる。   As described above, according to the second embodiment, a face image that faces as many different directions as possible at the time of registration, a face image that has changed the distance from the camera, and a face image that has a different position on the screen. By collecting (inputting) and creating a registered dictionary of face images learned from the face images, accurate recognition is possible without restricting the position, face orientation, posture, etc. that stands in front of the camera during recognition. Can be performed.

次に、第3の実施の形態について説明する。
図20は、第3の実施の形態に係る人物認識装置の構成を概略的に示すものである。第3の実施の形態は、前述した第1の実施の形態に対し、カメラ101の前に認識対象者100の顔が存在することを検出して自動的に認識動作を開始させるように制御を行なう認識開始判定手段としての自動認識開始判定部112が追加された点が異なり、その他は第1の実施の形態と同様であるため、説明は省略する。
Next, a third embodiment will be described.
FIG. 20 schematically shows a configuration of a person recognition apparatus according to the third embodiment. In the third embodiment, control is performed so that the recognition operation is automatically started by detecting the presence of the face of the person 100 to be recognized in front of the camera 101 with respect to the first embodiment described above. The difference is that an automatic recognition start determination unit 112 as a recognition start determination unit to be performed is added, and the other points are the same as those in the first embodiment, and thus description thereof is omitted.

自動認識開始判定部112は、顔検出部107の顔検出結果で「顔が検出された」と判定されたことを利用して自動的に認識を開始させることを行なうが、仮にカメラ101の視野範囲に人物の顔が印刷されたポスタなどが存在した場合、人物が存在しなくても誤って動作してしまう可能性がある。   The automatic recognition start determination unit 112 automatically starts recognition using the fact that the face detection result of the face detection unit 107 has determined that “a face has been detected”. If there is a poster or the like on which a person's face is printed in the range, there is a possibility that it will operate erroneously even if there is no person.

そのため、自動認識開始判定部112では、1フレームの顔検出結果のみを利用するのではなく、それより前の顔検出結果との変化も考慮し、本当の人物の顔が現れた場合には必ず動きがあるという条件を付けることで、たとえば、顔写真入りポスタといったものがあった場合でも誤検出して誤動作することがなくなる。   For this reason, the automatic recognition start determination unit 112 does not use only the face detection result of one frame, but also considers the change from the face detection result before that, and whenever a real human face appears By attaching the condition that there is a motion, for example, even if there is a poster with a face photo, it will not be erroneously detected and malfunction.

顔検出部107では、図2で示したような顔のサイズ、顔の中心座標、左右の目、鼻の検出座標といった情報が得られるため、自動認識開始判定部112では、図21に示すフローチャートのような処理の流れによって、「所定のフレーム数連続して顔が検出され、かつ、顔の動きによる変動量が検出された場合」にのみ自動的に認識動作の開始を行なう。   Since the face detection unit 107 obtains information such as the face size, face center coordinates, left and right eyes, and nose detection coordinates as shown in FIG. 2, the automatic recognition start determination unit 112 performs the flowchart shown in FIG. With this processing flow, the recognition operation is automatically started only when “a face is detected continuously for a predetermined number of frames and a variation due to the movement of the face is detected”.

以下、図21に示すフローチャートに基づく処理の流れについて説明する。まず、顔検出カウンタ(図示せず、自動認識開始判定部112内に設けられている)を「0」に設定し(ステップST21)、顔検出部107の検出結果に基づき顔検出処理を行なう(ステップST22)。この顔検出処理において、現在のフレームで顔を検出しているか否かを判定し(ステップST23)、現在のフレームで顔を検出していない場合は顔検出カウンタを「0」に設定して(ステップST24)、ステップST22に戻る。   Hereinafter, the flow of processing based on the flowchart shown in FIG. 21 will be described. First, a face detection counter (not shown, provided in the automatic recognition start determination unit 112) is set to "0" (step ST21), and face detection processing is performed based on the detection result of the face detection unit 107 ( Step ST22). In this face detection process, it is determined whether or not a face is detected in the current frame (step ST23). If no face is detected in the current frame, the face detection counter is set to “0” ( Step ST24) and return to step ST22.

ステップST23において、現在のフレームで顔を検出している場合、前のフレームでも顔を検出しているか否かを判定し(ステップST25)、前のフレームでも顔を検出していない場合は顔検出カウンタを「0」に設定して(ステップST24)、ステップST22に戻る。   If a face is detected in the current frame in step ST23, it is determined whether or not a face is detected in the previous frame (step ST25). If no face is detected in the previous frame, face detection is performed. The counter is set to “0” (step ST24), and the process returns to step ST22.

ステップST25において、前のフレームでも顔を検出している場合、前のフレームとの変動量が所定閾値以上であるか否かを判定し(ステップST26)、変動量が所定閾値以上でない場合は顔検出カウンタを「0」に設定して(ステップST24)、ステップST22に戻る。   In step ST25, when a face is detected even in the previous frame, it is determined whether or not the amount of variation from the previous frame is greater than or equal to a predetermined threshold (step ST26). The detection counter is set to “0” (step ST24), and the process returns to step ST22.

ステップST26において、変動量が所定閾値以上である場合、顔検出カウンタの値が所定閾値以上であるか否かを判定し(ステップST27)、顔検出カウンタの値が所定閾値以上でない場合は顔検出カウンタを「+1」して(ステップST28)、ステップST22に戻る。   In step ST26, when the fluctuation amount is equal to or greater than a predetermined threshold value, it is determined whether or not the value of the face detection counter is equal to or greater than the predetermined threshold value (step ST27). The counter is incremented by “+1” (step ST28), and the process returns to step ST22.

ステップST27において、顔検出カウンタの値が所定閾値以上である場合、カメラ101の前に認識対象者100の顔が存在するものと判断して、認識部110の認識処理を開始させる。   In step ST27, when the value of the face detection counter is equal to or larger than the predetermined threshold value, it is determined that the face of the recognition target person 100 exists in front of the camera 101, and the recognition processing of the recognition unit 110 is started.

ここで、顔の動きを示す変動量の評価方法について、顔検出座標の中心値の変位量を例にとって説明する。図2で示す(fx,fy)が検出された顔の中心座標とした場合、その1フレーム前に検出された顔の中心座標を(pfx,pfy)とし、以下のような変動量を用いることで顔の動きを検出することが可能である。
変動量Diff=|fx−pfx|+|fy−pfy|
変動量は、前のフレーム、および、現在のフレームのどちらか一方でも顔が検出されない場合には零とし、連続して顔が検出された場合にのみ零以上の値を持つ値とする。この変動量Diffが所定の閾値Thよりも大きい場合にのみ、「動いている顔が存在している」ということを判断するための顔検出カウンタの値を増やし、この条件を満たさない場合には全て顔検出カウンタを「0」に戻す。この顔検出カウンタが所定の閾値ThCount以上になった場合は、「連続したフレームにおいて動作している顔が存在している」と判定することができ、自動的に認識処理を開始させてもよいと判定する。
Here, a method for evaluating the variation amount indicating the movement of the face will be described by taking the displacement amount of the center value of the face detection coordinates as an example. When (fx, fy) shown in FIG. 2 is the center coordinate of the detected face, the center coordinate of the face detected one frame before is (pfx, pfy), and the following variation is used. It is possible to detect the movement of the face.
Variation amount Diff = | fx−pfx | + | fy−pfy |
The fluctuation amount is zero when no face is detected in either the previous frame or the current frame, and is a value having a value of zero or more only when a face is detected continuously. Only when the fluctuation amount Diff is larger than a predetermined threshold Th, the value of the face detection counter for determining that “a moving face exists” is increased, and this condition is not satisfied. All face detection counters are reset to “0”. If this face detection counter is equal to or greater than a predetermined threshold value ThCount, it can be determined that “the face operating in consecutive frames is present”, and the recognition process may be automatically started. Is determined.

また、これに限らず、目、鼻などの顔部品の検出座標の変位量の絶対値の合計値や、顔のサイズの差分の絶対値、あるいは、顔検出座標(fx,fy)を中心として横幅±fw/2、縦幅±fh/2で表わされる矩形領域内の前フレームとの差分量、相関値といった評価量を用いても、用いた数値に最適な閾値を決めることで問題なく動作することは明らかである。   Not limited to this, the absolute value of the displacement of the detected coordinates of the face parts such as the eyes and the nose, the absolute value of the difference between the face sizes, or the detected face coordinates (fx, fy) are the center. Even if an evaluation amount such as a difference amount or a correlation value with the previous frame in the rectangular area represented by the horizontal width ± fw / 2 and the vertical width ± fh / 2 is used, it operates without problems by determining an optimum threshold value for the used numerical value. It is clear to do.

以上説明したように、第3の実施の形態によれば、カメラ101の視野範囲に人物の顔が印刷されたポスタなどのような顔として誤検出されやすい物体があったとしても、誤動作する心配がなく、所定の操作をすることなく自動的に認識動作を開始させることができる。   As described above, according to the third embodiment, even if there is an object that is likely to be erroneously detected as a face such as a poster on which the face of a person is printed in the field of view of the camera 101, there is a risk of malfunction. Therefore, the recognition operation can be automatically started without performing a predetermined operation.

次に、第4の実施の形態について説明する。
第4の実施の形態は、第1の実施の形態(あるいは、第2の実施の形態)で説明した人物認識装置を、通行者の顔画像を認識して通行者の通行を制御する通行制御装置に適用した場合の例である。
Next, a fourth embodiment will be described.
In the fourth embodiment, the person recognition apparatus described in the first embodiment (or the second embodiment) uses the traffic control for recognizing the passerby's face image and controlling the passerby's pass. This is an example when applied to an apparatus.

図22は、第4の実施の形態に係る通行制御装置の構成を概略的に示すものである。この通行制御装置は、たとえば、重要施設(セキュリティ重視の部屋など)への入退室管理を行なうもので、利用者(通行者)の顔画像を認識して、その認識結果に基づき重要施設の入退室用ドアの開閉制御を行なうものであり、カメラ101、照明部102、表示部104、処理部105、および、認識部110の認識結果に応じて重要施設201の入退室用ドア202の開閉制御を行なう通行制御手段としてのドア制御部113から構成されている。
なお、図22において、ドア制御部113以外は図1の人物認識装置と同じ構成であるので、同一符号を付して、その説明は省略する。
FIG. 22 schematically shows the configuration of the traffic control device according to the fourth embodiment. This traffic control device, for example, manages entrance / exit to important facilities (such as security-oriented rooms), recognizes the face image of the user (passer), and enters the important facility based on the recognition result. Opening / closing control of the exit door is performed, and opening / closing control of the entrance / exit door 202 of the important facility 201 is performed according to the recognition results of the camera 101, the illumination unit 102, the display unit 104, the processing unit 105, and the recognition unit 110. It is comprised from the door control part 113 as a traffic control means to perform.
In FIG. 22, the configuration other than the door control unit 113 is the same as that of the person recognition apparatus in FIG.

認識部110は、たとえば、図4のステップST6において、求めた類似度が閾値よりも大きかった場合、あるいは、ステップST11において、求めた類似度が閾値よりも大きかった場合、ドア制御部113に「ドア開」の信号を出力し、求めた類似度が閾値よりも小さかった場合、ドア制御部113に「ドア閉」の信号を出力する。   For example, when the obtained similarity is greater than the threshold in step ST6 in FIG. 4 or when the obtained similarity is greater than the threshold in step ST11, the recognition unit 110 notifies the door control unit 113 that “ When the door open signal is output and the obtained similarity is smaller than the threshold value, the door control unit 113 outputs a “door close” signal.

ドア制御部113は、認識部110から「ドア開」の信号を受取ると、入退室用ドア202を開状態に制御して、認識対象者(この場合は通行者)100の入室を許可し、「ドア閉」の信号を受取ると、入退室用ドア202を閉状態に保持して、通行者100の入室を拒否する。
このように、第4の実施の形態によれば、第1の実施の形態(あるいは、第2の実施の形態)で説明した人物認識装置を用いて通行者の通行を制御することができる。
When the door control unit 113 receives the “door open” signal from the recognition unit 110, the door control unit 113 controls the entrance / exit door 202 to be in an open state, and allows the recognition target person (passer in this case) 100 to enter the room. When the “door closed” signal is received, the entrance / exit door 202 is kept closed, and the passer-by 100 is refused to enter the room.
Thus, according to the fourth embodiment, it is possible to control the passage of passers-by using the person recognition device described in the first embodiment (or the second embodiment).

なお、上記第4の実施の形態では、代表として、第1の実施の形態(あるいは、第2の実施の形態)で説明した人物認識装置を適用した場合について説明したが、第3の実施の形態で説明した人物認識装置を適用することも可能である。第3の実施の形態で説明した人物認識装置を適用した場合を第5の実施の形態としてその構成を図23に示す。   In the fourth embodiment, the case where the person recognition apparatus described in the first embodiment (or the second embodiment) is applied has been described as a representative. It is also possible to apply the person recognition device described in the embodiment. FIG. 23 shows the configuration of a case where the person recognition apparatus described in the third embodiment is applied as a fifth embodiment.

本発明の第1の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。1 is a block diagram schematically showing the configuration of a person recognition device according to a first embodiment of the present invention. 顔検出部の処理を説明するための図。The figure for demonstrating the process of a face detection part. 特徴量抽出部の処理を説明するための図。The figure for demonstrating the process of a feature-value extraction part. 認識部の認識処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the recognition process of a recognition part. 登録時との状態変化を説明するための図。The figure for demonstrating a state change with the time of registration. 表示部の説明図。Explanatory drawing of a display part. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 登録情報と検出情報の同時描画を説明するための図。The figure for demonstrating simultaneous drawing of registration information and detection information. 本発明の第2の実施の形態に係る登録時に収集すべき顔の位置と大きさを示すガイダンスの説明図。Explanatory drawing of the guidance which shows the position and size of the face which should be collected at the time of registration which concerns on the 2nd Embodiment of this invention. 登録時ガイダンスの説明図。Explanatory drawing of guidance at the time of registration. 登録時ガイダンスの説明図。Explanatory drawing of guidance at the time of registration. 本発明の第3の実施の形態に係る人物認識装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the person recognition apparatus which concerns on the 3rd Embodiment of this invention. 自動認識開始判定部の処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of a process of an automatic recognition start determination part. 本発明の第4の実施の形態に係る通行制御装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the traffic control apparatus which concerns on the 4th Embodiment of this invention. 本発明の第5の実施の形態に係る通行制御装置の構成を概略的に示すブロック図。The block diagram which shows roughly the structure of the traffic control apparatus which concerns on the 5th Embodiment of this invention.

符号の説明Explanation of symbols

100…認識対象者(人物、通行者)、101…カメラ(画像入力手段)、102…照明部(照明手段)、104…表示部(表示手段)、105…処理部、106…画像入力部(画像入力手段)、107…顔検出部(顔検出手段)、108…特徴量抽出部(特徴量抽出手段)、109…登録情報保持部(登録情報保持手段)、110…認識部(認識手段)111…表示制御部(表示手段)、112…自動認識開始判定部(認識開始判定手段)、113…ドア制御部(通行制御手段)、201…重要施設、202…入退室用ドア。   DESCRIPTION OF SYMBOLS 100 ... Recognition person (person, passerby), 101 ... Camera (image input means), 102 ... Illumination part (illumination means), 104 ... Display part (display means), 105 ... Processing part, 106 ... Image input part ( Image input means), 107 ... Face detection section (face detection means), 108 ... Feature quantity extraction section (feature quantity extraction means), 109 ... Registration information holding section (registration information holding means), 110 ... Recognition section (recognition means) DESCRIPTION OF SYMBOLS 111 ... Display control part (display means), 112 ... Automatic recognition start determination part (recognition start determination means), 113 ... Door control part (traffic control means), 201 ... Important facility, 202 ... Door for entrance / exit.

Claims (9)

認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示手段と、
を具備したことを特徴とする人物認識装置。
An image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means;
Feature amount extraction means for extracting the feature amount of the person's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
A recognizing unit for recognizing the person by comparing the feature amount extracted by the feature amount extracting unit with the registered information held in the registered information holding unit;
Display means for instructing the orientation of a face image to be input by moving and displaying a guide pattern of a predetermined shape at the time of registration;
A person recognition device comprising:
認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の円パターンで表示するとともに、登録時における顔検出手段の検出結果を第2の円パターンで表示する表示手段と、
を具備したことを特徴とする人物認識装置。
An image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means;
Feature amount extraction means for extracting the feature amount of the person's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
A recognizing unit for recognizing the person by comparing the feature amount extracted by the feature amount extracting unit with the registered information held in the registered information holding unit;
At the time of registration, the first circle pattern indicating the position of the face image to be input and the distance from the image input means to the face is displayed as guidance information indicating the state in which the face image should be input. And display means for displaying the detection result of the face detection means at the time of registration in a second circle pattern;
A person recognition device comprising:
認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の多角形パターンで表示するとともに、登録時における顔検出手段の検出結果を第2の多角形パターンで表示する表示手段と、
を具備したことを特徴とする人物認識装置。
An image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means;
Feature amount extraction means for extracting the feature amount of the person's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
A recognizing unit for recognizing the person by comparing the feature amount extracted by the feature amount extracting unit with the registered information held in the registered information holding unit;
Displayed as a first polygon pattern indicating the position of the face image to be input and the distance from the image input means to the face, etc., as guidance information indicating in what state the face image should be input at the time of registration And a display means for displaying the detection result of the face detection means at the time of registration in a second polygon pattern,
A person recognition device comprising:
認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
登録時、顔画像をどのような状態で入力すればよいかを示す案内情報として、入力すべき顔画像の位置や前記画像入力手段から顔までの距離などを示す第1の少なくとも1つ以上の直線で表示するとともに、登録時における顔検出手段の検出結果を第2の少なくとも1つ以上の直線で表示する表示手段と、
を具備したことを特徴とする人物認識装置。
An image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means;
Feature amount extraction means for extracting the feature amount of the person's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
A recognizing unit for recognizing the person by comparing the feature amount extracted by the feature amount extracting unit with the registered information held in the registered information holding unit;
At the time of registration, at least one or more first information indicating the position of the face image to be input, the distance from the image input means to the face, etc. as guidance information indicating in what state the face image should be input Display means for displaying the detection result of the face detection means at the time of registration with at least one second straight line and displaying the straight line;
A person recognition device comprising:
認識対象となる人物の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記人物の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識手段と、
登録時、入力すべき顔画像の向きを矢印パターンで描画することで表示する、あるいは、当該入力画像内に描画した円パターンの位置で表示する表示手段と、
を具備したことを特徴とする人物認識装置。
An image input means for inputting at least a face image of a person to be recognized;
Face detection means for detecting the face area of the person from the image input by the image input means;
Feature amount extraction means for extracting the feature amount of the person's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
A recognizing unit for recognizing the person by comparing the feature amount extracted by the feature amount extracting unit with the registered information held in the registered information holding unit;
When registering, display means for displaying the orientation of the face image to be input by drawing with an arrow pattern, or displaying at the position of the circle pattern drawn in the input image,
A person recognition device comprising:
前記人物に向けて光を照射する照明手段をさらに具備したことを特徴とする請求項1ないし請求項5のいずれか1つに記載の人物認識装置。   6. The person recognition apparatus according to claim 1, further comprising illumination means for irradiating light toward the person. 認識対象となる人物の少なくとも顔画像を入力する画像入力工程と、
この画像入力工程により入力された画像から前記人物の顔領域を検出する顔検出工程と、
この顔検出工程の検出結果に基づき前記人物の顔の特徴量を抽出する特徴量抽出工程と、
登録時、前記特徴量抽出工程により抽出された特徴量を登録情報として登録情報保持手段に保持する登録情報保持工程と、
認識時、前記特徴量抽出工程により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記人物を認識する認識工程と、
登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示工程と、
を具備したことを特徴とする人物認識方法。
An image input step of inputting at least a face image of a person to be recognized;
A face detection step of detecting a face area of the person from the image input by the image input step;
A feature amount extraction step of extracting a feature amount of the person's face based on the detection result of the face detection step;
At the time of registration, a registration information holding step for holding the feature quantity extracted by the feature quantity extraction step as registration information in a registration information holding means;
A recognition step of recognizing the person by recognizing the feature amount extracted by the feature amount extraction step and the registration information held in the registration information holding unit;
At the time of registration, a display process for instructing the orientation of the face image to be input by moving and displaying a guide pattern of a predetermined shape;
A person recognition method comprising:
通行者を認識して前記通行者の通行を制御する通行制御装置において、
前記通行者の少なくとも顔画像を入力する画像入力手段と、
この画像入力手段により入力された画像から前記通行者の顔領域を検出する顔検出手段と、
この顔検出手段の検出結果に基づき前記通行者の顔の特徴量を抽出する特徴量抽出手段と、
登録時、前記特徴量抽出手段により抽出された特徴量を登録情報として保持する登録情報保持手段と、
認識時、前記特徴量抽出手段により抽出された特徴量と前記登録情報保持手段に保持されている登録情報とを照合することにより前記通行者を認識する認識手段と、
この認識手段の認識結果に応じて前記通行者の通行を制御する通行制御手段と、
登録時、所定形状の案内パターンを移動表示させることで、入力すべき顔画像の向きを指示する表示手段と、
を具備したことを特徴とする通行制御装置。
In a traffic control device that recognizes a passerby and controls the pass of the passerby,
Image input means for inputting at least a face image of the passer;
Face detection means for detecting a face area of the passer-by from the image input by the image input means;
Feature quantity extraction means for extracting the feature quantity of the passer's face based on the detection result of the face detection means;
Registration information holding means for holding the feature quantity extracted by the feature quantity extraction means as registration information at the time of registration;
Recognizing means for recognizing the passerby by comparing the feature amount extracted by the feature amount extracting means with the registered information held in the registered information holding means at the time of recognition;
A passage control means for controlling the passage of the passer according to the recognition result of the recognition means;
Display means for instructing the orientation of a face image to be input by moving and displaying a guide pattern of a predetermined shape at the time of registration;
A traffic control device comprising:
前記通行者に向けて光を照射する照明手段をさらに具備したことを特徴とする請求項8記載の通行制御装置。   9. The traffic control device according to claim 8, further comprising illumination means for irradiating light toward the passerby.
JP2007060916A 2007-03-09 2007-03-09 Person recognizing device, person recognizing method, passage control device Abandoned JP2007179569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007060916A JP2007179569A (en) 2007-03-09 2007-03-09 Person recognizing device, person recognizing method, passage control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007060916A JP2007179569A (en) 2007-03-09 2007-03-09 Person recognizing device, person recognizing method, passage control device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001335842A Division JP3974375B2 (en) 2001-08-24 2001-10-31 Person recognition device, person recognition method, and traffic control device

Publications (1)

Publication Number Publication Date
JP2007179569A true JP2007179569A (en) 2007-07-12

Family

ID=38304634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007060916A Abandoned JP2007179569A (en) 2007-03-09 2007-03-09 Person recognizing device, person recognizing method, passage control device

Country Status (1)

Country Link
JP (1) JP2007179569A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009231922A (en) * 2008-03-19 2009-10-08 Sony Corp Composition determination device, composition determination method, and program
JP2010238181A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Facial authentication apparatus and facial authentication method
JP2010250408A (en) * 2009-04-13 2010-11-04 Denso Wave Inc Optical information reader
WO2012066910A1 (en) * 2010-11-19 2012-05-24 株式会社ニコン Guidance system, detection device, and position assessment device
JP2013114594A (en) * 2011-11-30 2013-06-10 Toshiba Corp Individual image data acquisition device and individual image data acquisition method
JP2019135618A (en) * 2018-02-05 2019-08-15 キヤノン株式会社 Information processing apparatus, system, method of controlling information processing apparatus, and program
JP2020503578A (en) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identification and authentication using virtual reality
JP2020144921A (en) * 2020-05-21 2020-09-10 日本電気株式会社 Information processing device, information processing method, and program
JP2021039687A (en) * 2019-09-05 2021-03-11 株式会社日立製作所 Video processing device, video processing system, and video processing method
CN113034764A (en) * 2019-12-24 2021-06-25 深圳云天励飞技术有限公司 Access control method, device, equipment and access control system

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4508257B2 (en) * 2008-03-19 2010-07-21 ソニー株式会社 Composition determination apparatus, composition determination method, and program
US8810673B2 (en) 2008-03-19 2014-08-19 Sony Corporation Composition determination device, composition determination method, and program
JP2009231922A (en) * 2008-03-19 2009-10-08 Sony Corp Composition determination device, composition determination method, and program
JP2010238181A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Facial authentication apparatus and facial authentication method
JP2010250408A (en) * 2009-04-13 2010-11-04 Denso Wave Inc Optical information reader
WO2012066910A1 (en) * 2010-11-19 2012-05-24 株式会社ニコン Guidance system, detection device, and position assessment device
US10255491B2 (en) 2010-11-19 2019-04-09 Nikon Corporation Guidance system, detection device, and position assessment device
JP2013114594A (en) * 2011-11-30 2013-06-10 Toshiba Corp Individual image data acquisition device and individual image data acquisition method
US11227038B2 (en) 2016-10-13 2022-01-18 Advanced New Technologies Co., Ltd. User identity authentication using virtual reality
JP2020503578A (en) * 2016-10-13 2020-01-30 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited User identification and authentication using virtual reality
JP2019135618A (en) * 2018-02-05 2019-08-15 キヤノン株式会社 Information processing apparatus, system, method of controlling information processing apparatus, and program
US11195298B2 (en) 2018-02-05 2021-12-07 Canon Kabushiki Kaisha Information processing apparatus, system, method for controlling information processing apparatus, and non-transitory computer readable storage medium
JP7104523B2 (en) 2018-02-05 2022-07-21 キヤノン株式会社 Information processing equipment, systems, information processing equipment control methods, and programs
JP2021039687A (en) * 2019-09-05 2021-03-11 株式会社日立製作所 Video processing device, video processing system, and video processing method
JP7271373B2 (en) 2019-09-05 2023-05-11 株式会社日立製作所 VIDEO PROCESSING DEVICE, VIDEO PROCESSING SYSTEM AND VIDEO PROCESSING METHOD
CN113034764A (en) * 2019-12-24 2021-06-25 深圳云天励飞技术有限公司 Access control method, device, equipment and access control system
CN113034764B (en) * 2019-12-24 2023-03-03 深圳云天励飞技术有限公司 Access control method, device, equipment and access control system
JP2020144921A (en) * 2020-05-21 2020-09-10 日本電気株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
JP3974375B2 (en) Person recognition device, person recognition method, and traffic control device
JP2007179569A (en) Person recognizing device, person recognizing method, passage control device
JP4241763B2 (en) Person recognition apparatus and method
US6690814B1 (en) Image processing apparatus and method
JP5008269B2 (en) Information processing apparatus and information processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR20160124719A (en) Image Recognition Apparatus and Data Registration Method for Image Recognition Apparatus
JP2004213087A (en) Device and method for personal identification
KR20040038617A (en) Person recognizing apparatus, person recognizing method and passage controller
Mohandes et al. Prototype Arabic Sign language recognition using multi-sensor data fusion of two leap motion controllers
JP4976156B2 (en) Image identification method
JP2005084815A (en) Face recognition device, face recognition method and passage control apparatus
KR20020072198A (en) Detector for identifying facial image
KR102005150B1 (en) Facial expression recognition system and method using machine learning
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
Katara et al. Attendance system using face recognition and class monitoring system
Yustiawati et al. Analyzing of different features using Haar cascade classifier
JP2004234355A (en) Human body recognition device, human body recognition method and passing controller
JP2005182184A (en) Person recognition apparatus, person recognition method and access control apparatus
JP2004157771A (en) Person identification device, person identification method, and passage controller
JP2004151978A (en) Figure recognition device, figure recognition method and passage control device
KR20070118806A (en) Method of detecting face for embedded system
JP2002334335A (en) Face image recognition device and passage controller
JP2005242777A (en) Face collation device and passage control device
JP2005063172A (en) Face verifying apparatus and passage controller

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20100104