JP2002288670A - Personal authentication device using facial image - Google Patents

Personal authentication device using facial image

Info

Publication number
JP2002288670A
JP2002288670A JP2001083728A JP2001083728A JP2002288670A JP 2002288670 A JP2002288670 A JP 2002288670A JP 2001083728 A JP2001083728 A JP 2001083728A JP 2001083728 A JP2001083728 A JP 2001083728A JP 2002288670 A JP2002288670 A JP 2002288670A
Authority
JP
Japan
Prior art keywords
face
image
user
database
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001083728A
Other languages
Japanese (ja)
Other versions
JP4675492B2 (en
Inventor
Takahiro Ohashi
孝裕 大橋
Ryoji Igarashi
亮治 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2001083728A priority Critical patent/JP4675492B2/en
Publication of JP2002288670A publication Critical patent/JP2002288670A/en
Application granted granted Critical
Publication of JP4675492B2 publication Critical patent/JP4675492B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a personal authentication device for automatically detecting the direction of a user's face as a subject, and executing the face recognition in accordance with the direction of the face to execute the personal authentication. SOLUTION: This authentication device is provided with one or plural cameras for imaging the user; a lighting means mounted to illuminate the user's face; a detecting means for detecting the direction of the user's face, on the basis of the image output from the camera; a means for sorting the face images into the front faces and the face images excluding the front faces, a database of the face image for checking, created by imaging the images of the user from the front; and an identifying means for collating the front face image sorted by the sorting means with the face image in the database of the face image for collating, and identifying the user. According to this device, only the facial image facing the front can be selected from the user's face image photographed by the camera for checking.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ヒューマン・イン
ターフェース一般に関連し、より具体的には、画像認識
を利用した個人認証システムに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a human interface in general, and more particularly, to a personal authentication system using image recognition.

【0002】[0002]

【従来の技術】個々の人間を識別する個人認証システム
は、セキュリティを必要とする様々な場面に利用するこ
とができる。そのような個人認証システムで用いられる
認識手法の1つに、人間の顔画像から個人を識別する顔
認識を利用する手法がある。
2. Description of the Related Art A personal authentication system for identifying an individual can be used in various situations requiring security. One of the recognition methods used in such an individual authentication system is a method that uses face recognition for identifying an individual from a human face image.

【0003】人間の顔画像を利用する顔認識では、顔に
マーキングを付けたり、手動による特徴抽出を行ってか
ら顔認識を実行する手法などが提案されてきたが、近
年、完全に非接触な全自動の顔認識手法が提案されてい
る。そのような完全に非接触な全自動の顔認識手法の多
くは、テンプレート・マッチングなどによる特徴抽出の
後で顔画像を正規化し、その正規化画像を顔データベー
スと照合する。顔データベースとの照合に使用すること
ができるアルゴリズムには、正規化相互相関、固有空間
法、ニューラル・ネットワーク(NN)などがあり、そ
のようなアルゴリズムの結果に基づいて個人認証がなさ
れる。
[0003] In face recognition using a human face image, a method of marking a face or manually extracting features before executing face recognition has been proposed. In recent years, however, a completely non-contact method has been proposed. A fully automatic face recognition method has been proposed. Many of such fully non-contact, fully automatic face recognition methods normalize a face image after feature extraction by template matching or the like, and match the normalized image with a face database. Algorithms that can be used for matching with the face database include normalized cross-correlation, eigenspace method, neural network (NN), etc., and personal authentication is performed based on the result of such an algorithm.

【0004】従来技術の顔認識手法は、あらかじめ記憶
された顔データ(顔画像、顔テンプレートなど)に基づ
いて照合を実行するので、その記憶された顔データとは
異なる顔の位置、向き、傾きなどの変化に非常に弱い欠
点がある。例えば、顔認識で使用される顔データベース
に記憶された顔データが正面を向いた顔のテンプレート
である場合、その顔テンプレートとは異なる状態の顔画
像(例えば斜めを向いた顔画像)を正確に認識すること
は困難である。そのため、従来技術の顔認識システム
は、異なる状態の顔画像に対処するために認識処理前に
顔画像の正規化処理を実行するのが一般的である。
In the conventional face recognition method, since the matching is performed based on face data (a face image, a face template, etc.) stored in advance, the position, orientation, and inclination of the face different from the stored face data are determined. There are drawbacks that are very weak in such changes. For example, when the face data stored in the face database used for face recognition is a face template facing the front, a face image in a state different from the face template (for example, a face image facing obliquely) is accurately detected. It is difficult to recognize. Therefore, the face recognition system of the related art generally performs face image normalization processing before recognition processing in order to deal with face images in different states.

【0005】この正規化処理を実行した場合、入力画像
の顔が所定の顔データ形式(所定の顔のサイズ、顔の位
置、顔の傾き、および画像の明度)にされるので、顔の
認識率は向上するが、従来技術の顔認識は、基本的に入
力画像中の人間の顔向き自体を検出する機能を備えてい
ないので、横向きの顔画像の場合、認識率の低下は避け
られない。したがって、従来技術の顔認識を実行する場
合、対象となるユーザは、カメラに対して常に所定の方
向を向くよう意識しなければならず、ユーザの負担を増
加させていた。
When this normalization processing is executed, the face of the input image is converted into a predetermined face data format (predetermined face size, face position, face inclination, and image brightness). Although the rate is improved, the face recognition of the prior art basically does not have a function of detecting the human face direction itself in the input image, so that in the case of a face image in a horizontal direction, a decrease in the recognition rate is inevitable. . Therefore, when performing face recognition of the related art, the target user must always be conscious of facing the camera in a predetermined direction, which increases the burden on the user.

【0006】入力画像から人間の顔の向きを検出する従
来技術としては、特開平11−63927号公報、特開
2000−113186号公報などがある。さらに松本
ほかによる「顔・視線計測システムの開発と動作認識へ
の応用」(第5回ロボティクス・シンポジア、2000
/3/26、27)の論文では、入力画像から人間の顔
向きだけでなく視線方向も検出し、入力画像からリアル
タイムに顔向きと視線方向を追従するシステムが開示さ
れている。
Conventional techniques for detecting the direction of a human face from an input image include JP-A-11-63927 and JP-A-2000-113186. Matsumoto et al., "Development of Face / Gaze Measurement System and Application to Motion Recognition" (5th Robotics Symposia, 2000
/ 3/26, 27) discloses a system that detects not only a human face direction but also a gaze direction from an input image and follows the face direction and the gaze direction in real time from the input image.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、これら
の従来の手法は、いずれも人間の顔向きまたは視線方向
を検出するもので、個々の人間を識別する顔認識は実現
されていない。
However, all of these conventional methods detect the direction of the face or the direction of the line of sight of a person, and face recognition for identifying an individual person has not been realized.

【0008】したがって、本発明は、対象となるユーザ
の顔の向きを自動的に検出し、その顔の向きに応じた顔
認識を実行して個人認証を行う個人認証装置を提供する
ことを目的とする。
Accordingly, an object of the present invention is to provide a personal authentication apparatus for automatically detecting the direction of a target user's face, performing face recognition according to the face direction, and performing personal authentication. And

【0009】[0009]

【課題を解決するための手段】上記課題を解決するた
め、この発明の認証装置は、ユーザを撮影する1つまた
は複数のカメラと、前記ユーザの顔を照射するよう設置
された照明手段と、前記カメラの画像出力から前記ユー
ザの顔の向きを検出する検出手段と、前記検出された顔
向きに応じて、前記画像出力の顔画像を正面と正面以外
の顔画像に選別する手段と、前記ユーザを正面から撮影
した照合用顔画像のデータベースと、前記選別手段によ
り選別された前記正面を向いた顔画像を前記照合用顔画
像のデータベースの顔画像と照合し、前記ユーザを識別
する識別手段と、を備えるという構成をとる。
In order to solve the above-mentioned problems, an authentication device according to the present invention comprises one or more cameras for photographing a user, lighting means installed to irradiate the user's face, Detecting means for detecting the orientation of the user's face from the image output of the camera, and means for selecting the face image of the image output into a front image and a face image other than the front, according to the detected face direction, A database of a face image for comparison photographing the user from the front, and an identification unit for identifying the user by comparing the face image facing the front selected by the selection unit with the face image in the database of the face image for comparison. Is provided.

【0010】この発明によると、カメラにより撮影され
たユーザの顔画像から正面を向いた顔画像だけを選択し
て照合することが可能になる。これにより従来技術の個
人認証装置と比較して高精度に個々の人間を識別するこ
とができる。
According to the present invention, it is possible to select and collate only a face image facing the front from a user's face image photographed by the camera. As a result, individual persons can be identified with higher accuracy as compared with the personal authentication device of the related art.

【0011】この発明の1つの形態によると、前記認証
装置は、前記検出されたユーザの顔画像を、前記照合用
顔画像のデータベースに記憶されている顔画像と同じサ
イズおよび位置の顔画像に調整する正規化手段を備え、
前記識別手段は、該正規化された画像を該照合用顔画像
のデータベースの顔画像と照合し、該ユーザを識別する
よう構成される。
According to one embodiment of the present invention, the authentication device converts the detected face image of the user into a face image having the same size and position as the face image stored in the database of the face images for comparison. With normalizing means to adjust,
The identification unit is configured to identify the user by comparing the normalized image with a face image in the database of face images for comparison.

【0012】この形態によると、顔画像を顔の位置およ
びサイズに応じて正規化することが可能であり、カメラ
により撮影された顔画像が、照合用顔画像のデータベー
スに記憶されている顔画像と同じサイズおよび位置にさ
れるので、個人認証装置の認識精度を高めることができ
る。
According to this aspect, the face image can be normalized according to the position and size of the face, and the face image photographed by the camera is stored in the face image database for comparison. Since the size and the position are the same, the recognition accuracy of the personal authentication device can be improved.

【0013】この発明の1つの形態によると、前記認証
装置は、前記正規化手段により正規化された画像から予
め定めた画像領域を抽出する抽出手段と、該予め定めた
画像領域の基準データを格納する成否判断データベース
と、該抽出された画像領域を該基準データと照合し、該
正規化手段による正規化の成否を判定する成否判定手段
と、を備えるよう構成される。
According to one embodiment of the present invention, the authentication device comprises: an extracting unit for extracting a predetermined image region from the image normalized by the normalizing unit; and a reference data for the predetermined image region. It is configured to include a success / failure judgment database to be stored, and success / failure judgment means for comparing the extracted image area with the reference data and judging success / failure of normalization by the normalization means.

【0014】この形態によると、正規化手段によって正
規化画像が正しく正規化されているかどうかを確認する
ことができる。したがって、個人認証装置に含まれる識
別手段のエラーを低減することが可能になり、安定に動
作する個人認証装置を提供することができる。
According to this aspect, it is possible to confirm whether or not the normalized image has been correctly normalized by the normalizing means. Therefore, it is possible to reduce errors in the identification means included in the personal authentication device, and to provide a personal authentication device that operates stably.

【0015】この発明の1つの形態によると、前記認証
装置は、前記ユーザを複数の顔向きのそれぞれから撮影
した顔向き別の照合用顔画像のデータベースを備え、前
記識別手段は、該ユーザの検出された顔向きに応じた前
記顔向き別の照合用顔画像と該ユーザの横向きの顔画像
とを照合し、該ユーザを識別するよう構成される。
According to one aspect of the present invention, the authentication device includes a database of face images for matching, which is obtained by photographing the user from each of a plurality of face directions, for each face direction, and wherein the identification means includes: It is configured to match the face image for matching for each face direction according to the detected face direction with the face image of the user facing sideways to identify the user.

【0016】この形態によると、カメラにより撮影され
た顔画像の顔向きに応じて、個人認証することが可能に
なる。したがって、ユーザが顔向きを意識することなし
に個人認証を実行する個人認証装置を提供することが可
能になる。
According to this embodiment, personal authentication can be performed according to the face direction of the face image captured by the camera. Therefore, it is possible to provide a personal authentication device that performs personal authentication without the user being aware of the face orientation.

【0017】この発明の1つの形態によると、前記個人
認証装置の前記顔向き検出手段は、予め定めた1つまた
は複数の顔の特徴部分の基準画像および該基準画像に対
応する3次元座標を格納している特徴点データベースを
含み、該3次元座標が顔の特徴部分にそれぞれ関連付け
られ、該特徴部分の基準画像をテンプレートにして前記
カメラの画像出力から該特徴部分の基準画像に対応する
画像領域を抽出する抽出手段と、該抽出された画像領域
に基づいて、該抽出された画像領域の3次元座標を求め
る手段と、該求められた画像領域の3次元座標と該基準
画像に対応する3次元座標から前記ユーザの顔の向きを
検出する手段と、を含むよう構成される。
According to one embodiment of the present invention, the face direction detecting means of the personal authentication device converts a predetermined reference image of one or more facial features and three-dimensional coordinates corresponding to the reference image. An image corresponding to the reference image of the feature portion from the image output of the camera using the reference image of the feature portion as a template, including the stored feature point database; Extracting means for extracting a region, means for obtaining three-dimensional coordinates of the extracted image region based on the extracted image region, and corresponding to the three-dimensional coordinates of the obtained image region and the reference image Means for detecting the orientation of the user's face from three-dimensional coordinates.

【0018】この形態によると、顔向き検出手段は、3
次元的にユーザの顔向きを検出することが可能になり、
これにより、個人認証装置は、3次元的な顔向きに基づ
いてユーザの顔画像の正規化と識別を処理することがで
きる。
According to this embodiment, the face direction detecting means comprises:
It is possible to detect the user's face direction in a dimension,
Accordingly, the personal authentication device can perform normalization and identification of the user's face image based on the three-dimensional face direction.

【0019】この発明の1つの形態によると、前記個人
認証装置の前記照明手段は、前記ユーザの顔を赤外光で
照射するよう構成される。
According to one embodiment of the present invention, the illuminating means of the personal authentication device is configured to irradiate the user's face with infrared light.

【0020】この形態によると、赤外光を照明として使
用することにより、可視光を使用して得られる画像と比
較して、ユーザの周囲の照明変動に対して影響の少ない
画像が得られ、さらにユーザの瞳孔を明瞭に抽出するこ
とが可能になる。
According to this embodiment, by using infrared light as illumination, an image having less influence on illumination fluctuation around the user can be obtained as compared with an image obtained using visible light. Further, the pupil of the user can be clearly extracted.

【0021】この発明の1つの形態によると、前記認証
装置の前記識別手段は、前記画像出力からの顔画像に対
応する顔画像が前記照合用顔画像のデータベースに存在
するか否かを判断する手段を含み、前記画像出力からの
顔画像に対応する顔画像が前記照合用データベースに存
在することに応答して、前記ユーザを登録済みユーザと
判断し、前記画像出力からの顔画像に対応する顔画像が
前記照合用データベースに存在しないことに応答して、
前記ユーザを未登録ユーザと判断するよう構成される。
According to one aspect of the present invention, the identification means of the authentication device determines whether or not a face image corresponding to the face image from the image output exists in the database of the face images for comparison. Means for determining that the user is a registered user in response to the presence of a face image corresponding to the face image from the image output in the matching database, and corresponding to the face image from the image output In response to the face image not being present in the matching database,
It is configured to determine the user as an unregistered user.

【0022】この形態によると、ユーザがデータベース
に登録済みか未登録かが判断され、そのユーザの属性に
応じてそれぞれ異なる処理を実行することが可能にな
る。
According to this embodiment, it is determined whether the user has been registered or not registered in the database, and it is possible to execute different processes according to the attribute of the user.

【0023】この発明の1つの形態によると、前記認証
装置は、前記登録済みユーザそれぞれに関連付けられた
複数の環境設定データを記憶する環境設定データベース
と、前記環境設定データに応じて自動車の環境を設定す
る環境設定手段と、を含み、前記ユーザが登録済みユー
ザと判断されたときに、自動車の運転を許可し、前記環
境設定データベースから前記登録済みユーザに関する環
境設定データを読み取り、該登録済みユーザに関する環
境設定データに応じて自動車の環境を設定するよう構成
される。
According to one embodiment of the present invention, the authentication device includes an environment setting database storing a plurality of environment setting data associated with each of the registered users, and an environment of a vehicle according to the environment setting data. Environment setting means for setting, when the user is determined to be a registered user, permitting driving of a car, reading environment setting data on the registered user from the environment setting database, And setting the environment of the vehicle in accordance with the environment setting data.

【0024】この形態によると、ユーザが登録済みユー
ザである場合に、各ミラーの角度、シート・ポジション
などの環境設定を個々のユーザに応じて自動的に調整す
ることが可能になる。
According to this embodiment, when the user is a registered user, it is possible to automatically adjust environmental settings such as the angle of each mirror and the seat position according to each user.

【0025】この発明の1つの形態によると、前記認証
装置は、ユーザの身分を証明する身分証明手段を認証す
る認証手段を含み、前記ユーザが未登録ユーザと判断さ
れたときに、前記身分証明手段の提示を前記ユーザに要
求し、前記認証手段で該身分証明手段が認証されること
に応答して該ユーザに自動車の使用許可を与え、前記ユ
ーザにより前記身分証明手段が提示されなかったことお
よび前記認証手段で該身分証明手段が認証されなかった
ことに応答して該ユーザによる自動車の使用を禁止する
よう構成される。
According to one embodiment of the present invention, the authentication device includes authentication means for authenticating identification means for certifying the identity of the user, and when the user is determined to be an unregistered user, the identification means Requesting the user to present a means, and in response to the authentication means being authenticated by the identification means, giving the user permission to use the car, and the identification means not being presented by the user. And the user is prohibited from using the vehicle in response to the identification means not being authenticated by the authentication means.

【0026】この形態によると、鍵、カード鍵、パスワ
ードなどの身分証明手段によって未登録ユーザを管理す
ることが可能になる。本発明の個人認証装置は、これら
の身分証明手段がユーザによって正しく提示されなけれ
ば、自動車の使用を禁止することができる。
According to this embodiment, it is possible to manage an unregistered user by identification means such as a key, a card key, and a password. The personal authentication device of the present invention can prohibit the use of a car unless these identification means are correctly presented by the user.

【0027】[0027]

【発明の実施の形態】次に本発明の実施例を図面を参照
して説明する。図1は、本発明による個人認証装置を備
えた自動車の1つの実施形態を示す。図1の自動車は、
画像入力部1、サイドミラー2、ルームミラー3、制御
装置5、赤外線照射部6を備える。この実施形態では、
運転席にいるドライバーの顔画像が画像入力部1により
撮影され、その撮影された画像から運転席にいるドライ
バーが認識される。認識されたドライバーがその自動車
のデータベースに予め登録された人物であれば、制御装
置5は、その人物に応じた環境設定(ミラーの角度、ド
ライビング・シートのポジションなど)を参照して、ア
クチュエータにそれぞれ連結されたサイドミラー2、ル
ームミラー3などを調整する。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 shows one embodiment of a motor vehicle equipped with a personal identification device according to the present invention. The car in FIG.
An image input unit 1, a side mirror 2, a room mirror 3, a control device 5, and an infrared irradiation unit 6 are provided. In this embodiment,
A face image of the driver in the driver's seat is captured by the image input unit 1, and the driver in the driver's seat is recognized from the captured image. If the recognized driver is a person registered in advance in the database of the vehicle, the control device 5 refers to the environment setting (mirror angle, driving seat position, etc.) corresponding to the person, and sets the actuator to the actuator. The side mirror 2, the room mirror 3, etc., which are respectively connected, are adjusted.

【0028】図2は、本実施例における個人認証システ
ムを備えた自動車の機能ブロック図を示す。この機能ブ
ロック図には、画像入力部1、赤外線照射部6、顔向き
・視線検出部11、顔特徴抽出部13、個人識別部1
5、環境設定部17、データベース19、サイドミラー
・アクチュエータ21、バックミラー・アクチュエータ
23、シート・アクチュエータ25が含まれる。
FIG. 2 is a functional block diagram of an automobile provided with the personal authentication system according to the present embodiment. The functional block diagram includes an image input unit 1, an infrared irradiation unit 6, a face direction / sight line detection unit 11, a face feature extraction unit 13, and a personal identification unit 1.
5, an environment setting unit 17, a database 19, a side mirror actuator 21, a rearview mirror actuator 23, and a seat actuator 25 are included.

【0029】個々のドライバーの情報は、データベース
19に予め登録されている。登録されているドライバー
情報は、個々のドライバーの顔のデータ、個々のドライ
バーに対応する環境設定情報などである。顔のデータ
は、画像入力部1で撮影された入力画像との照合のため
に個人識別部15によって使用される。環境設定情報に
は、個々のドライバー応じた各ミラーの角度、シート・
ポジションなどの設定値が含まれる。本発明による個人
認証システムによって運転席にいるドライバーが特定さ
れた場合、環境設定部17は、その登録された設定値を
参照して、個々のドライバーのためにサイドミラー・ア
クチュエータ21、バックミラー・アクチュエータ2
3、シート・アクチュエータ25を制御する。
The information of each driver is registered in the database 19 in advance. The registered driver information includes face data of each driver, environment setting information corresponding to each driver, and the like. The face data is used by the personal identification unit 15 for comparison with the input image captured by the image input unit 1. The environment setting information includes the angle of each mirror according to the individual driver,
Includes settings such as position. When the driver in the driver's seat is specified by the personal authentication system according to the present invention, the environment setting unit 17 refers to the registered set value, and sets the side mirror actuator 21 and the rearview mirror for each driver. Actuator 2
3. Control the seat actuator 25.

【0030】この実施形態における自動車は、図2に示
す各機能ブロックを使用して2種類の動作モードを処理
する。第1の動作モードは、顔向き・視線検出部11が
実行する顔向き・視線検出モードであり、このモード
は、ドライバーの存在を検出して顔向きと視線方向の状
態を連続的に検出する。第2の動作モードは、個人認証
モードであり、このモードは、顔向き・視線検出モード
で検出されたドライバーを特定して、そのドライバーに
合わせた環境設定を実行する。
The vehicle in this embodiment processes two types of operation modes using each functional block shown in FIG. The first operation mode is a face orientation / gaze detection mode executed by the face orientation / gaze detection unit 11. In this mode, the presence of a driver is detected, and the face orientation and the gaze direction are continuously detected. . The second operation mode is a personal authentication mode. In this mode, a driver detected in the face orientation / gaze detection mode is specified, and an environment setting suitable for the driver is executed.

【0031】図1に示す自動車は、通常、顔向き・視線
検出モードで動作しており、ドライバーが運転席にいる
かどうかを監視し、ドライバーが運転席にいる場合、ド
ライバーの顔向きと視線方向を常に監視している。自動
車は、監視された顔向きと視線方向に基づいてドライバ
ーの状態を判断し、それに応じた処理を実行することが
できる。
The vehicle shown in FIG. 1 is normally operated in a face orientation / gaze detection mode, and monitors whether the driver is in the driver's seat. When the driver is in the driver's seat, the driver's face orientation and gaze direction are monitored. Is constantly monitored. The vehicle can determine the state of the driver based on the monitored face direction and line-of-sight direction, and can execute processing according to the state.

【0032】個人認証モードは、ドライバーが車内に乗
り込むのと同時に開始される。個人認証モードが起動さ
れた場合、自動車は、顔向き・視線検出モードで得られ
た顔向きに基づいて顔認識を実行し、運転席にいるドラ
イバーを特定する。ドライバーが特定された場合には、
そのドライバーに合わせた環境設定(ミラーの角度、シ
ート位置の調整)が実行される。顔認識でドライバーが
特定されなかった場合には、運転席にいる人間がデータ
ベース19に未登録のドライバーである可能性が大きい
ので、未登録者に応じたシーケンスが処理される。
The personal authentication mode is started at the same time as the driver gets into the vehicle. When the personal authentication mode is activated, the automobile performs face recognition based on the face orientation obtained in the face orientation / gaze detection mode, and identifies the driver in the driver's seat. If a driver is identified,
The environment setting (adjustment of mirror angle and seat position) according to the driver is executed. If the driver is not identified by face recognition, it is highly likely that the person in the driver's seat is an unregistered driver in the database 19, so a sequence corresponding to an unregistered person is processed.

【0033】どちらの動作モードも画像入力部1で撮影
された画像を使用する。以下に図を参照して、本実施例
で使用される画像入力部1と赤外照射部6を説明する。
In both operation modes, an image captured by the image input unit 1 is used. The image input unit 1 and the infrared irradiation unit 6 used in this embodiment will be described below with reference to the drawings.

【0034】本実施例では、車内の照明変動による画像
の劣化を低減するために、赤外線照射部6を使用する。
したがって、赤外線照射部6は、近赤外光をドライバー
の顔に照射するようドライバーの前面に設置される。
In this embodiment, the infrared irradiation unit 6 is used in order to reduce the deterioration of the image due to the illumination fluctuation in the vehicle.
Therefore, the infrared irradiator 6 is installed on the front of the driver so as to irradiate near-infrared light to the driver's face.

【0035】近赤外光を照明として使用する第1の理由
は、照明変動に対するロバスト性を向上させることにあ
る。一般に自動車などの車内の明るさは、屋内外、また
は日中や夜間などの環境変化によって大きく変動する。
また、一方向から強い可視光がドライバーの顔に当たる
場合には、ドライバーの顔面上に陰影のグラデーション
が発生する。このような照明の変動や陰影のグラデーシ
ョンは、画像認識の精度を著しく悪化させる。したがっ
て、本実施例では、ドライバーの正面から赤外線照射部
6により近赤外光を照射して、その近赤外光で画像を撮
影することによって、周囲からの可視光による顔面上の
陰影のグラデーションを低減する。これにより、本実施
例は、可視光を使用して得られる画像と比較して照明変
化による影響を受けにくい利点があり、顔認識の精度を
向上させることができる。
The first reason for using near-infrared light as illumination is to improve robustness against illumination variations. Generally, the brightness inside a vehicle such as an automobile fluctuates greatly due to environmental changes such as indoors and outdoors, or during the daytime or at night.
Further, when strong visible light from one direction shines on the driver's face, a gradation of a shadow is generated on the driver's face. Such variations in illumination and gradation of shadows significantly deteriorate the accuracy of image recognition. Therefore, in the present embodiment, the near-infrared light is irradiated from the front of the driver by the infrared irradiation unit 6 and an image is taken with the near-infrared light, whereby the gradation of the shadow on the face due to visible light from the surroundings is obtained. To reduce. As a result, this embodiment has an advantage that it is less affected by a change in illumination than an image obtained using visible light, and can improve the accuracy of face recognition.

【0036】近赤外光を使用する第2の理由は、ドライ
バーの瞳孔を明瞭に抽出することが可能な点にある。ド
ライバーの瞳の位置は、視線方向を検出するために使用
されので、瞳を明瞭に撮像することは重要である。ま
た、ドライバー識別の際の正規化処理において、瞳は基
準座標として用いることができるので、瞳を明瞭に撮像
することは、正規化精度の向上、すなわち認識精度の向
上につながる。
The second reason for using near-infrared light is that the driver's pupil can be clearly extracted. Since the position of the driver's pupil is used to detect the gaze direction, it is important to clearly image the pupil. Further, in the normalization processing at the time of driver identification, the pupil can be used as reference coordinates, so that clear imaging of the pupil leads to an improvement in the normalization accuracy, that is, an improvement in the recognition accuracy.

【0037】図3は、画像入力部1の実施例を示す。こ
の実施例では、撮影対象を立体視するために、従来技術
のステレオ法を利用する。したがって、画像入力部1
は、ドライバーの前方に設置された2台のビデオカメラ
(41、42)を備える。2台のビデオカメラは、ステ
レオ視でドライバーの顔を撮影することができるよう所
定の位置に固定される。前述したように照明として近赤
外光を使用するので、これらのビデオカメラは、近赤外
光以外の波長の可視光を遮断する可視光遮断フィルタ4
3などで波長帯域をそれぞれ制限される。各ビデオカメ
ラは、カメラ・コントロール・ユニット(45、46)
を介してそれぞれ制御される。各カメラ・コントロール
・ユニットは、外部同期信号線を通じて接続され、この
同期信号によって左右のビデオカメラの同期がとられ
る。本発明の個人認証システムは、この様にして撮影さ
れた画像を入力画像として使用することによって、2次
元的な物体認識だけでなく、3次元的な物体認識を処理
することができる。
FIG. 3 shows an embodiment of the image input unit 1. In this embodiment, a conventional stereo method is used to stereoscopically view an object to be photographed. Therefore, the image input unit 1
Is equipped with two video cameras (41, 42) installed in front of the driver. The two video cameras are fixed at predetermined positions so that the driver's face can be photographed stereoscopically. As described above, since near-infrared light is used as illumination, these video cameras use a visible light blocking filter 4 for blocking visible light having a wavelength other than near-infrared light.
The wavelength band is limited by 3 or the like. Each video camera has a camera control unit (45, 46)
Respectively. Each camera control unit is connected through an external synchronization signal line, and the left and right video cameras are synchronized by the synchronization signal. The personal authentication system of the present invention can process not only two-dimensional object recognition but also three-dimensional object recognition by using an image captured in this way as an input image.

【0038】図3に示すように、画像入力部1で撮影さ
れた画像は、従来の画像処理ボード47を介して様々に
処理されてもよい。例えば、図3の画像処理ボード47
は、NTSC方式のビデオ信号の入力ポートとして機能
するだけでなく、画像を蓄積するメモリおよび複雑な画
像処理を実行するハードウェア回路を備え、一般的な画
像処理アルゴリズムを高速に実行することができる。例
えばハードウェア回路による画像処理アルゴリズムに
は、斜方投影機構、ハフ変換、2値画像マッチングフィ
ルタ、アフィン変換(画像の回転、拡大、縮小)などの
処理が含まれる。この様な画像処理ボード47の使用
は、画像処理ボード47が画像処理の一部を担うことに
よってECUの演算を緩和し、高速な画像処理を可能に
する。本発明の個人認証システムは、ECUにより画像
処理ボード47を制御して画像入力部1により撮影され
た画像の処理を行い、図2に示す各機能ブロックの機能
を実現する。
As shown in FIG. 3, an image photographed by the image input unit 1 may be variously processed through a conventional image processing board 47. For example, the image processing board 47 shown in FIG.
Has not only a function as an input port of an NTSC video signal, but also a memory for storing images and a hardware circuit for performing complicated image processing, and can execute general image processing algorithms at high speed. . For example, an image processing algorithm by a hardware circuit includes processes such as an oblique projection mechanism, a Hough transform, a binary image matching filter, and an affine transform (rotation, enlargement, and reduction of an image). Such use of the image processing board 47 allows the image processing board 47 to perform a part of the image processing, thereby alleviating the calculation of the ECU and enabling high-speed image processing. In the personal authentication system of the present invention, the image processing board 47 is controlled by the ECU to process the image photographed by the image input unit 1 to realize the function of each functional block shown in FIG.

【0039】以下に各動作モードの処理を詳細に説明す
る。
The processing in each operation mode will be described below in detail.

【0040】図2に示すように顔向き・視線検出部11
は、初期探索部27、顔向き検出部29、視線検出部3
1を含み、顔向き・視線検出モードを実行する。この顔
向き・視線検出部11は、図4と図5は、顔向き・視線
検出部11が処理する顔向き・視線検出モードの全体的
なフロー図を示す。顔向き・視線検出モードでは、初期
探索部27、顔向き検出部29、視線検出部31がそれ
ぞれ関連して動作し、連続的に撮影される左右の入力画
像から顔向きと視線方向をリアルタイムで検出すること
ができる。
As shown in FIG. 2, the face orientation / gaze detection unit 11
Are the initial search unit 27, the face direction detection unit 29, and the gaze detection unit 3
1 and execute the face orientation / gaze detection mode. FIG. 4 and FIG. 5 show an overall flow chart of the face direction / sight line detection mode processed by the face direction / view line detection unit 11. In the face direction / gaze detection mode, the initial search unit 27, the face direction detection unit 29, and the gaze detection unit 31 operate in association with each other, and the face direction and the gaze direction can be determined in real time from the continuously input left and right input images. Can be detected.

【0041】図4は、初期探索部27の処理のフロー図
を示す。顔向き検出部29の処理は、図5のステップ1
11からステップ117で示され、視線検出部31の処
理は、図5のステップ121からステップ125で示さ
れる。顔向き・視線検出モードにおける顔向きと視線方
向のリアルタイム検出は、図5に示すステップ111か
らステップ125のループ処理により実現される。図4
に示す初期探索部27は、顔向き・視線検出モードの開
始直後の最初の初期化とリアルタイムでの顔向き・視線
方向検出のエラー回復のために使用される。
FIG. 4 is a flowchart showing the processing of the initial search section 27. The processing of the face direction detection unit 29 is performed in step 1 of FIG.
11 to step 117, and the processing of the visual line detection unit 31 is shown by steps 121 to 125 in FIG. The real-time detection of the face direction and the line-of-sight direction in the face direction / line-of-sight detection mode is realized by a loop process from step 111 to step 125 shown in FIG. FIG.
Is used for the initial initialization immediately after the start of the face orientation / gaze detection mode and for error recovery of the face orientation / gaze direction detection in real time.

【0042】図4を参照して初期探索部27の処理を説
明する。初期探索部27は、入力された画像から人間の
顔が撮影されている画像領域をおおまかに探索する。こ
こでの処理は、顔向き検出部29のための前処理ともい
える。初期探索部27が、顔向き検出部29の処理の前
に、入力画像から顔が撮影されている領域をおおまかに
探索することにより、顔向き検出部29は、入力画像中
の顔の詳細な解析を高速に実行することができる。
The processing of the initial search section 27 will be described with reference to FIG. The initial search unit 27 roughly searches the input image for an image area where a human face is captured. The processing here can also be said to be preprocessing for the face direction detection unit 29. Before the process of the face direction detection unit 29, the initial search unit 27 roughly searches the input image for an area where a face is captured, so that the face direction detection unit 29 performs detailed processing of the face in the input image. Analysis can be performed at high speed.

【0043】最初に、ステップ101で画像入力部1か
ら左右のビデオカメラの画像が入力される。次にステッ
プ103で、入力画像全体から人間の顔が撮影されてい
る領域がおおまかに探索される。これは、予め記憶され
た初期探索用テンプレート51を使用して2次元テンプ
レート・マッチングで実行される。
First, in step 101, the images of the left and right video cameras are input from the image input unit 1. Next, in step 103, a region where a human face is photographed is roughly searched from the entire input image. This is performed by two-dimensional template matching using the initial search template 51 stored in advance.

【0044】初期探索用テンプレート51の例を図6に
示す。初期探索用テンプレート59に使用される画像
は、正面を向いた人間の顔を部分的に切り取った画像で
あり、この部分的画像には目、鼻、口などの人間の顔の
特徴的な領域が1つのテンプレートとして含まれてい
る。この初期探索用テンプレート51は、テンプレート
・マッチングでの処理速度を高めるために、予め低解像
度化されており、さらに照明変動の影響を低減するため
に微分画像にされている。このテンプレートは、複数の
サンプルから作成され予め記憶されている。
FIG. 6 shows an example of the template 51 for initial search. The image used for the initial search template 59 is an image obtained by partially cutting out a human face facing the front. This partial image includes characteristic regions of the human face such as eyes, nose, and mouth. Is included as one template. This initial search template 51 has been reduced in resolution in advance in order to increase the processing speed in template matching, and has been converted into a differential image in order to reduce the influence of illumination fluctuation. This template is created from a plurality of samples and stored in advance.

【0045】ステップ103での探索は、2次元的なテ
ンプレート・マッチングであるので、右ビデオカメラの
画像かまたは左ビデオカメラの画像のどちらかが使用さ
れる。以下では、右ビデオカメラの画像を使用したテン
プレート・マッチングの例を述べる。
Since the search in step 103 is a two-dimensional template matching, either the right video camera image or the left video camera image is used. In the following, an example of template matching using the image of the right video camera will be described.

【0046】右ビデオカメラの画像を使用したテンプレ
ート・マッチングの場合、右画像に対して初期探索用テ
ンプレート51を使用したテンプレート・マッチングが
実行され、ここでマッチした右画像内の領域が入力画像
中の顔の候補となる。この顔候補をテンプレートとし
て、同様のテンプレート・マッチングが左画像に対して
実行され、そのステレオ・マッチングの結果から顔候補
の3次元的な位置が求められる(ステップ105)。
In the case of template matching using the image of the right video camera, template matching using the initial search template 51 is performed on the right image, and the matched area in the right image is included in the input image. Face candidates. Using this face candidate as a template, similar template matching is performed on the left image, and the three-dimensional position of the face candidate is obtained from the stereo matching result (step 105).

【0047】ステップ107において、これらの処理結
果が評価され、入力画像から顔領域が検出されたかどう
か判断がなされる。入力画像から顔領域が見つかったと
判断された場合、顔向き検出部29の処理に移る(ステ
ップ109)。初期探索部27で顔領域が見つからなか
った場合、新しい入力画像を使用して一連の処理が繰り
返される。初期探索部27は、人間の顔が画像入力部1
によって撮影されるまで、この一連の処理を繰り返す。
In step 107, the processing results are evaluated, and it is determined whether a face area has been detected from the input image. If it is determined that a face area has been found from the input image, the process proceeds to the processing of the face direction detection unit 29 (step 109). If no face area is found by the initial search unit 27, a series of processing is repeated using a new input image. The initial search unit 27 uses the image input unit 1
This series of processing is repeated until the photographing is performed.

【0048】次に図5を参照して顔向き検出部29と視
線検出部31の処理を説明する。先に述べたように、顔
向き・視線検出モードは、ドライバーの顔向き、視線方
向をリアルタイムで検出するために、図5に示すステッ
プ111からステップ125のループを繰り返す。顔向
き検出部29は、予め定めた特徴点を入力画像から抽出
し、それらの特徴点から顔の3次元位置と顔の向きを求
めることができる。視線検出部31は、顔向き検出部2
9で得られた特徴点と顔向きに基づき、入力画像から顔
の視線方向を検出する。
Next, with reference to FIG. 5, the processing of the face direction detecting section 29 and the line of sight detecting section 31 will be described. As described above, in the face orientation / eye gaze detection mode, the loop from step 111 to step 125 shown in FIG. 5 is repeated in order to detect the driver's face orientation and gaze direction in real time. The face direction detection unit 29 can extract predetermined feature points from the input image, and determine the three-dimensional position of the face and the face direction from those feature points. The line-of-sight detection unit 31 includes the face direction detection unit 2
The gaze direction of the face is detected from the input image based on the feature points and the face direction obtained in step S9.

【0049】顔向き検出部29は、ステップ111で、
入力画像からテンプレート・マッチングにより顔の特徴
点を探索する。この探索に使用されるテンプレートは、
データベースに予め記憶された3次元顔特徴点モデル5
3からの画像を使用する。図7に3次元顔特徴点モデル
53の例を示す。
In step 111, the face direction detection unit 29
A feature point of the face is searched from the input image by template matching. The template used for this search is
3D facial feature point model 5 pre-stored in database
Use the image from # 3. FIG. 7 shows an example of the three-dimensional facial feature point model 53.

【0050】本実施例における3次元顔特徴点モデル5
3は、正面を向いた人間の顔の特徴的な部分を画像から
局所的に切り取った部分的画像(81〜91)から生成
される。例えば顔特徴点の画像は、図7に示すように、
左の目尻81、左の目頭83、右の目尻87、右の目頭
85、口の左端89、口の右端91などのように、予め
用意された顔画像から局所的に切り取られて生成され
る。これらの部分的画像のそれぞれは、その画像内で撮
影されている対象物(この例では、左右の目尻と目頭、
口の両端)の3次元位置を表す3次元座標に関連付けら
れ、データベースに記憶されている。本明細書では、こ
れらの3次元座標を有した顔特徴領域の部分的画像を顔
特徴点と呼び、これらの複数の顔特徴点から生成される
顔モデルを3次元顔特徴点モデル53と呼ぶ。これらの
3次元顔特徴点モデル53は、複数のサンプルから生成
されデータベースに予め記憶されている。
3D face feature point model 5 in this embodiment
3 is generated from partial images (81 to 91) in which a characteristic portion of a human face facing the front is locally cut out from the image. For example, as shown in FIG.
Such as the left outer corner 81, the left inner corner 83, the right outer corner 87, the right inner corner 85, the left end 89 of the mouth, the right end 91 of the mouth, etc., are generated by being locally cut out from a prepared face image. . Each of these partial images is the object being photographed within that image (in this example, the left and right outer and outer corners of the eye,
The three-dimensional coordinates representing the three-dimensional positions of both ends of the mouth) are stored in the database. In this specification, a partial image of the face feature area having these three-dimensional coordinates is called a face feature point, and a face model generated from the plurality of face feature points is called a three-dimensional face feature point model 53. . These three-dimensional facial feature point models 53 are generated from a plurality of samples and stored in a database in advance.

【0051】ステップ111で、顔向き検出部29は、
3次元顔特徴点モデル53に対応する画像領域を入力画
像から探索する。これは、3次元顔特徴点モデル53の
各特徴点の画像をテンプレートとし、入力画像に対して
2次元マッチングを行うことにより実行される。このマ
ッチングは、右ビデオカメラの画像と左ビデオカメラの
画像のどちらを使用しても構わないが、本実施例では、
右ビデオカメラの画像を使用する。ステップ111の探
索の結果、入力画像で撮影されている顔の左右の目頭と
目尻、口の両端の6個の画像が得られる。
In step 111, the face direction detecting section 29
An image area corresponding to the three-dimensional face feature point model 53 is searched from the input image. This is performed by performing two-dimensional matching on the input image using the image of each feature point of the three-dimensional face feature point model 53 as a template. For this matching, either the image of the right video camera or the image of the left video camera may be used, but in this embodiment,
Use the image from the right video camera. As a result of the search in step 111, six images at the left and right inner and outer corners of the face and both ends of the mouth of the face captured in the input image are obtained.

【0052】ステップ113では、ステップ111の探
索から得られた各特徴点の画像をテンプレートとして、
入力画像の左画像に対してステレオ・マッチングが実行
される。これにより、3次元顔特徴点モデル53の各特
徴点に対応する入力画像の各特徴点の3次元座標が求め
られる。
In step 113, the image of each feature point obtained from the search in step 111 is used as a template.
Stereo matching is performed on the left image of the input image. Thus, three-dimensional coordinates of each feature point of the input image corresponding to each feature point of the three-dimensional face feature point model 53 are obtained.

【0053】この実施例の場合、探索された入力画像中
の顔の左右の目尻と目頭、口の両端の画像をテンプレー
トにして、ステレオ・マッチングが実行される。このス
テレオ・マッチングの結果、ドライバーの顔の左右の目
尻と目頭、口の両端の3次元座標がそれぞれ得られる。
したがって、これらの入力画像の特徴点の3次元座標か
ら運転席にいるドライバーの顔の3次元位置を求めるこ
とができる。
In the case of this embodiment, stereo matching is performed using the images at the left and right corners of the face, the inner corners of the eye, and both ends of the mouth in the searched input image as templates. As a result of this stereo matching, three-dimensional coordinates of the left and right outer and inner corners of the eyes of the driver's face and both ends of the mouth are obtained.
Therefore, the three-dimensional position of the driver's face in the driver's seat can be obtained from the three-dimensional coordinates of the feature points of these input images.

【0054】入力画像の各特徴点に関する3次元座標が
求められた後で、ステップ115で予め定めた判断基準
に基づいて特徴点の抽出が成功したかどうかがチェック
される。このステップ115で、もし入力画像から各特
徴点が見つからなかったと判断された場合には、初期探
索部27に戻り、新たな入力画像から顔が撮影されてい
る領域を探索する。
After the three-dimensional coordinates of each feature point of the input image are obtained, it is checked in step 115 whether the extraction of the feature point is successful based on a predetermined criterion. If it is determined in step 115 that each feature point has not been found from the input image, the process returns to the initial search unit 27, and a region where the face is photographed is searched from the new input image.

【0055】ステップ115で入力画像から各特徴点が
見つかったと判断された場合、ステップ117で3次元
顔特徴点モデル53を使用して3次元モデル・フィッテ
ィングが実行され、顔の向きが検出される。以下ではこ
の3次元モデル・フィッティングを説明する。
If it is determined in step 115 that each feature point has been found from the input image, in step 117, three-dimensional model fitting is performed using the three-dimensional face feature point model 53, and the direction of the face is detected. . Hereinafter, the three-dimensional model fitting will be described.

【0056】先に述べたように、予め記憶されている3
次元顔特徴点モデル53は、正面を向いた顔の特徴点か
ら生成されている。それに対して入力画像で撮影されて
いる顔は、必ずしも正面を向いているとは限らない。し
たがって、ステップ113で得られた入力画像の各特徴
点(観測点)の3次元座標は、正面を向いた3次元顔特
徴点モデル53の各特徴点の3次元座標から任意の角度
と変位だけずれを有している。したがって、正面を向い
た3次元顔特徴点モデル53を任意に回転、変位させた
ときに、入力画像の各特徴点と一致する角度と変位が入
力画像中の顔の向きと位置に相当する。
As described above, the previously stored 3
The three-dimensional face feature point model 53 is generated from feature points of a face facing forward. On the other hand, the face captured in the input image does not always face the front. Therefore, the three-dimensional coordinates of each feature point (observation point) of the input image obtained in step 113 are determined by an arbitrary angle and displacement from the three-dimensional coordinates of each feature point of the three-dimensional face feature point model 53 facing the front. It has a gap. Therefore, when the three-dimensional face feature point model 53 facing the front is arbitrarily rotated and displaced, the angle and displacement corresponding to each feature point of the input image correspond to the direction and position of the face in the input image.

【0057】入力画像の各特徴点に3次元顔特徴点モデ
ル53をフィッティングする場合、フィッティング誤差
Eは、下記の式で表される。
When fitting the three-dimensional face feature point model 53 to each feature point of the input image, the fitting error E is represented by the following equation.

【数1】 ここで、Nが特徴点の数であり、xがモデル内の各特
徴点の3次元座標であり、yが入力画像からの各特徴
点の3次元座標を表す。ωは、各特徴点に関する重み
付け係数であり、入力画像から特徴点の3次元位置を求
めたときのステレオ・マッチングにおける相関値を利用
する。この相関値を利用することによって、それぞれの
特徴点の信頼度を考慮することができる。回転行列は、
R(φ,θ,ψ)であり、位置ベクトルは、t(x,
y,z)で表され、これらが、この式における変数とな
る。
(Equation 1) Here, N is the number of feature points, x i is the three-dimensional coordinates of each feature point in the model, and y i is the three-dimensional coordinates of each feature point from the input image. ω i is a weighting coefficient for each feature point, and uses a correlation value in stereo matching when a three-dimensional position of the feature point is obtained from the input image. By utilizing this correlation value, the reliability of each feature point can be considered. The rotation matrix is
R (φ, θ, ψ), and the position vector is t (x,
y, z), which are the variables in this equation.

【0058】したがって、上記の式におけるフィッティ
ング誤差Eを最小にする回転行列Rと位置ベクトルtを
求めれば、入力画像の顔向きと顔位置が求められる。こ
の演算は、最小二乗法または仮想バネモデルを使用した
フィッティング手法などを利用することによって実行さ
れる。
Therefore, if the rotation matrix R and the position vector t that minimize the fitting error E in the above equation are obtained, the face direction and the face position of the input image can be obtained. This calculation is performed by using a fitting method using a least square method or a virtual spring model, or the like.

【0059】図7に示すステップ121から125で、
視線検出部31は、顔向き検出部29で得られた特徴点
と顔向きに基づき、入力画像から顔の視線方向を検出す
る。この際、眼球は、3次元的な球でモデル化され、そ
の球の中心位置が回転中心とされる。この3次元眼モデ
ルは、顔モデルに対する眼球の3次元的な相対位置、眼
球の半径、虹彩の半径をパラメータとする。図8に視線
方向を求める方法の概略を示す。
In steps 121 to 125 shown in FIG.
The gaze detection unit 31 detects the gaze direction of the face from the input image based on the feature points and the face direction obtained by the face direction detection unit 29. At this time, the eyeball is modeled as a three-dimensional sphere, and the center position of the sphere is set as the rotation center. The three-dimensional eye model uses the three-dimensional relative position of the eyeball with respect to the face model, the radius of the eyeball, and the radius of the iris as parameters. FIG. 8 shows an outline of a method of obtaining the line-of-sight direction.

【0060】ステップ121で、眼球の3次元的な中心
位置61が、顔向き検出部29の検出結果に基づいて求
められる。眼の中心位置61を求めるためのオフセット
・ベクトルは、左右の目の両端の特徴点(55、57)
を結ぶ直線の中点から眼の中心位置61に向かう3次元
ベクトルとして予め定められている(図8の(1))。
したがって、そのオフセット・ベクトル、眼球の半径、
顔の位置、顔の向きを使用して眼球の中心位置61を求
めることができる(図8の(2))。
In step 121, the three-dimensional center position 61 of the eyeball is obtained based on the detection result of the face direction detection unit 29. The offset vector for finding the center position 61 of the eye is the characteristic points (55, 57) at both ends of the left and right eyes.
Is determined in advance as a three-dimensional vector from the midpoint of the straight line connecting the points to the center position 61 of the eye ((1) in FIG. 8).
Therefore, its offset vector, eyeball radius,
The center position 61 of the eyeball can be obtained using the face position and the face direction ((2) in FIG. 8).

【0061】眼球上の瞳の中心位置59は、既に目の両
端の位置(55、57)が入力画像の特徴点として求め
られているので、その両端の領域でハフ変換を実行する
ことにより容易に得られる(ステップ123)。視線方
向は、眼球の中心位置61と瞳の中心位置59とを結ぶ
3次元ベクトル(視線ベクトル)として求められる(ス
テップ125)。
The center position 59 of the pupil on the eyeball can be easily obtained by executing the Hough transform in the region at both ends because the positions (55, 57) at both ends of the eye have already been obtained as the feature points of the input image. (Step 123). The gaze direction is obtained as a three-dimensional vector (gaze vector) connecting the center position 61 of the eyeball and the center position 59 of the pupil (step 125).

【0062】本実施例では、入力画像として左右の画像
を使用したので、右画像、左画像それぞれに対して視線
ベクトルを求めることができる。さらに、両眼に関して
視線ベクトルを求めることができるので、合計4つの視
線ベクトルが求められる。本実施例では、この4つの視
線ベクトルの平均ベクトルを入力画像の視線方向として
使用する。
In this embodiment, since the left and right images are used as the input images, it is possible to obtain the line-of-sight vector for each of the right image and the left image. Furthermore, since the line-of-sight vectors can be obtained for both eyes, a total of four line-of-sight vectors are obtained. In this embodiment, the average vector of the four line-of-sight vectors is used as the line-of-sight direction of the input image.

【0063】ステップ125で、入力画像中の顔の視線
方向が検出された後で、ステップ111に戻り、新たな
入力画像を使用して一連の処理が繰り返される。この繰
り返しの結果、ドライバーの顔向き、顔位置、視線方向
の連続的な追従をリアルタイムで実行することが可能に
なる。
After the gaze direction of the face in the input image is detected in step 125, the process returns to step 111, and a series of processing is repeated using a new input image. As a result of this repetition, it is possible to continuously follow the driver's face direction, face position, and gaze direction in real time.

【0064】次に個人認証モードに関して説明する。個
人認証モードは、顔向き・視線検出モードで検出された
ドライバーの顔を、データベースに登録された顔データ
と照合してドライバーを特定する。ドライバーが特定さ
れた場合、個人認証モードは、そのドライバーに応じた
環境設定(ミラーの角度、シート位置など)を実行す
る。図2の機能ブロック図に示すように、個人認証モー
ドは、入力画像の特徴を抽出する顔特徴抽出部13と、
顔特徴抽出部13の処理結果に基づいてドライバーを比
較照合する個人識別部15と、個人識別部15の結果に
応じて環境設定を処理する環境設定部17を使用して実
行される。顔向き・視線検出モードの場合、左右両方の
画像を使用して処理を実行したが、個人認証モードの場
合、左右の画像のどちらか1つを使用して処理が実行さ
れる。
Next, the personal authentication mode will be described. In the personal authentication mode, the driver's face detected in the face orientation / line-of-sight detection mode is compared with face data registered in a database to identify the driver. When a driver is specified, the personal authentication mode executes environment setting (mirror angle, seat position, etc.) according to the driver. As shown in the functional block diagram of FIG. 2, the personal authentication mode includes a face feature extraction unit 13 for extracting features of an input image;
The process is performed using a personal identification unit 15 that compares and matches a driver based on the processing result of the face feature extraction unit 13 and an environment setting unit 17 that processes environment settings according to the result of the personal identification unit 15. In the case of the face orientation / eye gaze detection mode, the processing is executed using both the left and right images. In the case of the personal authentication mode, the processing is executed using one of the left and right images.

【0065】顔特徴抽出部13は、正面顔特徴抽出部3
3、横顔特徴抽出部35を含み、入力画像におけるドラ
イバー10の顔の向きに応じた処理を実行する。画像入
力部1からの入力画像に撮影されているドライバー10
の顔向きが顔向き・視線検出部11により既に検出され
ているので、顔特徴抽出部13は、入力画像中の顔の向
きに応じた処理を実行することができる。以下に顔特徴
抽出部13の処理の概要を説明する。
The face feature extraction unit 13 includes the front face feature extraction unit 3
3. Includes the profile feature extraction unit 35, and performs processing according to the direction of the face of the driver 10 in the input image. Driver 10 photographed in an input image from image input unit 1
Since the face direction has already been detected by the face direction / eye gaze detecting unit 11, the face feature extracting unit 13 can execute processing according to the face direction in the input image. The outline of the process of the face feature extraction unit 13 will be described below.

【0066】顔特徴抽出部13の処理の1つは、顔向き
・視線検出部11から入力された画像の正規化処理であ
る。この正規化処理は、顔認識の精度を向上させるため
に入力画像中の顔を所定の顔データ形式(所定の顔のサ
イズ、顔の位置、顔の傾き、および画像の明度)に変換
する。ここで、「顔の傾き」とは、顔画像の回転のこと
である。より具体的に説明すると、顔特徴抽出部13で
入力される画像中の顔は、任意の顔向きをして傾いてい
る。例えば、図9aに示すように、入力画像中の顔は、
正面を向いているが画像中で傾いていたり、図9cに示
すように横向きで傾いていたりする。正規化処理は、画
像平面上で入力画像を回転することによって画像中の
「顔の傾き」を補正する。例えば、図9aの場合では、
画像中の顔の傾きは、x軸とy軸との交点を回転中心と
し、その画像を角度αだけ回転することによって補正す
ることができる(図9b)。図9cの場合でも同様にし
て、画像中の顔の傾きは、x軸とy軸との交点を回転中
心とし、画像を角度αだけ回転することにより補正する
ことができる。本明細書では、画像平面上の回転により
補正される顔の角度を「顔の傾き」として参照する。し
たがって、本明細書では、図9cのように顔が上を向い
ている場合でも「横向き」として参照され、また顔が下
を向いているような場合も同様に「横向き」として参照
される。
One of the processes of the face feature extraction unit 13 is a normalization process of the image input from the face direction / sight line detection unit 11. This normalization process converts the face in the input image into a predetermined face data format (predetermined face size, face position, face inclination, and image brightness) in order to improve face recognition accuracy. Here, “face inclination” refers to rotation of a face image. More specifically, the face in the image input by the face feature extraction unit 13 has an arbitrary face orientation and is inclined. For example, as shown in FIG. 9a, the face in the input image is
The user may face the front but tilt in the image, or tilt sideways as shown in FIG. 9c. The normalization process corrects “face inclination” in the image by rotating the input image on the image plane. For example, in the case of FIG.
The inclination of the face in the image can be corrected by rotating the image by the angle α with the intersection of the x-axis and the y-axis as the center of rotation (FIG. 9B). Similarly, in the case of FIG. 9C, the inclination of the face in the image can be corrected by rotating the image by the angle α around the intersection of the x-axis and the y-axis. In this specification, the angle of the face corrected by the rotation on the image plane is referred to as “face inclination”. Therefore, in this specification, even when the face is facing upward as shown in FIG. 9C, it is referred to as "landscape", and when the face is facing downward, it is similarly referred to as "landscape".

【0067】顔特徴抽出部13のもう1つの処理は、顔
画像中の顔向きの選別処理である。この選別処理では、
入力画像は、顔の向きに応じて「正面向き」と「横向
き」に選別される。この処理は、顔向き・視線検出部1
1によって検出された顔向きに基づいて選別される。本
明細書では、正面とは、顔向き・視線検出モードで得ら
れた顔向きがあらかじめ定めた範囲内にある場合を言
う。そのような範囲は、正面顔認識で使用される顔認識
手法の認識可能範囲に応じて定められる。したがって、
あらかじめ定めた範囲以外の顔向きは、横向きであると
判断される。
Another process of the face feature extraction unit 13 is a process of selecting a face direction in a face image. In this sorting process,
The input image is sorted into “front” and “side” according to the direction of the face. This processing is performed by the face direction / eye gaze detecting unit 1
1 is selected based on the face direction detected. In this specification, the front means a case where the face orientation obtained in the face orientation / gaze detection mode is within a predetermined range. Such a range is determined according to a recognizable range of a face recognition method used in frontal face recognition. Therefore,
Face orientations other than the predetermined range are determined to be sideways.

【0068】さらに、顔特徴抽出部13は、個人識別部
15のために入力画像の特徴抽出処理を実行する。ここ
で実行される特徴抽出処理は、正面顔認識または横顔認
識で使用される顔認識手法に応じて様々である。例え
ば、顔認識手法に固有空間法を使用する場合では、この
特徴抽出処理によって正規化済みの入力画像がベクトル
化され、そのベクトルから入力画像の特徴を表す重みベ
クトルが算出される。ここで得られた重みベクトル(特
徴成分)が個人識別部15に送られ、データベース19
に記憶された顔データと比較照合され、個々のドライバ
ーが特定される。
Further, the face feature extraction unit 13 executes a feature extraction process of the input image for the personal identification unit 15. The feature extraction process executed here varies depending on the face recognition method used in front face recognition or profile face recognition. For example, when the eigenspace method is used for the face recognition method, the normalized input image is vectorized by this feature extraction processing, and a weight vector representing the feature of the input image is calculated from the vector. The weight vector (feature component) obtained here is sent to the personal identification unit 15 and the database 19
Is compared with the face data stored in the device, and the individual driver is specified.

【0069】図10は、個人認証モードの全体的なフロ
ーを示す。例えばドライバーが車内に乗り込むことによ
り個人認証モードが開始されると、ステップ301で、
顔向き・視線検出モードでの検出結果が特徴抽出部13
に入力される。ここで特徴抽出部13に入力されるデー
タは、画像入力部1によって撮影された画像と、その画
像中のドライバーの顔向き、顔位置、視線方向のデータ
などである。先に述べたように、入力画像は左右どちら
の画像を使用してもよい。
FIG. 10 shows an overall flow of the personal authentication mode. For example, when the personal authentication mode is started by the driver getting into the car, in step 301,
The detection result in the face orientation / eye gaze detection mode is the feature extraction unit 13
Is input to Here, the data input to the feature extraction unit 13 includes an image captured by the image input unit 1 and data on the driver's face direction, face position, and line-of-sight direction in the image. As described above, either the left or right image may be used as the input image.

【0070】ステップ303で、特徴抽出部13は、顔
向きに応じた分岐処理を実行する。本発明における個人
認証システムは、それぞれの顔向きで異なる顔認識の手
法を使用することができるので、高精度に顔認識を実行
することができる。
In step 303, the feature extraction unit 13 executes a branching process according to the face direction. Since the personal authentication system according to the present invention can use different face recognition methods for each face direction, it is possible to execute face recognition with high accuracy.

【0071】例えば、個人認証システムは、正面を向い
た顔の場合には固有空間法を使用し、横を向いた顔の場
合には3次元モデルのマッチングで顔認識をそれぞれ実
行することができる。したがって、本発明によれば入力
画像の顔向きに応じて最適な顔認識手法を選択すること
ができる。
For example, the personal authentication system can execute face recognition by using the eigenspace method in the case of a face facing front and by matching a three-dimensional model in the case of a face facing sideways. . Therefore, according to the present invention, it is possible to select an optimal face recognition method according to the face direction of an input image.

【0072】個人認証システムで使用することができる
顔認識手法は、固有空間法、テンプレート・マッチン
グ、Gabor Waveletによる手法、NNなどである。本発
明による個人認証システムは、ステップ301で顔向
き、視線方向、顔特徴点などの情報を既に得ている。し
たがって、これらの基本情報と正規化処理とをうまく組
み合わせて顔認識を実行すれば、いずれの顔認識手法を
使用しても、精度良く個々のドライバーを識別すること
が可能である。
The face recognition method that can be used in the personal authentication system includes the eigenspace method, template matching, Gabor Wavelet method, and NN. The personal authentication system according to the present invention has already obtained information such as a face direction, a gaze direction, and a facial feature point in step 301. Therefore, if face recognition is executed by properly combining the basic information and the normalization processing, it is possible to identify individual drivers with high accuracy regardless of which face recognition method is used.

【0073】ステップ303における顔向きの判断で
は、正面とは、顔向き・視線検出モードで得られた顔向
きがあらかじめ定めた範囲内にある場合を言う。そのよ
うな範囲は、正面顔認識で使用される顔認識手法の認識
可能範囲に応じて定められる。したがって、あらかじめ
定めた範囲以外の顔向きは、横向きであると判断され
る。
In the determination of the face orientation in step 303, the front means that the face orientation obtained in the face orientation / gaze detection mode is within a predetermined range. Such a range is determined according to a recognizable range of a face recognition method used in frontal face recognition. Therefore, it is determined that the face orientation other than the predetermined range is the landscape orientation.

【0074】ステップ303で入力画像の顔向きが正面
を向いていると判断された場合、正面顔特徴抽出部33
は、正面に対する正規化処理と特徴抽出処理を実行す
る。入力画像の顔向きが横向きであると判断された場
合、横顔特徴抽出部33が、その顔向きに応じた正規化
処理と特徴抽出処理を実行する。ステップ303での判
断に応じて、正規化処理、特徴抽出処理、比較照合の処
理が分岐されるので、最初に正面に対する正規化処理、
特徴抽出処理、比較照合に関して説明し、その後で横向
きに対する正規化処理、特徴抽出処理、比較照合を説明
する。
If it is determined in step 303 that the face direction of the input image is facing the front, the front face feature extraction unit 33
Executes a normalization process and a feature extraction process for the front. When it is determined that the face direction of the input image is horizontal, the profile feature extraction unit 33 executes normalization processing and feature extraction processing according to the face direction. According to the determination in step 303, the normalization process, the feature extraction process, and the comparison / matching process are branched.
The feature extraction processing and comparison / collation will be described, and then the horizontal normalization processing, feature extraction processing, and comparison / collation will be described.

【0075】ステップ305で、正面顔特徴抽出部33
は、入力画像を所定の顔の形式(顔のサイズ、顔の位
置、顔の傾き)に変換する。すなわち、予めデータベー
スに記憶された顔画像のサイズ、位置、傾きと同じにな
るよう、入力画像の顔のサイズ、位置、傾きを正規化す
る。さらに画像全体の明度も予め定めた値に整えられ
る。
At step 305, the front face feature extraction unit 33
Converts an input image into a predetermined face format (face size, face position, face inclination). That is, the size, position, and inclination of the face of the input image are normalized so as to be the same as the size, position, and inclination of the face image stored in the database in advance. Further, the brightness of the entire image is adjusted to a predetermined value.

【0076】本実施例では、個人識別部15の顔認識手
法は、固有空間法を使用する。ステップ305の正規化
処理も画像平面上での1次変換として実行される。顔向
き・視線検出モードにより求めた特徴点を使用すれば、
入力画像における顔のサイズ、位置、傾きなどが容易に
求められるので、この処理は、従来技術と比較して高精
度に正規化を行うことができる。
In the present embodiment, the eigenspace method is used as the face recognition method of the personal identification section 15. The normalization processing in step 305 is also executed as a primary transformation on the image plane. By using the feature points obtained by the face direction and gaze detection mode,
Since the size, position, inclination, and the like of the face in the input image can be easily obtained, this processing can perform normalization with higher precision than in the related art.

【0077】この正面に対する正規化処理の1つの実施
形態では、左右の瞳の中心を結ぶ直線の中点を基準に、
左右の瞳が水平かつ距離が一定値となるようアフィン変
換が実行される。本発明による個人認証システムでは近
赤外画像が使用されるので、瞳を明瞭に抽出することが
可能であり、正規化を高精度に実行することができる。
In one embodiment of this normalization process for the front, the midpoint of a straight line connecting the centers of the left and right pupils is used as a reference.
Affine transformation is performed so that the left and right pupils are horizontal and the distance is constant. Since the near-infrared image is used in the personal authentication system according to the present invention, the pupil can be clearly extracted, and normalization can be performed with high accuracy.

【0078】ステップ307で入力画像の正規化が正確
に実行されたかどうかがチェックされる。これは、正規
化画像からあらかじめ定めた領域を切り出し、予めデー
タベースに記憶されている成否判断用のテンプレートと
照合することによって実行される。
At step 307, it is checked whether the input image has been correctly normalized. This is performed by cutting out a predetermined area from the normalized image and comparing it with a success / failure determination template stored in a database in advance.

【0079】例えば、この成否判断を右眼のテンプレー
トを使用して実行する場合を説明する。この場合、成否
判断用テンプレートは、所定の顔認識の形式(顔のサイ
ズ、顔の位置、顔の傾き)の画像から右眼を中心とし
て、一定の大きさで切り出され生成される。この成否判
断用テンプレートは、十分な人数分のサンプルから作成
され、典型的な眼のテンプレートとして使用される。作
成された成否判断用テンプレートは、成否判断用のデー
タベースに予め記憶されている。
For example, a case will be described in which this success / failure judgment is executed using a template for the right eye. In this case, the success / failure determination template is generated by cutting out a predetermined size from an image in a predetermined face recognition format (face size, face position, face inclination), centering on the right eye. This success / failure determination template is created from a sufficient number of samples and used as a typical eye template. The created success / failure determination template is stored in advance in a success / failure determination database.

【0080】ステップ305で入力画像が正確に正規化
された場合、正規化画像中の眼は、常に所定の位置に所
定の大きさで存在するはずである。したがって、成否判
断用テンプレートに対応する領域を正規化画像から切り
出して成否判断用テンプレートと照合すれば、正規化の
成否を判断することができる。もし正規化が成功してい
れば、切り出した画像と成否判断用テンプレートとの相
関値は高い値であり、正規化が失敗していれば、相関値
は低い値を示す。したがって、予め判断基準となる相関
値のしきい値を定めておくことにより、正規化の成否を
判断することができる。ここでは、正規化の成否判断を
簡単に説明するために右目だけで説明したが、複数の特
徴的な領域を成否判断用テンプレートにし、これら複数
の成否判断用テンプレートを使用することによって、よ
り正確な正規化の成否判断を実行することができる。
If the input image has been correctly normalized in step 305, the eyes in the normalized image should always be present at predetermined positions and in predetermined sizes. Therefore, if the area corresponding to the success / failure determination template is cut out from the normalized image and compared with the success / failure determination template, the success or failure of the normalization can be determined. If the normalization is successful, the correlation value between the extracted image and the success / failure determination template is a high value. If the normalization is not successful, the correlation value is a low value. Therefore, the success or failure of normalization can be determined by setting a threshold value of a correlation value as a determination reference in advance. Here, the right-eye was used to simply explain the success / failure judgment of normalization. However, by using a plurality of characteristic regions as success / failure judgment templates and using these plural success / failure judgment templates, more accurate judgment can be made. The determination of the success or failure of the normalization can be executed.

【0081】ステップ307で正面に対する顔向きの正
規化が成功したと判断された場合、ステップ308で正
面顔特徴抽出部33は、個人識別部15の比較照合のた
めの特徴抽出処理を実行する。ステップ307で正面に
対する顔向きの正規化が失敗したと判断された場合に
は、ステップ301に戻り、新たな入力画像を使用して
一連の処理が再び繰り返される。
If it is determined in step 307 that the normalization of the face orientation with respect to the front has been successful, the front face feature extraction unit 33 executes a feature extraction process for comparison and collation by the personal identification unit 15 in step 308. If it is determined in step 307 that normalization of the face orientation with respect to the front has failed, the process returns to step 301, and a series of processes is repeated using a new input image.

【0082】先に述べたように、この実施例における正
面に対する顔認識が固有空間法を使用するので、ステッ
プ308の特徴抽出処理とステップ309の比較照合の
処理も固有空間法に応じた態様で実施される。以下に固
有空間法を使用するステップ308と309の処理の概
要を説明する。
As described above, since the face recognition for the front in this embodiment uses the eigenspace method, the feature extraction processing in step 308 and the comparison and collation processing in step 309 are performed in a manner corresponding to the eigenspace method. Will be implemented. The outline of the processing of steps 308 and 309 using the eigenspace method will be described below.

【0083】認識対象とされる個々のドライバーの正面
向きの顔画像は、データベースに予め記憶されている。
固有空間法では、そのデータベースに登録された顔画像
から固有ベクトルが生成される。個々のドライバーの顔
を固有空間上で表す顔クラスは、データベース19に記
憶された個々のドライバーの顔を固有空間に射影するこ
とにより生成される。固有空間法を使用した正面顔認識
では、この顔クラスと正規化された画像の特徴が比較照
合され、この結果から個々のドライバーが特定される。
The face images of the front faces of the individual drivers to be recognized are stored in the database in advance.
In the eigenspace method, eigenvectors are generated from face images registered in the database. A face class representing each driver's face on the eigenspace is generated by projecting each driver's face stored in the database 19 onto the eigenspace. In the frontal face recognition using the eigenspace method, the face class and the features of the normalized image are compared and collated, and individual drivers are identified from the result.

【0084】したがって、ステップ308で、正面顔特
徴抽出部33は、正規化画像を固有顔空間に射影し、正
規化画像の特徴を重みベクトルとして抽出する。より具
体的に説明すると、最初に、正規化された入力画像が画
像ベクトル化される。例えば、正規化された入力画像が
n×nピクセルからなる画像であれば、その画像から個
々のピクセル値を成分とするn次元ベクトル(1行、
列)が生成される。次に、この画像ベクトルが固有
顔空間に射影され、重みベクトルが生成される。例えば
M個の固有ベクトルがデータベース19に記憶されてい
る場合、画像ベクトルがM次元の固有空間に射影され、
M個のベクトル成分を有する重みベクトルが生成され
る。Mが画像ベクトルの次元数Nに対して十分小さけ
れば、重みベクトルは、元の画像に撮影されている顔の
特徴を有しながら元の画像ベクトルより小さな次元のベ
クトルになる。この様にして生成された重みベクトル
は、個人識別部15に送られる。
Therefore, in step 308, the frontal face feature extraction unit 33 projects the normalized image into the unique face space, and extracts the feature of the normalized image as a weight vector. More specifically, first, the normalized input image is image-vectorized. For example, if the normalized input image is an image composed of n × n pixels, an n two- dimensional vector (one row,
N 2 columns) are generated. Next, this image vector is projected onto the eigenface space, and a weight vector is generated. For example, when M eigenvectors are stored in the database 19, the image vectors are projected onto an M-dimensional eigenspace,
A weight vector having M vector components is generated. If M is sufficiently small relative to the number of dimensions N 2 of the image vector, the weight vector becomes small dimensional vector from the original image vector while having facial features captured in the original image. The weight vector generated in this manner is sent to the personal identification unit 15.

【0085】ステップ309で、個人識別部15は、正
規化画像から得られた重みベクトルを個々のドライバー
の顔クラスと比較照合する。この比較照合の1実施形態
では、各ドライバーの顔クラスと重みベクトルとの固有
顔空間上での距離がそれぞれ求められ、この求められた
距離の大小に基づいて画像中のドライバーが判断され
る。
At step 309, the personal identification section 15 compares and compares the weight vector obtained from the normalized image with the face class of each driver. In one embodiment of the comparison and collation, the distance between the face class of each driver and the weight vector in the unique face space is determined, and the driver in the image is determined based on the magnitude of the determined distance.

【0086】次に、ステップ317で、個人識別部15
は、正規化画像に対応する顔クラスが比較照合(ステッ
プ309)により見つかったかどうかを判断する。正規
化画像中の顔がデータベース19に登録されている人物
の顔であれば、ステップ309の比較照合によってその
人物に対応する顔クラスが見つかる。しかしながら、正
規化画像中の顔がデータベース19に登録されていない
人物の顔の場合、その人物に対応する顔クラスが見つか
らない。したがって、もし、比較照合で対応する顔クラ
スが見つからなければ、ステップ321に進み、未登録
者用シーケンスを実行する。比較照合で対応する顔クラ
スが見つかった場合には、運転席にいるドライバーが決
定され、ステップ319の登録者用シーケンスが処理さ
れる。登録者用シーケンスと未登録者用シーケンスは、
後で詳細に説明する。
Next, at step 317, the personal identification unit 15
Determines whether the face class corresponding to the normalized image has been found by comparison and matching (step 309). If the face in the normalized image is a face of a person registered in the database 19, a face class corresponding to the person is found by the comparison and collation in step 309. However, when the face in the normalized image is a face of a person not registered in the database 19, a face class corresponding to the person cannot be found. Therefore, if the corresponding face class is not found in the comparison and collation, the process proceeds to step 321 to execute the sequence for an unregistered person. If the corresponding face class is found in the comparison and collation, the driver in the driver's seat is determined, and the registrant sequence in step 319 is processed. Registered and unregistered sequences
It will be described later in detail.

【0087】この様な固有空間法による顔認識は、射影
時の変換パラメータ(重み成分)の数に応じて演算量を
低減することができるので、入力画像の画素数分の演算
を必要とする正規化相関の手法と比較して、高速な処理
を実現することができる。
The face recognition based on the eigenspace method can reduce the amount of calculation according to the number of conversion parameters (weight components) at the time of projection, and thus requires the number of calculations corresponding to the number of pixels of the input image. High-speed processing can be realized as compared with the normalized correlation method.

【0088】次に横向きに対する正規化処理と顔認識を
説明する。図10に示すように、横向きに対する正規化
処理と顔認識の処理のフローは、基本的には正面に対す
る処理(ステップ305から309)と同様のフローで
ある。しかしながら、ステップ303で顔向きに応じて
分岐処理が実行されるので、横向きの顔に対して実行さ
れる正規化処理と顔認識自体は、正面顔に対する処理と
は異なる手法を用いることもできる。
Next, the normalization process for the horizontal orientation and face recognition will be described. As shown in FIG. 10, the flow of the normalization process and the face recognition process for the horizontal orientation is basically the same as the process for the front (steps 305 to 309). However, since the branching process is performed in step 303 according to the face orientation, the normalization process and the face recognition itself performed on the face facing sideways may use different methods than the process on the front face.

【0089】横向きに対する顔認識の実施形態には、大
きく分けて2種類の実施形態を使用することができ、そ
れに応じて正規化処理も異なる。第1の実施形態は、個
々のドライバーの顔向き別画像からデータベースを予め
作成しておき、検出された顔向きに応じてそれらの顔向
き別データベースを使用し、顔認識を実行する実施形態
である。この場合、正規化処理は、入力画像から検出さ
れた顔向きに応じて実行される。
The embodiment of the face recognition for the horizontal orientation can be roughly divided into two types of embodiments, and the normalization process differs accordingly. The first embodiment is an embodiment in which a database is created in advance from images of individual driver's face directions, and the face direction databases are used according to the detected face directions to execute face recognition. is there. In this case, the normalization processing is executed according to the face direction detected from the input image.

【0090】例えば、図9dに示すように、正規化処理
における顔の位置決めの基準点(すなわち図中のx軸と
y軸の交点)は、顔向きに応じて様々である。したがっ
て、横向きの入力画像を正規化する場合、画像中の顔向
きに応じて、顔の位置決めの基準点を変えなければなら
ない。このため、横顔特徴抽出部35は、顔向き・視線
検出部11で検出された顔向きに応じて正規化処理を実
行する。この場合、正規化の成否判断も、顔向きに応じ
て異なるテンプレートを使用して実行される。これらの
正規化処理および正規化の成否判断は、顔向き別に処理
されることを除いて、正面に対する顔画像と同様の処理
で実行される。横向きに対する比較照合では、顔向き別
に撮影された顔画像の顔向き別データベースに基づい
て、比較照合が実行される。
For example, as shown in FIG. 9D, the reference point for positioning the face in the normalization processing (ie, the intersection of the x-axis and the y-axis in the figure) varies depending on the face orientation. Therefore, when normalizing a horizontal input image, the reference point for positioning the face must be changed according to the face orientation in the image. For this reason, the profile feature extraction unit 35 executes a normalization process in accordance with the face orientation detected by the face orientation / gaze detection unit 11. In this case, the success or failure of normalization is also executed using a different template depending on the face orientation. The normalization processing and the success / failure determination of the normalization are executed by the same processing as the face image for the front, except that the processing is performed for each face direction. In the comparison and collation for the horizontal orientation, the comparison and collation is executed based on a face direction database of face images photographed for each face direction.

【0091】横向きに対する顔認識のもう1つの実施形
態では、入力画像から3次元顔モデルが生成され、その
3次元顔モデルを使用して正規化処理が実行される。こ
の場合、入力画像から予め定めた特徴点が抽出され、そ
の特徴点から入力画像の3次元顔モデルが生成される。
ここで生成された3次元顔モデルは、入力画像が撮影さ
れたときの顔向きで生成された顔モデルである。したが
って、顔向き・視線検出部11により得られた顔向きに
応じてこの顔モデルを回転すれば、正面を向いた入力画
像の顔モデルが得られる。この実施形態では、入力画像
からの3次元顔モデルの生成とそのモデルの回転処理
が、ステップ311の正規化処理に相当する。回転後の
正規化画像は、正面を向いた顔画像と同様に処理するこ
とができるので、正規化処理の成否判断は、正面を向い
た顔の正規化処理の成否判断と同様に処理される。この
実施形態における顔認識は、従来技術の正面を向いた顔
認識手法(例えば固有空間法)を利用して実現すること
ができる。
In another embodiment of the face recognition for the horizontal orientation, a three-dimensional face model is generated from an input image, and a normalization process is performed using the three-dimensional face model. In this case, a predetermined feature point is extracted from the input image, and a three-dimensional face model of the input image is generated from the feature point.
The three-dimensional face model generated here is a face model generated in the face orientation when the input image was captured. Therefore, if this face model is rotated according to the face orientation obtained by the face orientation / gaze detection unit 11, a face model of the input image facing forward can be obtained. In this embodiment, generation of a three-dimensional face model from an input image and rotation processing of the model correspond to normalization processing in step 311. Since the rotated normalized image can be processed in the same manner as the face image facing the front, the success / failure determination of the normalization process is performed in the same manner as the success / failure determination of the normalization process of the face facing the front. . The face recognition in this embodiment can be realized by using a conventional face recognition method (for example, an eigenspace method) facing the front.

【0092】横向きに対する比較照合が実行された後の
ステップ317で、個人識別部15は、対応する顔クラ
スが比較照合により見つかったかどうかを判断する。ス
テップ319またはステップ321は、ステップ317
の判断に応じて処理される。
At step 317 after the comparison and collation for the horizontal orientation is performed, the personal identification unit 15 determines whether or not the corresponding face class has been found by the comparison and collation. Step 319 or step 321 is equivalent to step 317
It is processed according to the judgment of.

【0093】次に、ステップ319の登録者用シーケン
スの実施例を説明する。図11は、登録者用シーケンス
の処理のフロー図を示す。先に述べたようにステップ3
17において運転席にいるドライバーが決定された場
合、個人識別部15は、ステップ323で、運転席にい
るドライバーに自動車の運転許可を与える。この許可に
より自動車がドライバーにより操作可能になる。ステッ
プ325で、個人識別部15は、決定されたドライバー
に対応する環境設定データをデータベース19から読み
取り、そのデータを環境設定部17に送る。ステップ3
27で、環境設定部17は、その環境設定データに応じ
て、各アクチュエータを制御してミラーの角度、シート
位置を設定する。
Next, an embodiment of the registrant sequence in step 319 will be described. FIG. 11 shows a flowchart of the processing of the registrant sequence. Step 3 as mentioned earlier
If the driver in the driver's seat is determined in 17, the personal identification unit 15 gives the driver in the driver's seat permission to drive the car in step 323. This permission allows the vehicle to be operated by the driver. In step 325, the personal identification unit 15 reads the environment setting data corresponding to the determined driver from the database 19, and sends the data to the environment setting unit 17. Step 3
At 27, the environment setting unit 17 controls each actuator to set the angle of the mirror and the seat position according to the environment setting data.

【0094】図12は、未登録者用シーケンスの実施例
の処理のフロー図を示す。先に述べたようにステップ3
17において運転席のドライバーの顔がデータベースに
記憶されていない未登録者の顔であれば、個人識別部1
5は、ドライバーに対して管理者による自動車の使用許
可を要求する。ここで管理者とは、例えば、その自動車
の所有者、その自動車の管理責任者など、その自動車の
使用に対して責任を有する人間である。管理者は、自動
車に対して身分を証明する任意の手段を有する。例え
ば、そのような身分証明手段は、鍵、カード鍵、パスワ
ードなどのセキュリティを確保することが可能な手段で
ある。未登録のドライバーが本発明による自動車を運転
しようとする場合、自動車により管理者の使用許可証明
が要求される。その場合、未登録のドライバーまたは管
理者は、身分証明手段により使用許可を自動車に証明し
なければならない。身分証明手段が自動車に提示されな
ければ、個人識別部15は、ステップ335で未登録ド
ライバーが管理者によって自動車の使用を許可されてい
ないと判断し、ドライバーによる自動車の操作を禁止す
る。身分証明手段が自動車に提示された場合、個人識別
部15は、未登録のドライバーが新規に登録を希望する
ドライバーであるかどうかを判断する。したがって、運
転席にいる人間が新規に登録を希望するドライバーであ
る場合、ステップ341で任意の手段を介してドライバ
ーの新規登録を実行する。運転席にいる人間が新規登録
を希望していなければ、単に一時的に管理者から自動車
の使用許可を受けたドライバーであるので、ステップ3
39で一時的なドライバーとしての制約つきで自動車の
操作を許可する。
FIG. 12 is a flowchart showing the processing of the embodiment of the sequence for an unregistered person. Step 3 as mentioned earlier
In 17, if the face of the driver in the driver's seat is a face of an unregistered person not stored in the database, the personal identification unit 1
5 requests the driver to use the car by the manager. Here, the manager is a person who is responsible for the use of the vehicle, such as, for example, the owner of the vehicle and a manager of the vehicle. The administrator has any means of identifying himself to the car. For example, such identification means is a means capable of ensuring security such as a key, a card key, and a password. If an unregistered driver wishes to drive a vehicle according to the invention, the vehicle requires a proof of use by the administrator. In that case, the unregistered driver or administrator must prove the permission to use the vehicle by identification means. If the identification means is not presented to the vehicle, the personal identification unit 15 determines in step 335 that the unregistered driver is not permitted to use the vehicle by the administrator, and prohibits the driver from operating the vehicle. When the identification means is presented to the vehicle, the personal identification unit 15 determines whether the unregistered driver is a driver who wants to newly register. Therefore, if the person in the driver's seat is a new driver who wishes to newly register, the new registration of the driver is executed in step 341 via any means. If the person in the driver's seat does not desire a new registration, it is simply a driver who has been temporarily licensed to use the car by the manager, so step 3
At 39, the operation of the car is permitted with the restriction as a temporary driver.

【0095】上記の実施例では、本発明による個人認証
装置を備えた自動車の例を説明してきたが、本発明は、
自動車での個人認証に限定されるものではなく、他の分
野にも応用することが可能である。
In the above embodiment, an example of a vehicle equipped with the personal authentication device according to the present invention has been described.
The present invention is not limited to personal authentication in automobiles, and can be applied to other fields.

【0096】図13は、本発明の個人認証装置のコンピ
ュータへの応用例である。図13では、画像入力部1が
画像処理ボード47を介しコンピュータ401に接続さ
れて個人認証装置を構成している。コンピュータ401
は、モニタ402、キーボード403、マウス404な
どのユーザインターフェースを接続した汎用コンピュー
タである。例えばコンピュータは、「Linux」とし
て知られるOSを使用して動作する。この例では、ある
ユーザがこのコンピュータ401を使用する場合、コン
ピュータ401に接続された画像入力部1が自動的にそ
のユーザの顔画像を撮影し、それらの画像から個人認証
を実行する。個人認証が成功した場合にだけ、このコン
ピュータ401の使用が許可され、そのユーザがコンピ
ュータ401を使用することが可能になる。このような
個人認証は、先に述べた顔向き・視線検出部11、特徴
抽出部13、個人識別部15などの機能ブロックをコン
ピュータ401で実行することによって実現することが
可能である。
FIG. 13 shows an application example of the personal authentication device of the present invention to a computer. In FIG. 13, the image input unit 1 is connected to the computer 401 via the image processing board 47 to constitute a personal authentication device. Computer 401
Is a general-purpose computer to which user interfaces such as a monitor 402, a keyboard 403, and a mouse 404 are connected. For example, computers operate using an OS known as "Linux". In this example, when a certain user uses the computer 401, the image input unit 1 connected to the computer 401 automatically captures a face image of the user and performs personal authentication from those images. Only when the personal authentication succeeds, the use of the computer 401 is permitted, and the user can use the computer 401. Such personal authentication can be realized by executing the functional blocks of the face direction / gaze detecting unit 11, the feature extracting unit 13, the personal identifying unit 15 and the like on the computer 401 as described above.

【0097】この様に本発明は、上記の実施例だけに限
定されるものではなく、多くの分野に応用することが可
能である。
As described above, the present invention is not limited to the above embodiment, but can be applied to various fields.

【0098】[0098]

【発明の効果】この発明によると、個人認証装置がユー
ザの顔向きを検出する機能を含むので、その顔向きに応
じた顔認識を実行することができ、従来技術の顔認識と
比較して個人認証の精度を改善することが可能である。
According to the present invention, since the personal authentication device includes a function of detecting the face direction of the user, it is possible to execute face recognition according to the face direction. It is possible to improve the accuracy of personal authentication.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明による個人認証装置を備えた自動車の
1つの実施形態。
FIG. 1 shows one embodiment of a motor vehicle equipped with a personal identification device according to the invention.

【図2】 本実施例における個人認証システムを備えた
自動車の機能ブロック図。
FIG. 2 is a functional block diagram of an automobile including the personal authentication system according to the embodiment.

【図3】 画像入力部の実施例を示す図。FIG. 3 is a diagram showing an embodiment of an image input unit.

【図4】 初期探索部の処理のフロー図。FIG. 4 is a flowchart of processing of an initial search unit.

【図5】 顔向き検出部と視線検出部の処理のフロー
図。
FIG. 5 is a flowchart of a process performed by a face direction detection unit and a gaze detection unit;

【図6】 初期探索用テンプレートの例を示す図。FIG. 6 is a diagram showing an example of an initial search template.

【図7】 3次元顔特徴点モデルの例を示す図。FIG. 7 is a diagram showing an example of a three-dimensional face feature point model.

【図8】 視線方向を求める方法の概略図。FIG. 8 is a schematic diagram of a method of obtaining a line-of-sight direction.

【図9】 正規化により顔の傾きを補正する例を示す
図。
FIG. 9 is a diagram illustrating an example of correcting a face inclination by normalization.

【図10】 個人認証モードの全体的なフロー図。FIG. 10 is an overall flowchart of a personal authentication mode.

【図11】 登録者用シーケンスの処理のフロー図。FIG. 11 is a flowchart of a registrant sequence process.

【図12】 未登録者用シーケンスの処理のフロー図。FIG. 12 is a flowchart of processing of a sequence for an unregistered person.

【図13】 本実施例における個人認証システムを備え
るコンピュータを示す図。
FIG. 13 is a diagram illustrating a computer including a personal authentication system according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 画像入力部 6 赤外線照射部 10 ユーザ 11 顔向き・視線検出部 13 特徴抽出部 15 個人識別部 17 環境設定部 19 データベース DESCRIPTION OF SYMBOLS 1 Image input part 6 Infrared irradiation part 10 User 11 Face direction / gaze detection part 13 Feature extraction part 15 Personal identification part 17 Environment setting part 19 Database

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B043 AA09 BA04 DA05 EA04 EA08 EA12 EA13 EA15 FA07 GA04 GA13 5B057 AA16 BA02 CA08 CA13 CA16 CD03 CD05 CE12 DA07 DA08 DA20 DB03 DC05 DC08 DC13 DC33 5L096 AA06 AA09 BA04 BA18 CA05 DA02 EA03 EA16 EA43 FA24 FA25 FA67 FA69 HA08 JA09 JA16  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) EA43 FA24 FA25 FA67 FA69 HA08 JA09 JA16

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 ユーザの認証を行う装置であって、 前記ユーザを撮影する複数のカメラと、 前記ユーザの顔を照射するよう設置された照明手段と、 前記カメラの画像出力から前記ユーザの顔の向きを検出
する検出手段と、 前記検出された顔向きに応じて、前記画像出力の顔画像
を正面と正面以外の顔画像に選別する手段と、 前記ユーザを正面から撮影した照合用顔画像のデータベ
ースと、 前記選別手段により選別された前記正面を向いた顔画像
を前記照合用顔画像のデータベースの顔画像と照合し、
前記ユーザを識別する識別手段と、 を備える認証装置。
1. An apparatus for authenticating a user, comprising: a plurality of cameras for photographing the user; illuminating means installed to illuminate the user's face; Detecting means for detecting the direction of the face, means for selecting the face image of the image output into a face image other than the front and the front in accordance with the detected face direction, and a face image for comparison photographing the user from the front And the face image facing the front face selected by the selection means is compared with a face image in the database of the face image for comparison.
An authentication device comprising: identification means for identifying the user.
【請求項2】 前記検出されたユーザの顔画像を、前記
照合用顔画像のデータベースに記憶されている顔画像と
同じサイズおよび位置の顔画像に調整する正規化手段を
備え、前記識別手段は、該正規化された画像を該照合用
顔画像のデータベースの顔画像と照合し、前記ユーザを
識別する請求項1に記載の認証装置。
2. A normalizing means for adjusting the detected face image of the user to a face image having the same size and position as the face image stored in the database of the face images for comparison, wherein the identification means comprises: 2. The authentication apparatus according to claim 1, wherein the normalized image is compared with a face image in a database of the face images for comparison to identify the user.
【請求項3】 前記正規化手段により正規化された画像
から予め定めた画像領域を抽出する抽出手段と、 前記予め定めた画像領域の基準データを格納する成否判
断データベースと、 前記抽出された画像領域を前記基準データと照合し、前
記正規化手段による正規化の成否を判定する成否判定手
段と、を備える請求項2に記載の認証装置。
3. An extraction means for extracting a predetermined image area from the image normalized by the normalization means; a success / failure judgment database for storing reference data of the predetermined image area; The authentication device according to claim 2, further comprising: a success / failure determination unit that compares an area with the reference data and determines success / failure of normalization by the normalization unit.
【請求項4】 前記ユーザを複数の顔向きのそれぞれか
ら撮影した顔向き別の照合用顔画像のデータベースを備
え、 前記識別手段は、前記ユーザの検出された顔向きに応じ
た前記顔向き別の照合用顔画像と該ユーザの正面以外の
顔画像とを照合し、該ユーザを識別する請求項3に記載
の認証装置。
4. A database of face images for comparison of each user's face taken from each of a plurality of face orientations, wherein the identification unit is configured to determine each one of the face orientations according to the detected face orientations of the user. 4. The authentication apparatus according to claim 3, wherein the verification face image is compared with a face image other than the front face of the user to identify the user.
【請求項5】 前記顔向き検出手段は、 予め定めた1つまたは複数の顔の特徴部分の基準画像お
よび該基準画像に対応する3次元座標を格納している特
徴点データベースを含み、該3次元座標が該顔の特徴部
分にそれぞれ関連付けられ、 前記特徴部分の基準画像をテンプレートにして前記カメ
ラの画像出力から該特徴部分の基準画像に対応する画像
領域を抽出する抽出手段と、 前記抽出された画像領域に基づいて、前記抽出された画
像領域の3次元座標を求める手段と、 前記求められた画像領域の3次元座標と前記基準画像に
対応する3次元座標から前記ユーザの顔の向きを検出す
る手段と、を含む請求項1に記載の認証装置。
5. The face direction detecting means includes a feature point database storing one or more predetermined reference images of a characteristic portion of a face and three-dimensional coordinates corresponding to the reference image. Dimensional coordinates are respectively associated with the characteristic portions of the face, extracting means for extracting an image region corresponding to the reference image of the characteristic portion from the image output of the camera using the reference image of the characteristic portion as a template, Means for determining three-dimensional coordinates of the extracted image area based on the obtained image area; and determining the orientation of the user's face from the determined three-dimensional coordinates of the image area and the three-dimensional coordinates corresponding to the reference image. The authentication device according to claim 1, further comprising: a detecting unit.
【請求項6】 前記照明手段が前記ユーザの顔を赤外光
で照射する請求項1に記載の認証装置。
6. The authentication device according to claim 1, wherein the illumination unit irradiates the user's face with infrared light.
【請求項7】 前記識別手段は、前記画像出力からの顔
画像に対応する顔画像が前記照合用顔画像のデータベー
スに存在するか否かを判断する手段を含み、 前記画像出力からの顔画像に対応する顔画像が前記照合
用データベースに存在することに応答して、前記ユーザ
を登録済みユーザと判断し、 前記画像出力からの顔画像に対応する顔画像が前記照合
用データベースに存在しないことに応答して、前記ユー
ザを未登録ユーザと判断する請求項1に記載の認証装
置。
7. The face image from the image output, wherein the identification means includes means for determining whether or not a face image corresponding to the face image from the image output exists in the database of the face images for comparison. In response to the presence of a face image corresponding to the user in the comparison database, the user is determined to be a registered user, and a face image corresponding to the face image from the image output does not exist in the comparison database. The authentication device according to claim 1, wherein the user is determined to be an unregistered user in response to the request.
【請求項8】 前記認証装置は、前記登録済みユーザそ
れぞれに関連付けられた複数の環境設定データを記憶す
る環境設定データベースと、 前記環境設定データに応じて自動車の環境を設定する環
境設定手段と、を含み、 前記ユーザが登録済みユーザと判断されたときに、自動
車の運転を許可し、前記環境設定データベースから前記
登録済みユーザに関する環境設定データを読み取り、該
登録済みユーザに関する環境設定データに応じて自動車
の環境を設定することを含む請求項7に記載の認証装
置。
8. The authentication apparatus, wherein: an environment setting database that stores a plurality of environment setting data associated with each of the registered users; environment setting means that sets an environment of a vehicle according to the environment setting data; When the user is determined to be a registered user, driving of a car is permitted, environment setting data regarding the registered user is read from the environment setting database, and according to the environment setting data regarding the registered user. The authentication device according to claim 7, further comprising setting an environment of a vehicle.
【請求項9】 前記認証装置は、ユーザの身分を証明す
る身分証明手段を認証する認証手段を含み、 前記ユーザが未登録ユーザと判断されたときに、前記身
分証明手段の提示を前記ユーザに要求し、 前記認証手段で該身分証明手段が認証されることに応答
して該ユーザに自動車の使用許可を与え、 前記ユーザにより前記身分証明手段が提示されなかった
ことおよび前記認証手段で該身分証明手段が認証されな
かったことに応答して該ユーザによる自動車の使用を禁
止する請求項7に記載の認証装置。
9. The authentication device includes authentication means for authenticating identification means for certifying the identity of a user, and when the user is determined to be an unregistered user, presents the identification certification means to the user. Requesting the user to be permitted to use the vehicle in response to the identification means being authenticated by the authentication means, wherein the identification means has not been presented by the user, and 8. The authentication apparatus according to claim 7, wherein use of the vehicle by the user is prohibited in response to the authentication means not being authenticated.
JP2001083728A 2001-03-22 2001-03-22 Personal authentication device using facial images Expired - Fee Related JP4675492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001083728A JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001083728A JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Publications (2)

Publication Number Publication Date
JP2002288670A true JP2002288670A (en) 2002-10-04
JP4675492B2 JP4675492B2 (en) 2011-04-20

Family

ID=18939509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001083728A Expired - Fee Related JP4675492B2 (en) 2001-03-22 2001-03-22 Personal authentication device using facial images

Country Status (1)

Country Link
JP (1) JP4675492B2 (en)

Cited By (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004025564A1 (en) * 2002-08-30 2004-03-25 Nec Corporation Face direction estimation device, face direction estimation method, and face direction estimation program
JP2004310397A (en) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc Device for determining wearing of mask
JP2005323180A (en) * 2004-05-10 2005-11-17 Denso Corp Image pickup control device and program
WO2005114576A1 (en) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha Operation content judgment device
WO2006001525A1 (en) * 2004-06-28 2006-01-05 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
JP2006146323A (en) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd Face feature collating device, face feature collating method, and program
JP2006213146A (en) * 2005-02-02 2006-08-17 Toyota Motor Corp Face direction determination device of driver
JP2006238002A (en) * 2005-02-24 2006-09-07 Omron Corp Monitoring device
JP2006243849A (en) * 2005-02-28 2006-09-14 Toshiba Corp Equipment control device and its method
JP2006344100A (en) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc Authentication device and image output device
JP2007075305A (en) * 2005-09-14 2007-03-29 Hitachi Ltd Personal authentication device, and method
JP2007164669A (en) * 2005-12-16 2007-06-28 Yamatake Corp Three-dimensional pattern position/attitude detector
JP2008089402A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Information processing system, program, and information processing method
JP2008087140A (en) * 2006-10-05 2008-04-17 Toyota Motor Corp Speech recognition robot and control method of speech recognition robot
JP2008513859A (en) * 2004-09-16 2008-05-01 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Method for identifying a driver based on an image in a motor vehicle
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing unit and program
US7466847B2 (en) 2004-04-13 2008-12-16 Denso Corporation Driver's appearance recognition system
EP2015568A2 (en) 2007-06-14 2009-01-14 FUJIFILM Corporation Photographing apparatus
JPWO2008007781A1 (en) * 2006-07-14 2009-12-10 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JP2009301170A (en) * 2008-06-11 2009-12-24 Sony Corp Image processor and image processing method
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010134866A (en) * 2008-12-08 2010-06-17 Toyota Motor Corp Facial part detection apparatus
US7760916B2 (en) 2005-10-31 2010-07-20 Sony Corporation Registration apparatus, collation apparatus, image correction method and program
JP2010529735A (en) * 2007-05-30 2010-08-26 イーストマン コダック カンパニー Portable video communication system
JP2011192220A (en) * 2010-03-16 2011-09-29 Glory Ltd Device, method and program for determination of same person
JP2011215718A (en) * 2010-03-31 2011-10-27 Yamatake Corp Collation device
US8085996B2 (en) 2007-06-11 2011-12-27 Sony Corporation Image processing apparatus, image display apparatus, imaging apparatus, method for image processing therefor, and program
JP2014220567A (en) * 2013-05-01 2014-11-20 株式会社ニコン Information processing device, system, method, and program
JP2015007953A (en) * 2013-06-24 2015-01-15 由田新技股▲ふん▼有限公司 Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
US8988188B2 (en) 2010-11-18 2015-03-24 Hyundai Motor Company System and method for managing entrance and exit using driver face identification within vehicle
US9174552B2 (en) 2007-03-02 2015-11-03 Denso Corporation Driving-environment setup system, in-vehicle device and program thereof, portable device and program thereof, management device and program thereof
WO2015190023A1 (en) * 2014-06-11 2015-12-17 株式会社デンソー Vehicle setting device
CN106462748A (en) * 2014-06-20 2017-02-22 罗伯特·博世有限公司 Method for identifying an individual
JP2017514193A (en) * 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 3D image analysis apparatus for determining a line-of-sight direction
KR101805716B1 (en) * 2011-09-21 2017-12-07 현대모비스 주식회사 Apparatus and Method for certifying Driver by recognition face
JP2018045309A (en) * 2016-09-12 2018-03-22 株式会社東芝 Feature quantity extraction device and authentication system
JP2019531560A (en) * 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. Automatic driver identification system and method
JP2019202726A (en) * 2018-05-25 2019-11-28 株式会社Subaru Occupant monitoring apparatus for vehicle
JP2021502618A (en) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Gaze point determination method and devices, electronic devices and computer storage media
JP2021504214A (en) * 2018-10-19 2021-02-15 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Driving environment intelligent adjustment, driver registration method and equipment, vehicles and devices
US10963678B2 (en) * 2018-11-14 2021-03-30 Hyundai Motor Company Face recognition apparatus and face recognition method
WO2021156996A1 (en) * 2020-02-06 2021-08-12 日本電気株式会社 Gate system, gate device, method for controlling same, and program
JP2021149168A (en) * 2020-03-16 2021-09-27 いすゞ自動車株式会社 Image transmission device and authentication system
JP2021531521A (en) * 2019-06-17 2021-11-18 グーグル エルエルシーGoogle LLC Seamless driver authentication using in-vehicle cameras in relation to trusted mobile computing devices
US11210498B2 (en) 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
CN114248672A (en) * 2020-09-22 2022-03-29 宝能汽车集团有限公司 Female physiological period care method and device for vehicle and vehicle
CN114998979A (en) * 2022-08-01 2022-09-02 中国通信建设第三工程局有限公司 Intelligent Internet of vehicles system
WO2022209301A1 (en) * 2021-03-31 2022-10-06 学校法人明治大学 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102466942B1 (en) 2017-12-27 2022-11-14 한국전자통신연구원 Apparatus and method for registering face posture for face recognition

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101280A (en) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> Face picture collating device
JPH05300601A (en) * 1992-04-20 1993-11-12 Canon Inc Vehicle safety confirmaton instruction apparatus
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0944676A (en) * 1995-08-01 1997-02-14 Toyota Motor Corp Face detector
JPH11245771A (en) * 1997-12-22 1999-09-14 Trw Inc Fingerprint operating system of customized vehicle characteristic
JP2000222576A (en) * 1999-01-29 2000-08-11 Nec Corp Person identification method, device therefor, recording medium recording person identification program, and robot system
JP2000259834A (en) * 1999-03-11 2000-09-22 Toshiba Corp Registering device and method for person recognizer
JP2000311220A (en) * 1999-04-28 2000-11-07 Hitachi Ltd Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04101280A (en) * 1990-08-20 1992-04-02 Nippon Telegr & Teleph Corp <Ntt> Face picture collating device
JPH05300601A (en) * 1992-04-20 1993-11-12 Canon Inc Vehicle safety confirmaton instruction apparatus
JPH07302327A (en) * 1993-08-11 1995-11-14 Nippon Telegr & Teleph Corp <Ntt> Method and device for detecting image of object
JPH08136220A (en) * 1994-11-14 1996-05-31 Mazda Motor Corp Method and device for detecting position of article
JPH0944676A (en) * 1995-08-01 1997-02-14 Toyota Motor Corp Face detector
JPH11245771A (en) * 1997-12-22 1999-09-14 Trw Inc Fingerprint operating system of customized vehicle characteristic
JP2000222576A (en) * 1999-01-29 2000-08-11 Nec Corp Person identification method, device therefor, recording medium recording person identification program, and robot system
JP2000259834A (en) * 1999-03-11 2000-09-22 Toshiba Corp Registering device and method for person recognizer
JP2000311220A (en) * 1999-04-28 2000-11-07 Hitachi Ltd Unit operation right managing system, unit operation right managing terminal, ic chip and ic chip case
JP2001051338A (en) * 1999-08-12 2001-02-23 Canon Inc Camera

Cited By (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004025564A1 (en) * 2002-08-30 2004-03-25 Nec Corporation Face direction estimation device, face direction estimation method, and face direction estimation program
JP2004310397A (en) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc Device for determining wearing of mask
US7466847B2 (en) 2004-04-13 2008-12-16 Denso Corporation Driver's appearance recognition system
JP2005323180A (en) * 2004-05-10 2005-11-17 Denso Corp Image pickup control device and program
WO2005114576A1 (en) * 2004-05-21 2005-12-01 Asahi Kasei Kabushiki Kaisha Operation content judgment device
US7894637B2 (en) 2004-05-21 2011-02-22 Asahi Kasei Corporation Device, program, and method for classifying behavior content of an object person
WO2006001525A1 (en) * 2004-06-28 2006-01-05 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
JP2006011978A (en) * 2004-06-28 2006-01-12 Canon Inc Image processing method and image processor
US7912253B2 (en) 2004-06-28 2011-03-22 Canon Kabushiki Kaisha Object recognition method and apparatus therefor
JP2008513859A (en) * 2004-09-16 2008-05-01 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Method for identifying a driver based on an image in a motor vehicle
JP4712043B2 (en) * 2004-09-16 2011-06-29 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Method for identifying a driver based on an image in a motor vehicle
JP2006146323A (en) * 2004-11-16 2006-06-08 Matsushita Electric Ind Co Ltd Face feature collating device, face feature collating method, and program
US8073206B2 (en) 2004-11-16 2011-12-06 Panasonic Corporation Face feature collator, face feature collating method, and program
JP4501708B2 (en) * 2005-02-02 2010-07-14 トヨタ自動車株式会社 Driver's face orientation determination device
JP2006213146A (en) * 2005-02-02 2006-08-17 Toyota Motor Corp Face direction determination device of driver
JP2006238002A (en) * 2005-02-24 2006-09-07 Omron Corp Monitoring device
JP4561400B2 (en) * 2005-02-24 2010-10-13 オムロン株式会社 Monitoring device
JP2006243849A (en) * 2005-02-28 2006-09-14 Toshiba Corp Equipment control device and its method
US7734072B2 (en) 2005-02-28 2010-06-08 Kabushiki Kaisha Toshiba Face recognition for automatic adjustment of personalized device parameters
JP2006344100A (en) * 2005-06-10 2006-12-21 Konica Minolta Holdings Inc Authentication device and image output device
JP2007075305A (en) * 2005-09-14 2007-03-29 Hitachi Ltd Personal authentication device, and method
JP4692174B2 (en) * 2005-09-14 2011-06-01 株式会社日立製作所 Personal authentication device and door opening / closing system
US7760916B2 (en) 2005-10-31 2010-07-20 Sony Corporation Registration apparatus, collation apparatus, image correction method and program
JP2007164669A (en) * 2005-12-16 2007-06-28 Yamatake Corp Three-dimensional pattern position/attitude detector
JP5137833B2 (en) * 2006-07-14 2013-02-06 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JPWO2008007781A1 (en) * 2006-07-14 2009-12-10 パナソニック株式会社 Gaze direction detection device and gaze direction detection method
JP2008089402A (en) * 2006-10-02 2008-04-17 Konica Minolta Holdings Inc Information processing system, program, and information processing method
JP2008087140A (en) * 2006-10-05 2008-04-17 Toyota Motor Corp Speech recognition robot and control method of speech recognition robot
US9174552B2 (en) 2007-03-02 2015-11-03 Denso Corporation Driving-environment setup system, in-vehicle device and program thereof, portable device and program thereof, management device and program thereof
JP2008245015A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Image processing unit and program
US9462222B2 (en) 2007-05-30 2016-10-04 Intellectual Ventures Fund 83 Llc Portable video communication system
JP2010529735A (en) * 2007-05-30 2010-08-26 イーストマン コダック カンパニー Portable video communication system
US9906725B2 (en) 2007-05-30 2018-02-27 Mounument Peak Ventures, Llc Portable video communication system
JP2015100117A (en) * 2007-05-30 2015-05-28 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー Portable video communication system
US10270972B2 (en) 2007-05-30 2019-04-23 Monument Peak Ventures, Llc Portable video communication system
US8842155B2 (en) 2007-05-30 2014-09-23 Intellectual Ventures Fund 83 Llc Portable video communication system
US8085996B2 (en) 2007-06-11 2011-12-27 Sony Corporation Image processing apparatus, image display apparatus, imaging apparatus, method for image processing therefor, and program
EP2015568A2 (en) 2007-06-14 2009-01-14 FUJIFILM Corporation Photographing apparatus
US9065998B2 (en) 2007-06-14 2015-06-23 Fujifilm Corporation Photographing apparatus provided with an object detection function
US9131138B2 (en) 2007-06-14 2015-09-08 Fujifilm Corporation Photographing apparatus
EP3462727A1 (en) 2007-06-14 2019-04-03 FUJIFILM Corporation Photographing apparatus
JP4569670B2 (en) * 2008-06-11 2010-10-27 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2009301170A (en) * 2008-06-11 2009-12-24 Sony Corp Image processor and image processing method
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010134866A (en) * 2008-12-08 2010-06-17 Toyota Motor Corp Facial part detection apparatus
JP2011192220A (en) * 2010-03-16 2011-09-29 Glory Ltd Device, method and program for determination of same person
JP2011215718A (en) * 2010-03-31 2011-10-27 Yamatake Corp Collation device
US8988188B2 (en) 2010-11-18 2015-03-24 Hyundai Motor Company System and method for managing entrance and exit using driver face identification within vehicle
KR101805716B1 (en) * 2011-09-21 2017-12-07 현대모비스 주식회사 Apparatus and Method for certifying Driver by recognition face
JP2014220567A (en) * 2013-05-01 2014-11-20 株式会社ニコン Information processing device, system, method, and program
JP2015007953A (en) * 2013-06-24 2015-01-15 由田新技股▲ふん▼有限公司 Apparatus, method, and computer readable medium for monitoring the number of passengers in automobile
JP2017514193A (en) * 2014-02-04 2017-06-01 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 3D image analysis apparatus for determining a line-of-sight direction
US10074031B2 (en) 2014-02-04 2018-09-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 2D image analyzer
US10192135B2 (en) 2014-02-04 2019-01-29 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. 3D image analyzer for determining the gaze direction
US10592768B2 (en) 2014-02-04 2020-03-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Hough processor
JP2016000560A (en) * 2014-06-11 2016-01-07 株式会社デンソー Vehicle setting device
WO2015190023A1 (en) * 2014-06-11 2015-12-17 株式会社デンソー Vehicle setting device
JP2017525068A (en) * 2014-06-20 2017-08-31 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Methods for personal identification
CN106462748A (en) * 2014-06-20 2017-02-22 罗伯特·博世有限公司 Method for identifying an individual
JP2019531560A (en) * 2016-07-05 2019-10-31 ナウト, インコーポレイテッドNauto, Inc. Automatic driver identification system and method
US11580756B2 (en) 2016-07-05 2023-02-14 Nauto, Inc. System and method for determining probability that a vehicle driver is associated with a driver identifier
JP2018045309A (en) * 2016-09-12 2018-03-22 株式会社東芝 Feature quantity extraction device and authentication system
US11915518B2 (en) 2017-06-26 2024-02-27 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
US11210498B2 (en) 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
JP2019202726A (en) * 2018-05-25 2019-11-28 株式会社Subaru Occupant monitoring apparatus for vehicle
JP7211673B2 (en) 2018-05-25 2023-01-24 株式会社Subaru vehicle occupant monitoring device
JP2021502618A (en) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Gaze point determination method and devices, electronic devices and computer storage media
US11295474B2 (en) 2018-09-28 2022-04-05 Beijing Sensetime Technology Development Co., Ltd. Gaze point determination method and apparatus, electronic device, and computer storage medium
JP2021504214A (en) * 2018-10-19 2021-02-15 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Driving environment intelligent adjustment, driver registration method and equipment, vehicles and devices
JP2022180375A (en) * 2018-10-19 2022-12-06 シャンハイ センスタイム インテリジェント テクノロジー カンパニー リミテッド Driving environment intelligent adjustment, driver registration method and apparatus, vehicle and device
US10963678B2 (en) * 2018-11-14 2021-03-30 Hyundai Motor Company Face recognition apparatus and face recognition method
JP2021531521A (en) * 2019-06-17 2021-11-18 グーグル エルエルシーGoogle LLC Seamless driver authentication using in-vehicle cameras in relation to trusted mobile computing devices
JP7049453B2 (en) 2019-06-17 2022-04-06 グーグル エルエルシー Seamless driver authentication using in-vehicle cameras in relation to trusted mobile computing devices
JPWO2021156996A1 (en) * 2020-02-06 2021-08-12
JP7396375B2 (en) 2020-02-06 2023-12-12 日本電気株式会社 Gate system, gate device, its control method, and program
WO2021156996A1 (en) * 2020-02-06 2021-08-12 日本電気株式会社 Gate system, gate device, method for controlling same, and program
JP2021149168A (en) * 2020-03-16 2021-09-27 いすゞ自動車株式会社 Image transmission device and authentication system
JP7404950B2 (en) 2020-03-16 2023-12-26 いすゞ自動車株式会社 Image transmission device and authentication system
CN114248672A (en) * 2020-09-22 2022-03-29 宝能汽车集团有限公司 Female physiological period care method and device for vehicle and vehicle
WO2022209301A1 (en) * 2021-03-31 2022-10-06 学校法人明治大学 Information processing device, information processing method, and program
JP2022156604A (en) * 2021-03-31 2022-10-14 学校法人明治大学 Information processing apparatus, information processing method, and program
JP7269607B2 (en) 2021-03-31 2023-05-09 学校法人明治大学 Information processing device, information processing method, and program
CN114998979A (en) * 2022-08-01 2022-09-02 中国通信建设第三工程局有限公司 Intelligent Internet of vehicles system

Also Published As

Publication number Publication date
JP4675492B2 (en) 2011-04-20

Similar Documents

Publication Publication Date Title
JP4675492B2 (en) Personal authentication device using facial images
EP1629415B1 (en) Face identification verification using frontal and side views
EP1811456B1 (en) Face feature point detector and feature point detector
EP1732028B1 (en) System and method for detecting an eye
US7508979B2 (en) System and method for detecting an occupant and head pose using stereo detectors
JP4898026B2 (en) Face / Gaze Recognition Device Using Stereo Camera
JP4443722B2 (en) Image recognition apparatus and method
US8503736B2 (en) Registration device and registration method for biometric authentication, authentication device and authentication method for biometric authentication
US20050063569A1 (en) Method and apparatus for face recognition
KR102554391B1 (en) Iris recognition based user authentication apparatus and method thereof
JP6222948B2 (en) Feature point extraction device
WO2003073359A2 (en) Method and apparatus for recognizing objects
JP2002274265A (en) Mirror adjusting device
JPWO2020079741A1 (en) Iris recognition device, iris recognition method, iris recognition program and recording medium
CN114270417A (en) Face recognition system and method capable of updating registered face template
KR101795264B1 (en) Face landmark detection apparatus and verification method of the same
JP2001092963A (en) Method and device for collating image
US7228011B1 (en) System and method for issuing a security unit after determining eligibility by image recognition
US20220067135A1 (en) Method and System for Authenticating an Occupant Within an Interior of a Vehicle
JP5538031B2 (en) Verification device
CN115376212A (en) Counterfeit image detection
KR102316587B1 (en) Method for biometric recognition from irises
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
JP2001222716A (en) Personal identification method and personal identification system
KR20130051680A (en) Apparatus and method for recognition user face in a robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101109

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140204

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4675492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees