JP2000067237A - Person identifying device - Google Patents

Person identifying device

Info

Publication number
JP2000067237A
JP2000067237A JP10246547A JP24654798A JP2000067237A JP 2000067237 A JP2000067237 A JP 2000067237A JP 10246547 A JP10246547 A JP 10246547A JP 24654798 A JP24654798 A JP 24654798A JP 2000067237 A JP2000067237 A JP 2000067237A
Authority
JP
Japan
Prior art keywords
image
feature point
eye
detecting
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP10246547A
Other languages
Japanese (ja)
Inventor
Taro Watanabe
太郎 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP10246547A priority Critical patent/JP2000067237A/en
Publication of JP2000067237A publication Critical patent/JP2000067237A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To properly detect the positions of eyes in spite of how much the eyes are opened, to properly detect the eyes and mouth while reducing the quantity of calculation and to improve identification accuracy. SOLUTION: This person identifying device is provided with an image input part 100 for inputting an image, face area detecting part 200 for detecting the area of a face image from the input image, a feature point detecting part 300 for detecting the feature points of a face based on the detected face image, a normalization part 400 for deforming the image so as to come to a preset position by moving the positions of the detected feature points and a recognition part 500 for identifying and recognizing a person while using the normalized image and the data-base images of respective registered persons registered beforehand. The feature point detecting part 300 has an eye detecting part 310 for detecting the feature points of the eyes while using the template of the eyes composed of a secondary curve showing the boundary on he upside of the eyes and a circle showing the pupils and a mouth detecting part 340 for finding the boundary area of upper and lower lips from the secondary differentiated image in the preset direction and defining the center of gravity as the feature point of the mouth.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、顔画像を用いて人
物特定を行う人物識別装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a person identifying apparatus for identifying a person using a face image.

【0002】[0002]

【従来の技術】機械と人間とのマンマシンインターフェ
イスをより自然なものにするために、顔画像から人物を
特定することが必要である。また、識別を精度よく行う
ためには顔画像を精度よく正規化することが重要であ
る。
2. Description of the Related Art In order to make a man-machine interface between a machine and a person more natural, it is necessary to specify a person from a face image. In addition, in order to perform identification with high accuracy, it is important to accurately normalize the face image.

【0003】従来、この種の人物識別装置においては、
次の処理工程を経て人物識別を行っている。 1)画像中から顔領域を抽出する。 2)目、口などの特徴点の抽出を行う。 3)抽出した特徴点と、アフィン変換などを用いて顔画
像を正規化する。 4)あらかじめ用意されている辞書の顔画像とのパター
ンマッチングやニューラルネットワークを用いて識別を
行う。
Conventionally, in this type of person identification device,
Person identification is performed through the following processing steps. 1) Extract a face region from an image. 2) Extract feature points such as eyes and mouth. 3) Normalize the face image using the extracted feature points and affine transformation. 4) Identification is performed using pattern matching with a face image of a dictionary prepared in advance or using a neural network.

【0004】ここで、目、口の検出には、あらかじめ用
意されたテンプレートパターンを用いて、それと顔画像
とを照合することにより特徴点を抽出する方法が提案さ
れている。例えば、図5は目のテンプレートパターンの
例を示し、このテンプレートパターンとしては、目の中
心からの上側境界円弧との縦方向の距離a、目の中心か
らの横方向の距離b、目の中心から下側境界円弧との縦
方向の距離c、瞳の半径r、目の傾きθ、目の中心に対
する瞳の中心との距離xc、ycの各パラメータを有す
る。また、ほかの方法として、円形や矩形などの特定形
体の領域を抽出する分離度フィルタとテンプレートパタ
ーンの照合とを組み合わせた方法が提案されている。
Here, for the detection of eyes and mouth, there has been proposed a method of extracting a feature point by using a template pattern prepared in advance and comparing it with a face image. For example, FIG. 5 shows an example of an eye template pattern, which includes a vertical distance a from the center of the eye to the upper boundary arc, a horizontal distance b from the center of the eye, and a center of the eye. , The vertical distance c to the lower boundary arc, the pupil radius r, the inclination of the eye θ, and the distance xc and yc from the center of the eye to the center of the eye. As another method, a method has been proposed in which a separation filter for extracting an area of a specific feature such as a circle or a rectangle is combined with template pattern matching.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上述し
た従来技術では、次のような問題点を有している。 (1)従来例で用いられたテンプレートパターンは、パ
ラメータの数が多く、対象パターンの形状変化や大きさ
に対応させると計算量が大きくなる。 (2)また、従来例において、テンプレートパターンを
用いる方法は、円形や矩形などの比較的単純な形にしか
適応できず、目をつぶっている場合に対応できない。 (3)特徴点の検出誤差を考慮に入れてないので識別精
度が低い。
However, the above-mentioned prior art has the following problems. (1) The template pattern used in the conventional example has a large number of parameters, and the amount of calculation increases when the template pattern is made to correspond to the shape change and size of the target pattern. (2) In the conventional example, the method using the template pattern can be applied only to a relatively simple shape such as a circle or a rectangle, and cannot cope with a case where the eyes are closed. (3) The recognition accuracy is low because the detection error of the feature point is not taken into account.

【0006】本発明は上述した従来例に係る問題点を解
消するためになされたもので、目の開き具合によらず目
の位置を正しく検出でき、計算量を少なくして目と口を
正しく検出し、かつ識別精度を高める人物識別装置を提
供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems of the prior art, and can correctly detect the position of the eyes regardless of the degree of opening of the eyes, reduce the amount of calculation, and correct the eyes and the mouth. It is an object of the present invention to provide a person identification device that detects and improves identification accuracy.

【0007】[0007]

【課題を解決するための手段】この目的を達成するため
に、本発明に係る人物識別装置は、画像を入力するため
の画像入力手段と、前記画像入力手段を介して入力され
た入力画像から顔画像の領域を検出する顔領域検出手段
と、前記顔画像領域検出手段により検出された顔画像に
基づいて顔の特徴点を検出する特徴点検出手段と、前記
特徴点検出手段により検出された特徴点の位置を移動さ
せて、あらかじめ設定された位置にくるように画像を変
形させる正規化手段と、前記正規化手段から得られた正
規化画像とあらかじめ登録された各登録者のデータベー
ス画像とを用いて人物を識別認識する認識手段とを備え
るとともに、前記特徴点検出手段は、目の上側の境界を
示す2次曲線と瞳を示す円からなる目のテンプレートを
用いて目の特徴点を検出する目検出部と、あらかじめ設
定した方向の2次微分画像から上下の唇の境界領域を求
めて、その重心を口の特徴点とする口検出部とを有する
ことを特徴とするものである。
In order to achieve this object, a person identifying apparatus according to the present invention comprises an image input means for inputting an image and an input image input via the image input means. A face area detecting means for detecting an area of the face image, a feature point detecting means for detecting a feature point of the face based on the face image detected by the face image area detecting means, and a feature point detected by the feature point detecting means. By moving the position of the feature point, a normalizing means for deforming the image so as to come to a preset position, a normalized image obtained from the normalizing means and a database image of each registrant registered in advance. And a recognizing means for recognizing and recognizing a person by using an eye template, wherein the feature point detecting means uses an eye template consisting of a quadratic curve indicating the upper boundary of the eye and a circle indicating the pupil. It has an eye detection unit for detecting, and a mouth detection unit that obtains a boundary region between the upper and lower lips from a second derivative image in a preset direction and uses the center of gravity as a feature point of the mouth. .

【0008】[0008]

【発明の実施の形態】図1は本発明の実施の形態に係る
人物識別装置の構成を示すシステムブロック図である。
図1に示すように、本実施の形態に係る人物識別装置
は、画像を入力するための画像入力部100と、入力画
像から顔画像の領域を検出する顔領域検出部200と、
検出された顔画像に基づいて顔の特徴点を検出する特徴
点検出部300と、特徴点検出部300により検出され
た特徴点の位置を移動させて、あらかじめ設定された位
置にくるように画像を変形させる正規化部400と、正
規化部400から得られた正規化画像とあらかじめ登録
された各登録者のデータベース画像とを用いて人物を識
別認識する認識部500とを備えている。
FIG. 1 is a system block diagram showing a configuration of a person identification device according to an embodiment of the present invention.
As shown in FIG. 1, the person identification device according to the present embodiment includes an image input unit 100 for inputting an image, a face area detection unit 200 for detecting a face image area from the input image,
A feature point detection unit 300 that detects a feature point of the face based on the detected face image, and an image that is moved by moving the position of the feature point detected by the feature point detection unit 300 so as to come to a preset position. And a recognizing unit 500 for recognizing and recognizing a person using the normalized image obtained from the normalizing unit 400 and a database image of each registrant registered in advance.

【0009】ここで、前記顔領域検出部200は、あら
かじめ標準の顔画像を登録して標準顔画像データベース
部210と、入力画像と前記標準顔画像データベース部
210に登録された標準顔画像との相関を演算する相関
演算部220とを備えており、相関の高い領域を顔領域
として検出する。
Here, the face area detecting section 200 registers a standard face image in advance and registers a standard face image database section 210 with an input image and a standard face image registered in the standard face image database section 210. A correlation calculating unit 220 that calculates a correlation, and detects a region having a high correlation as a face region.

【0010】また、前記特徴点検出部300は、目の上
側の境界を示す2次曲線と瞳を示す円からなる目のテン
プレートを生成する目テンプレート生成部320と、顔
領域検出部200から与えられる顔領域のうち目の領域
に対して生成された目のテンプレートとの相関を演算す
る相関演算部330とを有し、最も相関の高い領域を検
出してその領域の目のテンプレートの中心を特徴点とし
て検出する目検出部310と、あらかじめ設定した方向
の2次微分画像から上下の唇の境界領域を求める境界領
域検出部350と、その重心を演算する重心演算部36
0とを有し、重心演算部360により求められた重心を
口の特徴点として検出する口検出部340とを備えてい
る。
The feature point detector 300 receives an eye template generator 320 for generating an eye template including a quadratic curve indicating the upper boundary of the eye and a circle indicating the pupil, and a face area detector 200. And a correlation calculation unit 330 for calculating a correlation between the eye region and the generated eye template in the face region to be detected. An eye detection unit 310 for detecting as a feature point, a boundary region detection unit 350 for obtaining upper and lower lip boundary regions from a second derivative image in a preset direction, and a centroid calculation unit 36 for calculating the center of gravity
0, and a mouth detection unit 340 that detects the center of gravity obtained by the center-of-gravity calculation unit 360 as a feature point of the mouth.

【0011】さらに、前記認識部500は、各人の顔画
像をあらかじめ登録してなる個人顔画像データベース部
510と、各人の顔画像と正規化部400を経て入力さ
れた正規化画像と相関を演算する相関演算部520とを
備えている。
The recognition section 500 further includes a personal face image database section 510 in which face images of each person are registered in advance, and a correlation between the face image of each person and the normalized image input through the normalization section 400. And a correlation operation unit 520 that calculates

【0012】次に、上記構成に係る人物識別装置の各部
動作について、図2に示す目のテンプレートとパラメー
タの変化例の説明図、図3に示す口検出領域と上下の唇
の境界領域・特徴点の検出結果の説明図、及び図4に示
す特徴点の移動状況の説明図を参照しつつ説明する。
Next, with respect to the operation of each part of the person identification device having the above configuration, an explanatory diagram of an example of changes in the eye template and parameters shown in FIG. 2, a mouth detection region and boundary regions and features of the upper and lower lips shown in FIG. This will be described with reference to the explanatory diagram of the point detection result and the explanatory diagram of the movement state of the feature point shown in FIG.

【0013】まず、画像入力部100は、ビデオカメラ
などから顔画像を入力する。顔領域検出部200では、
相関演算部220により、入力された顔画像に対して、
標準顔画像データベース部210に登録されている標準
顔画像を全画面にわたって順次移動させて、最も相関の
高い領域を検出する。
First, the image input unit 100 inputs a face image from a video camera or the like. In the face area detection unit 200,
By the correlation operation unit 220, for the input face image,
The standard face images registered in the standard face image database unit 210 are sequentially moved over the entire screen to detect a region having the highest correlation.

【0014】特徴点抽出部300では、顔領域検出部2
00で検出された顔画像に対して、あらかじめ設定した
位置に右目、左目、口の各領域を設定し、右目、左目の
全領域に対して、目テンプレート生成部320で生成さ
れた各々の目のテンプレートとの相関を相関演算部33
0で順次求めて、最も相関が高い領域を検出して、その
領域の目のテンプレートの中心を特徴点とする。
In the feature point extracting section 300, the face area detecting section 2
00, the right eye, the left eye, and the mouth are set at predetermined positions with respect to the face image detected at 00, and each eye generated by the eye template generation unit 320 is set for all the right eye and the left eye. The correlation calculation unit 33 calculates the correlation with the template
Then, the area having the highest correlation is detected, and the center of the eye template of the area is set as a feature point.

【0015】目のテンプレートは、図2(a)に示すよ
うに、目の上側の境界を示す2次曲線と瞳を示す円から
なっており、パラメータとして、上側境界を表す2次曲
線y=ax2+Bx+Cの2次項の係数a(なお、B、
C:a、b、cの値から一意に求まる定数)と、目の横
幅の半分の値bと、目尻のy座標値cと、瞳の半径rと
を有する。
As shown in FIG. 2A, the eye template is composed of a quadratic curve indicating the upper boundary of the eye and a circle indicating the pupil. The coefficient a of the quadratic term of ax 2 + Bx + C (B,
C: a constant uniquely determined from the values of a, b, and c), a value b that is half the width of the eye, a y-coordinate value c of the outer corner of the eye, and a radius r of the pupil.

【0016】したがって、目の検出においては、簡素化
されたテンプレートを用いているため、パラメータの数
が少なく、計算量も少ない。また、図2(b)ないし
(d)に示すように、パラメータを変化させた場合であ
っても、目の位置を検出することができる。すなわち、
図2(b)は目が開いている状態、図2(c)は薄目の
状態、図2(d)は目が閉じている状態をそれぞれ示し
ており、このように、目の開き具合が異なっても目の位
置を検出することができる。
Therefore, in the eye detection, since a simplified template is used, the number of parameters is small and the amount of calculation is small. Further, as shown in FIGS. 2B to 2D, the position of the eyes can be detected even when the parameters are changed. That is,
FIG. 2B shows a state in which the eyes are open, FIG. 2C shows a state in which the eyes are thin, and FIG. 2D shows a state in which the eyes are closed. Even if different, the position of the eyes can be detected.

【0017】また、口の検出については、口検出部34
0において、まず、図3(a)に示す如く、あらかじめ
設定された原画像の口の検出領域の中で、境界領域検出
部350により、上下の唇の水平の境界を求め、画像の
縦方向に2次微分を行い、その絶対値を求めて、あらか
じめ設定した閾値より大きい境界領域を求める。次に、
求めた境界領域の中から縦方向の幅があらかじめ設定さ
れた閾値より小さくて横方向の長さが最も長い領域を選
び、重心演算部360により、その領域の重心を求めて
それを口の特徴点とする。図3(b)はこのときの上下
の唇の境界領域検出及び特徴点の検出結果を示してい
る。
As for the mouth detection, the mouth detection unit 34
In FIG. 3A, first, as shown in FIG. 3A, a horizontal boundary between upper and lower lips is obtained by a boundary region detection unit 350 in a preset detection region of the mouth of the original image, and the vertical direction of the image is determined. To obtain a boundary area larger than a preset threshold value. next,
A region whose vertical width is smaller than a preset threshold and whose horizontal length is the longest is selected from the obtained boundary regions, and the center of gravity of the region is obtained by the center-of-gravity calculation unit 360, which is used as a feature of the mouth. Point. FIG. 3B shows the detection results of the boundary regions of the upper and lower lips and the feature points at this time.

【0018】次に、正規化部400では、特徴点検出部
300で求めた特徴点を、例えば図4に示すように、そ
れぞれ水平方向、垂直方向にdx、dy画素ずつ移動さ
せて、それらの位置があらかじめ設定した位置にくるよ
うにアフィン変換を行い、正規化画像を作成する。
Next, the normalizing section 400 moves the feature points obtained by the feature point detecting section 300 by dx and dy pixels in the horizontal direction and the vertical direction, respectively, as shown in FIG. Affine transformation is performed so that the position comes to a preset position, and a normalized image is created.

【0019】そして、認識部500では、個人顔画像デ
ータベース部520に登録されている各人の画像と正規
化画像との相関を相関演算部510で求めて最も相関の
高い画像の人物を当該人物とする。
Then, the recognizing unit 500 calculates the correlation between the image of each person registered in the personal face image database unit 520 and the normalized image by the correlation calculating unit 510, and determines the person of the image with the highest correlation. And

【0020】[0020]

【発明の効果】上述したように、本発明によれば、特徴
点検出手段に、目の上側の境界を示す2次曲線と瞳を示
す円からなる目のテンプレートを用いて目の特徴点を検
出する目検出部と、あらかじめ設定した方向の2次微分
画像から上下の唇の境界領域を求めて、その重心を口の
特徴点とする口検出部とを備えたので、次のような効果
を奏する。 (1)目の検出においては簡素化されたテンプレートを
用いているためパラメータの数が少なく計算量が少な
い。 (2)目の開き具合によらず目の位置を正確に検出でき
る。 (3)口の検出ではアルゴリズムが単純で計算量が小さ
い。 (4)特徴点の検出誤差に対してロバスト性が高い。
As described above, according to the present invention, the feature points of the eye are detected by the feature point detecting means using the eye template composed of the quadratic curve indicating the upper boundary of the eye and the circle indicating the pupil. An eye detection unit for detecting, and a mouth detection unit that obtains a boundary area between the upper and lower lips from a second derivative image in a preset direction and uses the center of gravity as a feature point of the mouth, has the following effects. To play. (1) Since a simplified template is used in eye detection, the number of parameters is small and the amount of calculation is small. (2) The position of the eyes can be accurately detected regardless of the degree of opening of the eyes. (3) In mouth detection, the algorithm is simple and the amount of calculation is small. (4) High robustness against detection errors of feature points.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係る人物識別装置の構成
を示すシステムブロック図である。
FIG. 1 is a system block diagram showing a configuration of a person identification device according to an embodiment of the present invention.

【図2】図1の目検出部の動作を説明するもので、目の
テンプレートとパラメータを変化させた場合の例を示す
説明図である。
FIG. 2 is an explanatory diagram for explaining the operation of the eye detection unit in FIG. 1 and showing an example in which an eye template and parameters are changed.

【図3】図1の口検出部の動作を説明するもので、原画
像の口の検出領域と、上下の唇の境界領域の検出及び特
徴点の検出結果を示す説明図である。
FIG. 3 is an explanatory diagram for explaining the operation of the mouth detecting unit in FIG. 1 and showing detection results of a mouth detection region of an original image, a boundary region between upper and lower lips, and a feature point.

【図4】本発明における特徴点の移動状況の説明図であ
る。
FIG. 4 is an explanatory diagram of a moving state of a feature point in the present invention.

【図5】従来例で用いられる目のテンプレート例を示す
説明図である。
FIG. 5 is an explanatory diagram showing an example of an eye template used in a conventional example.

【符号の説明】[Explanation of symbols]

100 画像入力部(画像入力手段) 200 顔領域検出部(顔領域検出手段) 210 標準顔画像データベース部 220 相関演算部 300 特徴点検出部(特徴点検出手段) 310 目検出部 320 目テンプレート生成部 330 相関演算部 340 口検出部 350 境界領域検出部 360 重心演算部 400 正規化部(正規化手段) 500 認識部(認識手段) 510 相関演算部 520 個人顔画像データベース部 REFERENCE SIGNS LIST 100 image input section (image input section) 200 face area detection section (face area detection section) 210 standard face image database section 220 correlation operation section 300 feature point detection section (feature point detection section) 310 eye detection section 320 eye template generation section 330 Correlation calculation unit 340 Mouth detection unit 350 Boundary region detection unit 360 Center of gravity calculation unit 400 Normalization unit (normalization unit) 500 Recognition unit (recognition unit) 510 Correlation calculation unit 520 Personal face image database unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像を入力するための画像入力手段と、 前記画像入力手段を介して入力された入力画像から顔画
像の領域を検出する顔領域検出手段と、 前記顔画像領域検出手段により検出された顔画像に基づ
いて顔の特徴点を検出する特徴点検出手段と、 前記特徴点検出手段により検出された特徴点の位置を移
動させて、あらかじめ設定された位置にくるように画像
を変形させる正規化手段と、 前記正規化手段から得られた正規化画像とあらかじめ登
録された各登録者のデータベース画像とを用いて人物を
識別認識する認識手段とを、 有し、 前記特徴点検出手段は、 目の上側の境界を示す2次曲線と瞳を示す円からなる目
のテンプレートを用いて目の特徴点を検出する目検出部
と、 あらかじめ設定した方向の2次微分画像から上下の唇の
境界領域を求めて、その重心を口の特徴点とする口検出
部とを、 有する人物識別装置。
1. An image input means for inputting an image, a face area detection means for detecting a face image area from an input image input via the image input means, and a detection by the face image area detection means A feature point detecting means for detecting a feature point of the face based on the detected face image; and moving the position of the feature point detected by the feature point detecting means to deform the image so as to come to a preset position. And a recognition unit for identifying and recognizing a person using a normalized image obtained from the normalization unit and a database image of each registrant registered in advance, the feature point detection unit An eye detection unit that detects an eye feature point using an eye template consisting of a quadratic curve indicating the upper boundary of the eye and a circle indicating the pupil; and an upper and lower lip from a second derivative image in a preset direction. of Seeking field region, and a mouth detector that the centroid feature points of the mouth, the person identification device having.
JP10246547A 1998-08-17 1998-08-17 Person identifying device Withdrawn JP2000067237A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10246547A JP2000067237A (en) 1998-08-17 1998-08-17 Person identifying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10246547A JP2000067237A (en) 1998-08-17 1998-08-17 Person identifying device

Publications (1)

Publication Number Publication Date
JP2000067237A true JP2000067237A (en) 2000-03-03

Family

ID=17150046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10246547A Withdrawn JP2000067237A (en) 1998-08-17 1998-08-17 Person identifying device

Country Status (1)

Country Link
JP (1) JP2000067237A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100874088B1 (en) 2007-05-28 2008-12-16 에스케이 텔레콤주식회사 Face Recognition Method and System Using Image Shift Sensing
JP2009529196A (en) * 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド Method and apparatus for detecting eyes in digital images
CN102103687A (en) * 2009-12-22 2011-06-22 索尼公司 Apparatus, method, and program for image processing

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009529196A (en) * 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド Method and apparatus for detecting eyes in digital images
KR100874088B1 (en) 2007-05-28 2008-12-16 에스케이 텔레콤주식회사 Face Recognition Method and System Using Image Shift Sensing
CN102103687A (en) * 2009-12-22 2011-06-22 索尼公司 Apparatus, method, and program for image processing

Similar Documents

Publication Publication Date Title
Chiang et al. A novel method for detecting lips, eyes and faces in real time
US6895103B2 (en) Method for automatically locating eyes in an image
Kawaguchi et al. Detection of eyes from human faces by Hough transform and separability filter
McKenna et al. Modelling facial colour and identity with gaussian mixtures
US7127086B2 (en) Image processing apparatus and method
US8515136B2 (en) Image processing device, image device, image processing method
US8811744B2 (en) Method for determining frontal face pose
US8374422B2 (en) Face expressions identification
JP4156430B2 (en) Face verification method and system using automatic database update method
US5864630A (en) Multi-modal method for locating objects in images
Froba et al. Robust face detection at video frame rate based on edge orientation features
US20070122009A1 (en) Face recognition method and apparatus
JPH09251534A (en) Device and method for authenticating person
KR20170006355A (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
CN112101208A (en) Feature series fusion gesture recognition method and device for elderly people
JP2005309765A (en) Image recognition device, image extraction device, image extraction method and program
KR20020022295A (en) Device And Method For Face Recognition Using 3 Dimensional Shape Information
Yi et al. Partial face matching between near infrared and visual images in mbgc portal challenge
WO2002007096A1 (en) Device for tracking feature point on face
CN109993090B (en) Iris center positioning method based on cascade regression forest and image gray scale features
JP2000067237A (en) Person identifying device
Kwon Face recognition using depth and infrared pictures
US11080518B2 (en) Face image generating method for recognizing face
Nel et al. An integrated sign language recognition system
JP2001331804A (en) Device and method for detecting image area

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051101