JPH06119433A - Figure authentication device - Google Patents

Figure authentication device

Info

Publication number
JPH06119433A
JPH06119433A JP26262992A JP26262992A JPH06119433A JP H06119433 A JPH06119433 A JP H06119433A JP 26262992 A JP26262992 A JP 26262992A JP 26262992 A JP26262992 A JP 26262992A JP H06119433 A JPH06119433 A JP H06119433A
Authority
JP
Japan
Prior art keywords
authentication
image data
area
data
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26262992A
Other languages
Japanese (ja)
Inventor
Akihiko Sugikawa
明彦 杉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP26262992A priority Critical patent/JPH06119433A/en
Publication of JPH06119433A publication Critical patent/JPH06119433A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PURPOSE:To provide the figure authentication device which does not strict the posture of a user at the time of authenticating a figure by separating a background area and a face area from plural image data and measuring a decided feature amount from the face area. CONSTITUTION:The reference feature amount of the posture or the expression is calculated with a decided evaluation formula by an area processing part 5 and held in a feature amount recording part 9 as a value for judgement. At the time of authentication, the measured feature amount is calculated by an authentication part 7 while using the same evaluation formula and compared with the recorded value for judgement. At such a time, when the relation between two data satisfies decided conditions, it can be judged that the image data are effective as image data for authentication from the viewpoint of the posture or the expression. Namely, the authentication of the figure is not performed with one piece of image data at certain time but performed by inputting plural image data for certain fixed time and performed by using the image data satisfying the previously decided conditions.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は人物の顔画像を入力し、
その特徴量を計測して認証を行なう人物認証装置に関す
る。
BACKGROUND OF THE INVENTION The present invention inputs a face image of a person,
The present invention relates to a person authentication device that measures the characteristic amount and performs authentication.

【0002】[0002]

【従来の技術】人物の認証は、セキュリティの一手段と
して考えられ、顔画像を用いるシステムはユーザーに対
して負担を与えないので有望視されている。
2. Description of the Related Art Authentication of a person is considered as a security measure, and a system using a face image is regarded as promising because it does not burden a user.

【0003】従来は、入力された画像データの中から顔
領域と背景領域を分離し、あらかじめ決められた顔画像
データの特徴量を計測し、装置に登録されている基準特
徴量と比較を行ない人物の認証を行った。しかしなが
ら、現状では次のような問題がある。
Conventionally, the face area and the background area are separated from the input image data, the characteristic amount of the predetermined face image data is measured, and the characteristic amount is compared with the reference characteristic amount registered in the apparatus. Authenticated the person. However, at present, there are the following problems.

【0004】1)基準特徴量を計算した画像データを撮
影した条件と、認証用の画像データを撮影したときの条
件(背景、照明条件、距離、カメラアングル等)の違い
から、認証正解率が大きく左右される。 2)画像データ撮影時の条件が同じでも、人間の姿勢に
より得られる特徴量が異なるため、認証正解率が大きく
左右される。
1) Due to the difference between the condition of photographing the image data for which the reference feature amount is calculated and the condition of photographing the image data for authentication (background, lighting condition, distance, camera angle, etc.), the authentication accuracy rate is It depends a lot. 2) Even if the conditions at the time of capturing image data are the same, the feature amount obtained differs depending on the posture of the person, and therefore the authentication accuracy rate is greatly affected.

【0005】3)顔の位置や状態を正面顔や横顔に限定
しても、顔の表情の変化(目を閉じている、笑ってい
る、口を大きく開けている)により得られる特徴量が異
なるため、認証正解率が大きく左右される。 これらの問題に対して従来では以下の解決方法が考えら
れた。1の問題は、実際に認証を行なう条件で、基準画
像の撮影を行ない特徴量の計算を行なうことである程度
解決できる。
3) Even if the position or state of the face is limited to the front face or the side face, the feature amount obtained by the change in the facial expression (closed eyes, laughing, wide open mouth) Since they are different, the accuracy rate of authentication is greatly affected. Conventionally, the following solutions have been considered for these problems. The problem of No. 1 can be solved to some extent by photographing the reference image and calculating the feature amount under the condition that the authentication is actually performed.

【0006】2の問題は、そのような誤差が生じないよ
うに人物の姿勢を正面顔や横顔に限定し認証を行なって
いた。最近では、姿勢を分類し、各姿勢に応じた顔画像
を準備し、各画像の特徴量を計算し基準値として装置に
登録しておき、認証時にすべての姿勢の登録値と比較を
行ない認証を行なう装置が提案されている。また、目と
口の位置より顔の姿勢を判定し、顔画像のデータに対し
て線形変換を行ない正面顔とし、得られた画像から特徴
量を計算し認証を行なう装置も考案されている。
The second problem is that authentication is performed by limiting the posture of the person to the front face or the side face so that such an error does not occur. Recently, postures are classified, face images corresponding to each posture are prepared, the feature amount of each image is calculated and registered in the device as a reference value, and the registered values of all postures are compared at the time of authentication to perform authentication. A device for performing is proposed. Further, there is also devised a device that determines the posture of a face from the positions of eyes and mouth, performs linear conversion on the face image data to form a front face, calculates a feature amount from the obtained image, and performs authentication.

【0007】3の問題に対しては、問題2と同じように
顔の表現を分類し、各表現に応じた基準画像を準備し、
各画像の特徴量を計算し基準値として装置に登録しお
き、認証時にすべての表現の登録値と比較を行ない認証
を行なう装置が考えられる。
For problem 3, the face expressions are classified in the same manner as problem 2, and a reference image corresponding to each expression is prepared.
A device is conceivable in which the characteristic amount of each image is calculated and registered in the device as a reference value, and at the time of authentication, the registered values of all expressions are compared to perform authentication.

【0008】しかしながら、認証時に、使用者の姿勢や
表現を拘束するのは、ヒューマンインターフェースの観
点から見れば、ユーザーに負担を与えるので良い装置で
あるとは言いがた。
However, it has been said that it is a good device to restrain the posture and expression of the user at the time of authentication from the viewpoint of the human interface because it imposes a burden on the user.

【0009】また、複数の基準画像を作成し、各データ
の特徴量を計算し装置に記録しておくことは、記録すべ
きデータの増加と、認証時の計算量の増加と言う問題が
生じる。更に、顔の状態を検出し線形変換を行なう方式
は、変換時に計算誤差が生じる可能性がある。以上のこ
とを考慮すると人物認証を、一枚の画像データで行なう
ことに問題があると考えられる。
Further, when a plurality of reference images are created, the characteristic amount of each data is calculated and recorded in the apparatus, there arises a problem that the amount of data to be recorded and the amount of calculation at the time of authentication increase. . Further, the method of detecting the state of the face and performing the linear conversion may cause a calculation error during the conversion. Considering the above, it is considered that there is a problem in performing person authentication with one piece of image data.

【0010】[0010]

【発明が解決しようとする課題】上述した様に従来方式
によれば、問題を回避するために認証時に使用者の姿勢
や表情を拘束しなければならなかった。また、複数の基
準画像を準備し、各々の画像についての特徴量を計算し
登録しておく装置も考案されたが、すべての姿勢や表現
の画像の特徴量を登録し比較するのは、記録すべきデー
タの増加と、計算量の増加という問題が生じる。本発明
の目的は、人物の認証を行なう時に使用者の姿勢を拘束
せず、記録すべきデータ量や計算量が増加しない人物認
証装置を提供することにある。
As described above, according to the conventional method, the posture and facial expression of the user must be restricted at the time of authentication in order to avoid the problem. A device was also devised in which a plurality of reference images were prepared, and the feature amount of each image was calculated and registered. However, the feature amount of images of all postures and expressions is registered and compared. There is a problem that the amount of data to be increased and the amount of calculation are increased. An object of the present invention is to provide a person authentication device that does not restrain the posture of the user when authenticating a person and does not increase the amount of data to be recorded or the amount of calculation.

【0011】[0011]

【課題を解決するための手段】本発明は、目的を達成す
るために、複数の画像データから認証を行なうことを特
徴としている。このため、本発明では入力された画像デ
ータから背景領域と顔領域とを分離する手段と、顔領域
の中から決められた特徴量を計測する手段と、得られた
基準特徴量を用いてあらかじめ決められた評価式の計算
を行う手段と、判定のための基準データを保持する手段
と、評価式の値と基準データの比較を行ない、入力され
た画像データが決められた条件を満足するかどうか判定
を行なう手段を具備することを特徴とする。さらに、入
力画像が有効であると判定されたなら得られた特徴量を
用いて認証を行なう手段と、無効であると判定されたな
ら、再度画像データの入力を行う手段を具備することを
特徴とする。
The present invention is characterized by performing authentication from a plurality of image data in order to achieve the object. Therefore, in the present invention, a means for separating the background area and the face area from the input image data, a means for measuring the characteristic amount determined from the face area, and the obtained reference characteristic amount are used in advance. Whether the input image data satisfies the specified conditions by calculating the specified evaluation formula, holding the reference data for judgment, and comparing the evaluation formula value with the reference data. It is characterized in that it is provided with means for making a judgment. Further, it is provided with means for performing authentication using the obtained feature amount if the input image is determined to be valid, and means for inputting image data again if it is determined to be invalid. And

【0012】[0012]

【作用】本発明では、基準特徴量を計算したときに、姿
勢や表情の特徴量を決められた評価式により計算し、判
定用の値として装置に保持しておく。認証時には、計測
された特徴量を同じ評価式を用いて計算し、装置に記録
されている判定用の値と比較する。この時、2つのデー
タの関係が、決められた条件を満たしているなら、その
画像データが姿勢や表現の面で認証用の画像データとし
て有効であると判定できる。つまり、基準特徴量を計算
した時と同じような画像データを得る手段を用いること
により、高い認証率の装置の提供を行なう。この時、画
像データが無効であると判定されたなら、その画像デー
タを破棄し、新たな画像データの入力を行なう。この処
理を有効な画像データが得られるまで繰り返すことによ
り顔の姿勢や変化による特徴量の変化を防ぐことができ
る。
In the present invention, when the reference characteristic amount is calculated, the characteristic amount of the posture or facial expression is calculated by a predetermined evaluation formula, and is stored in the device as a judgment value. At the time of authentication, the measured feature amount is calculated using the same evaluation formula, and is compared with the determination value recorded in the device. At this time, if the relationship between the two data satisfies a predetermined condition, it can be determined that the image data is effective as image data for authentication in terms of posture and expression. That is, a device having a high authentication rate is provided by using a means for obtaining the same image data as when the reference feature amount was calculated. At this time, if it is determined that the image data is invalid, the image data is discarded and new image data is input. By repeating this process until effective image data is obtained, it is possible to prevent the change of the feature amount due to the posture and change of the face.

【0013】つまり、人物の認証をある時刻の画像デー
タを一枚で行なうのではなく、ある一定の決められた時
間、複数の画像データの入力を行ない、あらかじめ決め
られた条件を満たした画像データを使用して認証を行な
う。それゆえ、認証時に装置の都合に使用者が合わせる
のではなく、装置の方が認証用の画像データを自動的に
選別するためユーザーの負担の少ない装置を提供でき
る。
That is, the person is not authenticated with one piece of image data at a certain time, but a plurality of pieces of image data are input for a certain fixed time, and the image data satisfying a predetermined condition is input. Use to authenticate. Therefore, the user does not have to match the device at the time of authentication, but the device automatically selects the image data for authentication, so that the device with less burden on the user can be provided.

【0014】[0014]

【実施例】以下、本発明の実施例を図面を参照して説明
する。図1は、本発明の構成の一例を示すブロック図で
ある。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of the present invention.

【0015】カメラが入力されたアナログ信号は、画像
入力部1でディジタル信号に変換されメモリ2に記録さ
れる。次に顔領域検出部3は、エンモリ2の全体画像に
対して決められた演算を行なうことにより図2に示す領
域を切り出し、メモリ4に記録を行なう。
The analog signal input to the camera is converted into a digital signal by the image input section 1 and recorded in the memory 2. Next, the face area detection unit 3 cuts out the area shown in FIG. 2 by performing a predetermined calculation on the entire image of the memory 2 and records it in the memory 4.

【0016】領域処理部5は、顔領域データに対して決
められた演算を行なうことにより、有効判定用データを
計算し有効判定部6に送る。また、領域の特徴を示す特
徴量を計算し認証部7に送る。
The area processing unit 5 calculates validity determination data by performing a predetermined calculation on the face area data and sends the validity determination data to the validity determination unit 6. In addition, the feature amount indicating the feature of the area is calculated and sent to the authentication unit 7.

【0017】有効判定部6は、領域処理部5からのデー
タを用いてあらかじめ決められた演算を行ない、その結
果をあらかじめ決められた値と比較して、入力された画
像が認証に有効であるかの判定を行ない、その結果を制
御部8に送る。制御部8は、有効であれば認証部7に認
証有効信号を発生し、無効の場合は画像入力部1に画像
入力指示信号を発生する。
The validity determining unit 6 performs a predetermined calculation using the data from the area processing unit 5, compares the result with a predetermined value, and the input image is effective for authentication. It is determined whether or not the result is sent to the control unit 8. The control unit 8 generates an authentication valid signal to the authentication unit 7 when it is valid, and generates an image input instruction signal to the image input unit 1 when it is invalid.

【0018】認証部7は、領域の特徴量と特徴量記録部
9に記録されている基準値との演算を行ない人物の判定
を行なう。その結果をインデックス信号として制御部8
に送る。
The authentication section 7 determines the person by calculating the characteristic amount of the area and the reference value recorded in the characteristic amount recording section 9. The control unit 8 uses the result as an index signal.
Send to.

【0019】制御部8は、CPUやROM、RAMで構
成され、あらかじめ決められた処理手順に従うことでこ
の装置を動かすに必要な信号を発生させる。また、認証
部7より送られたインデックス信号に基づき認証結果表
示部10に必要な信号を送る。認証結果表示部10は、
送られた信号を基に結果を表示する手段を有する物であ
る。次に、各ブロックの処理内容と処理手段を、以下に
詳しく述べる。図3に画像入力部1の構成の一例をブロ
ック図で示す。
The control unit 8 is composed of a CPU, a ROM, and a RAM, and generates a signal necessary for operating this device by following a predetermined processing procedure. Further, a necessary signal is sent to the authentication result display unit 10 based on the index signal sent from the authentication unit 7. The authentication result display unit 10
It has a means for displaying the result based on the signal sent. Next, the processing contents and processing means of each block will be described in detail below. FIG. 3 is a block diagram showing an example of the configuration of the image input unit 1.

【0020】画像入力部は、A/D変換部11、マトリ
ックス部12、メモリ2(図1と同じもの)より構成さ
れ、制御部からの入力指示信号を検知すると、カメラか
らのアナログ信号を一フレーム分ディジタル信号に変換
してメモリ2に記録を行なう。この時カメラからのアナ
ログRGB入力信号を、A/D変換部11でディジタル
信号に変換し、マトリックス部で以下の式を用いて、
Y、RY、BY信号に変換しメモリ2に記録する。 Y=0.299*R+0.584*G+0.117*B RY=R−Y BY=B−Y 図4に顔領域検出部3の構成の一例をブロック図で示
す。
The image input section is composed of an A / D conversion section 11, a matrix section 12, and a memory 2 (the same as in FIG. 1). When an input instruction signal from the control section is detected, an analog signal from the camera is detected. It is converted into a digital signal for a frame and recorded in the memory 2. At this time, the analog RGB input signal from the camera is converted into a digital signal by the A / D conversion unit 11, and the matrix unit uses the following equation to obtain:
The Y, RY and BY signals are converted and recorded in the memory 2. Y = 0.299 * R + 0.584 * G + 0.117 * B RY = R−Y BY = B−Y FIG. 4 is a block diagram showing an example of the configuration of the face area detection unit 3.

【0021】この例では顔領域検出部は、極座標変換部
21、画素有効判定部22、顔領域決定部23、メモリ
2,4,24により構成される。(メモリ2,4は図1
と同じもの)
In this example, the face area detecting section is composed of a polar coordinate converting section 21, a pixel validity determining section 22, a face area determining section 23, and memories 2, 4 and 24. (Memory 2 and 4 are shown in Figure 1.
Same as

【0022】極座標変換部21でメモリ2に記録された
RY信号とBY信号から以下の処理をおこないPHS信
号を作成し、画素有効判定部22でPHS信号、RY信
号、BY信号を用いて有効画素の判定を行なう。 PHS=ATAN(BY/RY) RY!=0 PHSは色相を現す信号と定義し、RY信号が0であれ
ば、変換を行なわない。画素有効判定部22は、以下の
規則を用いて有効無効の判定を行ない、判定結果はメモ
リ2に記録する。 1 輝度信号の値があらかじめ決められた値より小さい
場合は、無効画素とする。 2 RY信号が0の場合は無効画素とする。 3 PHS信号があらかじめ決められた範囲内の値でな
ければ無効画素とする。 顔領域決定部23は、メモリ4のデータを調べ、あらか
じめ決められた大きさを満たす領域を抽出し顔領域とす
る。
The polar coordinate conversion unit 21 performs the following processing from the RY signal and the BY signal recorded in the memory 2 to create a PHS signal, and the pixel validity determination unit 22 uses the PHS signal, RY signal, and BY signal to determine the effective pixel. Is determined. PHS = ATAN (BY / RY) RY! = 0 PHS is defined as a signal representing a hue, and if the RY signal is 0, no conversion is performed. The pixel validity determination unit 22 determines validity / invalidity using the following rules, and records the determination result in the memory 2. 1 If the value of the luminance signal is smaller than a predetermined value, it is regarded as an invalid pixel. 2 When the RY signal is 0, the pixel is invalid. 3 If the PHS signal is not a value within a predetermined range, it is regarded as an invalid pixel. The face area determination unit 23 examines the data in the memory 4 and extracts an area satisfying a predetermined size as a face area.

【0023】この時顔領域の座標値と幅、高さのデータ
は、有効判定部6に送られる。またこのデータを用い
て、顔領域に当たるデータを、メモリ2から抽出しメモ
リ24に記録を行なう。図5から図6に領域処理部5の
構成の例をブロック図で示す。
At this time, the coordinate value of the face area and the data of the width and the height are sent to the validity judging section 6. Using this data, the data corresponding to the face area is extracted from the memory 2 and recorded in the memory 24. 5 to 6 are block diagrams showing examples of the configuration of the area processing unit 5.

【0024】図5は、顔領域からあらかじめ決めらえた
複数の領域(N個)を検出し、認証を行なう装置の領域
処理部の構成の一例である。N個の領域処理部31は、
それぞれ、あらかじめ決められた処理に従い、決められ
た領域を検出し、各領域毎に処理を行ない、判定用デー
タと特徴量を検出する。この時各処理部はメモリ24の
顔領域のデータを入力とし、演算で得られた判定用デー
タを有効判定部6に送り、特徴量を認証部7に送る。
FIG. 5 shows an example of the configuration of the area processing unit of the apparatus for detecting a plurality of predetermined areas (N pieces) from the face area and performing authentication. The N area processing units 31 are
In each case, a predetermined area is detected in accordance with the predetermined processing, and the processing is performed for each area to detect the judgment data and the feature amount. At this time, each processing unit receives the data of the face area of the memory 24 as input, sends the determination data obtained by calculation to the validity determination unit 6, and sends the feature amount to the authentication unit 7.

【0025】図6に、左目の領域処理を例に、領域処理
部のより詳しいブロック図を示す。この時領域処理部
は、左目領域検出部32、正規化部33、線形変換部3
4、演算部35により構成される。
FIG. 6 shows a more detailed block diagram of the area processing unit, taking the area processing for the left eye as an example. At this time, the region processing unit includes the left eye region detection unit 32, the normalization unit 33, and the linear conversion unit 3.
4. Comprised of a calculation unit 35.

【0026】左目領域検出部は、メモリ24の顔領域の
中からあらかじめ決められた処理に従い、左目領域の検
出を行ない、領域の座標値と幅と高さのデータを判定用
データとして、有効判定部6に送る。正規化部33は、
検出された左目領域の画像データに対して、領域のサイ
ズを有効判定部6より送られた正規化基準データを基に
正規化を行なう。また、領域の輝度信号の平均値があら
かじめ決められた値になるように、データの最大値およ
び最小値も決められた値になるようデータを調整する。
The left-eye area detection unit detects the left-eye area from the face area of the memory 24 according to a predetermined process, and determines whether the coordinate value, width, and height of the area are valid data. Send to Part 6. The normalization unit 33
The image data of the detected left-eye area is normalized based on the normalized reference data sent from the validity determining unit 6 to the area size. Further, the data is adjusted so that the average value of the luminance signal of the area becomes a predetermined value and the maximum value and the minimum value of the data also become the predetermined values.

【0027】線形変換部34は、正規化されたデータに
対して線形変換を行ない、他の空間に変換する処理を行
なう。線形変換の例としては、DFFTやDCTがあ
り、2次元周波数空間にデータを変換をする。演算部3
5は、あらかじめ決められた係数を選択し特徴量として
認証部7に送る。図7に選択する一例を示す。
The linear conversion section 34 performs a linear conversion on the normalized data to convert it into another space. Examples of linear transformation include DFFT and DCT, which transform data into a two-dimensional frequency space. Arithmetic unit 3
5 selects a predetermined coefficient and sends it to the authentication unit 7 as a feature amount. FIG. 7 shows an example of selection.

【0028】また、領域ではなく、決められた特徴点を
用いる方法を図8に示す。この例では、口領域検出部4
1で得られた口領域の位置情報をもちいて、口の中心座
標から水平左右方向に検索を行ない、頬位置検出部42
で頬の端の検出を行なう。そして、口の中心点からの距
離を有効判定部からの基準データを用いて正規化部43
で正規化を行ない。判定用データとして有効判定部に送
ると共に特徴量として認証部に送る。図9に有効判定部
6の構成の一例をブロック図で示す。有効判定部は、正
規化処理部51と有効判定処理部52、基準データ記録
部53より構成される。
FIG. 8 shows a method of using a predetermined feature point instead of the area. In this example, the mouth area detection unit 4
The position information of the mouth area obtained in 1 is used to perform a search in the horizontal and horizontal directions from the center coordinates of the mouth, and the cheek position detection unit 42
To detect the cheek edge. Then, the distance from the center point of the mouth is normalized using the reference data from the validity determining unit 43.
Normalize with. The data is sent to the validity judging section as judgment data and is also sent to the authentication section as a feature amount. FIG. 9 is a block diagram showing an example of the configuration of the validity determination unit 6. The validity determination unit is composed of a normalization processing unit 51, a validity determination processing unit 52, and a reference data recording unit 53.

【0029】正規化処理部51は、各領域から送られた
判定用データにあらかじめ決められた演算を行ない、入
力された画像データの条件と基準値を作成した時の条件
を合わすために、得られたデータを基に正規化用の基準
データを作成し、判定用データの正規化を行なう。
The normalization processing section 51 performs a predetermined calculation on the judgment data sent from each area, and obtains the condition in order to match the condition of the input image data with the condition when the reference value is created. The reference data for normalization is created based on the obtained data, and the judgment data is normalized.

【0030】有効判定処理部52は、基準データ記録部
53の判定用基準値と正規化された判定用データの比較
を行なうことにより入力された画像データの有効無効を
判定する。判定結果は、制御部9に送られる。以下に、
有効判定処理を行なうアルゴリズムの例を述べる。
The validity determination processing unit 52 determines whether the input image data is valid or invalid by comparing the determination reference value of the reference data recording unit 53 with the normalized determination data. The determination result is sent to the control unit 9. less than,
An example of an algorithm for performing validity determination processing will be described.

【0031】領域に左目領域と右目領域と口領域、特徴
点に左頬端、右頬端を用い、各領域の位置情報や領域の
高さ幅のデータを用いて有効無効の判定方法を行なう一
実施例を示す。図10,11に基準データの名称を表す
図を示す。まず1から4までの処理を行ない、基準デー
タの作成と正規化を行なう。 1 各領域の中心点を求める leye_centor_x,leye_centor
_y reye_centor_x,reye_centor
_y mount_centor_x,mouth_cent
or_y 2 口領域の左端から左頬までの距離の計測 口領域の右端から右頬までの距離の計測 to_left=mouth_centor_x−left_edge_x to_right=right_edge_x−mouth_region_ x 3 左目領域と右目領域の位置関係より顔の中心位置を
決定し、両領域間の値を正規化基準用データとする。 face_centor_x=(leye_centor_x+reye_c entor_x)/2 face_centor_y=(leye_centor_y+reye_c entor_y)/2 base_width=reye_centor_x−leye_cento r_x 4 すべての判定用データを正規化基準用データを用い
て正規化を行なう。
The left eye area, the right eye area, and the mouth area are used as the areas, the left cheek edge and the right cheek edge are used as the characteristic points, and the validity / invalidity determination method is performed using the positional information of each area and the height width data of the area. An example is shown. 10 and 11 are diagrams showing the names of the reference data. First, the processes 1 to 4 are performed to create and normalize the reference data. 1 Find the center point of each area eye_center_x, eye_center
_Y reye_center_x, reye_center
_Y mount_center_x, mouth_cent
or_y 2 Measurement of the distance from the left edge of the mouth region to the left cheek Measurement of the distance from the right end of the mouth region to the right cheek The position is determined, and the value between both areas is used as the normalization reference data. face_center_x = (eye_center_x + reye_center_x) / 2 face_center_y = (eye_center_y + reye_center_y) / 2 Perform normalization data for normalization using 4 base_width_reye_center_y = (eye_center_y + rye_center_y) / 2 base_width = reye_center_y

【0032】次に、正規化された判定用データに対して
決められた演算を行ない、あらかじめ決められた基準値
を満たす場合は有効とし、それ以外は、無効の判定を行
なう。以下に判定用演算の例を示す。 1 左目領域の中心点のy座標と右目領域の中心点のy
座標の差を計算し、あらかじめ決められた値を越えたな
ら無効とする。 2 口領域の左端から左頬までの距離と口領域の右端か
ら右頬までの距離の差を計算し、あらかじめ決められた
値を越えたなら無効とする。 3 顔の中心点のx座標と口の中心点のx座標の差を計
算し、あらかじめ決められた値を越えたなら無効とす
る。 図12に認証部7の構成の一例をブロック図で示す。認
証部7は、重み付け処理部61、認証処理部62、基準
特徴量記録部63より構成される。認証部7は、制御部
からの有効信号を調べ、有効であれば、以下の手順で認
証作業を行なう。
Next, a predetermined calculation is performed on the normalized judgment data, and when the predetermined reference value is satisfied, the judgment is made valid, and otherwise, the judgment is made invalid. An example of the judgment calculation is shown below. 1 y coordinate of the center point of the left eye area and y of the center point of the right eye area
Calculate the difference in coordinates and invalidate if it exceeds a predetermined value. 2 Calculate the difference between the distance from the left edge of the mouth area to the left cheek and the distance from the right edge of the mouth area to the right cheek, and invalidate if it exceeds a predetermined value. 3 Calculate the difference between the x-coordinate of the center point of the face and the x-coordinate of the center point of the mouth, and invalidate if it exceeds a predetermined value. FIG. 12 is a block diagram showing an example of the configuration of the authentication unit 7. The authentication unit 7 includes a weighting processing unit 61, an authentication processing unit 62, and a reference feature amount recording unit 63. The authenticating unit 7 checks the valid signal from the control unit, and if the valid signal is valid, the authenticating unit 7 performs the authenticating operation in the following procedure.

【0033】各領域処理部および特徴点処理部から送ら
れた特徴量は、重み付け処理部61であらかじめ決めら
れた重み付けを行なわれた後、一つの認証用ベクトルに
まとめられる。認証処理部12では、検出された認証用
ベクトルと基準特徴量記録部63に記録されている基準
ベクトルとの演算を行なう。
The feature quantities sent from each area processing section and the feature point processing section are weighted in advance by the weighting processing section 61, and then combined into one authentication vector. The authentication processing unit 12 calculates the detected authentication vector and the reference vector recorded in the reference feature amount recording unit 63.

【0034】演算手段としては、各ベクトル値の2乗誤
差を用いる方法が考えられる。すべての基準ベクトルと
の演算終了後、最小の値を示した基準ベクトルを示すイ
ンデックス信号を制御部8に送る。
As a calculation means, a method using the squared error of each vector value can be considered. After the calculation with all the reference vectors is completed, the index signal indicating the reference vector showing the minimum value is sent to the control unit 8.

【0035】この時、演算結果が基準特徴量記録部63
に記録された、有効判定基準値を満たさない場合は、あ
らかじめ決められた信号をインデックス信号として制御
部8におくる。図13に認証結果表示部の構成を示す。
At this time, the calculation result is the reference feature amount recording unit 63.
When the validity determination reference value recorded in No. 3 is not satisfied, a predetermined signal is sent to the control unit 8 as an index signal. FIG. 13 shows the configuration of the authentication result display section.

【0036】制御部8は、認証部7から送られたインデ
ックス信号に基づいて、記録されているインデックスと
人物の対応データから、人物の真疑を決定する。その
後、表示部に必要なデータを送る。この時、インデック
ス信号がある決められた値であれば、認証に失敗したと
判定し、あらかじめ決められた指示に従い、データを表
示部に送る。次に、本発明を実現する他の実施例を述べ
る。
Based on the index signal sent from the authentication section 7, the control section 8 determines the true or false of the person from the recorded correspondence data between the index and the person. Then, the necessary data is sent to the display section. At this time, if the index signal has a predetermined value, it is determined that the authentication has failed, and the data is sent to the display unit according to a predetermined instruction. Next, another embodiment for realizing the present invention will be described.

【0037】上記実施例では、特徴量として各領域の周
波数空間での係数を使用したが、各領域の位置座標や幅
や高さを用いるシステムも考えられる。図14にその処
理を行なうための領域処理部のブロック図を示す。
In the above embodiment, the coefficient in the frequency space of each area is used as the feature amount, but a system using the position coordinates, width and height of each area is also conceivable. FIG. 14 shows a block diagram of an area processing unit for performing the processing.

【0038】又、上記実施例では、顔領域の検出は、色
を手掛かりに検出したが、複数の入力画像データから差
分データを計算し、2値化を行ないある大きさを持つ領
域を検出する方法も考えられる。
In the above embodiment, the face area is detected by using the color as a clue, but the difference data is calculated from a plurality of input image data and binarized to detect an area having a certain size. A method is also possible.

【0039】更に、上記実施例は、時間軸で有効なフレ
ームの検出を行ない、有効フレームであると判定された
なら、その時の画像を認証用画像として用い認証を行な
う方式である。しかしながら他の実施例として、各領域
毎に有効無効の判定を行ない、有効な領域に対してはそ
の時の特徴量を保持し、それ以上の処理を行なわず、無
効な領域がなくなるまで画像の入力を行ない、すべての
領域が有効になれば、保持されている特徴量を用いて認
証を行なう装置も考えられる。他の実施例として、目の
領域が有効なフレームと、口の領域が有効なフレームを
上下に合成して一枚の入力画像として用いる装置も考え
られる。
Further, the above-described embodiment is a system in which an effective frame is detected on the time axis and, if it is determined that the frame is an effective frame, the image at that time is used as an authentication image for authentication. However, as another embodiment, the valid / invalid determination is performed for each area, the feature amount at that time is held for the valid area, no further processing is performed, and the image input is performed until the invalid area disappears. If all areas are validated by performing the above, an apparatus that performs authentication by using the retained feature amount may be considered. As another embodiment, a device in which a frame in which the eye region is effective and a frame in which the mouth region is effective are vertically combined and used as one input image can be considered.

【0040】上記実施例では、各処理の段階で複数の非
線形処理を行なうが、場合によりあらかじめ決められた
条件を満足しない時もある。図15にブロック図を示す
ように、各処理の後に得られる数値および特徴量に対し
て、有効範囲をあらかじめ決めておき、その範囲を越え
る数値が検出されたなら、処理に失敗したと判定し、有
効判定部に無効信号を発生する手段を有する実施例も考
えられる。
In the above embodiment, a plurality of non-linear processings are performed at each processing stage, but in some cases the predetermined conditions may not be satisfied. As shown in the block diagram of FIG. 15, the effective range is determined in advance for the numerical values and the characteristic amounts obtained after each processing, and if a numerical value exceeding the range is detected, it is determined that the processing has failed. An embodiment having a means for generating an invalid signal in the validity judging section is also conceivable.

【0041】[0041]

【発明の効果】本発明の人物認証装置によれば、従来の
人物認証装置と比較して、使用者に姿勢や表情を強要し
ないのでヒューマンインターフェースの面で優れた装置
である。また、使用者の姿勢や表情の変化に対して認証
率の低下が発生しない装置である。今後、高度情報化社
会において、セキュリティの強化が必要とされることが
予想され、より柔軟なシステムが要求される。本発明は
そのようなシステムに効果的である。
According to the person authenticating apparatus of the present invention, as compared with the conventional person authenticating apparatus, the user is not required to take a posture or a facial expression, so that the person authenticating apparatus is excellent. Further, it is a device in which the authentication rate does not decrease due to changes in the posture and facial expressions of the user. It is expected that security will be strengthened in the advanced information society in the future, and a more flexible system will be required. The present invention is effective in such a system.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例の全体構成を示すブロック
図。
FIG. 1 is a block diagram showing the overall configuration of an embodiment of the present invention.

【図2】画像データに対して顔領域の切り出しの様子を
示す図。
FIG. 2 is a diagram showing how a face area is cut out from image data.

【図3】画像入力部の構成を示す図。FIG. 3 is a diagram showing a configuration of an image input unit.

【図4】顔領域検出部の構成の一例を示す図。FIG. 4 is a diagram showing an example of a configuration of a face area detection unit.

【図5】領域処理部の構成を示すブロック図。FIG. 5 is a block diagram showing a configuration of an area processing unit.

【図6】左目の領域処理を例とした領域処理部のより詳
細なブロック図。
FIG. 6 is a more detailed block diagram of an area processing unit taking the left eye area processing as an example.

【図7】特徴量として係数を選択する様子を示す図。FIG. 7 is a diagram showing how a coefficient is selected as a feature amount.

【図8】口領域の位置情報を用いて特徴量を算求する方
法を示す図。
FIG. 8 is a diagram showing a method of calculating a feature amount using position information of a mouth region.

【図9】有効判定部の構成を示すブロック図。FIG. 9 is a block diagram showing a configuration of a validity determination unit.

【図10】顔領域の基準データの名称を示す図。FIG. 10 is a diagram showing names of reference data of a face area.

【図11】顔領域の基準データの名称を示す他の図。FIG. 11 is another diagram showing names of reference data of a face area.

【図12】認証部の構成を示すブロック図。FIG. 12 is a block diagram showing a configuration of an authentication unit.

【図13】認証結果表示部の構成を示すブロック図。FIG. 13 is a block diagram showing the configuration of an authentication result display unit.

【図14】領域処理部の他の例を示すブロック図。FIG. 14 is a block diagram showing another example of a region processing unit.

【図15】本発明の他の実施例の全体構成を示すブロッ
ク図。
FIG. 15 is a block diagram showing the overall configuration of another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…画像入力部 2,4…メモリ 3…顔領域検出部 5…領域処理部 6…有効判定部 7…認証部 8…制御部 9…特徴量記録部 10…認証結果表示部 1 ... Image input section 2, 4 ... Memory 3 ... Face area detection section 5 ... Area processing section 6 ... Validity determination section 7 ... Authentication section 8 ... Control section 9 ... Feature amount recording section 10 ... Authentication result display section

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 画像データを入力するための入力手段
と、人物の認証に用いるための基準特徴量を保持する記
憶手段と、入力された画像データから顔領域と背景領域
とを分離する分離手段と、分離された顔領域から予め決
められた特徴量を計測する計測手段と、計測された特徴
量と基準特徴量とを比較し人物の認証を行なう認証手段
と、認証結果を出力する出力手段とを具備したことを特
徴とする人物認証装置。
1. An input means for inputting image data, a storage means for holding a reference feature amount used for authentication of a person, and a separating means for separating a face area and a background area from the input image data. A measuring means for measuring a predetermined characteristic amount from the separated face area; an authenticating means for authenticating a person by comparing the measured characteristic amount with a reference characteristic amount; and an output means for outputting an authentication result. A person authentication device comprising:
【請求項2】 計測された特徴量の有効性を判断するた
めの値を保持する手段と、計測された特徴量に対して予
め決められた演算を行なう手段と、演算で得られた値と
前記判断するための値とを比較し画像データの有効性を
判断する手段とを更に備えたことを特徴とする請求項1
記載の人物認証装置。
2. A means for holding a value for judging the validity of the measured characteristic amount, a means for performing a predetermined arithmetic operation on the measured characteristic amount, and a value obtained by the arithmetic operation. A means for comparing the value for judgment and judging the validity of the image data is further provided.
Person authentication device described.
【請求項3】 画像データが無効と判断された場合、前
記認証手段は計測された特徴量と基準特徴量との比較処
理を行なわず、前記入力手段は再び画像データを入力す
るものである請求項2記載の人物認証装置。
3. When the image data is determined to be invalid, the authentication means does not compare the measured feature quantity with the reference feature quantity, and the input means inputs the image data again. Item 2. The person authentication device according to item 2.
JP26262992A 1992-10-01 1992-10-01 Figure authentication device Pending JPH06119433A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26262992A JPH06119433A (en) 1992-10-01 1992-10-01 Figure authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26262992A JPH06119433A (en) 1992-10-01 1992-10-01 Figure authentication device

Publications (1)

Publication Number Publication Date
JPH06119433A true JPH06119433A (en) 1994-04-28

Family

ID=17378452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26262992A Pending JPH06119433A (en) 1992-10-01 1992-10-01 Figure authentication device

Country Status (1)

Country Link
JP (1) JPH06119433A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056388A (en) * 2001-05-28 2002-02-20 Nec Corp Robot device
US8154384B2 (en) 2008-06-16 2012-04-10 Canon Kabushiki Kaisha Personal authentication apparatus and personal authentication method
JP2019067075A (en) * 2017-09-29 2019-04-25 株式会社セガゲームス Biometric authentication device
JP2022172325A (en) * 2015-09-09 2022-11-15 日本電気株式会社 Authentication system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002056388A (en) * 2001-05-28 2002-02-20 Nec Corp Robot device
US8154384B2 (en) 2008-06-16 2012-04-10 Canon Kabushiki Kaisha Personal authentication apparatus and personal authentication method
JP2022172325A (en) * 2015-09-09 2022-11-15 日本電気株式会社 Authentication system
US11861939B2 (en) 2015-09-09 2024-01-02 Nec Corporation Guidance acquisition device, guidance acquisition method, and program
JP2019067075A (en) * 2017-09-29 2019-04-25 株式会社セガゲームス Biometric authentication device

Similar Documents

Publication Publication Date Title
CN109446981B (en) Face living body detection and identity authentication method and device
US6885760B2 (en) Method for detecting a human face and an apparatus of the same
US20040136574A1 (en) Face image processing apparatus and method
US7305106B2 (en) Object detection apparatus, object detection method and recording medium
JPH0944685A (en) Face image processor
CN102047290B (en) Image processing device, image processing program, image processing method, and electronic device
JPH06259534A (en) Person identifying device
JP2005157906A (en) Device and method for detecting object, and computer program
JP4507679B2 (en) Image recognition apparatus, image extraction apparatus, image extraction method, and program
JP4729188B2 (en) Gaze detection device
JP2017049676A (en) Posture discrimination device and object detection device
CN114894337B (en) Temperature measurement method and device for outdoor face recognition
JPH09171560A (en) Device for detecting face inclination
KR20020022295A (en) Device And Method For Face Recognition Using 3 Dimensional Shape Information
CN111950563A (en) Image matching method and device and computer readable storage medium
JP4203279B2 (en) Attention determination device
JP3725784B2 (en) Apparatus and method for detecting moving object in color frame image sequence
CN113450534A (en) Device and method for detecting approach of children to dangerous goods
JPH06119433A (en) Figure authentication device
JP2004110813A (en) Personal identification device
CN109344758B (en) Face recognition method based on improved local binary pattern
EP3958208A1 (en) Image processing device, image processing method, and image processing program
CN113642546B (en) Multi-face tracking method and system
CN113553928B (en) Human face living body detection method, system and computer equipment
CN110110582A (en) In conjunction with the face identification method and system of 3D structure light, infrared light and visible light