JPH11328401A - Individual identifying device and method therefor - Google Patents

Individual identifying device and method therefor

Info

Publication number
JPH11328401A
JPH11328401A JP13830298A JP13830298A JPH11328401A JP H11328401 A JPH11328401 A JP H11328401A JP 13830298 A JP13830298 A JP 13830298A JP 13830298 A JP13830298 A JP 13830298A JP H11328401 A JPH11328401 A JP H11328401A
Authority
JP
Japan
Prior art keywords
hair
person
identified
registrant
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP13830298A
Other languages
Japanese (ja)
Inventor
Sei Hosoi
聖 細井
Masahito Kawade
雅人 川出
Hisahiro Tabata
尚弘 田畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP13830298A priority Critical patent/JPH11328401A/en
Publication of JPH11328401A publication Critical patent/JPH11328401A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify a person to be identified by using the features of hair being one of features sharply indicating individuality. SOLUTION: This device processes the photographic image of a person to be identified who is photographed by a photographing device for extracting the hair style, length, and color of the person to be identified as the features of hair (n1-n5). An identification code is inputted (n2), and the features of the hair of a register identified according to the identification code are read from a storage part (n6), similarity between the extracted features of the hair of the person to be identified and the features of the hair of the register read from the storage part is calculated (n7), and whether or not the person to be identified is the register is judged based on the result. Thus, the person can be specified from the featured values of the hair.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、CCDカメラ等
で撮影した識別対象者の撮影画像を処理して識別対象者
を特定する個人識別装置および個人識別方法に関し、特
に髪の特徴によって識別対象者を特定する個人識別装置
および個人識別方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal identification device and a personal identification method for processing a photographed image of a person to be identified photographed by a CCD camera or the like to identify the person to be identified, and more particularly to a person to be identified by hair characteristics. The present invention relates to a personal identification device and a personal identification method for specifying

【0002】[0002]

【従来の技術】従来より、人間の個人性が表れる特徴を
用いて識別対象者がだれであるかを特定する個人識別装
置が提案されている。この種の装置では、登録者毎に個
人性が顕著に表れる特徴を登録しておき、登録されてい
る特徴と識別対象者本人から獲得した特徴とに基づいて
識別対象者が登録者の中のだれであるかを特定している
(または識別対象者が登録者の1人であるかどうかを判
定している。)。
2. Description of the Related Art Hitherto, there has been proposed a personal identification device for identifying a person to be identified by using a characteristic that shows a person's personality. In this type of device, a feature in which individuality is remarkably registered is registered for each registrant, and the identification target person is registered in the registrant based on the registered features and the characteristics obtained from the identification target person. The person is identified (or it is determined whether the identification target is one of the registrants).

【0003】なお、この種の装置は、例えば、特定の者
以外の立ち入りを禁止している管理区域等で、管理区域
への立ち入りを希望する識別対象者が立ち入りの許可さ
れている人物(登録者)であるかどうかを判定(特定)
し、立ち入りが許可されている人物であれば入口を開放
して立ち入りを許可するシステム等に適用されている。
[0003] This type of device is used, for example, in a controlled area where entry by a person other than a specific person is prohibited, and a person to be identified who wants to enter the managed area is permitted to enter (registered person). Judge) (specify)
If a person is allowed to enter, the system is applied to a system that opens the entrance and permits entry.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、これま
で1)顔の輪郭、2)目、鼻、口、耳などの顔部品の形状、
3)顔の凹凸、4)歩き方、5)指紋、6)声紋、7)網膜、8)筆
跡等を利用したものは提案されていたが、個人性を顕著
に表す特徴である、髪型、髪の長さ、髪の色等の髪の特
徴を利用したものについては提案されていなかった。
However, to date, 1) the contour of the face, 2) the shape of facial parts such as eyes, nose, mouth, and ears,
3) facial irregularities, 4) how to walk, 5) fingerprints, 6) voiceprints, 7) retina, 8) handwriting, etc. No proposal has been made for the use of hair characteristics such as hair length and hair color.

【0005】この発明の目的は、個人性が顕著に表れる
特徴の1つである髪の特徴を利用して識別対象者を特定
する個人識別装置および個人識別方法を提供することに
ある。
An object of the present invention is to provide a personal identification device and a personal identification method for specifying a person to be identified by using a hair feature, which is one of the features that show personality remarkably.

【0006】[0006]

【課題を解決するための手段】この発明は、登録者毎に
髪の特徴を記憶した記憶部と、登録者を識別する識別コ
ードを入力する入力部と、CCDカメラ等の撮影装置に
より撮影した識別対象者の撮影画像を処理して識別対象
者の髪の特徴を抽出するとともに、入力された識別コー
ドで識別される登録者の髪の特徴を前記記憶部から読み
出し、抽出した識別対象者の髪の特徴と記憶部から読み
出した登録者の髪の特徴とに基づいて識別対象者が入力
された識別コードで識別される登録者であるかどうかを
判定する制御部と、を備えている。
SUMMARY OF THE INVENTION According to the present invention, a photographing device such as a CCD camera or the like is used to store a hair storing feature for each registrant, an input unit for inputting an identification code for identifying the registrant. While processing the photographed image of the identification target person to extract the hair characteristics of the identification target person, the hair characteristics of the registrant identified by the input identification code are read from the storage unit, and the extracted identification target person's hair characteristics are read. A control unit that determines whether or not the identification target person is the registrant identified by the input identification code based on the hair characteristics and the registrant's hair characteristics read from the storage unit.

【0007】この構成では、CCDカメラ等の撮影装置
で撮影された識別対象者の画像から識別対象者の個人性
を表す特徴として髪の特徴を抽出するとともに、入力さ
れた識別コードで識別される登録者の髪の特徴を記憶部
から読み出し、これらの髪の特徴に基づいて識別対象者
が識別コードで識別される登録者であるかどうかを判定
する。ここで、識別対象者の髪の特徴と入力された識別
コードで識別される登録者の髪の特徴との類似度が所定
値よりも高ければ識別対象者は識別コードで識別される
登録者であり、逆に該類似度が所定値よりも低ければ識
別対象者は識別コードで識別される登録者と別人であ
る。しかも、髪型、髪の長さ、髪の色等の髪の特徴は個
人性を顕著に表すものであることから、判定精度の高い
識別が行える。
In this configuration, hair characteristics are extracted from the image of the person to be identified photographed by a photographing device such as a CCD camera as characteristics representing the individuality of the person to be identified, and the hair is identified by the input identification code. The characteristics of the registrant's hair are read from the storage unit, and it is determined based on these hair characteristics whether the identification target person is the registrant identified by the identification code. Here, if the similarity between the hair characteristics of the identification target and the hair characteristics of the registrant identified by the input identification code is higher than a predetermined value, the identification target is a registrant identified by the identification code. On the contrary, if the similarity is lower than a predetermined value, the identification target person is different from the registrant identified by the identification code. Moreover, since the characteristics of the hair, such as the hairstyle, the length of the hair, and the color of the hair, remarkably represent individuality, identification with high determination accuracy can be performed.

【0008】また、この発明は、登録者毎に髪の特徴を
記憶した記憶部と、CCDカメラ等の撮影装置により撮
影した識別対象者の撮影画像を処理して識別対象者の髪
の特徴を抽出するとともに、抽出した識別対象者の髪の
特徴と前記記憶部に記憶している各登録者の髪の特徴と
に基づいて識別対象者が登録者の中のだれであるかを特
定する制御部と、を備えている。
Further, the present invention provides a storage unit for storing hair characteristics for each registrant, and processing of a photographed image of the identification target photographed by a photographing device such as a CCD camera so as to determine the characteristics of the hair of the identification target. A control for extracting and identifying who the identification target is among the registrants based on the extracted hair characteristics of the identification target and the hair characteristics of each registrant stored in the storage unit. And a unit.

【0009】この構成では、CCDカメラ等の撮影装置
で撮影された識別対象者の画像から識別対象者の個人性
を表す特徴として髪の特徴を抽出し、ここで抽出した髪
の特徴と各登録者の髪の特徴とに基づいて識別対象者が
だれであるかを特定する。この場合、識別対象者を最も
類似度の高かった登録者であると特定してもよいが、識
別対象者が登録者でない場合も想定されるため、最も類
似度が高いだけでなく該類似度が所定値よりも高ければ
識別対象者を該登録者であると特定し、それ以外の場合
には識別対象者を登録者でないと判定すればよい。これ
により、登録者でない人物を登録者であるとする誤った
処理が行われることを防止でき、識別精度を向上でき
る。
In this configuration, hair features are extracted as features representing the individuality of the identification target person from the image of the identification target person captured by a photographing device such as a CCD camera, and the extracted hair characteristics and each registered character are registered. The identification target person is identified based on the hair characteristics of the person. In this case, the identification target may be specified as the registrant having the highest similarity. However, since the identification target may not be the registrant, not only the highest similarity but also the similarity may be determined. Is higher than a predetermined value, the person to be identified is specified as the registrant, otherwise, it is determined that the person to be identified is not a registrant. This can prevent erroneous processing that a person who is not a registrant is a registrant from being performed, and can improve identification accuracy.

【0010】さらに、前記制御部に、識別対象者の撮影
画像を処理して抽出した髪の特徴を統計的に処理する機
能を設けることで、統計的の処理された結果から髪型、
髪の長さ、髪の色等の流行を知ることもできる。
[0010] Further, the control unit is provided with a function of statistically processing the features of the hair extracted by processing the photographed image of the person to be identified, so that the hairstyle,
It is also possible to know trends such as hair length and hair color.

【0011】[0011]

【発明の実施の形態】図1は、この発明の実施形態であ
る個人識別装置の構成を示す図である。個人識別装置1
は、装置本体の動作を制御する制御部2と、入力操作を
行う入力部3と、個人を識別する識別コードと該識別コ
ードで識別される人物の髪の特徴量(髪型、髪の長さ、
髪の色等)とを対応させて記憶した記憶部4と、CCD
カメラ等の撮影装置10から撮影画像が入力されるI/
F部5とを備えている。撮影装置10は、識別対象者の
顔を撮影し、ここで撮影した画像を個人識別装置1に入
力する。
FIG. 1 is a diagram showing the configuration of a personal identification device according to an embodiment of the present invention. Personal identification device 1
Is a control unit 2 for controlling the operation of the apparatus main body, an input unit 3 for performing an input operation, an identification code for identifying an individual, and a characteristic amount (hairstyle, hair length, hair length) of a person identified by the identification code. ,
A storage unit 4 that stores the image data in correspondence with hair color, etc., and a CCD
An I / O to which a captured image is input from a capturing device 10 such as a camera
F section 5. The image capturing device 10 captures the face of the identification target person, and inputs the captured image to the personal identification device 1.

【0012】図2は、制御部の機能を示すブロック図で
ある。図において、11はI/F部5を介して入力され
た識別対象者の撮影画像を一時的に記憶する画像メモ
リ、12は画像メモリ11に記憶した撮影画像から背景
領域を抽出する背景領域抽出部、13は識別対象者の髪
領域を抽出する髪領域抽出部、14は識別対象者の髪
型、髪の長さ、髪の色等を髪の特徴量として抽出する特
徴抽出部、15は特徴抽出部14で抽出した識別対象者
の髪の特徴量と記憶部4に記憶されている指定された人
物について記憶している髪の特徴量との類似度を判定す
る類似度判定部である。
FIG. 2 is a block diagram showing the function of the control unit. In the figure, reference numeral 11 denotes an image memory for temporarily storing a photographed image of a person to be identified input via the I / F unit 5, and 12 denotes a background region extraction for extracting a background region from the photographed image stored in the image memory 11. , 13 is a hair region extracting unit that extracts the hair region of the identification target person, 14 is a feature extraction unit that extracts the hairstyle, hair length, hair color, and the like of the identification target person as hair characteristic amounts, and 15 is a feature. A similarity determination unit that determines the similarity between the feature amount of the hair of the identification target extracted by the extraction unit 14 and the feature amount of the hair stored for the designated person stored in the storage unit 4.

【0013】入力部3には、識別対象者が自分の識別コ
ードを入力するためのPINパッド3aが設けられてい
る。なお、識別対象者に識別コードを記憶させたカード
等の記憶媒体を発行しておき、PINパッド3aにかえ
てこの記憶媒体から識別コードを読み取る媒体読取装置
(例えば、カードリーダ)を設けてもよい。この実施形
態では、入力された識別コードで識別される人物と撮影
装置10で撮影した人物との類似度から、撮影装置10
で撮影された人物を識別する。
The input section 3 is provided with a PIN pad 3a for a person to be identified to input his / her own identification code. It is also possible to issue a storage medium such as a card in which the identification code is stored to the person to be identified and provide a medium reading device (for example, a card reader) for reading the identification code from this storage medium instead of the PIN pad 3a. Good. In this embodiment, based on the similarity between the person identified by the input identification code and the person photographed by the photographing device 10, the photographing device 10
To identify the person photographed.

【0014】図3を参照しながら本実施形態の個人識別
装置の処理を説明する。図3は、この実施形態の個人識
別装置の処理を示すフローチャートである。この実施形
態の個人識別装置1には、撮影装置10で撮影した識別
対象者の撮影画像が入力されるとともに、PINパッド
3aから識別対象者により識別コードが入力される(n
1、n2)。個人識別装置1に入力された撮影画像は、
一端画像メモリ11に記憶する。n2では、識別対象者
が自分自身に付与されている識別コードを入力する。な
お、記憶部4には上述のように識別コードに対応させて
該識別対象者の髪の特徴量が予め登録されている。
The processing of the personal identification device according to the present embodiment will be described with reference to FIG. FIG. 3 is a flowchart showing processing of the personal identification device of this embodiment. In the personal identification device 1 of this embodiment, a captured image of the identification target person captured by the imaging device 10 is input, and an identification code is input by the identification target person from the PIN pad 3a (n).
1, n2). The captured image input to the personal identification device 1 is
One end is stored in the image memory 11. In n2, the identification target person inputs the identification code given to himself / herself. As described above, the feature amount of the hair of the identification target person is registered in the storage unit 4 in advance in association with the identification code.

【0015】個人識別装置1は、背景領域抽出部12で
識別対象者の撮影画像を処理して背景領域を抽出し、こ
こで抽出した背景領域以外の部分を識別対象者の画像領
域とする(n3)。
In the personal identification device 1, the background region extracting unit 12 processes the photographed image of the person to be identified to extract a background region, and sets a portion other than the extracted background region as an image region of the person to be identified ( n3).

【0016】図4を参照しながらn3にかかる処理を詳
細に説明する。撮影装置10で撮影される識別対象者の
背景画像は、単一色の無地である。図4(A)は一端画
像メモリ11に記憶される撮影画像(原画像)を示して
いる。図4(A)に示す原画像に対して周知のSobe
lフィルタでエッジ検出を行い、識別対象者の輪郭線を
抽出する(図4(B)参照)。ここで、抽出した輪郭線
の内側が識別対象者の画像領域であり、輪郭線の外側が
背景領域であるとして後述する処理を行ってもよいので
あるが、この実施形態の個人識別装置1では識別対象者
の画像領域を抽出する精度を向上させるために以下に示
す処理を実行している。
The processing related to n3 will be described in detail with reference to FIG. The background image of the person to be identified photographed by the photographing device 10 is a solid color of a single color. FIG. 4A shows a photographed image (original image) temporarily stored in the image memory 11. A well-known Sobe for the original image shown in FIG.
Edge detection is performed by an l filter to extract a contour line of a person to be identified (see FIG. 4B). Here, the processing described later may be performed assuming that the inside of the extracted contour is the image area of the identification target person and the outside of the contour is the background area. However, in the personal identification device 1 of this embodiment, The following processing is executed in order to improve the accuracy of extracting the image area of the identification target person.

【0017】まず、撮影装置10では、識別対象者の撮
影画像の上端部(図4(A)に示すX)の領域が背景画
像となるように撮影している。このことを利用して、画
像メモリに11に記憶した識別対象者の撮影画像につい
て、上端から数ライン(例えば、2ライン)分の色平均
を算出し、これを背景色として認識する。
First, the image capturing apparatus 10 captures an image of an identification target person such that an upper end portion (X shown in FIG. 4A) of the captured image becomes a background image. Utilizing this, the color average of several lines (for example, two lines) from the upper end of the photographed image of the person to be identified stored in the image memory 11 is calculated and recognized as the background color.

【0018】背景領域抽出部12は、上記の処理で背景
色を認識すると、縦、横それぞれ10ピクセルの大きさ
で撮影画像を分割し、ここで分割した領域毎に色平均を
算出して識別対象者の画像領域と背景画像とを分離する
(大モザイク画像による分割)(図4(C)参照)。さ
らに、背景領域抽出部12は、縦、横それぞれ2ピクセ
ルの大きさで撮影画像を分割し(小モザイク画像による
分割)(図4(D)参照)、縦、横それぞれ2ピクセル
の大きさで分割した領域の中で、上記の処理ですでに抽
出されている識別対象者の輪郭線が存在する領域につい
てのみ背景領域(識別対象者の画像領域と背景領域とを
分離する。)とする。なお、識別対象者の画像領域と背
景領域との分離では、すでに算出している背景領域の色
平均と10または2ピクセルで分割した領域の色平均と
の差を求め、この差が所定の範囲内であれば背景領域、
それ以外を識別対象者の画像領域であるとする。図4
(D)に示すように小モザイクによる識別対象者の画像
領域と背景領域との分離が完了すると、ノイズ除去のた
めの平滑化とセグメンテーションを行って識別対象者の
画像領域(背景領域)を決定する(図4(E)参照)。
When the background color is recognized in the above processing, the background region extraction unit 12 divides the photographed image into pixels of 10 pixels each in the vertical and horizontal directions, and calculates and averages a color average for each of the divided regions. The image area of the subject and the background image are separated (division by a large mosaic image) (see FIG. 4C). Further, the background region extraction unit 12 divides the captured image into two pixels each in the vertical and horizontal directions (division using a small mosaic image) (see FIG. 4 (D)), and uses the two pixels each in the vertical and horizontal directions. Of the divided regions, only the region where the contour of the identification target already extracted in the above processing exists is set as a background region (the image region of the identification target and the background region are separated). In the separation of the image area and the background area of the person to be identified, the difference between the already calculated color average of the background area and the color average of the area divided by 10 or 2 pixels is determined. If inside, the background area,
The rest is assumed to be the image area of the identification target person. FIG.
When the separation of the image area of the identification target and the background area by the small mosaic is completed as shown in (D), the image area (background area) of the identification target is determined by performing smoothing and segmentation for noise removal. (See FIG. 4E).

【0019】なお、上記の説明では、識別対象者の画像
領域を抽出するのに、縦、横それぞれ10ピクセルの大
きさで分割した領域毎に色平均に基づいて識別対象者の
画像領域と背景領域とに分離し、その後さらに縦、横そ
れぞれ2ピクセルの大きさで分割した領域で且つ先に抽
出されている識別対象者の輪郭線のある領域についての
み色平均に基づいて識別対象者の画像領域と背景領域と
を分離するとしたが(識別対象者の画像領域と背景領域
とを2段階で分離する。)、以下に示す手法で分離して
もよい。
In the above description, in order to extract the image region of the person to be identified, the image region of the person to be identified and the background are extracted based on the color average for each of the regions divided by 10 pixels each in the vertical and horizontal directions. The image of the identification target based on the color average only for the region that is divided into regions and then further divided by the size of 2 pixels each in the vertical and horizontal directions and only in the region having the contour of the identification target extracted earlier. Although the region and the background region have been described as being separated (the image region and the background region of the person to be identified are separated in two stages), they may be separated by the following method.

【0020】1)撮影画像に対して、最初から縦、横それ
ぞれ2ピクセルの大きさで分割した領域毎に色平均を求
め、識別対象者の画像領域と背景領域とを分離してもよ
い。但し、この手法では縦、横それぞれ2ピクセルの大
きさで分割した全領域について上記の処理を行うことに
なるため、上記した2段階で行う場合に比べて色平均を
算出して、該領域が識別対象者の画像領域であるか背景
領域であるかを識別する領域数が増加し(本処理を実行
する領域数が増加し)、処理時間が長くなる。
1) A color average may be obtained for each of the areas obtained by dividing the photographed image by two pixels each in the vertical and horizontal directions from the beginning, and the image area of the person to be identified and the background area may be separated. However, in this method, the above-described processing is performed for all regions divided by a size of 2 pixels each in the vertical and horizontal directions. Therefore, a color average is calculated as compared with the case of performing the above two steps, and the region is calculated. The number of areas for identifying the image area or the background area of the person to be identified increases (the number of areas for performing this processing increases), and the processing time increases.

【0021】2)また、縦、横それぞれ10ピクセルの大
きさで分割した領域毎に求めた色平均から識別対象者の
画像領域と背景領域とを分離し、次に縦、横それぞれ5
ピクセルの大きさで分割し、分割した領域で且つ抽出さ
れている輪郭線のある領域についてのみ色平均を求め、
識別対象者の画像領域と背景領域とを分離し、さらに
縦、横それぞれ2ピクセルの大きさで分割し、分割した
領域で且つ抽出されている輪郭線のある領域についての
み色平均を求め、識別対象者の画像領域と背景領域との
分離を3段階の処理で行うようにしてもよい。この場
合、上記した2段階で行う場合に比べて、上記の処理対
象となる領域数が減少し処理時間を短縮することができ
る。
2) The image area and the background area of the person to be identified are separated from the color average obtained for each area divided by 10 pixels each in the vertical and horizontal directions.
Dividing by the size of the pixel, calculating the color average only for the divided region and the region with the extracted contour line,
The image area and the background area of the person to be identified are separated, and further divided into two pixels each in the vertical and horizontal directions, and a color average is obtained only for the divided area and the area having the extracted outline. The separation of the image area and the background area of the subject may be performed in a three-stage process. In this case, the number of regions to be processed can be reduced and the processing time can be reduced as compared with the case of performing the above two steps.

【0022】個人識別装置1は、n3で識別対象者の画
像領域と背景領域との分離する処理を完了すると、n4
で識別対象者の髪領域を抽出する。n4における髪領域
を抽出する処理を図5を参照しながら説明する。個人識
別装置1は、上記の処理で獲得した識別対象者の画像領
域に基づいて、該画像領域における識別対象者の頬の部
分(肌サンプル領域)(図5(A)に○で示した部分)
を推定する。次に、肌サンプル領域の色成分を求める。
色成分はLab表色系で表し、肌サンプル領域のLab
の重心値および標準偏差を求め、これを識別対象者の肌
の色成分とする。識別対象者の肌の色成分を得ると、撮
影画像における肌色の強度分布を求める。肌色の強度分
布は、
When the personal identification device 1 completes the process of separating the image area and the background area of the identification target person in n3, n4
Extracts the hair region of the person to be identified. The process of extracting the hair region at n4 will be described with reference to FIG. Based on the image area of the person to be identified acquired in the above processing, the personal identification device 1 uses the cheek portion (skin sample area) of the person to be identified in the image area (the part indicated by a circle in FIG. 5A). )
Is estimated. Next, the color components of the skin sample area are obtained.
The color component is represented by the Lab color system, and the Lab sample area
Of the center of gravity and the standard deviation of the subject are determined as skin color components of the identification target person. When the skin color component of the person to be identified is obtained, the intensity distribution of the skin color in the captured image is obtained. The skin color intensity distribution is

【数1】 の色強度評価式から算出される。この式において、各分
母のWL 、Wa 、Wbは標準偏差δL 、δa 、δb に定
数pをかけたものであり、Lab各成分の分散の違いに
よる重みのばらつきを均等にするための重み補正計数で
ある。この色強度評価式は、0〜1の範囲の値をとり、
1に近いほど与えられた色成分に近い。これにより、図
5(B)に示す識別対象者の撮影画像における肌色強度
分布が得られる。
(Equation 1) Is calculated from the color intensity evaluation formula. In this formula, each denominator of W L, W a, W b are those multiplied standard deviation [delta] L, [delta] a, the constant p in [delta] b, evenly variations in weight due to the difference of the variance of Lab components This is a weight correction count for performing the calculation. This color intensity evaluation formula takes a value in the range of 0 to 1,
The closer to 1, the closer to the given color component. Thereby, the skin color intensity distribution in the captured image of the identification target person shown in FIG. 5B is obtained.

【0023】上記の処理で得られた肌色強度分布に基づ
いて、識別対象者の髪サンプル領域を求める。この実施
形態では、すでに得ている識別対象者の画像領域と肌色
強度分布から推定される識別対象者の顔の中心および顔
の縦、横幅から、顔の上境界(額と髪の境界)を求め、
さらに背景領域から髪の上境界(髪と背景の境界)を求
める。次に、ここで求めた2つの境界に基づいて図5
(C)に示す識別対象者の額の上方を髪サンプル領域と
して抽出する。
Based on the skin color intensity distribution obtained by the above processing, a hair sample area of the identification subject is obtained. In this embodiment, the upper boundary of the face (the border between the forehead and the hair) is determined from the center of the face of the identification target person and the vertical and horizontal widths of the face estimated from the image region of the identification target person and the skin color intensity distribution which have already been obtained. Asked,
Further, an upper boundary of the hair (a boundary between the hair and the background) is obtained from the background area. Next, based on the two boundaries obtained here, FIG.
The part above the forehead of the identification target shown in (C) is extracted as a hair sample area.

【0024】髪サンプル領域を抽出すると、上記の肌色
の強度分布を求めた処理と同様に、〔数1〕を用いて髪
色強度分布を求める(図5(D)参照)。ここで、目や
眉なども髪の色成分に近いことから、髪領域として抽出
される可能性があるが、セグメンテーションを行うこと
で、図5(E)に示すように識別対象者の髪の領域を精
度良く抽出することができる。
When the hair sample area is extracted, a hair color intensity distribution is obtained by using [Equation 1] in the same manner as in the processing for obtaining the skin color intensity distribution (see FIG. 5D). Here, since the eyes and eyebrows are also close to the hair color component, they may be extracted as a hair region. However, by performing the segmentation, as shown in FIG. A region can be extracted with high accuracy.

【0025】n4で識別対象者の髪領域を抽出すると、
n5で識別対象者の髪の特徴量を抽出する。この実施形
態では、髪の特徴量として髪型、髪の色および髪の長さ
を抽出する。ここで、識別対象者の髪型はn4で抽出し
た識別対象者の髪領域の形状とし、髪の色成分は髪サン
プル領域の色成分とする。また、髪の長さは、ロング、
ミドル、ショート、アップの4段階で分類される。この
実施形態の個人識別装置1では、髪の長さの分類を2段
階の処理で行う。まず最初に、ロング系(ロングまたは
ミドル)とショート系(ショートまたはアップ)とに分
類し、ロング系の場合にはロングまたはミドルに細分類
する。一方、ショート系の場合にはショートまたはアッ
プに細分類する。
When the hair area of the person to be identified is extracted at n4,
In n5, the feature amount of the hair of the identification target is extracted. In this embodiment, a hairstyle, a hair color, and a hair length are extracted as hair feature quantities. Here, the hairstyle of the identification target is the shape of the hair region of the identification target extracted at n4, and the hair color component is the color component of the hair sample region. Also, the length of the hair is long,
It is classified into four stages: middle, short, and up. In the personal identification device 1 of this embodiment, the classification of the hair length is performed in a two-stage process. First, the system is classified into a long system (long or middle) and a short system (short or up). In the case of a long system, the system is subdivided into a long or middle system. On the other hand, in the case of a short system, it is subdivided into short or up.

【0026】以下、髪の長さを分類する処理を詳細に説
明する。個人識別装置1は、図6(A)および(B)に
示すように、すでに抽出されている背景領域、肌色領
域、および、髪領域に基づいて、セグメント画像を作成
する。そして、ここで作成したセグメント画像におい
て、識別対象者の首の両側付近(図6中に斜線で示す領
域)における髪の分布を求める。この領域における髪の
分布量が所定値以上であればロング系、所定値未満であ
ればショート系と分類する。
Hereinafter, the processing for classifying the length of the hair will be described in detail. As shown in FIGS. 6A and 6B, the personal identification device 1 creates a segment image based on the background region, the skin color region, and the hair region that have already been extracted. Then, in the segment image created here, the distribution of hair in the vicinity of both sides of the neck of the identification target person (the area shown by oblique lines in FIG. 6) is obtained. If the amount of hair distribution in this area is equal to or more than a predetermined value, it is classified as a long type, and if less than the predetermined value, it is classified as a short type.

【0027】上記の処理でロング系と分類した場合に
は、図7に示すように髪領域画像をy軸に投影し、識別
対象者の口から顎の高さにかけての髪領域の有無を求め
る。具体的には、髪領域画像をy軸に投影した投影関数
F(y)を用いて、
When the hair is classified as long in the above processing, the hair area image is projected on the y-axis as shown in FIG. 7 to determine the presence or absence of a hair area from the mouth of the person to be identified to the height of the chin. . Specifically, using a projection function F (y) that projects the hair region image on the y-axis,

【数2】 によりVL を算出し、その値が適当な閾値以上であれば
ロング、閾値未満であればミドルと判定する。なお、
〔数2〕におけるy1およびy2は、識別対象者の口と
顎とのy座標を示している。
(Equation 2) If V L is calculated, the value is appropriate threshold or by determining long, the middle is less than the threshold value. In addition,
Y1 and y2 in [Equation 2] indicate the y coordinates of the mouth and chin of the identification target person.

【0028】一方、ショート系であると判定した場合に
は、図8に示すように識別対象者の顔幅Wと髪領域の幅
hairとの比Vs
On the other hand, when it is determined that the short system the ratio V s of the width W hair identification object's face width W and the hair region as shown in FIG. 8

【数3】 により求め、この比Vs が所定値以上であればショー
ト、所定値未満であればアップと判定する。
(Equation 3) The calculated, determines the ratio V s is short if the predetermined value or more, and up is less than a predetermined value.

【0029】なお、ここでは、後ろで髪を束ねた状態を
アップ、髪の長さが頭頂から顎までの長さの3/4未満
であればショート、ショートよりも長く顎よりも短けれ
ばショート、顎よりも長ければロングと定義している。
In this case, the state in which the hair is bundled behind is up. If the length of the hair is less than 3/4 of the length from the crown to the chin, it is short. If it is longer than the short and shorter than the chin, it is short. If it is longer than the chin, it is defined as long.

【0030】個人識別装置1は、記憶部4に記憶してい
るn2で入力された識別コードで識別される登録者の髪
の特徴量を読み出し(n6)、上記の処理して求めた識
別対象者の髪の特徴量とn6で読みだした髪の特徴量と
の類似度を求める(n7)。類似度は、髪型の形状、髪
の長さ、および、髪の色とを用いて、以下に示す〔数
4〕で評価値を算出する。
The personal identification device 1 reads out the feature amount of the registrant's hair identified by the identification code input at n2 stored in the storage unit 4 (n6), and identifies the identification target obtained by the above processing. The similarity between the feature of the user and the feature of the hair read at n6 is determined (n7). The similarity calculates an evaluation value by the following [Equation 4] using the shape of the hairstyle, the length of the hair, and the color of the hair.

【0031】[0031]

【数4】 この式では、n6で記憶部4から読みだした登録者の特
徴量に対して、識別対象者の撮影画像から得られた特徴
量との自乗距離が算出される。したがって、この式から
算出された評価値が小さい値であるほど両者の類似度が
高い。個人識別装置11は、n8で算出した評価値が予
め設定している閾値以下であるかどうかを判定する(n
9)。n9の判定において、評価値が閾値以下であれ
ば、識別対象者がn2で入力された識別コードで識別さ
れる登録者であると判定し(n10)、評価値が閾値を
越えていればn2で入力された識別コードで識別される
登録者であると判定する(n10)。
(Equation 4) In this formula, the square distance between the feature amount of the registrant read from the storage unit 4 at n6 and the feature amount obtained from the captured image of the identification target person is calculated. Therefore, the smaller the evaluation value calculated from this equation, the higher the similarity between the two. The personal identification device 11 determines whether the evaluation value calculated in n8 is equal to or less than a preset threshold value (n
9). In the determination of n9, if the evaluation value is equal to or less than the threshold value, it is determined that the identification target person is the registrant identified by the identification code input in n2 (n10), and if the evaluation value exceeds the threshold value, n2 It is determined that the registrant is identified by the identification code input in (n10).

【0032】なお、識別対象者がn2で入力された識別
コードで識別される登録者であると判定した場合には、
登録者に対してサービスの提供を行う。例えば管理区域
の入口を開放して識別対象者の管理区域への立ち入りを
許可する等のサービスの提供を行い、登録者でないと判
定した場合には識別対象者の管理区域への立ち入りを禁
止する(管理区域の入口を開放しない。)。
If it is determined that the person to be identified is a registrant identified by the identification code entered in n2,
Provide services to registrants. For example, services such as opening the entrance of the management area and permitting the person to be identified to enter the management area are provided, and if it is determined that the person is not a registrant, entry to the management area of the person to be identified is prohibited. (Do not open entrances to controlled areas.)

【0033】以上のように、この実施形態の個人識別装
置1では、髪の特徴から識別対象者がだれであるかを特
定することができる。また、髪の特徴のみから識別対象
者を特定するのではなく、従来から提案されている1)顔
の輪郭、2)目、鼻、口、耳などの顔部品の形状、3)顔の
凹凸、4)歩き方、5)指紋、6)声紋、7)網膜、8)筆跡等と
併用して、識別対象者を特定するようにしてもよい。こ
のようにすれば、識別対象者の特定精度を一層向上させ
ることができる。
As described above, in the personal identification device 1 of this embodiment, it is possible to specify who the identification target is from the characteristics of the hair. Also, instead of identifying the person to be identified only from the hair characteristics, conventionally proposed 1) face outline, 2) shape of face parts such as eyes, nose, mouth, ears, etc., 3) unevenness of face , 4) how to walk, 5) fingerprint, 6) voiceprint, 7) retina, 8) handwriting, etc., may be used in combination with the identification target person. In this case, the identification accuracy of the identification target person can be further improved.

【0034】次に、この発明の別の実施形態について説
明する。この実施形態の個人識別装置1は、上記の実施
形態のものと構成上異なる点は、図2に示したPINパ
ッド3aを備えていない点である(図9参照)。
Next, another embodiment of the present invention will be described. The configuration of the personal identification device 1 of this embodiment differs from that of the above-described embodiment in that the personal identification device 1 does not include the PIN pad 3a shown in FIG. 2 (see FIG. 9).

【0035】図10を参照しながら、この実施形態にか
かる個人識別装置1の処理を説明する。図10はこの実
施形態にかかる個人識別装置の処理を示すフローチャー
トである。この実施形態の個人識別装置1も上記した実
施形態のものと同様に撮影装置10で撮影した識別対象
者の撮影画像が入力される(n21)。上述のように、
この実施形態の個人識別装置1には、PINパッド3a
が設けられていないので、識別対象者の撮影画像が入力
されると、上記した実施形態で説明したn3〜n6の処
理を実行する(n22〜24)。n24で識別対象者の
髪の特徴を得ると、記憶部4に記憶している登録者毎に
〔数4〕を用いて類似度の評価値を求める(n25)。
個人識別装置1は、n25で登録者毎に求めた類似度の
評価値から、識別対象者を登録者の中から特定し本処理
を終了する(n26)。
The processing of the personal identification device 1 according to this embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing processing of the personal identification device according to this embodiment. In the personal identification device 1 of this embodiment, similarly to the above-described embodiment, a photographed image of the identification target photographed by the photographing device 10 is input (n21). As mentioned above,
The personal identification device 1 of this embodiment includes a PIN pad 3a
Is not provided, and when a captured image of a person to be identified is input, the processing of n3 to n6 described in the above embodiment is executed (n22 to 24). When the hair characteristics of the person to be identified are obtained in n24, an evaluation value of the degree of similarity is obtained using [Equation 4] for each registrant stored in the storage unit 4 (n25).
The personal identification device 1 specifies the person to be identified from the registrants based on the similarity evaluation value obtained for each registrant in n25, and ends this processing (n26).

【0036】n26では、類似度の評価値が最も小さい
登録者を抽出し、この登録者との類似度の評価値が予め
設定されている閾値以下であれば、識別対象者を該登録
者であると特定する。なお、上記以外の場合には、識別
対象者は登録者でないと判定して本処理を終了する。
At n26, a registrant with the smallest similarity evaluation value is extracted. If the similarity evaluation value with this registrant is equal to or less than a preset threshold, the identification target person is identified as the registrant. Identify that there is. In cases other than the above, it is determined that the person to be identified is not a registrant, and the process ends.

【0037】以上のように、この実施形態の個人識別装
置1では、識別対象者がPINパッッド3aを操作して
識別コードを入力する必要を無くすことによってえ、操
作性を向上することができる。
As described above, in the personal identification device 1 of this embodiment, the operability can be improved by eliminating the need for the identification target to operate the PIN pad 3a and input the identification code.

【0038】さらに、上記の2つの実施形態で示した個
人識別装置1において、撮影装置10で撮影した識別対
象者の画像から得られた髪の特徴を、記憶部4に累積的
に記憶させ、適当なタイミングで累積的に記憶されたデ
ータから髪型、髪の長さ、髪の色等の特徴別に統計を求
めるようにしてもよい。このようにすれば、求めた統計
から現在流行している髪型、髪の長さ、髪の色等の特徴
を判断することができる。
Further, in the personal identification device 1 shown in the above two embodiments, the hair characteristics obtained from the image of the identification target person photographed by the photographing device 10 are cumulatively stored in the storage unit 4, Statistics may be obtained for each feature such as a hairstyle, hair length, and hair color from data stored cumulatively at an appropriate timing. In this way, it is possible to determine the characteristics such as the currently popular hairstyle, hair length, and hair color from the obtained statistics.

【0039】[0039]

【発明の効果】以上のように、この発明によれば、撮影
装置で撮影した識別対象者の画像を処理して抽出した髪
の特徴から、識別対象者を特定することができる。
As described above, according to the present invention, a person to be identified can be specified from the features of the hair extracted by processing the image of the person to be identified photographed by the photographing device.

【0040】また、識別対象者の髪の特徴を統計的に処
理することで、現在流行しているの髪型、髪の長さ、髪
の色等を知ることができる。
By statistically processing the characteristics of the hair of the person to be identified, it is possible to know the hair style, hair length, hair color, etc., which are currently in fashion.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の実施形態である個人識別装置の構成
を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a personal identification device according to an embodiment of the present invention.

【図2】この実施形態の個人識別装置における制御部の
機能を示すブロック図である。
FIG. 2 is a block diagram showing functions of a control unit in the personal identification device of the embodiment.

【図3】この実施形態の個人識別装置の処理を示すフロ
ーチャートである。
FIG. 3 is a flowchart showing processing of the personal identification device of the embodiment.

【図4】背景領域を抽出する処理を説明する図である。FIG. 4 is a diagram illustrating a process of extracting a background region.

【図5】髪領域を抽出する処理を説明する図である。FIG. 5 is a diagram illustrating a process of extracting a hair region.

【図6】髪の長さを分類する処理を説明する図である。FIG. 6 is a diagram illustrating a process of classifying hair length.

【図7】髪の長さを分類する処理を説明する図である。FIG. 7 is a diagram illustrating a process of classifying the length of hair.

【図8】髪の長さを判定する処理を説明する図である。FIG. 8 is a diagram illustrating a process of determining the length of hair.

【図9】この発明の別の実施形態である個人識別装置の
構成を示すブロック図である。
FIG. 9 is a block diagram showing a configuration of a personal identification device according to another embodiment of the present invention.

【図10】この発明の別の実施形態である個人識別装置
の処理を示すフローチャートである。
FIG. 10 is a flowchart showing processing of a personal identification device according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1−個人識別装置 2−制御部 3−入力部 3a−PINパッド 4−記憶部 5−I/F部 10−撮影装置 11−画像メモリ 12−背景領域抽出部 13−髪領域抽出部 14−特徴抽出部 15−類似度判定部 1-Personal identification device 2-Control unit 3-Input unit 3a-PIN pad 4-Storage unit 5-I / F unit 10-Imaging device 11-Image memory 12-Background region extraction unit 13-Hair region extraction unit 14-Characteristics Extraction unit 15-Similarity determination unit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 登録者毎に髪の特徴を記憶した記憶部
と、 登録者を識別する識別コードを入力する入力部と、 CCDカメラ等の撮影装置により撮影した識別対象者の
撮影画像を処理して識別対象者の髪の特徴を抽出すると
ともに、入力された識別コードで識別される登録者の髪
の特徴を前記記憶部から読み出し、抽出した識別対象者
の髪の特徴と記憶部から読み出した登録者の髪の特徴と
に基づいて識別対象者が入力された識別コードで識別さ
れる登録者であるかどうかを判定する制御部と、を備え
た個人識別装置。
1. A storage unit for storing hair characteristics for each registrant, an input unit for inputting an identification code for identifying a registrant, and processing of a photographed image of an identification target photographed by a photographing device such as a CCD camera. In addition to extracting the hair characteristics of the identification target, the hair characteristics of the registrant identified by the input identification code are read out from the storage unit, and the extracted hair characteristics of the identification target are read out from the storage unit. A control unit for determining whether or not the identification target is a registrant identified by the input identification code based on the registrant's hair characteristics.
【請求項2】 登録者毎に髪の特徴を記憶した記憶部
と、 CCDカメラ等の撮影装置により撮影した識別対象者の
撮影画像を処理して識別対象者の髪の特徴を抽出すると
ともに、抽出した識別対象者の髪の特徴と前記記憶部に
記憶している各登録者の髪の特徴とに基づいて識別対象
者が登録者の中のだれであるかを特定する制御部と、を
備えた個人識別装置。
2. A storage unit for storing hair characteristics for each registrant, and processing of a photographed image of the identification target taken by a photographing device such as a CCD camera to extract hair characteristics of the identification target. A control unit for identifying who the identification target person is among the registrants based on the extracted hair characteristics of the identification target person and the hair characteristics of each registrant stored in the storage unit. Equipped personal identification device.
【請求項3】 前記制御部に、識別対象者の撮影画像を
処理して抽出した髪の特徴を統計的に処理する機能を設
けた請求項1または2に記載の個人識別装置。
3. The personal identification device according to claim 1, wherein the control unit has a function of statistically processing hair features extracted by processing an image of the identification target person.
【請求項4】 CCDカメラ等の撮影装置により撮影し
た識別対象者の撮影画像を処理して識別対象者の髪の特
徴を抽出するとともに、登録者の髪の特徴を予め記憶し
た記憶部から入力された識別コードで識別される登録者
の髪の特徴を読み出し、抽出した識別対象者の髪の特徴
と記憶部から読み出した登録者の髪の特徴とに基づいて
識別対象者が入力された識別コードで識別される登録者
であるかどうかを判定する個人識別方法。
4. A process for processing a photographed image of a person to be identified photographed by a photographing device such as a CCD camera to extract features of the hair of the person to be identified and to input the features of the hair of the registrant from a storage unit in which the hair is stored in advance. The characteristic of the registrant identified by the identified identification code is read out, and the identification target is input based on the extracted characteristic of the identifiable person's hair and the characteristic of the registrant's hair read from the storage unit. A personal identification method that determines whether a person is a registrant identified by a code.
【請求項5】 CCDカメラ等の撮影装置により撮影し
た識別対象者の撮影画像を処理して識別対象者の髪の特
徴を抽出するとともに、抽出した識別対象者の髪の特徴
と予め記憶している登録者の髪の特徴とに基づいて識別
対象者が登録者の中のだれであるかを特定する個人識別
方法。
5. An image of a person to be identified photographed by a photographing device such as a CCD camera is processed to extract hair characteristics of the person to be identified, and the extracted characteristics of hair of the person to be identified are stored in advance. A personal identification method for identifying who is the registrant based on the characteristics of the registrant's hair.
JP13830298A 1998-05-20 1998-05-20 Individual identifying device and method therefor Pending JPH11328401A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13830298A JPH11328401A (en) 1998-05-20 1998-05-20 Individual identifying device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13830298A JPH11328401A (en) 1998-05-20 1998-05-20 Individual identifying device and method therefor

Publications (1)

Publication Number Publication Date
JPH11328401A true JPH11328401A (en) 1999-11-30

Family

ID=15218708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13830298A Pending JPH11328401A (en) 1998-05-20 1998-05-20 Individual identifying device and method therefor

Country Status (1)

Country Link
JP (1) JPH11328401A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6707929B2 (en) 2000-05-12 2004-03-16 The Procter & Gamble Company Method for analyzing hair and predicting achievable hair dyeing ending colors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6707929B2 (en) 2000-05-12 2004-03-16 The Procter & Gamble Company Method for analyzing hair and predicting achievable hair dyeing ending colors

Similar Documents

Publication Publication Date Title
US7412081B2 (en) Personal authentication apparatus and personal authentication method
US8942436B2 (en) Image processing device, imaging device, image processing method
KR101998112B1 (en) Method for recognizing partial obscured face by specifying partial area based on facial feature point, recording medium and apparatus for performing the method
JP4345622B2 (en) Eye color estimation device
EP1596573B1 (en) Image correction apparatus
JP2973676B2 (en) Face image feature point extraction device
JP3279913B2 (en) Person authentication device, feature point extraction device, and feature point extraction method
JP4999570B2 (en) Facial expression recognition apparatus and method, and imaging apparatus
US20060147093A1 (en) ID card generating apparatus, ID card, facial recognition terminal apparatus, facial recognition apparatus and system
JP7269711B2 (en) Biometric authentication system, biometric authentication method and program
JP2009163555A (en) Face collation apparatus
KR20040059313A (en) Method of extracting teeth area from teeth image and personal identification method and apparatus using teeth image
KR100473600B1 (en) Apparatus and method for distinguishing photograph in face recognition system
US7433498B2 (en) Apparatus, method and program for generating photo card data
JP6396357B2 (en) Face image authentication device
EP4343689A1 (en) Body part authentication system and authentication method
JPH11161791A (en) Individual identification device
JP2005084979A (en) Face authentication system, method and program
JPH11328401A (en) Individual identifying device and method therefor
JP6798285B2 (en) Biometric device, biometric method and program
JP2690132B2 (en) Personal verification method and device
Amjed et al. Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database
US11080518B2 (en) Face image generating method for recognizing face
JP7457991B1 (en) Impersonation detection system and impersonation detection program
JP3615656B2 (en) ID discrimination device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A02 Decision of refusal

Effective date: 20060314

Free format text: JAPANESE INTERMEDIATE CODE: A02