JPH10261083A - Device and method for identifying individual - Google Patents

Device and method for identifying individual

Info

Publication number
JPH10261083A
JPH10261083A JP6268297A JP6268297A JPH10261083A JP H10261083 A JPH10261083 A JP H10261083A JP 6268297 A JP6268297 A JP 6268297A JP 6268297 A JP6268297 A JP 6268297A JP H10261083 A JPH10261083 A JP H10261083A
Authority
JP
Grant status
Application
Patent type
Prior art keywords
information
reliability
similarity
personal
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6268297A
Other languages
Japanese (ja)
Inventor
Yutaka Deguchi
豊 出口
Original Assignee
Toshiba Corp
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Abstract

PROBLEM TO BE SOLVED: To enable an accurate individual identification by using unified rules for judging the entire individual identification result based on the reliability together with similarity in identification for every information when identifying an individual while using plural pieces of information. SOLUTION: Voice information uses a voice input part 1 for inputting a voice, voice storage part 2 for storing previously registered voice information, voice collation part 3 for collating the input voice information with the stored voice information and calculating the similarity, and voice reliability calculation part 4 for calculating the reliability of inputted voice information. Face image information/fingerprint information uses a face image input part 5, face image storage part 6, face image collation part 7, face image reliability calculation part 8, fingerprint input part 9, fingerprint storage part 10, fingerprint collation part 11 and fingerprint reliability calculation part 12. An identified result unifying part 13 unifies the similarity calculated by the respective collation parts 3, 7 and 11 and the reliability calculated by the respective reliability calculation parts 4, 8 and 12 based on the unified rules and outputs the judgement on its identity.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、人間個人の特徴情報を用いて個人の固定をする個人同定装置及び個人同定方法に関する。 The present invention relates to relates to personal identification devices, and personal identification method for the fixing of the individual using the feature information of the human individual.

【0002】 [0002]

【従来の技術】従来、金融機関等や役所での個人の同定は、あらかじめ登録された印鑑を用いて行われている。 Conventionally, the identification of individual financial institutions and government offices have been carried out using a seal that has been registered in advance.
また、キャッシュカードを用いたシステムでは、通常、 In addition, in the system using the cash card, usually,
個人の同定はあらかじめ登録された暗証番号を用いて行われている。 Identification of individuals have been carried out by using a personal identification number that has been registered in advance. しかし、このような従来方法では、印鑑の紛失や盗難、暗証番号の忘却や漏洩によって正確な個人の同定が行えなくなるのが現状である。 However, in such a conventional method, seal is lost or stolen, become impossible the identification of the exact individual by forgetting and leakage of personal identification number is present. そのため、最近では音声、顔画像、指紋などの個人の生体情報をあらかじめ登録しておき、これらの一致判定より個人同定を行う方法が提案されている。 Therefore, in recent speech, the face image is previously registered biometric information of the individual, such as fingerprints, a method of performing personal identification from these match determination have been proposed.

【0003】図1は、生体情報の1つである音声情報を用いて個人同定を行うシステムのブロック図である。 [0003] Figure 1 is a block diagram of a system for performing personal identification using the voice information which is one of the biological information. あらかじめ本人の声に関する情報を音声記録部2に記憶しておく。 Stores in advance information about the person's voice to the voice recording unit 2. 同定時では、音声入力部1より入力された音声情報と音声記録部2の音声情報とを音声照合部3で比較し、類似度を算出し、類似度がある一定値を超えた場合は本人と同定する手法が数多く提案されている。 In the ordinary, the principal if the audio information of the audio input unit 1 from the input audio information and audio recording unit 2 compares the speech collating unit 3 calculates the similarity exceeds a certain value similarity technique to identify and have been proposed.

【0004】顔画像や指紋を用いた個人同定システムのブロック図を図2、図3に示す。 [0004] Figure 2 is a block diagram of a personal identification system using face images and fingerprints, shown in FIG. 図2では予め本人の顔画像情報等を顔画像記憶部2に記憶させておく。 Advance and stored in the face image storing unit 2 to FIG. 2 in advance his or her face image information. そして、顔画像入力部1から入力された顔画像情報と顔画像記憶部2の顔画像情報とを顔画像照合部3で比較し、類似度を算出し、類似度がある一定値を越えた場合本人と同定する。 Then, comparing the face image information of the face image information inputted from the face image input unit 1 and the face image storing unit 2 in the face image matching unit 3 calculates the similarity exceeds a certain value similarity If you identify with the person.

【0005】また、図3では、予め本人の指紋情報記憶部2に記憶させておく。 [0005] In FIG. 3, previously stored in the fingerprint information storage unit 2 of the person. そして、指紋入力部1から入力された指紋情報と指紋情報部2の指紋情報とを指紋照合部3で比較し、類似度を算出し、類似度がある一定値を越えた場合本人と同定する。 Then, by comparing the fingerprint information of the fingerprint input unit 1 is input from the fingerprint information and the fingerprint information unit 2 with the fingerprint comparing unit 3 calculates the degree of similarity is identified as the person when it exceeds a certain value similarity . 同定は音声の場合と同様な処理を用いて行っている。 Identification is performed by using the same process as in the case of speech. また、より高い同定精度を得るために、生体情報を用いた個人同定システムと、従来の印鑑や暗証番号を用いたシステムを組み合わせて用いるシステムも提案されている。 Further, in order to obtain higher identification accuracy, and personal identification system using biometric information, some systems use a combination of systems using conventional seal or PIN has been proposed. 音声情報と暗証番号情報を用いたシステムのブロック図が図4である。 Block diagram of a system using the audio information and the personal identification number information is FIG. 図4では、予め本人の音声情報が音声記憶部2にまた、本人が設定した暗証番号情報が暗証番号記憶部5に記憶されている。 In Figure 4, pre-personal audio information also is the voice storage unit 2, a personal identification number information himself has set is stored in the personal identification number storage unit 5. そして、音声入力部1から音声が、また、暗証番号入力部4から暗証番号が入力され、これらが音声記憶部2の音声情報や暗証番号記憶部5の暗証番号と比較され、類似度を算出し、類似度がある一定値を越えた場合、本人と同定する。 Then, the voice from the voice input unit 1 is, also, the security code from the password input unit 4 is inputted, they are compared with the personal identification number of the voice information and the personal identification number storage unit 5 of the voice storage unit 2, calculates the similarity and, when it exceeds a certain value similarity is identified as himself. このシステムを用いた照合は、生体情報より得た同定結果と、3の音声照合部と6の暗証番号照合部の同定結果が、ともに本人であると判定された場合のみ、本人と同定する場合が多い。 Verification Using this system, the identification result obtained from the biometric information, the identification result of the password verification portion of the speech collating part and 6 of 3, both when it is determined that the person only, when identifying the person there are many. 音声情報の代わりに顔画像情報や指紋情報を用いる場合も、図4と同様のシステム構成で容易に実現できる。 Even when using the face image information and the fingerprint information instead of the audio information can be easily realized by the same system configuration as in FIG.

【0006】 [0006]

【発明が解決しようとする課題】以上説明してきたように従来の現状の個人の生体情報を用いた個人照合方法では、登録した生体情報と現在の情報との類似度を算出し、個人同定を行っている。 In THE INVENTION to be solved problems above described to have a way personal verification method using biometric information of an individual conventional current, calculates the similarity between the registered biometric information and the current information, the personal identification Is going. 生体情報の類似度の算出は、生体情報が時間の経過とともに変化すること、騒音の有無や周囲環境の変化などにより困難さが大きく変化することなどが原因で、常に正確な値を出力することは極めて困難である。 Calculation of the degree of similarity between the biometric information is, the biometric information is changed over time, for reasons such as the difficulty due to changes in the noise of the presence or absence or the surrounding environment changes significantly, it always outputs a correct value it is extremely difficult. すなわち、これらの方法では、定常的に高精度の類似度を算出することは難しいという問題点が存在している。 That is, in these methods, to calculate the similarity of the constantly high precision is present a problem that difficulty. 音声情報においては、騒音状況下において認識精度を上げる手法や、声の時間変化に適応して認識精度を上げる手法が提案されているが、いずれも騒音のない状況や、声の時間変化のない状況での認識精度と比較すると劣っている。 In the audio information, and techniques to improve the recognition accuracy in noisy circumstances, techniques to improve the recognition accuracy by adapting the time variation of voice has been proposed, none or situation without noise, without time variation of the voice It is inferior as compared with recognition accuracy in a situation. 顔画像や指紋を用いた手法においても同様である。 The same applies to the method using the face image and fingerprints. また、図4のように複数の情報を利用するシステムにおいても、個々の同定結果の精度が低い場合には、単純に組み合わせるだけでは高精度な同定を行うことは難しい。 Further, even in a system utilizing a plurality of information as shown in FIG. 4, in the case of an individual identification result accuracy is low, it is difficult to perform highly accurate identification by simply combining.

【0007】本発明は、このような従来の個人同定方法の問題点を解決するもので、複数の情報を用いて個人の同定を行う際に、各情報ごとに、同定の類似度とともに信頼度を基に全体の個人同定結果を判定する統合規則を使用することで、より精度の高い個人同定を行うことを目的としている。 [0007] The present invention is intended to solve the problems of the conventional individual identification method, when performing the identification of individuals by using a plurality of information, each information, the reliability with similarity identification the by using the integrated rules for determining the overall personal identification results based, it is intended to be performed with higher accuracy individual identification. 統合規則を学習によって更新することで、さらに高い精度の個人同定が可能になる。 By updating the learning integration rules, allowing a higher accuracy of personal identification. 生体情報を用いた個人同定において、時間経過や周囲の状況などより高精度な同定が行えない場合には低い信頼度を、時間経過もなく周囲の状況もほぼ理想的な場合には高い信頼度を出力し、統合部において信頼度を考慮し、高い信頼度の同定結果を重視して最終的な同定結果を出力することにより、従来の手法と比較して高精度な個人同定を行うことができる。 In individuals identified using biometric information, the low reliability if accurate identification can not be performed from such time and ambient conditions, high reliability if situation around without the elapsed time is also almost ideal outputs, the reliability considering the integrated unit by outputting a final identification results emphasize the identification results of high reliability, that compared to conventional techniques perform highly precise personal identification it can.

【0008】 [0008]

【課題を解決するための手段】上記目的を達成するために本発明は、個人の生体情報を用いて個人の同定を行う個人同定装置及び方法であって、少なくとも1つの個人の生体情報を含む個人同定の複数の個人情報に関して、 To accomplish the above object means to provide a process, a personal identification device and method for identifying individuals by using personal biometric information includes biometric information of at least one person for a plurality of personal information of personal identification,
個人情報を入力し、必要ならば特徴量に変換する入力部と、入力された個人情報と照合比較が可能な特徴量を記憶する。 Enter your personal information, an input unit for converting the feature amount, if necessary, stores the feature quantity that can be collated compared with the input personal information. 記憶部と、入力された個人情報と記憶している特徴量との照合を行い、類似度情報を出力する照合部と、入力された情報と記憶している特徴量より信頼度情報を算出する信頼度算出部と、複数の照合部が出力された類似度情報と信頼度情報に基づいて全体の照合結果を判定する統合規則を備えた同定結果統合部とを備えたことを特徴とする。 A storage unit, collates the characteristic amount and the stored input individual information, and calculates a verification unit for outputting the similarity information, reliability information from the feature value and the stored inputted information a reliability calculation unit, characterized in that a plurality of matching portions identified with determining integration rule the entire verification result based on the reliability information outputted similarity information result integration unit. さらに、学習データによって統合規則を学習することを特徴とする。 Further characterized in that learning integration rules by learning data.

【0009】このような特徴を有する本発明によれば、 According to the present invention having such a feature,
複数の情報を各入力部より入力し、必要ならば特徴量に変換した後に、各情報ごとに一致判定を行い、各情報ごとに類似度同時に類似度がどれくらい信頼できるかを示す信頼度を出力する。 A plurality of information input from the input section, after converting to the feature amount, if necessary, for matching determination for each information, the output reliability indicating whether the similarity at the same time similarity is reliable much each information to. そして、同定結果統合部において、複数の類似度と信頼度を基に、統合規則に基づいて全体の照合結果を算出し、個人の同定を行う。 Then, in the identification result integration unit, based on the reliability plurality of similarity, it calculates the total collation result based on integration rules, carries out the identification of individuals. 統合規則は、学習データを用いて学習し更新する。 Integration rules learned updates using training data.

【0010】 [0010]

【発明の実施の形態】 DETAILED DESCRIPTION OF THE INVENTION

実施例1 図5は本発明の一実施例による個人照合方法の全体構成を示すブロック図である。 Example 1 FIG. 5 is a block diagram showing the overall configuration of a personal verification method according to an embodiment of the present invention. 本図における個人照合方法は個人照合の複数の入力手段及び複数の照合手段を用いる。 Personal verification method in the figure using a plurality of input means and a plurality of matching means of personal verification. 本実施例では複数の情報として、音声情報、顔画像情報、指紋情報の3つの生体情報を用いる。 As a plurality of information in the present embodiment, audio information, face image information, using the three biometric information of the fingerprint information.

【0011】音声情報に関しては、音声を入力する音声入力部1、あらかじめ登録した音声情報を格納する音声記憶部2、入力音声情報と記憶された音声情報を照合し類似度を算出する音声照合部3、入力された音声情報の信頼度を算出する音声信頼度算出部4を、顔画像情報・ [0011] With respect to the audio information, the audio input unit 1 for inputting a voice, previously registered voice storage unit 2 for storing audio information, voice collating unit for collating the voice information stored with the input speech information to calculate the degree of similarity 3, the audio reliability calculation unit 4 that calculates the reliability of voice information input, face image information,
指紋情報に関しても音声と同様に顔画像入力部5、顔画像記憶部6、顔画像照合部7、顔画像信頼度算出部8、 Face image input unit 5 as with audio regard fingerprint information, face image storing unit 6, the face image matching unit 7, a face image reliability calculation unit 8,
指紋入力部9、指紋記憶部10、指紋照合部11、指紋信頼度算出部12を用いる。 Fingerprint input unit 9, the fingerprint storage unit 10, the fingerprint comparing unit 11 uses the fingerprint reliability calculation section 12. 同定結果統合部13は、 Identification result integration unit 13,
3,7,11の各照合部より算出された類似度と、4, A degree of similarity calculated from the collating unit of 3, 7 and 11, 4,
8,12の各信頼度算出部より算出された信頼度を統合規則によって統合し、最終的に本人であるかどうかの判定を出力する。 The reliability calculated from the reliability calculation unit 8, 12 integrated by the integration rules, and finally outputs the one of the determination if it is the person.

【0012】本実施例において、音声情報は、音声入力部に対して決められた単語を数回事前に発声し、特徴抽出した形で音声記憶部に記憶される。 [0012] In this embodiment, audio information, I say a word that has been determined for the voice input unit several times beforehand, and stored in the voice storage unit in the form of the feature extraction. 顔画像情報は、画像入力部に対して正面を向いた顔画像を事前に入力し、 Face image information inputs a face image facing the front with respect to the image input unit in advance,
特徴抽出した形で顔画像記憶部に記憶される。 It is stored in the face image storage unit in the form of the feature extraction. 指紋情報は、事前に指紋を入力部より入力し、指紋全体より特徴を抽出した形で指紋記憶部に記憶される。 Fingerprint information, advance is input from input unit a fingerprint, it is stored in the fingerprint memory unit in the form of extracted features from the entire fingerprint. 本人同定時には、入力された各情報をそれぞれ特徴変換し、各記憶部に記憶されている本人の情報と比較して類似度の算出を行う。 During person identified, respectively, wherein converting each information input, and calculates the similarity by comparing the person's information stored in the storage unit.

【0013】本実施例での信頼度は、音声情報に関しては、音声入力時の周囲環境と辞書作成時の周囲環境のS [0013] The reliability of in the present embodiment, with respect to the audio information, S of the surrounding environment at the time of creating the environment and the dictionary at the time of voice input
N比の差及び、辞書作成時より音声入力時までに経過した日数より定義される。 Difference N ratio and is defined from the number of days that have elapsed by the time of the voice input from the time the dictionary creation. SN比に関しては差の少ない方が、経過日数に関しては日数の少ない方が高い信頼度が算出される。 The lesser of the difference with respect to the SN ratio is, the higher reliability with less number of days regarding age is calculated. 画像情報に関しては、画像入力時の顔の向き及び、辞書作成時より音声入力時までに経過した日数より定義される。 With respect to the image information, the orientation of the face at the time of image input and are defined than the number of days that have elapsed from the time of dictionary created by the time of voice input. 顔の向きに関しては、横向きよりも正面に近い方が、経過日数に関しては日数の少ない方が高い信頼度が算出される。 With respect to the orientation of the face, closer to the front than sideways, the higher reliability with less number of days in relation to the number of days elapsed is calculated. 指紋情報に関しては、入力された指紋部分の面積を用いて定義される。 With respect to the fingerprint information, it is defined with the area of ​​the input fingerprint portion. 面積の大きい方が高い信頼度が算出される。 The larger the area is high reliability is calculated. 画像に関しては、顔部分が検出できなかった場合には再入力を要求する。 With respect to the image, to reenter the case where the face portion could be detected. 指紋に関しては、面積が小さ過ぎて照合に利用できない場合には、類似度や信頼度を統合する前の段階で再入力を要求する。 With respect to a fingerprint, if not available in the collation area is too small, to reenter the previous stage integrating similarity and reliability.

【0014】具体的な信頼度算出規則を図6,図7,図8に示す。 [0014] Figure 6 a specific reliability calculation rule, 7, 8. 図6は音声情報の信頼度算出規則であり、図6(a)がSN比に関する信頼度算出規則を、図6 Figure 6 is a reliability calculation rule of the audio information, FIGS. 6 (a) is a reliability calculation rules for the SN ratio, FIG. 6
(b)が経過日数に関する信頼度算出規則を示している。 (B) indicates the reliability calculation rules for age. 音声信頼度算出部では、これらの規則をもとに音声情報の信頼度を算出する。 The voice reliability calculation unit calculates the reliability of voice information based on these rules. ここでは、図6(a)の規則によって求めた信頼度と図6(b)の規則によって求めた信頼度の平均を、音声情報の信頼度と定義する。 Here, the average of the confidence determined by the rules of reliability and FIG determined by the rules of FIG. 6 (a) 6 (b), defined as the reliability of voice information. 図7 Figure 7
は顔画像情報の信頼度算出規則であり、図7(a)は顔の向きに関する信頼度算出規則を、図7(b)は経過日数に関する信頼度算出規則を示している。 Is a reliability calculation rule of the face image information, FIG. 7 (a) the reliability calculation rules for the orientation of the face, FIG. 7 (b) shows the reliability calculation rules for age. 顔画像情報信頼度算出部では、これらの規則をもとに顔画像情報の信頼度を算出する。 The face image information reliability calculating unit calculates the reliability of the face image information based on these rules. ここでは、図7(a)で算出された信頼度と図7(b)で算出された信頼度の平均を、顔画像情報の信頼度を定義する。 Here, the average of the reliability calculated by FIGS. 7 (a) and reliability calculated in FIG. 7 (b), defined the reliability of the face image information. 図8は、指紋情報の信頼度算出規則である。 Figure 8 is a reliability calculation rule of fingerprint information. 指紋情報信頼度算出部では、この規則を用いて信頼度を算出する。 The fingerprint information reliability calculating unit calculates the reliability using this rule. 各情報の信頼度は最大で1. Reliability of each piece of information is 1 at the maximum.
0、最小で0.2であり、音声情報、顔画像情報は0. 0, minimum 0.2, voice information, face image information 0.
05刻みで、指紋情報は0.2刻みで出力される。 05 increments, fingerprint information is output in increments of 0.2.

【0015】なお、本実施例では、3、7、11の音声情報、画像情報、指紋情報の照合部における類似度の算出は従来手法と同様に行う。 [0015] In this embodiment, audio information 3, 7 and 11, the image information, calculation of the similarities at the matching portion of the fingerprint information is performed in the same manner as the conventional method. 同定結果統合部で用いる統合規則を図9に示す。 Integration rules used in the identification result integration unit shown in FIG. 本統合規則は、音声照合部、顔画像照合部、指紋照合部から出力される各類似度と、音声信頼度算出部、顔画像信頼度算出部、指紋信頼度算出部から出力される各信頼度を統合し、最終的な類似度を算出する規則である。 This integration rules, voice verification unit, a face image collation unit, and the degree of similarity output from the fingerprint comparing unit, voice reliability calculation unit, a face image reliability calculation unit, the trusted output from the fingerprint reliability calculation unit degrees to the integration, a rule to calculate the final similarity. 本規則は、各情報の信頼度がちきい値以上の情報を選択し(ステップ20)、選択されたすべての個人情報の類似度を平均し、(ステップ21)求めた値がしきい値以上あれば本人と判断する(ステップ22)ことで、最終的な類似度を算出する。 This rule selects the reliability tends threshold or information of each information (step 20), and the average similarity of all personal information selected, (step 21) the value obtained is higher than the threshold there if it is determined that the person (step 22) it is, to calculate the final similarity. ここではしきい値を0.6に設定する。 Here to set the threshold to 0.6. 同定結果統合部では、統合規則を用いて最終的な類似度を算出し、類似度が決められた閾値以上の場合には本人であると、そうでない場合は本人でないと判定する。 The identification result integration unit determines that calculates the final similarity with integration rules, when in the case of more than the degree of similarity is a predetermined threshold value is a person, not a person otherwise. ここでは、閾値は0.8とし、最終的な類似度が0.8以上の場合には本人であると、0.8未満の場合は本人でないと判定する。 Here determines the threshold is set to 0.8, the final similarity degree is person in the case of 0.8 or more, and if it is less than 0.8 is not a person.

【0016】次に、本実施例の動作について説明する。 Next, the operation of this embodiment will be described.
音声、画像、指紋ともに14日前に作成したデータより特徴量を抽出し各記憶部に記憶させた。 Audio, image, extracts features from data created before 14 days fingerprint both were stored in each storage unit. 音声データ収集時のSN比は30dBであった。 SN ratio at the time of the audio data collection was 30dB.

【0017】まず、本人が音声、画像、指紋の3つの情報を入力して個人同定を行った。 [0017] First of all, the person has performed voice, image, personal identification by entering the three pieces of information of the fingerprint. 情報入力時のSN比は5dBであり、顔は顔画像入力部に対して正面を向いた形で認識させた。 SN ratio of the information input is 5 dB, face was recognized in the form of facing forward with respect to the face image input unit. 指紋情報に関しては、システムが定めた面積の90%のデータが得られた。 With respect to the fingerprint information, 90% of the data of the area system is established is obtained.

【0018】各情報の照合部で従来の手法に基づいて類似度を算出した結果、音声情報の類似度は0.4、顔画像情報の類似度は0.9、指紋情報の類似度は0.9となった。 The result of calculating the degree of similarity based on the conventional method at the matching portion of the information, similarity 0.4 audio information, 0.9 the similarity of the face image information, the similarity of the fingerprint information 0 It became a .9. 次に、各情報の信頼度算出規則部で、各信頼度算出規則に基づいて信頼度を算出した。 Then, in the reliability calculation rule of the information, and it calculates the reliability based on the reliability calculation rule. 図6(a)よりSN比による音声情報信頼度は0.2、図6(b)より経過日数による音声情報信頼度は0.6と算出され、音声情報信頼度としては両者の平均の0.4が出力された。 FIGS. 6 (a) audio information reliability 0.2 by the SN ratio from the voice information reliability by age from FIG. 6 (b) is calculated to be 0.6, 0 average both as audio information reliability .4 has been output. 顔画像情報信頼度は、図7(a)の顔の向きによる信頼度1.0と、図7(b)の経過日数による信頼度0.6の平均である0.8が出力された。 Face image information reliability, and reliability 1.0 by the orientation of the face of FIG. 7 (a), the average a is 0.8 reliability 0.6 by age in FIG. 7 (b) is output. 指紋情報信頼度は、図8の規則により1.0が出力された。 Fingerprint information reliability, 1.0 is output by the rules of FIG.

【0019】情報結果統合部によって、各情報の類似度、信頼度を統合する。 [0019] The information result integration unit, the similarity of each information, integrate reliability. 図9の統合規則を用いて統合を行う。 Performing integration using the integration rules of FIG. 音声情報の信頼度は0.4であり0.8未満であるので、音声情報の類似度は最終的な類似度算出には用いない。 Since the reliability of the speech information is less than there 0.8 0.4, the similarity of the voice information is not used in the final similarity calculation. 顔画像情報の信頼度0.8、指紋情報の信頼度1.0は、それぞれ0.8以上であるので、図9の規則によりこれらの類似度を平均したものが最終的な類似度となる。 Reliability 0.8 facial image information, the reliability 1.0 fingerprint information, since it is respectively 0.8 or more, obtained by averaging these similarities by regulations in FIG. 9 is the final similarity . 顔画像情報の類似度は0.9、指紋情報の類似度は0.9であるので、最終的な類似度は0.9と計算され、閾値0.8以上であるので、信頼結果統合部では本人と判定した。 Since the similarity of the facial image information 0.9, the similarity of the fingerprint information is 0.9, the final similarity is calculated to be 0.9, since the threshold value of 0.8 or more, reliable result integration unit In was determined to be by an original person.

【0020】従来の手法で照合を行うと、信頼度は算出されないので、音声情報の類似度0.4、顔画像情報類似度0.9、指紋画像情報類似度0.9のみが出力される。 [0020] collated in a conventional manner, since the reliability is not calculated, the similarity 0.4 audio information, face image information similarity 0.9, only the fingerprint image information similarity 0.9 is output . 照合結果の統合は、全ての類似度の平均をとる手法や、全ての類似度が閾値を上回った場合のみ本人と判定する手法が一般的に用いられるが、今回の場合には全ての類似度の平均値は閾値0.8を下回っており、また音声情報の類似度が0.4と低い値であるので、どちらの手法においても本人と判定されない。 Integration of the matching results, and methods taking the average of all similarity, although the person and determines approach only when all similarity exceeds the threshold is generally used, all similarity to the present case the average value of is less than the threshold value 0.8, and because the similarity of the audio information is a low value of 0.4, is not determined to be by an original person in either approach. 本システムでは、 In this system,
音声情報の信頼度が低いので、音声情報の類似度を無視することで本人であるという正しい同定が行える。 Because of the low reliability of voice information, it can be carried out correct identification of being a person by ignoring the similarity of the voice information. この結果は、信頼度の算出により高精度な個人同定が行えることを示している。 This result indicates that perform highly accurate personal identification by calculating the reliability.

【0021】次に、同様のシステムにおいて、他人が音声、顔画像、指紋の3つの情報を入力した場合を考える。 Next, in the same system, it is assumed that someone else has entered voice, facial image, the three pieces of information of the fingerprint. 音声情報は騒音された本人のものを、顔画像情報は正面から撮影された本人の写真を用いて入力を行い、指紋のみ本人のものではないものを入力した。 The voice information is that of the person who is noise, face image information performs input using a photo of the person that was taken from the front, you enter a thing not of the person only fingerprint. 周囲環境とのSN比は30dBであり、経過日数は14日であった。 SN ratio of the surrounding environment is 30dB, the number of days elapsed was 14 days. 各情報の照合部で従来の手法に基づいて類似度を算出した結果、音声情報の類似度は0.9、顔画像情報の類似度は0.9、指紋情報の類似度は0.4となった。 Collating unit the result of calculating the degree of similarity based on the conventional approach of each information, the similarity of the audio information 0.9, the similarity of the facial image information 0.9, the similarity of the fingerprint information is 0.4 and became.
各情報の信頼度は、音声情報に関しては図6(a)の1.0と、図6(b)の規則の0.6を平均した0.8 Reliability of each information, and 1.0 in FIG. 6 with respect to the audio information (a), it was averaged 0.6 rules of FIG. 6 (b) 0.8
が算出される。 There is calculated. 顔画像情報に関しては、図7(a)の1.0と図7(b)の0.6を平均した0.8が算出される。 With respect to the face image information, 0.8 averaged 0.6 1.0 and 7 in FIG. 7 (a) (b) is calculated. 指紋に関しては、接した面積が十分な面積の80 With respect to a fingerprint, the area in contact is sufficient area 80
だったので、0.8が算出された。 Because it was, 0.8 has been calculated. 統合規則によって統合すると、どの信頼度も0.8を越えているので、3つの類似度の平均によって最終的は類似度0.73が算出される。 Integrating the integration rules, since any reliability even exceeds 0.8, finally by the average of the three similarity similarity 0.73 it is calculated. 0.8未満であるので、本人でないという正しい結果と出力することができる。 Since less than 0.8, it is possible to output the correct result that a person.

【0022】最初の本人の例では、類似度は音声、顔画像、指紋の順に0.4、0.9、0.9であり、次の他人の例では、類似度は同様の順に0.9、0.9、0. [0022] In the first example of the person, the degree of similarity is 0.4,0.9,0.9 voice, face image, in the order of fingerprint, 0 in the example of next of others, the degree of similarity in the same order. 9,0.9,0.
4である。 4. 数字だけ見れば同じ値であり、類似度だけで前者は本人であり、後者は他人であるという判定を出力することはできない。 Is the same value if you look at only digits, the former only similarity is the principal, the latter can not output the determination that a stranger. 類似度とともに信頼度を算出し、 To calculate the reliability along with the degree of similarity,
統合規則によって統合することで、従来手法と比較して高精度な判定ができることがわかる。 By integrating the integration rules, it can be seen that it is highly accurate determination as compared with the conventional method.

【0023】実施例2 本実施例では、実施例1と同様のシステム構成で、各記憶部に保持する情報を変更したシステムを用いる。 [0023] Example 2 In this example, the same system configuration as that in Example 1, using the system for changing the information stored in each storage unit. 音声情報は、実施例1では決められた単語を発声した際の音声情報を特徴抽出したものを記憶していたが、本実施例では、5母音「あ」「い」「う」「え」「お」の発声を特徴抽出したものを、音声記憶部に記憶しておく。 Audio information, but remembers those features extracted audio information when uttered a word that is determined in Example 1, in this embodiment, 5 vowels "A", "I", "U", "e" a material obtained by feature extraction the utterance of the "o", and stored in the voice storage unit. 記憶方法は、システムが指定した単語を発声させ、音声認識させて該当する母音の部分のデータを保持し特徴抽出することで行う。 Storage method is performed by the system is uttered the specified word, and extracts feature holds data portion of the corresponding vowel by speech recognition. 顔画像情報は、実施例1では、正面の画像を使用していたが、本実施例では、正面以外にも上向き、横向きなど複数枚の画像を特徴抽出したものを記憶しておく。 Facial image information, in Example 1, but uses the image of the front, in this embodiment, upward in addition to the front, and stores the obtained by feature extraction a plurality of images such as landscape. 指紋情報は、実施例1では指紋全体を使用していたが、本実施例では指紋全体を複数の個所に分割した形で特徴抽出し、記憶しておく。 Fingerprint information, but uses the Examples 1, fingerprints, in the present embodiment features extracted in the form of dividing the entire fingerprint to a plurality of locations and stored.

【0024】認識する際には、音声に関してはシステムが指定した単語を利用者に発声をしてもらい、特徴抽出して母音部を音声認識により抽出した後に、各母音ごとに記憶されている情報と比較することで類似度を求める。 [0024] When recognized, for audio asked to the uttered words specified by the system to the user, the vowel part and feature extraction after extraction by the voice recognition, information stored for each vowel obtaining a similarity by comparing. 顔画像に関しては、入力画像と、記憶された画像の中で入力画像の顔の向きに最も近い向きの画像を比較することで類似度を算出する。 With respect to the face image, the similarity is calculated by comparing the input image, a closest orientation image of the orientation of the face in the input image among the stored image. 指紋に関しては、断片的に記憶された複数の個所に関して入力された情報と記憶部の情報を比較し類似度を出力する。 For the fingerprint, it compares information inputted with the information of the storage unit with respect to fractionally stored plurality of positions to output a similarity.

【0025】信頼度の算出方法や、統合規則に関しては実施例1と同様のものを用いる。 [0025] and calculating the reliability methods, using the same as in Example 1 with respect to integration rules. 本システムにおいて、 In the present system,
他人が音声、顔画像、指紋の3つの情報を入力した場合を考える。 Others voice, face image, consider the case where you enter the three pieces of information of the fingerprint. 指紋情報に関しては画像を入手しており、それを入力した。 And to obtain the image with respect to the fingerprint information, and enter it. 音声情報、顔画像情報は、なるべく信頼度が落ちるように、音声情報はSN比5dBの状況で入力し、顔画像情報は横向きの情報を入力した。 Voice information, face image information, as much as possible confidence falls, voice information is input in the context of SN ratio 5dB, face image information was input the landscape of information. 類似度は、音声情報に関しては0.4、顔画像情報に関しては0.4、指紋情報に関しては1.0と出力された。 The similarity, in terms audio information 0.4, with respect to the face image information 0.4, output 1.0 with respect to the fingerprint information. 信頼度に関しては、音声情報は0.4、顔画像情報は0. With respect to reliability, voice information is 0.4, the face image information 0.
8、指紋情報は0.8が出力された。 8, the fingerprint information 0.8 is output. 統合規則で判定した結果、信頼度0.8以上である顔画像情報、指紋情報の平均の類似度は0.7となり、閾値0.8を下回っているので、本人ではないという正しい結果が出力された。 Result of judgment in integration rules, face image information is reliability 0.8 or more, since the similarity of the average of the fingerprint information is below 0.7, and the threshold 0.8, the correct result is output that is not a person It has been.

【0026】上記の例は、実施例1のシステムだと、顔画像として横向きの画像を入力しているので、顔画像の信頼度が低くなり、結果的に指紋情報の類似度が最終的な類似度となり本人であると判定される。 [0026] The above examples, when it system of Example 1, since the input of the lateral image as the face image, the lower the reliability of the face image, resulting in the similarity of the fingerprint information is ultimately it is determined that the similarity becomes a person. 一方、本システムでは、顔画像を記憶する際に正面の画像だけでなく横向きの画像も記憶させていたため、顔画像の信頼度が高くなり、結果として本人でないという正しい結果を出力することができた。 On the other hand, in this system, because it was transverse images also be stored not only images the front when storing a face image, the higher the reliability of the face image, it is possible to output the correct result that a person as a result It was. 他人が本人の一部の情報を入手した際に、他の情報の類似度を故意に下げて本人になりすます方法が考えられるが、本実施例のように、認識に使用する部分を限定もしくは複数用意しておき、利用者には認識に利用する部分を知らせないことによって、故意に信頼度を下げて情報を入力することを事実上不可能にすることができる。 When others have obtained some information of the principal, but the method to impersonate the person by reducing the degree of similarity other information intentionally is considered, as in the present embodiment, limitation or a plurality of parts to be used for recognition prepared advance, the user by not informing the part to be used for recognition, it can be virtually impossible to enter the information by lowering the deliberately reliability. よって、悪意を持った他人に対しても高い精度の個人同定が行える。 Thus, it can be performed high accuracy of personal identification also to others with malicious intent.

【0027】実施例3 本実施例では、図10のようなシステム構成をとり、音声情報、顔画像情報、指紋情報の3つの生体情報の他に、暗証番号情報を用いて個人の同定を行う。 [0027] EXAMPLE 3 In this example, taking the system configuration shown in FIG. 10, the audio information, face image information, in addition to the three biometric information of the fingerprint information, and the identification of individuals with a personal identification number information . 図10では、音声入力部23、顔画像入力部27、指紋入力部3 In Figure 10, voice input unit 23, the face image input unit 27, the fingerprint input unit 3
1、暗証番号入力部35からそれぞれ入力された音声情報、顔画像情報、指紋情報、暗証番号情報が、音声記憶部24の音声情報や顔画像記憶部28の顔画像情報や指紋記憶部33の指紋情報や暗証番号記憶部37の暗証番号情報と共に、それぞれ音声情報は、音声照合部25、 1, the audio information inputted from each of the personal identification number input unit 35, face image information, fingerprint information, personal identification number information, face image information and the fingerprint storage unit 33 of the audio information and the face image storage unit 28 of the voice storage unit 24 with PIN information of the fingerprint information and personal identification number storage unit 37, respectively audio information, voice collating unit 25,
音声信頼度算出部26に入力され、顔画像情報は顔画像照合部29、顔画像信頼度算出部30に入力され、指紋情報は指紋照合部32、指紋信頼度算出部34に入力され、暗証番号情報は、暗証番号照合部36、暗証番号信頼度算出部38に入力される。 Is input to the audio reliability calculation section 26, the face image information is the face image matching section 29, is inputted to the face image reliability calculation section 30, the fingerprint information is the fingerprint comparing unit 32, it is inputted to the fingerprint reliability calculation section 34, PIN number information, password verification section 36, are inputted to the code number reliability calculation section 38. それぞれの照合部で求められた類似度情報やそれぞれの信頼度算出部で求められた信頼度情報は、同定結果統合部39に入力され、総合的に統合した結果に基づいて個人の同定を行う。 Each of the reliability information determined by similarity information and the respective reliability calculation section obtained by the verification unit is input to the identification result integration unit 39 performs identification of individuals on the basis of the overall integrated result . 3つの生体情報の類似度、信頼度の算出は実施例2と同様に行う。 Similarity of the three biometric information, the calculation of the reliability is carried out as in Example 2. 暗証番号情報に関しては、暗証番号照合部は、1. With respect to the personal identification number information, password verification section, 1.
0もしくは0.0、即ち正しいか誤りかの2通りの類似度を出力する。 0 or 0.0, and outputs the words correct any error of the similarity in two ways. 暗証番号信頼度出力部では、ここでは常に1.0の信頼度を出力する。 The PIN reliability output unit, wherein the outputs always 1.0 reliability. 統合規則は図11のものを用いる。 Integration Rules used as in Figure 11. 実施例2の統合規則図9では、0.8以上の信頼度を出力する。 In the integrated Rule Figure 9 Example 2, and outputs the 0.8 or more reliability. 統合規則は図11のものを用いる。 Integration Rules used as in Figure 11.
実施例2の統合規則図9では、0.8以上の信頼度を持つ情報の類似度の平均と閾値を比較していたが、図11 In the integrated Rule Figure 9 Example 2, but it compares the average with a threshold degree of similarity information having 0.8 or more confidence, 11
では、0.8以上の信頼度を持つ情報の類似度が全て閾値0.8を越えた場合のみ本人であると判定する。 In, it determines that person only if the similarity information which has 0.8 or more reliability exceeds all threshold 0.8. (ステップ40,41) 本システムにおいて、他人が音声、顔画像、指紋、暗証番号の4つの情報を入力した場合を考える。 (Step 40, 41) the system, consider the case where another person has entered voice, face image, fingerprint, four information PIN. 本人の音声情報、顔画像情報、指紋情報に関しては情報を記録したものを用意した場合には、音声、顔画像、指紋のどの情報に対しても高類似度、高信頼度を得ることが可能である。 Personal audio information, face image information, when prepared that records information regarding the fingerprint information, voice, facial image, high similarity to any information of the fingerprint, can be obtained reliably it is. ただし、本システムでは、暗証番号の信頼度は常に1.0であり、暗証番号の類似度が1.0にならない限り、即ち正しい暗証番号を入力しない限り、本人と判定されることはない仕組みになっている。 However, in this system, is always 1.0 reliability of an identification number, as long as the similarity of an identification number is not 1.0, i.e. unless you enter the correct PIN, not to be identified as the user works It has become. このように、入力する情報や統合規則を変更することによって、他人を排除する点の頑強さを容易に変更できるのも、本発明の大きな利点である。 Thus, by changing the information and integration rules to enter, even can easily change the robustness of the point to eliminate the others, it is a great advantage of the present invention.

【0028】実施例4 実施例2において、図9の統合規則及び閾値の代わりに、ニューラルネットワークを用いて類似度及び信頼度の判定を行う。 [0028] In Example 4 Example 2, in place of the integration rules and thresholds of Figure 9, a determination of the similarity and reliability by using a neural network. ニューラルネットワークは図12に示す入力層(ユニット42〜45)・中間層ユニット46〜 Neural network input layer shown in FIG. 12 (Unit 42 to 45) and intermediate layer unit 46 to
49・出力層ユニット50〜51からなる断層構造をとり、結合は入力層→中間層→出力層という前向きの結合だけで、各層内の結合はない。 It takes a fault structure consisting of 49-output layer units 50-51, coupled only forward coupling of the input layer → the intermediate layer → output layer, there is no binding of the layers. 各ユニットの構造は図1 The structure of each unit 1
3に示すような脳のニューロンのモデル化である。 A model of neurons in the brain as shown in 3. 各ユニット52,53の入力に対して結合の強さを示す重みがついており、重みを考慮して加算部54で入力の総和をとった後に変換関数部55で一定の変換規則を用いて値を変換し出力する。 And with a weight indicating the strength of the bond with respect to the input of each unit 52 and 53, values ​​with a predetermined conversion rule in the conversion function unit 55 after taking the sum of the input by an adder 54 in consideration of the weight to convert the output to. 学習時には、各ユニットの重みと変換規則を変更していく。 During learning, it will change the conversion rule and the weight of each unit.

【0029】本実施例では、入力層6個、中間層21 [0029] In this embodiment, input layer 6, the intermediate layer 21
個、出力層1個のユニットを持つニューラルネットワークを用いる。 Pieces, using a neural network having an output layer one unit. 学習時には、あらかじめ本人や他人が音声情報、顔画像情報、指紋情報を入力して得られた3つの類似度と3つの信頼度の6つの要素を持つベクトルを入力し、本人の場合のみ対応する出力層のユニットが活性化するように十分学習しておく。 During training inputs previously person or others audio information, face image information, a vector having six elements of three similarities obtained by inputting the fingerprint information and three reliability, corresponding only if the principal units of the output layer is kept sufficiently trained to activate.

【0030】認識時には、利用者は実施例2と同様の方法で音声情報、顔画像情報、指紋情報を入力する。 [0030] During recognition, the user voice information in the same manner as in Example 2, the face image information, and inputs the fingerprint information. 実施例2と同様に各情報の類似度と信頼度を算出する。 In the same manner as in Example 2 to calculate the degree of similarity and the reliability of the information. 算出した類似度および信頼度を、学習済みのニューラルネットワークに入力する。 The calculated similarity and reliability, and inputs to the learned neural network. 出力層の出力が決められた閾値を越えていれば本人と、そうでなければ他人と判定される。 And the principal if beyond the output of the output layer is determined threshold, it is determined that another person otherwise.

【0031】実施例1や実施例2における統合規則は、 The integration rules in Example 1 and Example 2,
最適なものを事前に決めるのが難しいという問題点が存在したが、学習データを用いて規則を学習することで、 A problem that the best is difficult to determine in advance what was present, but by learning the rules by using the learning data,
容易に適切な統合規則を設定することができる。 You can easily set the appropriate integration rules.

【0032】 [0032]

【発明の効果】以上詳述してきた本発明によれば、複数の個人情報を用いて個人同定を行い、さらに各個人情報ごとに信頼度情報を出力することで、信頼度情報の高い情報を用いた同定結果を優先させることができるので、 According to the present invention has been described in detail, according to the present invention above, it performs personal identification using a plurality of personal information, by further outputting reliability information for each individual information, a highly reliable information Information since the identification results using priority can be given,
従来よりも高い個人同定精度を得ることができる。 It is possible to obtain a high personal identification accuracy than ever. 統合規則は学習によって更新されるので、周囲の状況の変化に対しても頑強な個人同定精度を得ることができる。 Since integration rule is updated by learning, it is possible to obtain a robust personal identification accuracy with respect to changes in ambient conditions.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】 音声情報を用いて個人同定を行うシステムブロック図 System block diagram for performing personal identification with reference to Figure 1 the audio information

【図2】 顔画像を用いて個人同定を行うシステムブロック図 System block diagram for performing personal identification with reference to Figure 2 face images

【図3】 指紋を用いて個人同定を行うシステムブロック図 System block diagram for performing personal identification with reference to FIG. 3 Fingerprint

【図4】 音声情報と暗証番号情報を用いて個人同定を行うシステムブロック図 System block diagram for performing personal identification with reference to FIG. 4 audio information and the personal identification number information

【図5】 本発明の一実施例を示した図 Diagram illustrating an embodiment of the present invention; FIG

【図6】 第一の信頼度算出規則を示した図 6 is a diagram showing a first reliability calculation rule

【図7】 第二の信頼度算出規則を示した図 7 is a diagram showing a second reliability calculation rule

【図8】 第三の信頼度算出規則を示した図 8 is a diagram showing a third reliability calculation rule

【図9】 本発明の同定結果統合部で用いる統合規則を示した図 Illustrates the integration rules used in the identification result integration unit of the present invention; FIG

【図10】 本発明の一実施例を示した図 Diagram illustrating an embodiment of the present invention; FIG

【図11】 本発明の同定結果統合部で用いる統合規則の判定の仕方を示した図 11 is a diagram showing how to determine the integration rules used in the identification result integration unit of the present invention

【図12】 本発明の類似度及び信頼度の判定をニューラルネットワークを用いて行う場合の一構成を示した図 Diagram showing a configuration of a case where the determination of the similarity and reliability performed using a neural network of the present invention; FIG

【図13】 各ユニットの一構成を示した図 FIG. 13 is a view showing an arrangement of each unit

【符号の説明】 DESCRIPTION OF SYMBOLS

1…音声入力部 2…音声照合部 3…音声記憶部 1 ... voice input unit 2 ... speech collating unit 3 ... voice storage unit

Claims (4)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】少なくとも1つ以上の生体情報を含む複数の個人情報を収集して、これにより個人を同定する個人同定装置において、 前記各個人情報ごとに、予め登録された個人情報又はこの個人情報から変換された特徴量を記憶する記憶部と、 前記個人情報を入力し必要ならば特徴量に変換する入力と、 前記記憶部中の個人情報もしくは特徴量と入力された個人情報もしくは特徴量を照合し、類似度情報を出力する照合部と、 前記記憶部中の個人情報もしくは特徴量と入力された個人情報もしくは特徴量から信頼度情報を求める信頼度算出部と、 出力された複数の類似度情報および信頼度情報から統合規則を用いて同定結果を出力する同定結果統合部を備えたことを特徴とする個人同定装置。 1. A collecting a plurality of personal information including at least one or more of the biological information, in which the personal identification device for identifying an individual, said each personal information previously registered personal information or the personal storage unit for storing the converted feature quantity from the information and an input for converting the feature amount, if necessary to enter the personal information, personal information or feature quantity input personal information or the feature quantity in said storage unit matches, a collating unit for outputting the similarity information, the individual information or feature quantity input personal information or the feature amount in the storage unit and the reliability calculation unit for obtaining the reliability information, a plurality of output personal identification device characterized by comprising the identification result integration unit which outputs the identification result using the integrated rule from the similarity information and the reliability information.
  2. 【請求項2】同定結果統合部における統合規則を、前記入力部に入力されてきた個人情報に基づき作成された学習データを用いて学習することを特徴とする請求項1記載の個人同定装置。 Wherein identification result integration rules in an integrated unit, personal identification apparatus according to claim 1, wherein the learning using the learning data created based on personal information that has been input to the input unit.
  3. 【請求項3】少なくとも1つ以上の生体情報を含む複数の個人情報を収集し、これにより個人を同定する個人同定方法において、 前記個人情報を入力し、必要な場合この個人情報を特徴量に変換するステップと、 各個人情報ごとに予め登録された個人情報又はこの個人情報から変換された特徴量を記憶するステップと、 記憶された個人情報又は特徴量と前記入力された個人情報もしくは特徴量を照合し、類似度情報を出力するステップと、 記憶された個人情報又は特徴量と前記入力された個人情報もしくは特徴量から信頼度情報を求めるステップと、 求められた前記複数の類似度情報及び信頼度情報から統合規則を用いて同定結果を求めるステップとからなることを特徴とする個人同定方法。 3. Collect plurality of personal information including at least one or more of the biological information, thereby the person identification method of identifying a person, to enter the personal information, the feature amount of this personal information if necessary steps and, a step of storing the converted feature quantity from the personal information or the personal information previously registered for each personal information, personal information or feature amounts and stored personal information or feature amount is the input to be converted matches, and outputting the similarity information, individual information or feature quantity the entered and the stored personal information or feature amount determining a reliability information, said plurality of similarity information and the obtained personal identification method characterized by comprising the from the reliability information and determining the identification result using the integration rules.
  4. 【請求項4】統合規則は、入力されてきた個人情報に基づき作成された、学習データを用いて随時学習され更新されることを特徴とする請求項3記載の個人同定方法。 4. The integrated rules were created on the basis of the personal information that has been input, the personal identification method according to claim 3, characterized in that it is learned updated from time to time by using the learning data.
JP6268297A 1997-03-17 1997-03-17 Device and method for identifying individual Pending JPH10261083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6268297A JPH10261083A (en) 1997-03-17 1997-03-17 Device and method for identifying individual

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6268297A JPH10261083A (en) 1997-03-17 1997-03-17 Device and method for identifying individual

Publications (1)

Publication Number Publication Date
JPH10261083A true true JPH10261083A (en) 1998-09-29

Family

ID=13207311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6268297A Pending JPH10261083A (en) 1997-03-17 1997-03-17 Device and method for identifying individual

Country Status (1)

Country Link
JP (1) JPH10261083A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005122715A (en) * 2003-10-17 2005-05-12 Microsoft Corp Network fingerprinting
KR100779995B1 (en) 2006-06-07 2007-11-27 재단법인서울대학교산학협력재단 System for detecting entry or exit of a person based on height, and a method using the same
JP4569471B2 (en) * 2003-09-26 2010-10-27 株式会社ニコン Electronic image storage method, an electronic image storage device, and electronic image storage system
JP2010286702A (en) * 2009-06-12 2010-12-24 Nec Corp Speaker verification device, speaker verification method, and program
JP2011210126A (en) * 2010-03-30 2011-10-20 Canon Inc Apparatus and method for recognizing pattern
US8676969B2 (en) 2004-02-06 2014-03-18 Microsoft Corporation Network classification

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4569471B2 (en) * 2003-09-26 2010-10-27 株式会社ニコン Electronic image storage method, an electronic image storage device, and electronic image storage system
JP2005122715A (en) * 2003-10-17 2005-05-12 Microsoft Corp Network fingerprinting
US9608883B2 (en) 2004-02-06 2017-03-28 Microsoft Technology Licensing, Llc Network classification
US8676969B2 (en) 2004-02-06 2014-03-18 Microsoft Corporation Network classification
US9374286B2 (en) 2004-02-06 2016-06-21 Microsoft Technology Licensing, Llc Network classification
KR100779995B1 (en) 2006-06-07 2007-11-27 재단법인서울대학교산학협력재단 System for detecting entry or exit of a person based on height, and a method using the same
JP2010286702A (en) * 2009-06-12 2010-12-24 Nec Corp Speaker verification device, speaker verification method, and program
JP2011210126A (en) * 2010-03-30 2011-10-20 Canon Inc Apparatus and method for recognizing pattern

Similar Documents

Publication Publication Date Title
Jain et al. Multibiometric systems
US7054470B2 (en) System and method for distortion characterization in fingerprint and palm-print image sequences and using this distortion as a behavioral biometrics
Syukri et al. A user identification system using signature written with mouse
Pankanti et al. Biometrics: The future of identification [guest eeditors' introduction]
Uludag et al. Biometric template selection and update: a case study in fingerprints
US7330570B2 (en) Face collation apparatus and biometrics data collation apparatus
Jain et al. Can soft biometric traits assist user recognition?
US5815252A (en) Biometric identification process and system utilizing multiple parameters scans for reduction of false negatives
US7881524B2 (en) Information processing apparatus and information processing method
US20080212846A1 (en) Biometric authentication using biologic templates
US7447339B2 (en) Unique code generating apparatus, method, program and recording medium
US20020184538A1 (en) Combined authentication system
US20050129290A1 (en) Method and apparatus for enrollment and authentication of biometric images
US6895514B1 (en) Method and apparatus for achieving secure password access
US6389397B1 (en) User identification system using improved voice print identification processing
US20040189441A1 (en) Apparatus and methods for verification and authentication employing voluntary attributes, knowledge management and databases
US20060074986A1 (en) Method and system to authenticate an object
US6782120B2 (en) Method and system for generating a key record
Martens et al. On-line signature verification by dynamic time-warping
US20060193502A1 (en) Device control apparatus and method
EP0582989A2 (en) A recognition system, particularly for recognising people
US6700998B1 (en) Iris registration unit
US7187786B2 (en) Method for verifying users and updating database, and face verification system using the same
US5557686A (en) Method and apparatus for verification of a computer user's identification, based on keystroke characteristics
Bigun et al. Multimodal biometric authentication using quality signals in mobile communications

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040301

RD02 Notification of acceptance of power of attorney

Effective date: 20050414

Free format text: JAPANESE INTERMEDIATE CODE: A7422

RD04 Notification of resignation of power of attorney

Effective date: 20050606

Free format text: JAPANESE INTERMEDIATE CODE: A7424

A977 Report on retrieval

Effective date: 20060127

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060804