JPH0370239B2 - - Google Patents

Info

Publication number
JPH0370239B2
JPH0370239B2 JP7241182A JP7241182A JPH0370239B2 JP H0370239 B2 JPH0370239 B2 JP H0370239B2 JP 7241182 A JP7241182 A JP 7241182A JP 7241182 A JP7241182 A JP 7241182A JP H0370239 B2 JPH0370239 B2 JP H0370239B2
Authority
JP
Japan
Prior art keywords
pattern
input
personal
matching
individual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP7241182A
Other languages
Japanese (ja)
Other versions
JPS58189700A (en
Inventor
Sadaichi Watanabe
Shoichi Hirai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Tokyo Shibaura Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Shibaura Electric Co Ltd filed Critical Tokyo Shibaura Electric Co Ltd
Priority to JP57072411A priority Critical patent/JPS58189700A/en
Publication of JPS58189700A publication Critical patent/JPS58189700A/en
Publication of JPH0370239B2 publication Critical patent/JPH0370239B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は入力された例えば音声パターンに従つ
て予め登録された個人を照合識別することのでき
る個人照合装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to an individual verification device capable of verifying and identifying a pre-registered individual according to an input voice pattern, for example.

〔発明の技術的背景とその問題点〕 金融業務や建物の入出管理業務にあつては、そ
の防犯対策上、個人の照合、確認が極めて重要で
ある。現在、代表的な個人照合法として、例えば
銀行業務におけるIDカード法が広く知られてい
る。このIDカード法は、IDカードに磁気記録さ
れた予め登録したID番号と、新たにテンキーを
用いて入力されたID番号とを照合して個人を確
認するもので、その論理構成が簡単であり、確実
な照合を行い得ることから広く普及している。
[Technical background of the invention and its problems] In financial operations and building access control operations, verification and verification of individuals is extremely important for crime prevention. Currently, the ID card method used in banking, for example, is widely known as a typical personal verification method. This ID card method verifies an individual by comparing a pre-registered ID number magnetically recorded on the ID card with an ID number newly entered using a numeric keypad, and its logical structure is simple. , is widely used because it can perform reliable verification.

然し乍ら、このIDカード法ではIDカードを紛
失したり、或いは登録したID番号を忘れたりし
て実際上、上記照合が不能となると云う不具合を
有している。また紛失したIDカードに記録され
ているID番号が何等かの手段によつて第三者に
知れた場合、これによつて誤つた個人照合が行わ
れて上記IDカードの不正使用がなされる慮れも
ある。
However, this ID card method has the disadvantage that the above verification is practically impossible if the ID card is lost or the registered ID number is forgotten. In addition, if the ID number recorded on the lost ID card becomes known to a third party by some means, this could lead to incorrect personal identification and unauthorized use of the ID card. There are also.

そこで最近では上述したID番号の代りに個人
特有な音声、手型、手書文字等の特徴パターンを
利用した個人照合が種々試みられている。しか
し、登録されたパターンとの完全一致をとること
や、特徴値判定と云つた簡単な手法によつて個人
照合処理を行つているだけなので、十分高い照合
率を得るに至つていない。これ故、実用化には未
だ幾つかの問題があつた。
Therefore, recently, various attempts have been made to verify individuals using characteristic patterns such as voice, hand prints, handwritten characters, etc. unique to individuals, instead of the above-mentioned ID numbers. However, since the personal matching process is only performed by a simple method such as exact matching with a registered pattern or feature value determination, a sufficiently high matching rate has not been achieved. Therefore, there are still some problems in practical application.

〔発明の目的〕[Purpose of the invention]

本発明はこのような事情を考慮してなされたも
ので、その目的とするところは、入力されたパタ
ーンに従つて予め登録された個人を簡易に、且つ
確実に識別して個人照合を行うことのできる実用
性の高い個人照合装置を提供することにある。
The present invention has been made in consideration of these circumstances, and its purpose is to easily and reliably identify individuals who have been registered in advance according to an input pattern and perform personal verification. The purpose of the present invention is to provide a highly practical personal verification device that can perform the following tasks.

〔発明の概要〕[Summary of the invention]

本発明に係る個人照合装置では、個人毎に定め
たキーコードについて各個人が入力した音声等の
パターン(登録入力パターン)から、そのキーコ
ードについての標準パターンの成分を除去した第
1の残差パターンを生成して、これを個人照合用
パターンとして予め登録しておく。
In the personal verification device according to the present invention, a first residual is obtained by removing components of a standard pattern for a key code from a pattern of voice, etc. input by each individual (registered input pattern) for a key code determined for each individual. A pattern is generated and registered in advance as a personal matching pattern.

被照合者により音声等の入力パターンが入力さ
れると、その入力パターンのカテゴリを認識し、
これと同一カテゴリの標準パターンを入力パター
ンから除去した第2の残差パターンを生成する。
そして、この第2の残差パターンと先に登録され
た個人照合用パターンとを照合して被照合者を個
人照合する。
When an input pattern such as voice is input by the person to be verified, the category of the input pattern is recognized,
A second residual pattern is generated by removing the standard pattern of the same category from the input pattern.
Then, this second residual pattern is compared with the previously registered pattern for personal matching to perform personal matching of the person to be matched.

〔発明の効果〕〔Effect of the invention〕

従つて本発明によれば、照合処理に供されるパ
ターンが、標準パターン成分を除去した個人性の
強いものとなつているので、極めて効果的で、し
かも確実な個人照合を行うことが可能となる。し
かも、登録入力パターンから標準パターン成分を
除去すると云う簡単な処理によつて個人性の強い
パターンを得るので、照合処理の確実化を図り
得、その実用的利点は多大である。
Therefore, according to the present invention, since the pattern used for the matching process has strong individuality from which standard pattern components have been removed, it is possible to perform extremely effective and reliable personal matching. Become. Moreover, since a highly individualized pattern is obtained through the simple process of removing standard pattern components from the registered input pattern, the verification process can be made more reliable, which has great practical advantages.

〔発明の実施例〕[Embodiments of the invention]

以下、図面を参照して本発明の一実施例につき
説明する。
Hereinafter, one embodiment of the present invention will be described with reference to the drawings.

第1図は実施例装置の概略構成図であり、音声
認識装置1、個人照合装置2、音声応答装置3、
そしてこれらの処理動作を制御するシステム制御
装置4により構成される。マイクロホン5より入
力される音声信号は前記音声認識装置1に入力さ
れ、認識処理される。この音声認識装置1は、上
記入力された音声信号を、例えばバンド・パス・
フイルタ群により構成される音声入力部11にて
周波数分析する等して特徴パラメータに変換して
いる。この音声入力部11にて変換された上記音
声信号の特徴パラメータは、前処理部12を介し
て音声区間検出や、時間軸正規化等の処理が施さ
れたのち、認識部13に転送される。この認識部
13は、辞書記憶部14に予め登録された音声の
標準パラメータ(特徴パターン)と上記入力音声
の特徴パラメータとの類似度計算を行う等して上
記音声のカテゴリを認識するものである。そし
て、この認識結果である音声のコード列信号が上
記音声の特徴パターンと共に個人照合装置2に与
えられるようになつている。
FIG. 1 is a schematic configuration diagram of an embodiment device, which includes a voice recognition device 1, a personal verification device 2, a voice response device 3,
It is constituted by a system control device 4 that controls these processing operations. A voice signal input from the microphone 5 is input to the voice recognition device 1 and subjected to recognition processing. This speech recognition device 1 converts the input speech signal into, for example, a band pass signal.
The voice input unit 11, which is composed of a group of filters, performs frequency analysis or the like and converts it into characteristic parameters. The feature parameters of the audio signal converted by the audio input unit 11 are subjected to processing such as audio interval detection and time axis normalization via the preprocessing unit 12, and then transferred to the recognition unit 13. . The recognition unit 13 recognizes the category of the voice by calculating the similarity between the standard parameters (feature patterns) of the voice registered in advance in the dictionary storage unit 14 and the characteristic parameters of the input voice. . Then, the voice code string signal which is the result of this recognition is given to the personal verification device 2 together with the voice characteristic pattern.

しかして個人照合装置2では、前記音声の特徴
パターンを個人特徴抽出部16に入力し、前記コ
ード列信号によつて示される音声の標準パターン
を前記辞書記憶部14から読出してこれを前記特
徴パターンより差引いている。これにより、入力
された音声の個人特有な特徴成分のみが残差パタ
ーン(第2の残差パターン)として求められるよ
うになつている。この残差パターンが個人照合部
17に供給され、個人照合用辞書記憶部18に予
め登録されている個人照合用パターンとの照合が
行われるようになつている。尚、この辞書記憶部
18に登録されている個人照合用パターンは、予
め個人が定めたキーコードの上記個人の発声した
音声パターンから標準パターンの成分を除去して
生成した残差パターン(第1の残差パターン)で
ある。この個人照合用パターンも、上述した音声
確認装置1による処理と、個人特徴抽出部16に
よる処理とにより求められる。そして、この個人
照合結果は、前記音声応答装置3からスピーカ6
を介して音声応答される。
In the personal verification device 2, the voice feature pattern is input to the personal feature extracting section 16, and the standard voice pattern indicated by the code string signal is read from the dictionary storage section 14 and used as the voice feature pattern. It is more subtracted. As a result, only individual characteristic components of the input voice can be obtained as a residual pattern (second residual pattern). This residual pattern is supplied to the personal matching section 17, and is compared with the personal matching pattern registered in advance in the personal matching dictionary storage section 18. The individual matching pattern registered in the dictionary storage unit 18 is a residual pattern (first (residual pattern). This personal verification pattern is also obtained through the processing by the voice confirmation device 1 and the processing by the personal feature extraction section 16 described above. This personal verification result is transmitted from the voice response device 3 to the speaker 6.
A voice response is provided via.

さて、このように構成された本装置における個
人照合用パターンの辞書登録と、この辞書登録さ
れた個人照合用パターンを用いた入力パターンに
従う個人照合処理は次のようにして行われる。
Now, in this apparatus configured as described above, dictionary registration of a personal matching pattern and personal matching processing according to an input pattern using the personal matching pattern registered in the dictionary are performed as follows.

今、個人照合に用いられるキーコードの音声や
文字等のパターンをベクトルf(l)で表わすものとす
る。ここでlは上記パターンが属するカテゴリ
(l=1.2.3〜L)を示す。一方、カテゴリlの標
準パターン(l)は、例えば不特定多数の人から得
られた上記カテゴリlのパターンの集合{fj (l)
(xi)}より求められる。但し、上記jは(j=
1.2.3…Jl)として示される。この標準パターン
(l)は、上記パターンの集合{fj (l)(xi)}から、従
来の複合類似度法や混合類似度法における標準パ
ターンの作成と同様にして、{fj (l)(xi)}の特性
核 K(xi,xi)= 〓j fj(xi)fj(xi) の固有ベクトルを{φ(l) n}として、 (l)={φ(l) n}(m=1.2.〜Ml) として定義されるものであつて、与えられたパタ
ーンの集合{f(l) j}の平均的パターン、或いは代表
的な変形パターンを示すもので、最小2乗的な意
味での最適近似表現されたものとなる。そして、
その標準パターン{φ(l) n}は、同一のカテゴリl
について相互に直交関係を為す辞書として与えら
れる。
Now, suppose that the pattern of sounds, characters, etc. of the key code used for personal verification is represented by a vector f (l) . Here, l indicates the category (l=1.2.3 to L) to which the above pattern belongs. On the other hand, the standard pattern (l) of category l is, for example, a set of patterns of category l obtained from an unspecified number of people {f j (l)
(x i )}. However, the above j is (j=
1.2.3…Jl). This standard pattern
(l) is created from the set of patterns {f j (l) (x i )} in the same way as standard patterns are created in the conventional composite similarity method or mixed similarity method . x i )} characteristic kernel K (xi,xi) = 〓 j f j(xi) Let the eigenvector of f j (xi) be {φ (l) n }, (l) = {φ (l) n } (m=1.2.~M l ), which indicates the average pattern or representative deformed pattern of a given set of patterns {f (l) j }, and is the least squares It is expressed as an optimal approximation in the sense of and,
The standard pattern {φ (l) n } is the same category l
It is given as a dictionary that has an orthogonal relationship with each other.

さて、特定の個人αが個人照合の為に登録する
キーコードの音声パターンをgα(l)として示す。こ
の音声パターンgα(l)は、上記個人αの発声により
音声入力されるものであつて、個人αの特性を示
す特有の歪を持つたカテゴリ−lのパターンとな
つている。しかして本装置では、上記個人の音声
パターンgα(l)から、前述した同じカテゴリlの標
準パターンである平均的パターン成分φ(l) nを除去
し、上述した個人の特性を強調した残差パターン
(l)を求め、これを個人照合用パターンとして前
記記憶部18に辞書登録している。即ち、上記残
差パターンhα(l)は例えば次のようにして求められ
る。
Now, the voice pattern of the key code that a specific individual α registers for personal verification is shown as gα (l) . This voice pattern gα (l) is input by the utterance of the individual α, and is a category-l pattern that has a unique distortion indicating the characteristics of the individual α. Therefore, in this device, the average pattern component φ (l) n , which is a standard pattern of the same category l mentioned above, is removed from the individual's speech pattern gα (l) , and a residual is created that emphasizes the individual characteristics mentioned above. pattern
(l) is obtained and registered in the dictionary in the storage unit 18 as a personal matching pattern. That is, the residual pattern hα (l) is obtained, for example, as follows.

但し、上式中(・)はパターン・ベクトルの内
積処理を示しており、‖ ‖はノルムを示してい
る。この式に示される分母項は正規化の為に導入
されたものであつて、これを1として演算の簡易
化を図ることが可能である。このようにして複数
の個人がそれぞれ定めたキーコードの上記各個人
が入力した登録入力パターンに基づく個人照合用
パターンが各々求められて、個人照合用辞書記憶
部18に、例えばカテゴリ別に分類されて辞書登
録される。
However, in the above formula, (.) indicates inner product processing of pattern vectors, and ‖ ‖ indicates norm. The denominator term shown in this equation is introduced for normalization, and can be set to 1 to simplify the calculation. In this way, individual matching patterns are obtained based on the registered input patterns inputted by each of the key codes respectively defined by a plurality of individuals, and are stored in the personal matching dictionary storage section 18, classified by category, for example. Registered in the dictionary.

さて、上記の如く各個人の照合用パターンh(l)
が予め辞書登録されたのち、被照合者の個人照合
は次のようにして行われる。上記被照合者が音声
等によつてパターンPを入力すると、このパター
ンPに対して前述した標準パターンの成分除去が
同様に行われ、その残差パターンq(l)が求められ
る。
Now, as mentioned above, each individual's matching pattern h (l)
is registered in the dictionary in advance, and then personal verification of the person to be verified is performed as follows. When the person to be verified inputs a pattern P by voice or the like, the component removal of the standard pattern described above is performed on this pattern P in the same manner as described above, and the residual pattern q (l) is obtained.

但し、この処理は上記入力パターンPと同じカ
テゴリlの標準パターンφ(l)/mを用いて行われる
ことは云うまでもない。しかして個人照合部17
は、この入力パターンPに対して求められた残差
パターンq(l)と、前記辞書記憶部18に予め登録
された各個人の照合用パターンh(l)とを遂次照合
して個人照合を行う。この照合は、公知の単純類
似度法や複合類似度法等を適宜用いて行われる。
例えば上記パターンq(l)とhα(l)との類似度S(q(l)
(l))は次のようにして求められる。
However, it goes without saying that this process is performed using the standard pattern φ (l)/m of the same category l as the input pattern P described above. However, personal verification section 17
The residual pattern q (l) obtained for this input pattern P is successively compared with the matching pattern h (l) for each individual registered in advance in the dictionary storage unit 18 to perform individual matching. I do. This verification is performed using a known simple similarity method, complex similarity method, or the like as appropriate.
For example, the similarity S(q ( l ) ,
(l) ) can be obtained as follows.

S(q(l),hα(l))=(q(l),hα(l)/‖q(l)‖・‖
(l)‖ そして、このようにして求められた類似度結果
に従う個人照合判定は、その判定閾値をθ1として S(q(l),hα(l))≧θ1 なる条件で、被照合者が個人αであり、 S(q(l),hα(l))<θ1 なる条件で上記被照合者が個人αでないとして行
われる。
S (q (l) , hα (l) ) = (q (l) , hα (l) /‖q (l) ‖・‖
(l) ‖ Then, the personal matching judgment according to the similarity result obtained in this way is performed under the condition that S(q (l) , hα (l) ) ≧ θ 1 , where the judgment threshold is θ 1 . This is performed assuming that the person to be verified is the individual α, and the person to be verified is not the individual α under the condition that S(q (l) ,hα (l) )< θ1 .

また辞書登録されている照合用パターンhα(l)
複数個存在する場合には、つまり同じカテゴリを
定めた複数の個人が存在する場合にその各々につ
いて類似度値を求める。そして、その中で最大
(若しくは最小)の値を示す最大類似度S(l) naxと、
その次に位置する類似度S(l) oextとをそれぞれ求め、 S(l) nax=Max{S(q(l),hα(l))|α}>θ2, および S(l) nax−S(l) oext>θ3 なる条件判定を行い、これらの条件が満たされる
場合にのみ、被照合者を個人αであると判定する
ようにすればよい。但し、上記θ2,θ3はそれぞれ
所定の定数からなる判定閾値である。
Furthermore, if there are a plurality of matching patterns hα (l) registered in the dictionary, that is, if there are a plurality of individuals who have defined the same category, a similarity value is obtained for each of them. Then, the maximum similarity S (l) nax that indicates the maximum (or minimum) value among them,
The next similarity S (l) oext is calculated, and S (l) nax = Max {S (q (l) , hα (l) ) | α} > θ 2 , and S (l) nax -S (l) oext > θ 3 may be determined, and only when these conditions are satisfied, the person to be verified is determined to be the individual α. However, the above θ 2 and θ 3 are determination thresholds each consisting of a predetermined constant.

以上のように、本装置によれば、個人性の強い
入力パターンと標準パターンとの残差パターンを
用いて個人照合を行うので、その照合精度が非常
に高い。しかも、入力パターンから、カテゴリを
同じくする標準パターンの成分を除去し、個人性
の強い残差パターンを求めて個人照合を行うと云
う、個人の特徴を効果的に利用して照合を行うの
で、誤つた照合結果を得る慮れがなく、その実用
的利点は絶大である。更には上述した処理がさほ
ど複雑でないから、装置を簡易に実現できると云
う効果も奏する。
As described above, according to the present device, since individual matching is performed using the residual pattern between a highly individualized input pattern and a standard pattern, the matching accuracy is extremely high. Moreover, the components of standard patterns that share the same category are removed from the input pattern, and individual matching is performed by searching for residual patterns with strong individuality.This method effectively utilizes individual characteristics to perform matching. There is no possibility of obtaining erroneous verification results, and its practical advantages are enormous. Furthermore, since the above-mentioned processing is not so complicated, there is also an effect that the apparatus can be easily realized.

尚、上記照合処理を実行制御するシステム制御
装置4は、例えば第2図に示すように、その制御
プロセスを実行するようにすればよい。
Incidentally, the system control device 4 that executes and controls the above verification process may execute the control process as shown in FIG. 2, for example.

即ち、個人が設定するキーコードが、例えば0
〜9、ア、イ〜ンから選択されたn個のコードに
よつて与えられるものとする。この場合、先ずス
テツプ21に示すようにn桁のコードの音声を発
声入力し、これをステツプ22において音声認識
し、n桁の音声コードに変換する。この処理を音
声認識装置1に行わしめる。しかして制御装置4
において、ステツプ23に示されるように上記n
桁の音声コードで示されるキーワードが個人照合
用として登録されているか否かを判定する。上記
音声コードが未登録の場合にはこれをリジエクト
し、また登録されている場合には次の処理に進め
る。そして、ステツプ24として、個人特徴抽出
部16に個人の特徴パラメータ(残差パターン)
の抽出を行わしめ、しかるのちステツプ25,2
6にて辞書検索、照合処理を行わしめる。この照
合処理は前述したように類似度計算等によつて行
われる。そして、ステツプ27において前述した
ような照合結果の条件判定を行い、被照合者に対
する個人を判定する。まれにこれによつて個人が
特定されない場合には、これをリジエクトする。
そして、このリジエクトにより、上述した照合処
理の再試行や、入力手順のガイダンス等が行われ
る。
In other words, if the key code set by the individual is, for example, 0
It is assumed that it is given by n codes selected from ~9, A, A~. In this case, first, as shown in step 21, an n-digit code is voiced and input, and in step 22 the voice is recognized and converted into an n-digit voice code. The speech recognition device 1 is caused to perform this process. However, the control device 4
In step 23, the above n
It is determined whether the keyword indicated by the digit voice code is registered for personal verification. If the voice code is not registered, it is rejected, and if it is registered, the process proceeds to the next step. Then, in step 24, the individual characteristic parameters (residual pattern) are stored in the individual characteristic extraction unit 16.
After that, step 25, 2
At step 6, dictionary search and collation processing are completed. This matching process is performed by similarity calculation, etc., as described above. Then, in step 27, the above-mentioned conditional determination of the verification result is performed to determine the identity of the person to be verified. In the rare case that an individual cannot be identified by this, this will be rejected.
As a result of this reject, the above-described verification process is retried, input procedure guidance, etc. are performed.

以上説明したように本装置における照合処理の
制御フローも非常に簡単であり、特別な照合手順
を特に必要としない。また類似度法等は、公知の
手法をそのまま利用することができる。更にま
た、照合に用いるパターンの種類を増やすだけ
で、更に高精度な照合を行うことを可能とする等
の効果をも奏する。
As explained above, the control flow of the verification process in this apparatus is also very simple, and no special verification procedure is particularly required. Furthermore, known methods such as the similarity method can be used as they are. Furthermore, simply by increasing the types of patterns used for matching, it is possible to perform even more accurate matching.

尚、本発明は上記実施例に限定されるものでは
ない。実施例では照合パターンを音声として与え
たが、手書き文字等であつてもよい。この場合、
入力装置としてタブレツト等を用い、また特徴パ
ラメータも文字線分やその濃度に関する特徴等と
して与えるようにすればよい。更に、照合法自体
の手法、つまり類似度計算法等は仕様に応じて定
めればよい。要するに本発明はその要旨を逸脱し
ない範囲で種々変形して実施することができる。
Note that the present invention is not limited to the above embodiments. In the embodiment, the matching pattern is provided as a voice, but it may also be a handwritten character or the like. in this case,
A tablet or the like may be used as the input device, and feature parameters may be provided as features related to character line segments and their densities. Furthermore, the method of the matching method itself, that is, the similarity calculation method, etc. may be determined according to the specifications. In short, the present invention can be implemented with various modifications without departing from the gist thereof.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の一実施例装置の概略構成図、
第2図は実施例装置における処理制御フローの一
例を示す図である。 1……音声認識装置、2……個人照合装置、3
……音声応答部、4……システム制御装置、5…
…マイクロホン、6……スピーカ、13……認識
部、14……辞書記憶部、16……個人特徴抽出
部、17……個人照合部、18……個人照合用辞
書記憶部。
FIG. 1 is a schematic diagram of an apparatus according to an embodiment of the present invention;
FIG. 2 is a diagram showing an example of a process control flow in the embodiment apparatus. 1...Voice recognition device, 2...Personal verification device, 3
...Voice response unit, 4...System control device, 5...
. . . Microphone, 6 .

Claims (1)

【特許請求の範囲】 1 個人毎に定めたキーコードについて各個人が
入力したパターンから、前記キーコードについて
の標準パターンの成分を除去した第1の残差パタ
ーンを生成する手段と、 この手段により生成された第1の残差パターン
を個人照合用パターンとして登録する登録手段
と、 被照合者により入力された入力パターンのカテ
ゴリを確認する手段と、 この手段により認識されたカテゴリと同一カテ
ゴリの標準パターンを前記入力パターンから除去
した第2の残差パターンを生成する手段と、 この手段により生成された第2の残差パターン
と前記登録手段により登録された個人照合用パタ
ーンとを照合して被照合者を個人照合する手段と
を具備することを特徴とする個人照合装置。
[Scope of Claims] 1. Means for generating a first residual pattern by removing components of a standard pattern for a key code from a pattern input by each individual regarding a key code determined for each individual; A registration means for registering the generated first residual pattern as a personal matching pattern, a means for confirming the category of the input pattern input by the person to be matched, and a standard of the same category as the category recognized by this means. means for generating a second residual pattern by removing the pattern from the input pattern; and a means for comparing the second residual pattern generated by the means with the personal matching pattern registered by the registration means. 1. A personal verification device comprising means for personally verifying a verification person.
JP57072411A 1982-04-28 1982-04-28 Private collator Granted JPS58189700A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP57072411A JPS58189700A (en) 1982-04-28 1982-04-28 Private collator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP57072411A JPS58189700A (en) 1982-04-28 1982-04-28 Private collator

Publications (2)

Publication Number Publication Date
JPS58189700A JPS58189700A (en) 1983-11-05
JPH0370239B2 true JPH0370239B2 (en) 1991-11-06

Family

ID=13488508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP57072411A Granted JPS58189700A (en) 1982-04-28 1982-04-28 Private collator

Country Status (1)

Country Link
JP (1) JPS58189700A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5677989A (en) * 1993-04-30 1997-10-14 Lucent Technologies Inc. Speaker verification system and process
US9269024B2 (en) 2010-02-01 2016-02-23 Qualcomm Incorporated Image recognition system based on cascaded over-complete dictionaries

Also Published As

Publication number Publication date
JPS58189700A (en) 1983-11-05

Similar Documents

Publication Publication Date Title
EP0099476B1 (en) Identity verification system
US6401063B1 (en) Method and apparatus for use in speaker verification
JPH0345417B2 (en)
US6580814B1 (en) System and method for compressing biometric models
US6681205B1 (en) Method and apparatus for enrolling a user for voice recognition
Camlikaya et al. Multi-biometric templates using fingerprint and voice
US4053710A (en) Automatic speaker verification systems employing moment invariants
KR100297833B1 (en) Speaker verification system using continuous digits with flexible figures and method thereof
JPH0354600A (en) Method of verifying identity of unknown person
CN111091837A (en) Time-varying voiceprint authentication method and system based on online learning
CN107346568A (en) The authentication method and device of a kind of gate control system
Orken et al. Development of security systems using DNN and i & x-vector classifiers
Folorunso et al. A review of voice-base person identification: state-of-the-art
JPH0370239B2 (en)
CN105245497B (en) A kind of identity identifying method and device
JP2788527B2 (en) Fingerprint matching method
Akingbade et al. Voice-based door access control system using the mel frequency cepstrum coefficients and gaussian mixture model
JPH10261083A (en) Device and method for identifying individual
JP4553667B2 (en) Utterance identification method and password verification device using the same
Phan et al. Multi-task Learning based Voice Verification with Triplet Loss
JPH01222299A (en) Voice recognizing device
Kar et al. Speaker Recognition using Audio Spectrum Projection and Vector Quantization
Saini et al. A Hybrid Approach for Voice Recognition Using MFCC, VQ and K-Means Algorithm
JP2000250594A (en) Speaker recognition device
CN115238260A (en) Dual-identification authentication method and device, computer equipment and storage medium