JPS61114298A - Speaker collation system - Google Patents

Speaker collation system

Info

Publication number
JPS61114298A
JPS61114298A JP59235070A JP23507084A JPS61114298A JP S61114298 A JPS61114298 A JP S61114298A JP 59235070 A JP59235070 A JP 59235070A JP 23507084 A JP23507084 A JP 23507084A JP S61114298 A JPS61114298 A JP S61114298A
Authority
JP
Japan
Prior art keywords
speaker
voice
verification
parameters
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP59235070A
Other languages
Japanese (ja)
Other versions
JPH0441837B2 (en
Inventor
千本 浩之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP59235070A priority Critical patent/JPS61114298A/en
Publication of JPS61114298A publication Critical patent/JPS61114298A/en
Publication of JPH0441837B2 publication Critical patent/JPH0441837B2/ja
Granted legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔発明の技術分野〕 本発明は音声人力による情報処理システムに用いられる
話者照合方式に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field of the Invention] The present invention relates to a speaker verification method used in an information processing system based on human voice input.

〔発明の技術的背景とその問題点〕[Technical background of the invention and its problems]

近年、音声認識、合成技術の発達が目覚しく1例えば連
続音声認識や不特定話者を対象とした音声認識が可能と
なり、また一方話者照合などもいろいろとその方式が考
え出されている。
In recent years, the development of speech recognition and synthesis technology has been remarkable, for example, continuous speech recognition and speech recognition for unspecified speakers have become possible, and various methods have been devised for speaker verification.

このような話者照合技術を用いて、電話による買物やバ
ンキングサービス、個人情報へのアクセス、機密保管場
所等への人出管理などが開発されており、その有用性が
注目されている。ここで、これらのシステムは1本人か
否かということが問題となることからセキュリティーが
一番の問題である。しかし、現在の話者照合方式はまだ
誤認識が生じたりしている。この誤認識の原因の1つI
:は、システムが照合に用いる各話者のID(暗唱単語
音声)を統一してしまい、この結果ある人にとっては、
そのIDの単語もしくは単語列に個人性が含まれている
割合いが少な(、照合装置が照合しきれないということ
があった。例えばシステムがIDを「O(ゼロ)」と指
定すると、ある人C二とっては常に「ゼロ」を安定した
口調で発声する為に個人性(安定性)が良く含まれてお
り、個人識別し昌いものとなるが、別の人にとっては「
ゼロ」を毎回不安定な口調で発声する為、余り個人性が
含まれず、個人識別し難いものとなる。
Using such speaker verification technology, applications such as telephone shopping, banking services, access to personal information, and management of people visiting confidential storage locations have been developed, and its usefulness is attracting attention. Here, security is the biggest issue because the problem with these systems is whether or not only one person is using the system. However, current speaker verification methods still cause misrecognition. One of the causes of this misrecognition I
: The system unifies the IDs (recited word sounds) of each speaker used for verification, and as a result, for some people,
The probability that the word or word string of that ID contains personal characteristics is small (there have been cases where the matching device has not been able to complete the matching. For example, if the system specifies the ID as "O (zero)", Person C2 always pronounces "Zero" in a stable tone, so it has a good sense of individuality (stability) and is easy to identify as an individual, but for another person, "Zero" is pronounced in a stable tone.
"Zero" is uttered in an unstable tone each time, so it does not contain much individuality and is difficult to identify.

の好きなIDを発声するので、その中に個人性が含まれ
ているとしても、照合装置は様々なIDを照合(単語認
識、音声特徴照合)しなければならない為、全ての話者
に対応出来ないという欠点があった。
Even if the user's favorite ID is uttered, even if it includes individuality, the matching device must match various IDs (word recognition, voice feature matching), so it is compatible with all speakers. The drawback was that it couldn't be done.

〔発明の目的〕[Purpose of the invention]

本発明の目的は、話者照合において、装置が照合しやす
いIDを自ら作り出し、照合率の向上が可能となる話者
照合方式を提供することC二ある。
It is an object of the present invention to provide a speaker verification method in which a device can generate an ID that is easy to verify by itself, thereby improving the verification rate.

〔発明の概要〕[Summary of the invention]

本発明は1話者照合の辞書作成(2際して、登録者の発
声した複数の単語に対して個人の音声特徴を分析1発録
する手段と、この音声特徴を登録する段階で、一旦各単
語ごと(二話者照合を行なう手段を備え、この照合結果
の良い単語の音声特徴を利用して各個人の照合用のID
を決定する手段を有した話者照合方式で、照合を行なう
際1;は、前記IDを用い、このIDの単語認識と発声
者の発声による話者認識の2つの手段より照合をするこ
とを特徴とするものである。
The present invention provides a means for creating a dictionary for one-speaker verification (2) a means for analyzing and recording individual voice characteristics for multiple words uttered by a registrant, and a step for registering these voice characteristics. For each word (equipped with a means to perform two-speaker matching, IDs for each individual's matching are created using the phonetic characteristics of words with good matching results)
In the speaker verification method that has a means for determining the ID, when performing verification, the ID is used and verification is performed by two means: word recognition of this ID and speaker recognition based on the utterance of the speaker. This is a characteristic feature.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、各登録者ζ2応じて個人性の高い(安
定性の良い)音声特徴を有したIDを与えること(二よ
り、照合(二よる誤りを減らすことが可能となり、セキ
ュリティの面から見ても実用性が向上する。
According to the present invention, it is possible to reduce errors due to verification (2) by giving an ID with highly individual (highly stable) voice characteristics to each registrant ζ2, which improves security. Practicality is also improved from this point of view.

〔発明の実施例〕[Embodiments of the invention]

以下、図面を参照しながら本発明の実施例について説明
する。第1図は本発明の第1の実施例のフローチャート
であり、第2図は第1の実施例のブロック図である。第
lの実施例は、登録者が辞書を作成する際【二予めシス
テムの指定した複数の単語を順々に発声してもらいその
音声特徴を検出7して仮辞書に登録し、ある回数になっ
たら(少なくとも1通りの発声が終わったら)仮辞書へ
の登録を止め、登録者に再び複数の単語を順々に発声し
てもらうことにより各々の音声特徴を検出し。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a flow chart of a first embodiment of the present invention, and FIG. 2 is a block diagram of the first embodiment. In the first embodiment, when a registrant creates a dictionary, [2] the registrant utters a plurality of words specified by the system in advance, detects their voice characteristics, registers them in a temporary dictionary, and repeats them a certain number of times. When this occurs (after at least one utterance has been completed), the registration in the temporary dictionary is stopped, and the registrant is asked to utter the plurality of words in sequence again, thereby detecting the voice characteristics of each word.

これらと仮辞書へ登録された音声特徴とを照合すること
によりID−Q決定し、本辞誉登録する方式先ず、使用
者が話者照合を行なうのか、登録を希望する為辞書を作
成するのが全機能選択するt(第1Nステツプ11 、
12 )。つまり第2図の機能選択部102で、話者照
合囚を行うか、辞薔登録四を行うかがスイッチにより選
択される。この時。
The ID-Q is determined by comparing these with the voice features registered in the temporary dictionary, and the formal registration is made. First, the user must either check the speaker or create a dictionary to request registration. selects all functions (1st N step 11,
12). That is, in the function selection section 102 of FIG. 2, a switch is used to select whether to perform speaker verification or registration. At this time.

登録が選択された場合は辞書作成を行う為カウンタ10
3が初期設定される(第1図ステップ13)と共にスイ
ッチCが選択される。第2図には示されていないが、初
期設定でに、仮辞1登録と照合の為C二線り返し発声を
するので、その回数をカウントするカウンターをクリア
しくN=0)、全音声入力回数Mをセットする。例えば
数字「O(ゼロ)」「l(イチ)j、r2(ニ)」・・
・・・・ 「9(キュウ)」を2回発声してもらうなら
M=20となる。このような初期設定を行った後、第2
図のシステムでに図示しないディスプレイ等を介して使
用者に対し単語音声の入力要求を1単語ごと(二膚順々
(2行なう。(例えば最初に「ゼロ」を入力要求する。
If registration is selected, counter 10 is pressed to create a dictionary.
3 is initialized (step 13 in FIG. 1) and switch C is selected. Although it is not shown in Figure 2, in the initial settings, the C double line is uttered repeatedly for registration and verification, so the counter that counts the number of times it is uttered must be cleared (N = 0), all voices. Set the number of inputs M. For example, the numbers "O (zero)", "l (ichi) j, r2 (ni)"...
...If you ask someone to say "9 (kyu)" twice, M = 20. After performing these initial settings, the second
In the system shown in the figure, the user is requested to input the sound of each word (two lines in sequence) via a display or the like (not shown) (for example, the user is requested to input "zero" first).

第1図ステップ14)使用者が単語の入力要求に従って
音声(「ゼロ」)を発声すると(第1図ステップ15)
、この入力音声は分析部1011ユおいて■変換、スペ
クトル分析処理等されて特徴パラメータの系列に変換さ
れる(第1図ステップ16)。この分析部lotは1例
えば入力音声が「ゼロ」であれば(/ゼ//ロ/)とい
う全体の特徴ノ(ラメータ及びその母音の部分(/xl
)の特徴パラメータの両方を検出する。この検出された
全体の特徴ノ(ラメータ及び母音の特徴パラメータはス
イッチB、Cを介して仮辞薔メモリー104に登録され
る(第1図ステップ18)。又1分析部101の指示に
よりカウンタ103の音声入力回数が1つ歩進されて(
第1図ステップ19)1次の単語音声の入力要求(例え
ば「イチ」)が行われる(第1図ステップ20)。
Step 14 in Figure 1) When the user utters a voice ("zero") in accordance with the word input request (Step 15 in Figure 1)
This input voice is subjected to conversion, spectrum analysis, etc. in the analysis unit 1011, and is converted into a series of characteristic parameters (step 16 in FIG. 1). This analysis part lot is 1. For example, if the input voice is "zero" (/ze//ro/), the overall feature (parameter and its vowel part (/xl
) to detect both feature parameters. The detected overall feature parameters and vowel feature parameters are registered in the provisional memory 104 via switches B and C (step 18 in FIG. 1). The number of voice inputs is incremented by one (
Step 19 in FIG. 1) A request for input of the first word voice (for example, "ichi") is made (Step 20 in FIG. 1).

こうしてカウンター103がM/2(全音声入力回数の
半分)になるまで仮辞書メモリー104に登録ビ行い(
m1図ステップ17 ) 、 M/21上(−なったら
スイッチがD側になり、今まで登録奪行なってきた仮辞
畜メモリーを用いて話者照合部105で新たに入力され
た音声C二対して照合を行なう(si図スステップ21
゜この新たに入力された音声C二対し、分析部lO1は
、 V2以上(二なったカウンタ103の指示(二より
母音部分のパラメータのみ検出する。
In this way, registration is performed in the temporary dictionary memory 104 until the counter 103 reaches M/2 (half of the total number of voice inputs).
m1 diagram step 17), on M/21 (when it becomes -, the switch is set to the D side, and the speaker collation unit 105 uses the temporary memory that has been used for registration until now to match the newly input voice C). (si diagram step 21)
゜For this newly inputted voice C2, the analysis unit lO1 detects only the parameters of the vowel part from V2 or higher (indication of the counter 103 which is lower than 2).

例えば10回目迄は使用者に「0(ゼロ) J −,4
・l(イチ)」、・・・・・・「9(ギュッ)」 を発
声させてその母音パラメータ(及び全体パラメータ)を
登録し、11回目から20回目までは再び使用者(二「
0(ゼロ)J、rl(イチ)」、・・・・・・ 「9(
キュウ)」を発声させて各々の母音部分パラメータ(r
!/口文らば/工/、「イテ」ならば/イ/)と既に登
録しである母音部分パラメータとの照合を順次行う。こ
の話者照合は例えば類似度計算や距離計算を用いて行う
。これらの照合結果は照合(二側用された(仮辞書に登
録された)母音部分パラメータ及び全体特徴パラメータ
と共C二判別部106へ送られる。
For example, up to the 10th time, the user will be asked "0 (zero) J -, 4
・The vowel parameters (and overall parameters) are registered by uttering ``l (ichi)'', ......``9 (gyu)'', and from the 11th to the 20th time, the user (2 ``
0 (zero) J, rl (ichi)", ... "9 (
``Kyuu)'' and select each vowel part parameter (r
! /Kobun Raba/Ku/, if it is "Ite", /i/) are sequentially compared with the already registered vowel part parameters. This speaker verification is performed using, for example, similarity calculation or distance calculation. These matching results are sent to the C2 discriminator 106 together with the vowel partial parameters and overall feature parameters that were used for matching (registered in the temporary dictionary).

tts1図ステラステップ22のような辞蕾登録中C二
おける話者照合及び判別部106への転送なN=Mにな
るまで行う(第1図ステップ23 、24 、25 )
tts1 Figure Stella Step 22 during dictionary registration C2 speaker verification and transfer to the discrimination unit 106 is performed until N=M (Figure 1 Steps 23, 24, 25)
.

もし音声入力の回数NがN−Mζニなったら、カウンタ
ー103の指示ζ二より判別部106でt′!、、話者
照合を行った結果の中で最も照合結果の正しかった(類
似度の大きかった)単語の音声特徴(母音及び全体のパ
ラメータ)を選んで(つまり「ゼロ」〜「キュウ」の中
で「ゼロ」が最も類似度が大きかったとすれば[ゼロJ
+二含まれる母音部分及び全体の特徴パラメータ)をI
D作成部107へ出力する【第1図ステップ26)。I
D作成部107ではこの結果を受けてIDを作成しく第
1図ステップ27、例えば送られてきた全体の特徴パラ
メータからIDを「ゼロ」とする)、本辞書メモリー1
08へ登録する(第1図ステップ28)と共に、使用者
にディスプレイ等を介してIDを出力する(m1図ステ
ップ29)。ここで本辞書メモリー 108へ登録され
るIDの形式として1例えばIDが「O(ゼロ)」であ
るとすると前述したよう(二ID作成部107へ送られ
た「ゼロ」という全体の特徴パラメータと母音部分のパ
ラメータを対として格納される。
If the number of voice inputs N becomes N-Mζ2, the determination unit 106 determines t' from the instruction ζ2 of the counter 103! ,, Select the phonetic features (vowels and overall parameters) of the word with the most correct matching result (high degree of similarity) among the results of speaker matching (that is, from "zero" to "kyu") If "zero" has the highest degree of similarity, then [zero J
+2 included vowel part and overall feature parameters) I
The data is output to the D creation unit 107 (step 26 in FIG. 1). I
In response to this result, the D creation unit 107 creates an ID (step 27 in FIG. 1, for example, sets the ID to "zero" from the received overall feature parameters), and this dictionary memory 1.
08 (step 28 in Figure 1), and outputs the ID to the user via a display or the like (step 29 in Figure m1). Here, as the format of the ID registered in the main dictionary memory 108, 1. For example, if the ID is "O (zero)", as mentioned above (2. The parameters of the vowel part are stored as a pair.

一方、上記方式ζ二よって作成されたIDを使用して話
者照合を行なう場合、使用者の指示C二より機能選択部
102のスイッチが入側にされる【第1図ステップ11
 、12 )。次(二側用者が暗記しているIDを発声
すると(第1図ステップ30)、この入力音声は上述し
た様(ユ分析部101で全体及び母音部分の特徴パラメ
ータに度換される(第1図ステップ31)。単語認識部
110は使用者がIDとして発声した単語全体の特徴パ
ラメータを入力し、これが本辞書メモ9−104 に予
め登録されているよりの全体の特徴パラメータと一致し
ているか否かを認識する(照合する)ものであり(第1
図ステップ32)、話者照合部109は入力音声の母音
部分の特徴パラメータがIDとして登録されている母音
部分の特徴パラメータと一致しているか否かを照合する
ものである(第1図ステップ33)。照合部illでは
これらの認識結果及び照合結果を用いて最終的な話者(
ID登録者)照合を行い(第1図ステップ34)、その
結果を出力する(第1図ステップ35)。
On the other hand, when performing speaker verification using the ID created by the above method ζ2, the switch of the function selection section 102 is turned on by the user's instruction C2 [Step 11 in FIG.
, 12). Next, when the second user utters the ID that he or she has memorized (Step 30 in Figure 1), this input voice is converted into feature parameters for the whole and vowel parts in the Yu analysis section 101 as described above. Step 31 in Figure 1).The word recognition unit 110 inputs the feature parameters of the entire word uttered by the user as an ID, and determines if this matches the feature parameters of the entire word registered in advance in the dictionary memo 9-104. It recognizes (verifies) whether or not there is a
Step 32 in FIG. 1), the speaker verification unit 109 verifies whether the characteristic parameters of the vowel part of the input speech match the characteristic parameters of the vowel part registered as an ID (Step 33 in Figure 1). ). The matching unit ill uses these recognition results and matching results to find the final speaker (
ID registrant) is verified (step 34 in FIG. 1), and the result is output (step 35 in FIG. 1).

上記実施例C二よれば1話者照合システムが予めシステ
ム自身にとって照合(認識)し易い複数の単語の中から
、各話者書二対して一番個人性(安定性)のある照合し
やすいIDを作るので、照合の正解率の向上を図ること
が可能である。
According to the above-mentioned Example C2, the 1-speaker matching system selects in advance from among a plurality of words that are easy for the system itself to match (recognize) the words that are the most personal (stable) and easy to match for each speaker's text 2. Since an ID is created, it is possible to improve the accuracy rate of verification.

次C二本発明の第2の実施例について図面を参照して説
萌する。第3図に第2の実施例のフa−テヤード、第4
図は第2の実施例のブロック図である。この実施例は話
者のIDを作成する際(二上述と同様に辞書登録の段階
では入力音声の全体の特徴パラメータ及び母音部分パラ
メータを仮辞書に登録し、入力音声を繰り返す時に単語
認識(全体の特徴パラメータ照合)と話者照合(母音部
分の特徴パラメータ照合)を行ない、この2つの結果か
らIDを作成して本辞書へ登録する方式である。
Next, a second embodiment of the present invention will be explained with reference to the drawings. FIG. 3 shows the front yard of the second embodiment, and the fourth
The figure is a block diagram of the second embodiment. In this embodiment, when creating a speaker ID (2), in the dictionary registration stage as described above, the entire feature parameters and vowel part parameters of the input speech are registered in the temporary dictionary, and when repeating the input speech, word recognition (entire This method performs speaker verification (vowel feature parameter verification) and speaker verification (vowel feature parameter verification), creates an ID from these two results, and registers it in this dictionary.

@31J、第4図において、第1図、第2図と異る点は
単語認識部112.単語の認識(第1図ステップ36)
が付謔された箇所である。
@31J, in FIG. 4, the difference from FIGS. 1 and 2 is the word recognition unit 112. Word recognition (Step 36 in Figure 1)
This is the place where it is mentioned.

上述した様に辞書登録が選択された場合には、話者より
入力された音声は分析部101で全体の特徴パラメータ
及び母音部分の特徴パラメータ(二変換されてこの対が
仮辞書メモ!J 104へ登録される。
When dictionary registration is selected as described above, the voice input by the speaker is converted into the overall feature parameter and the vowel part feature parameter (two conversions) in the analysis unit 101, and this pair is used as a temporary dictionary memo!J 104 will be registered to.

この登録がM/2回迄繰り返されると(全ての単語につ
いて音声入力が終わると)カウンタ103の指示により
スイッチがD側に切り換わり、以下の入力音声(全ての
単語(ユついて繰り返された音声)に対して話者照合部
105及び単語認識部112で照合が行われる。つまり
分析flbt旧では再度へカされた単語音声(二対して
、全体の特徴パラメータ及び母音部分の特徴パラメータ
を検出してFli」者を単語認識部112へ、後者を話
者照合部[05へ送る。
When this registration is repeated up to M/2 times (when voice input for all words is completed), the switch is switched to the D side according to instructions from the counter 103, and the following input voice (all words (voices repeated with y) ) is compared by the speaker matching unit 105 and the word recognition unit 112.In other words, in the old version of analysis flbt, the word voice (2) that has been recursed is detected by detecting the overall feature parameter and the feature parameter of the vowel part. The latter is sent to the word recognition section 112, and the latter is sent to the speaker verification section [05.

単語認識部112では、送られた全体の特徴パラメータ
と予め仮辞書メモ9−104に登録された全体の特徴パ
ラメータとを照合し、その照合結果を全体のパラメータ
と共に半別部106へ送る(第3図ステップ36〕。話
者照合部105では送られた母音部分パラメータと仮辞
書メモ!J −104に登録された母音部分パラメータ
とを照合し、その照合結果を母音部分パラメータと共に
判別部106へ送る(第3図ステップ21)。この処理
がM回迄繰り返された後、カウンター103の指示によ
り、判別部106は両方の照合結果が共に良カ1つに全
体パラメータ及び母音部分パラメータを選んでID作成
部107へ送る(@3図ステップ22 、26 )。こ
こで場合によっては2つの照合結果に重み付けをして判
別し、パラメータを選ぶことも可能である。こうしてL
D作成都107は選ばれた全体パラメータ及びその母音
パラメータを用いてIDを作成しこの2つのパラメータ
をIDとして本辞書メモリー108へ登録する。(第3
図ステップ27.28.例えば選ばれたパラメータが(
/ゼ//ロ/)及び(/工/)であればIDは「ゼロ」
と決定され、この2つのパラメータがIDのパラメータ
となる) 上記第2の実施例によれば、話者照合システムが話者の
入力音yH!二対して個人性(母音パラメータの照合率
)が一番有り、且つ単語認識(全体パラメータの照合)
の認識率が最も良いIDを作ることから、話者照合率が
より一層同上することができ、セキュリティi二対して
も問題が少なくなる。
The word recognition unit 112 compares the sent overall feature parameters with the overall feature parameters registered in advance in the temporary dictionary memo 9-104, and sends the matching results together with the overall parameters to the semi-separation unit 106 (the Step 36 in Figure 3].The speaker matching unit 105 matches the sent vowel part parameters with the vowel part parameters registered in the temporary dictionary memo!J-104, and sends the matching results together with the vowel part parameters to the discrimination unit 106. (Step 21 in FIG. 3). After this process is repeated M times, according to the instruction from the counter 103, the discriminator 106 selects the overall parameter and the vowel partial parameter if both matching results are good. It is sent to the ID creation unit 107 (@Steps 22 and 26 in Figure 3).Here, depending on the case, it is possible to weight the two matching results for discrimination and select parameters.In this way, the L
The D creation capital 107 creates an ID using the selected overall parameter and its vowel parameter, and registers these two parameters in the main dictionary memory 108 as the ID. (3rd
Figure Step 27.28. For example, if the selected parameter is (
/ze//ro/) and (/工/), the ID is "zero"
(These two parameters become the ID parameters.) According to the second embodiment, the speaker verification system uses the speaker's input sound yH! In contrast, it has the highest individuality (vowel parameter matching rate), and word recognition (overall parameter matching)
Since an ID with the highest recognition rate is created, the speaker verification rate can be further improved, and problems with security i2 are also reduced.

尚1本発明は上記実施例に限定されるものではない。例
えばID作成の際、IDの中で照合C二必要な部分以外
の部分が有る場合は、これを登録者に作成してもらって
もよい。又、入力音′声の特徴パラメータ検出や、照合
(認識)処理の方法は従−米より知られた種々の方法を
適宜採用すればよい。
Note that the present invention is not limited to the above embodiments. For example, when creating an ID, if there is a part other than the required verification part in the ID, the registrant may create this part. Furthermore, various methods known from Japan and the United States may be suitably employed as methods for detecting feature parameters of input speech and for collation (recognition) processing.

要するに本発明はその要旨を逸脱しない範囲で種々変形
して実施することができる。
In short, the present invention can be implemented with various modifications without departing from the gist thereof.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の@lの実施例のフロー丙、第2図は本
発明の第1のブロック図、第3図は本発明の第2の実施
例のフロー図、第4図は本発明の第2の実施例のブロッ
ク図である。 101・・・分析部     102・・・機能選択部
103・・・カウンター   104・・・仮辞誓メモ
リー105・・・話者照合部   106・・・判別部
107・・・ID作成都   108・・・本辞也メモ
リー109・・・話者照合部   110・・・単語認
識部111・・・照合部     112・・・”単語
誌織部代理人 弁理士 則 近 慝 佑 (ほか1名)
Figure 1 is a flowchart of the @l embodiment of the present invention, Figure 2 is the first block diagram of the present invention, Figure 3 is a flowchart of the second embodiment of the present invention, and Figure 4 is the flowchart of the present invention. FIG. 3 is a block diagram of a second embodiment of the invention. 101...Analysis unit 102...Function selection unit 103...Counter 104...Temporary oath memory 105...Speaker verification unit 106...Discrimination unit 107...ID creation capital 108...・Book dictionary memory 109...Speaker collation unit 110...Word recognition unit 111...Collation unit 112..." Vocabulary magazine Oribe agent Patent attorney Nori Chika Keisuke (and 1 other person)

Claims (3)

【特許請求の範囲】[Claims] (1)話者の発声した複数の単語音声に対して各々の音
声特徴を検出する検出手段と、この検出手段より検出さ
れた各々の音声特徴を記憶する記憶手段と、前記話者が
再度発声した前記複数の単語音声に対して前記検出手段
が再度検出した各々の音声特徴と前記記憶手段により記
憶された各々の音声特徴とを各々照合する照合手段と、
この照合手段による照合結果に基いて前記話者のIDを
決定する決定手段とを具備したことを特徴とする話者照
合方式。
(1) A detection means for detecting each voice feature of a plurality of word sounds uttered by a speaker; a storage means for storing each voice feature detected by the detection means; collation means for collating each voice feature re-detected by the detection means for the plurality of word sounds and each voice feature stored by the storage means;
and determining means for determining the ID of the speaker based on the verification result by the verification means.
(2)照合手段は前記話者が再度発声した前記複数の単
語音声を認識するとともに各々の音声特徴を照合し、前
記決定手段は前記照合手段による認識結果及び照合結果
に基いてIDを決定することを特徴とする特許請求の範
囲第1項記載の話者照合方式。
(2) The collation means recognizes the plurality of word sounds uttered again by the speaker and collates the voice characteristics of each, and the determination means determines an ID based on the recognition result and the collation result by the collation means. A speaker verification method according to claim 1, characterized in that:
(3)検出手段は話者の発声した単語音声に対して音声
特徴を検出し、照合手段は前記音声特徴が前記決定手段
により決定されたIDの音声特徴と一致しているか否か
により話者照合を行うことを特徴とする特許請求の範囲
第1項記載の話者照合方式。
(3) The detecting means detects voice features from the word sounds uttered by the speaker, and the matching means determines whether or not the voice features match the voice features of the ID determined by the determining means. A speaker verification method according to claim 1, characterized in that verification is performed.
JP59235070A 1984-11-09 1984-11-09 Speaker collation system Granted JPS61114298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP59235070A JPS61114298A (en) 1984-11-09 1984-11-09 Speaker collation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP59235070A JPS61114298A (en) 1984-11-09 1984-11-09 Speaker collation system

Publications (2)

Publication Number Publication Date
JPS61114298A true JPS61114298A (en) 1986-05-31
JPH0441837B2 JPH0441837B2 (en) 1992-07-09

Family

ID=16980618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP59235070A Granted JPS61114298A (en) 1984-11-09 1984-11-09 Speaker collation system

Country Status (1)

Country Link
JP (1) JPS61114298A (en)

Also Published As

Publication number Publication date
JPH0441837B2 (en) 1992-07-09

Similar Documents

Publication Publication Date Title
US6356868B1 (en) Voiceprint identification system
WO2016092807A1 (en) Speaker identification device and method for registering features of registered speech for identifying speaker
JPS603699A (en) Adaptive automatically dispersing voice recognition
JP6682007B2 (en) Electronic device, electronic device control method, and electronic device control program
US7289957B1 (en) Verifying a speaker using random combinations of speaker's previously-supplied syllable units
JPH0225517B2 (en)
US7085718B2 (en) Method for speaker-identification using application speech
JP4245948B2 (en) Voice authentication apparatus, voice authentication method, and voice authentication program
JP4440414B2 (en) Speaker verification apparatus and method
JP2001265385A (en) Speaker recognizing device
JPS61114298A (en) Speaker collation system
KR101925253B1 (en) Apparatus and method for context independent speaker indentification
JP2000099090A (en) Speaker recognizing method using symbol string
JP3818063B2 (en) Personal authentication device
JP2001350494A (en) Device and method for collating
JP2980382B2 (en) Speaker adaptive speech recognition method and apparatus
JP3919314B2 (en) Speaker recognition apparatus and method
JP4236502B2 (en) Voice recognition device
US8688452B2 (en) Automatic generation of distractors for special-purpose speech recognition grammars
JP3515143B2 (en) Pattern registration device
JPH02300800A (en) Speech recognition device
JPS5934595A (en) Voice recognition processing system
JPS60107192A (en) Pattern recognizing device
JPH0792987A (en) Question sentence contents constitution system
JPS59121398A (en) Voice recognition system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees