JP2000181490A - Method and device for user collation - Google Patents

Method and device for user collation

Info

Publication number
JP2000181490A
JP2000181490A JP10360386A JP36038698A JP2000181490A JP 2000181490 A JP2000181490 A JP 2000181490A JP 10360386 A JP10360386 A JP 10360386A JP 36038698 A JP36038698 A JP 36038698A JP 2000181490 A JP2000181490 A JP 2000181490A
Authority
JP
Japan
Prior art keywords
unit
user
voice
input
input unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10360386A
Other languages
Japanese (ja)
Other versions
JP3835032B2 (en
Inventor
Shoji Hayakawa
昭二 早川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP36038698A priority Critical patent/JP3835032B2/en
Publication of JP2000181490A publication Critical patent/JP2000181490A/en
Application granted granted Critical
Publication of JP3835032B2 publication Critical patent/JP3835032B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enable only a registered regular user to use a device. SOLUTION: An identifier input part 1 receives the individual identifier that a user shows, reads in a symbol sequence corresponding to each registered individual identifier in a storage part 6 and sends the symbol sequence to an index input part 2. The index input part 2 selects the voice parameter corresponding to the index that the user has shown this time from the symbol sequence received from the identifier input part 1 and passes it to a collation part 4. The user performs vocal input corresponding to the index that the user has shown. A vocal input part 3 finds a voice parameter from the voice of the user which has been inputted this time and sends the voice parameter to the collation part 4. The collation part 4 calculates the similarity between the voice parameter of the current input voice of the user found by the voice input part 3 and the voice parameter which has been passed from the index input part 2 and registered, and a decision part 5 judges the authenticity of the user.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、利用者を一定の人
物に限定する装置における利用者の確認方法に係り、予
め登録してある音声パラメータを用いて、利用者が登録
された人物か否かを操作時の音声によって判定する利用
者照合方法および利用者照合装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for confirming a user in an apparatus for limiting the user to a certain person, and using a voice parameter registered in advance to determine whether the user is a registered person. The present invention relates to a user collation method and a user collation device for determining whether or not there is a sound at the time of operation.

【0002】[0002]

【従来の技術】従来、利用者を限定する装置の利用者の
正当性の判断の手法として、利用者照合のための秘密記
号列(パスワード)が広く使われて来たが、より確実な
方法として利用者の音声による判断を併用する方法があ
る。しかし、音声による判断は、音声の同一性のみを判
断基準にすると、他人が正当利用者(本人)の音声を密
かにテープレコーダで録音して、その再生音を用いて、
照合システムを突破することが可能であった。
2. Description of the Related Art Conventionally, a secret symbol string (password) for user verification has been widely used as a method of determining the validity of a user of an apparatus for limiting users, but a more reliable method has been used. There is a method in which judgment based on a user's voice is used together. However, if the judgment based on voice is based only on the identity of the voice, another person secretly records the voice of the authorized user (the person) with a tape recorder, and uses the reproduced sound to
It was possible to break through the collation system.

【0003】[0003]

【発明が解決しようとする課題】従って、照合システム
の信頼性が著しく低下することになる。本発明は、照合
の信頼性を上げるためには、複数の記号列の音声を登録
するとともにそれぞれの記号列にインデクスを与え、照
合時にそのインデックスとそのインデックスに対応する
記号列を入力することによって、照合システムの信頼性
を上げることを目的とする。
Therefore, the reliability of the collation system is significantly reduced. According to the present invention, in order to increase the reliability of matching, by registering voices of a plurality of symbol strings, assigning an index to each symbol string, and inputting the index and the symbol string corresponding to the index at the time of matching. And to improve the reliability of the collation system.

【0004】[0004]

【課題を解決するための手段】上記問題点を解決するた
めに、事前に利用者毎に登録された個人識別子とインデ
ックスを伴う記号列である登録事項の少なくとも一つに
対応する内容を参照するための参照方法を指定する第1
の情報と、前記第1の情報に基づいて指定されるべき第
2の情報とが、利用者から入力されたことに応答して、
前記第2の情報と、前記第1の情報に基づき前記登録事
項に対応して指定される第3の情報とを比較することに
より、前記第2の情報の入力が正当な利用者によってな
されたか否かを判断する手段を用いる。以下に本手段を
具体的に示す。
In order to solve the above-mentioned problems, contents corresponding to at least one of registered items which is a symbol string accompanied by an index and a personal identifier registered in advance for each user are referred to. First to specify the reference method for
And the second information to be designated based on the first information are input by the user,
By comparing the second information with the third information specified corresponding to the registration item based on the first information, whether the input of the second information is performed by a valid user Means for judging whether or not it is used is used. Hereinafter, this means will be specifically described.

【0005】図1は、本発明の原理図である。識別子入
力部1は、利用者の個人識別子を受けとるものである。
インデックス入力部2は、利用者が入力する登録記号列
のインデックスを受けとるものである。音声入力部3
は、利用者の音声入力を受けとるものであるともに利用
者が入力する音声を後述する照合部4で用いる音声パラ
メータに変換するものである。照合部4は、入力された
音声パラメータと選択された登録記号列の音声パラメー
タもしくは話者モデルとの類似度を計算するものであ
る。判定部5は、入力された音声が個人識別子の本人か
否かを判定し、照合結果を出力するものである。記憶部
6は、テンプレート等を保存するものである。
FIG. 1 is a diagram showing the principle of the present invention. The identifier input unit 1 receives a personal identifier of a user.
The index input unit 2 receives an index of a registered symbol string input by a user. Voice input unit 3
Is for receiving a user's voice input and for converting a voice input by the user into a voice parameter used by the matching unit 4 described later. The matching unit 4 calculates the similarity between the input speech parameter and the speech parameter of the selected registered symbol string or the speaker model. The determination unit 5 determines whether or not the input voice is the identity of the personal identifier, and outputs a verification result. The storage unit 6 stores templates and the like.

【0006】まず、利用者から個人識別子が示される
と、識別子入力部1はその個人識別子を受け取るととも
に、予め記憶部6に登録してある識別子ごとに対応する
記号列の音声パラメータ(テンプレート)あるいは話者
モデル(例えば、HiddenMarkov Mode
l)から、今回入力された識別子に対応するものを読み
込みインデックス入力部2へ送る。例えば、図1中の記
憶部6には今回入力された識別子に対しては、「あおも
り,とうきょう,おおさか,しまね,みやざき」の5つ
の音声パラメータがそれぞれ「1,2,3,4,5」の
各インデックス(登録記号列のインデックス)と共にテ
ンプレートとして登録されている。
First, when a personal identifier is indicated by a user, the identifier input unit 1 receives the personal identifier, and also stores a voice parameter (template) of a symbol string corresponding to each identifier registered in advance in the storage unit 6 or a template. Speaker model (e.g., HiddenMarkov Mode
From 1), the one corresponding to the identifier input this time is read and sent to the index input unit 2. For example, the storage unit 6 in FIG. 1 stores five voice parameters “Aomori, Tokyo, Osaka, Shimane, Miyazaki” for the identifier input this time as “1, 2, 3, 4, 5”. Is registered as a template together with each index (index of a registered symbol string).

【0007】続いて、利用者から登録記号列のインデッ
クスの何れか(複数でもよい)が示されると、インデッ
クス入力部2では、識別子入力部1から受けとった記号
列の中から今回利用者から示されたインデックスに対応
する音声パラメータあるいは話者モデルを選択し、照合
部4に渡す。
[0007] Subsequently, when the user indicates any (or a plurality of) indexes of the registered symbol string, the index input unit 2 displays the index from the symbol string received from the identifier input unit 1 from the user this time. The voice parameter or the speaker model corresponding to the index thus selected is selected and passed to the matching unit 4.

【0008】最後に、利用者は自身が示したインデック
スに対応した音声入力を音声入力部3から行い、音声デ
ータのディジタル変換を行う。音声入力部3はディジタ
ル変換されて利用者の音声データから音声パラメータを
求め、それを照合部4へ送る。照合部4では音声入力部
3で求められた今回入力された音声の音声パラメータと
インデックス入力部2から渡された登録されていた音声
パラメータとの類似度あるいは入力された音声パラメー
タが選択された話者モデルから生成される確率(尤度)
を計算する。
[0008] Finally, the user performs a voice input corresponding to the index indicated by the user from the voice input unit 3 and performs digital conversion of the voice data. The voice input unit 3 obtains voice parameters from the user's voice data after the digital conversion, and sends them to the matching unit 4. The matching unit 4 determines the similarity between the voice parameter of the currently input voice obtained by the voice input unit 3 and the registered voice parameter passed from the index input unit 2 or the input speech parameter. Probability (likelihood) generated from the model
Is calculated.

【0009】判定部5では、照合部4で計算された類似
度あるいは尤度が、決められた閾値を越えていれば、利
用者は個人識別子の本人であると認め、決められた閾値
以下であれば、利用者は詐称者であると判定し、その結
果を出力する。
[0009] If the similarity or likelihood calculated by the collating unit 4 exceeds a predetermined threshold, the judging unit 5 recognizes that the user is the person of the personal identifier, and if the similarity or the likelihood is lower than the predetermined threshold. If so, the user determines that the user is an impostor and outputs the result.

【0010】なお、以上では利用者が音声を入力すると
して説明したが、音声に替えて何らかの発音手段を用い
て音響を入力をすることでも、同様の効果が期待できる
場合がある。このため、前記音声パラメータ、前記音声
入力部はこれらの音響入力にも対応可能なものを含むと
する。同様に、以下で用いる音声なる語はより広く音響
の意味を含むものとする。
Although the above description has been made on the assumption that the user inputs voice, the same effect may be expected by inputting sound using some sound generating means instead of voice. For this reason, it is assumed that the voice parameters and the voice input unit include those capable of responding to these sound inputs. Similarly, the term voice, as used below, shall have a broader meaning of sound.

【0011】[0011]

【発明の実施の形態】以下の説明では、利用者による音
声入力という行為が含まれるので、必要に応じて利用者
を話者と表現することにする。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description, since the act of voice input by a user is included, the user will be expressed as a speaker as necessary.

【0012】図2は、本発明の実施の形態1を説明する
図である。識別子入力部1の一要素である個人識別子入
力部11は、利用者(システム或いは装置の利用者)の
個人識別子を受けとるものである。同じく識別子入力部
1の一要素であるテンプレート読み込み部12Aは、記
憶部6に予め登録されている登録話者のテンプレートか
ら今回入力された識別子に対応する話者のテンプレート
を読み込み、後述するテンプレート並べ変え部22Aに
送るものである。
FIG. 2 is a diagram for explaining Embodiment 1 of the present invention. A personal identifier input unit 11, which is one element of the identifier input unit 1, receives a personal identifier of a user (a user of a system or an apparatus). A template reading unit 12A, which is also an element of the identifier input unit 1, reads a speaker template corresponding to the identifier input this time from a registered speaker template registered in the storage unit 6 in advance, and stores a template arrangement described later. This is sent to the changing unit 22A.

【0013】インデックス入力部2の一要素である順序
入力部21Aは、記号列の入力する順序を受けとるもの
である。同じくインデックス入力部2の一要素であるテ
ンプレート並べ変え部22Aは、記号列の入力する順序
に従ってテンプレートを並べ変えるものである。
An order input unit 21A, which is an element of the index input unit 2, receives the order of input of a symbol string. The template rearranging unit 22A, which is also an element of the index input unit 2, rearranges the templates in accordance with the input order of the symbol strings.

【0014】照合部4の一要素である記号列分割部41
Aは、音声入力部3で求められた入力音声の音声パラメ
ータを記号列に分割するものである。同じく照合部4の
一要素である記号列照合部42Aは、記号列分割部41
Aで分割された記号列の音声パラメータを、テンプレー
ト並べ変え部22Aで並べ変えられたテンプレートと記
号毎に類似度を計算し総合類似度を後述する判定部5に
渡すものである。
A symbol string dividing unit 41 which is an element of the matching unit 4
A divides the voice parameters of the input voice obtained by the voice input unit 3 into symbol strings. The symbol string matching unit 42A, which is also an element of the matching unit 4, includes a symbol string dividing unit 41.
The voice parameter of the symbol string divided by A is calculated for each symbol with the template rearranged by the template rearranging unit 22A, and the overall similarity is passed to the determination unit 5 described later.

【0015】判定部5は、閾値に従って本人か否かを判
定するものである。記憶部6は、テンプレートを保存す
るものである。
The judging section 5 judges whether or not the user is himself / herself according to a threshold value. The storage unit 6 stores a template.

【0016】以下では具体例を用いて本実施形態の説明
を行う。各登録話者は、それぞれ登録時に、名前(テキ
ストデータ)と暗証番号(音声、音声パラメータ)を登
録してあるものとする。登録内容は記憶部6に格納され
ている。ここでは、「早川:6732、山田:054
3、鈴木:7332」が登録されているものとする。
Hereinafter, the present embodiment will be described using a specific example. It is assumed that each registered speaker has registered a name (text data) and a personal identification number (voice, voice parameter) at the time of registration. The registered contents are stored in the storage unit 6. Here, "Hayakawa: 6732, Yamada: 054
3, Suzuki: 7332 "is registered.

【0017】(1) 利用者はまず自分が誰であるかをシス
テムに知らせるために、個人を特定する情報「個人識別
子」を識別子入力部1に入力する。入力の形態は会員番
号や名前などをテンキーやカードで読み込ませたり、音
声認識で認識させてもよい。
(1) First, a user inputs information “personal identifier” for specifying an individual to the identifier input section 1 to inform the system of who the user is. The form of the input may be such that the member number or name is read using a numeric keypad or a card, or may be recognized by voice recognition.

【0018】(2) 個人識別子入力部11は、システム利
用者の個人識別子を受けとる。この例では「早川(また
は対応する識別子番号など)」が入力されている。テン
プレート読み込み部12Aは、予め登録されている登録
者のテンプレートから、入力された識別子に対応する話
者のテンプレート(ここでは暗証番号の音声パラメー
タ)を読み込み、テンプレート並べ変え部22Aに送る
(個人識別子を送る必要はない)。
(2) The personal identifier input section 11 receives the personal identifier of the system user. In this example, "Hayakawa (or the corresponding identifier number or the like)" is input. The template reading unit 12A reads a speaker template (here, a voice parameter of a personal identification number) corresponding to the input identifier from a pre-registered registrant template, and sends it to the template reordering unit 22A (personal identifier). No need to send).

【0019】(3) 次に利用者は登録してある暗証番号の
入力する順番「入力順序」をインデックス入力部2に入
力する。この例では「4213」と入力する、すなわ
ち、1番目に暗証番号の4番目の文字を、2番目には暗
証番号の2番目の文字を、3番目には暗証番号の1番目
の文字を、4番目には暗証番号の3番目の文字をそれぞ
れ入力することを示す。
(3) Next, the user inputs the input order of the registered personal identification numbers “input order” to the index input unit 2. In this example, "4213" is input, that is, the first character of the password is the first character, the second character of the password is second, the first character of the password is third, The fourth indicates that the third character of the personal identification number is to be input.

【0020】(4) 順序入力部21Aは、記号列の入力す
る順序を受けとる。テンプレート並べ変え部22Aは、
記号列の入力する順序に従って、暗証番号テンプレート
を並べ変える。この例では「6732」だった文字(数
字)の並びを「4213」という順序で並べ変えて「2
763」という文字(数字)の並びにする。
(4) The order input section 21A receives the order of input of the symbol string. The template reordering unit 22A
The security code templates are rearranged according to the order in which the symbol strings are input. In this example, the arrangement of the characters (numbers) that was “6732” is rearranged in the order of “4213” to “2
763 ".

【0021】(5) 最後に利用者は自分の暗証番号を入力
した順序に従って入れ換えた番号を発声する。今回の例
では「4213」という順番を入力したので、「673
2」という文字列の暗証番号を「2763」に並べ変え
て音声入力する。
(5) Finally, the user utters the number exchanged according to the order in which his / her personal identification number was input. In this example, the order “4213” was entered, so “673”
The personal identification number of the character string "2" is rearranged to "2763" and voice input is performed.

【0022】(6) 音声入力部3は、音声入力された音声
(入力音声)の音声パラメータを計算する。記号列分割
部41Aは、音声入力部3で求められた入力音声の音声
パラメータを、単語列(数字列)に分割する。記号列照
合部42Aは、記号列分割部41Aで分割された記号列
の音声パラメータを、テンプレート並べ変え部22Aで
並べ変えられたテンプレートと記号毎に距離または類似
度を計算し、その値を判定部5に渡す。判定部5は、照
合部4中の記号列照合部42Aから渡された距離または
尤度がある基準を上回っていれば利用者は本人であると
みなし、下回っていれば利用者は詐称者であるとして、
その結果を出力する。
(6) The voice input unit 3 calculates the voice parameters of the voice input (input voice). The symbol string division unit 41A divides the speech parameters of the input speech obtained by the speech input unit 3 into word strings (numerical strings). The symbol string collating unit 42A calculates the distance or similarity of each of the voice parameters of the symbol string divided by the symbol string dividing unit 41A and the template rearranged by the template rearranging unit 22A, and determines the value. Hand over to Part 5. The judging unit 5 regards the user as an individual if the distance or likelihood passed from the symbol string collating unit 42A in the collating unit 4 exceeds a certain criterion. As there are
Output the result.

【0023】図3は、本発明の実施の形態2を説明する
図である。識別子入力部1の一要素である個人識別子入
力部11は、利用者の個人識別子を受けとる。同じく識
別子入力部1の一要素である数字テンプレート読み込み
部12Bは、予め登録されている登録話者の数字テンプ
レートから、入力された識別子の話者に対応する数字テ
ンプレートを読み込み、後述する数字テンプレート選択
部23に渡す。
FIG. 3 is a diagram for explaining Embodiment 2 of the present invention. A personal identifier input unit 11, which is one element of the identifier input unit 1, receives a personal identifier of a user. A number template reading unit 12B, which is also an element of the identifier input unit 1, reads a number template corresponding to the speaker of the input identifier from the number templates of the registered speakers registered in advance, and selects a number template to be described later. Hand over to section 23.

【0024】インデックス入力部2の一要素である演算
規則入力部21Bは、数字列の演算規則を受けとるよう
になっている。同じくインデックス入力部2の一要素で
ある演算部22Bは、暗証番号である数字列を入力され
た演算規則に従って演算し、後述する数字テンプレート
選択部23に渡す。数字テンプレート選択部23は、演
算部22Bの演算結果に従って、数字テンプレートを選
択する。41Bは数字列分割部で、3の音声入力部で求
められた入力音声の音声パラメータを、数字の桁ごとに
分割する。42Bは数字列照合部で、41Bで分割され
た数字列の音声パラメータを、数字テンプレート選択部
23から渡された数字列テンプレートと数字毎に類似度
を計算し、総合類似度を後述する判定部5に渡す。判定
部5は、閾値に従って本人か否かを判定する。
The operation rule input unit 21B, which is an element of the index input unit 2, receives an operation rule for a numeric string. Similarly, an operation unit 22B, which is an element of the index input unit 2, operates a numeric string which is a personal identification number in accordance with the input operation rule, and passes it to a numeric template selection unit 23 described later. The number template selection unit 23 selects a number template according to the calculation result of the calculation unit 22B. Reference numeral 41B denotes a numeral string dividing unit that divides the voice parameters of the input voice obtained by the voice input unit 3 into digit digits. Reference numeral 42B denotes a numeric string collating unit, which calculates the similarity of the voice parameters of the numeric string divided by 41B with the numeric string template passed from the numeric template selecting unit 23 for each numeral, and determines the overall similarity in a later-described determination unit. Pass to 5. The determination unit 5 determines whether or not the user is a person according to the threshold.

【0025】以下では具体例を用いて本実施形態の説明
を行う。各登録話者は、それぞれ登録時に、名前と暗証
番号(テキストデータ)と0〜10,20,30までの
数字データ(音声、音声パラメータ)を登録してあるも
のとする。なお本例では、演算は加算と減算の組合せを
想定しているが、演算結果がマイナスにならないものと
して、各桁が0から9までの4桁の数字の加減算結果は
0から36の範囲になるとしている。演算結果がマイナ
スになる場合を想定すると、マイナスをも音声登録する
必要がある。登録内容は記憶部6に格納されている。こ
こで登録内容は、「早川は上記数字の音声データと暗証
番号6732、山田は上記数字の音声データと暗証番号
0543、鈴木は上記数字の音声データと暗証番号73
32」が登録されているものとする。
The present embodiment will be described below using a specific example. It is assumed that each registered speaker has registered a name, a password (text data) and numerical data from 0 to 10, 20, and 30 (voice, voice parameters) at the time of registration. In this example, the operation is assumed to be a combination of addition and subtraction. However, assuming that the operation result is not negative, the addition / subtraction result of the four-digit number of each digit from 0 to 9 is in the range of 0 to 36. It is going to be. If it is assumed that the calculation result is negative, it is necessary to register the negative voice. The registered contents are stored in the storage unit 6. Here, the registered contents are as follows: "Hayakawa is the voice data and the password No. 6732, Yamada is the voice data and the password No. 0543, and Suzuki is the voice data and the password No. 73.
32 "is registered.

【0026】(1) まず利用者は自分が誰であるかをシス
テムに知らせるため、個人識別子を入力する。この例で
は早川が入力されたとする。
(1) First, a user inputs a personal identifier to inform the system of who he or she is. In this example, it is assumed that Hayakawa has been input.

【0027】(2) 個人識別子入力部11は、利用者の個
人識別子を受けとる。この例では入力結果から、「話者
(利用者)=早川」の関係となる。数字テンプレート読
み込み部12Bは、予め登録されている登録話者のデー
タベースから、入力された識別子の話者に対応する0〜
10,20,30の数字のテンプレートと暗証番号を読
み込み、数字テンプレート選択部23に渡す。ここで
「早川」の暗証番号(テキストデータ)と0〜10,2
0,30の数字テンプレート(音声パラメータ)が読み
込まれている。
(2) The personal identifier input section 11 receives a personal identifier of the user. In this example, the relationship “speaker (user) = Hayakawa” is obtained from the input result. The number template reading unit 12B reads 0 to 0 corresponding to the speaker of the input identifier from a database of registered speakers registered in advance.
The numeric template and the personal identification number of 10, 20, and 30 are read and passed to the numeric template selection unit 23. Here, the password (text data) of "Hayakawa" and 0-10,2
Numeric templates (voice parameters) of 0 and 30 are read.

【0028】(3) 次に利用者は演算規則を入力する。今
回の例では「++−」(プラスプラスマイナス)と入力
されたとする。
(3) Next, the user inputs an operation rule. In this example, it is assumed that "++-" (plus plus minus) is input.

【0029】(4) 演算規則入力部21Bは、数字の演算
規則を受けるようになっている。この例では「++−」
を受けとる。演算部22Bは、暗証番号を入力された演
算規則に従って演算し、演算結果を後述する数字テンプ
レート選択部23に渡す。ここでは入力された演算規則
が「++−」なので、「6+7+3−2=14」を渡
す。数字テンプレート選択部23は、演算結果に従って
数字テンプレートを選択する。演算結果が「14」なの
で、「10」と「4」を並べる。
(4) The operation rule input section 21B receives a number operation rule. In this example, "++-"
To receive. Arithmetic unit 22B calculates the personal identification number according to the input arithmetic rules, and passes the arithmetic result to numeric template selecting unit 23, which will be described later. Here, since the input operation rule is "++-", "6 + 7 + 3-2 = 14" is passed. The number template selection unit 23 selects a number template according to the calculation result. Since the calculation result is "14", "10" and "4" are arranged.

【0030】(5) 最後に、利用者は自分が入力した演算
規則に従って暗証番号に対して計算し発声する。今回の
例では暗証番号が「6732」入力演算規則が「++
−」なので、「14(じゅうよん)」と発声する。
(5) Finally, the user calculates and utters the personal identification number in accordance with the operation rule input by the user. In this example, the password is “6732” and the input calculation rule is “++
"-", So say "14".

【0031】(6) 数字列分割部41Bは、音声入力部3
で求められた入力音声の音声パラメータを数字毎に分割
する。数字列照合部42Bは、数字列分割部41Bで分
割された数字列の音声パラメータを数字列テンプレート
選択部23から渡された数字列テンプレートと数字毎に
類似度を計算し、総合類似度を判定部5に渡す。判定部
5は、閾値にしたがって利用者が本人か否かを判定す
る。
(6) The digit string dividing section 41B
The voice parameters of the input voice determined by the above are divided for each number. The number string collating unit 42B calculates the similarity of each of the voice parameters of the number string divided by the number string dividing unit 41B with the number string template passed from the number string template selecting unit 23 for each number, and determines the overall similarity. Hand over to Part 5. The determination unit 5 determines whether or not the user is the user according to the threshold.

【0032】図4は、本発明の実施の形態3を説明する
図である。識別子入力部1の一要素である個人識別子入
力部11は、利用者の個人識別子を受けとる。同じく識
別子入力部1の一要素であるテンプレート読み込み部1
2Aは、予め登録されている登録話者のテンプレートか
ら、入力された識別子に対応する話者のテンプレートを
読み込み、後述するテンプレート変形部22Cに送る。
インデックス入力部2の一要素である変形規則番号入力
部21Cは、複数ある変形規則候補のうち、入力される
記号列の変形規則についての情報を受け取り、後述する
テンプレート変形部22Cに渡す。同じくインデックス
入力部2の一要素であるテンプレート変形部22Cは、
入力された変形規則の情報に従って、記号列テンプレー
トを変形する。照合部4は、音声入力部3で求められて
入力音声の音声パラメータと、テンプレート変形部22
Cで変形されたテンプレートとの類似度を計算し、総合
類似度を後述する判定部5に渡す。判定部5は、閾値に
従って利用者が本人か否かを判定する。
FIG. 4 is a diagram for explaining Embodiment 3 of the present invention. A personal identifier input unit 11, which is one element of the identifier input unit 1, receives a personal identifier of a user. Template reading unit 1 which is also an element of identifier input unit 1
2A reads the template of the speaker corresponding to the input identifier from the template of the registered speaker registered in advance, and sends the template to the template deforming unit 22C described later.
The transformation rule number input unit 21C, which is an element of the index input unit 2, receives information on transformation rules of an input symbol string from among a plurality of transformation rule candidates, and passes the information to a template transformation unit 22C described later. The template transformation unit 22C, which is also an element of the index input unit 2,
The symbol string template is transformed according to the inputted information on the transformation rule. The collation unit 4 includes a voice parameter of the input voice obtained by the voice input unit 3 and a template transformation unit 22.
The similarity with the template deformed in C is calculated, and the overall similarity is passed to the determination unit 5 described later. The determination unit 5 determines whether or not the user is the user according to the threshold.

【0033】以下では具体例を用いて本実施形態の説明
を行う。各登録話者は、それぞれ登録時に、名前と暗証
番号(テキストデータ)と0〜9数字テンプレート(音
声、音声パラメータ)が登録してあるものとする。ま
た、暗証番号に対する変換規則のテーブル一覧を利用者
が持つ、あるいはシステムが表示するなどして、変換規
則と対応する番号(インデックス)が利用者に予め知ら
されていることとする。ここで、変換テーブルの内容は
「1:暗証番号の各桁に1を加える、2:暗証番号の各
桁から1を引く、3:暗証番号の3桁目を抜く、4:暗
証番号の1桁目と3桁目を入れ換える」であるとする。
また、登録者に関する登録内容は、前記本発明の実施形
態2の例と同じであるとする。変換テーブルは、図4で
は図示していないが、ここではテンプレート変換部内に
持っているものとする。
The present embodiment will be described below using a specific example. At the time of registration, it is assumed that each registered speaker has registered a name, a password (text data), and a 0-9 numeral template (voice, voice parameters). Further, it is assumed that the user has been notified of the number (index) corresponding to the conversion rule in advance by the user having a table list of the conversion rule for the personal identification number or displaying the table by the system. Here, the contents of the conversion table are as follows: "1: add 1 to each digit of the password, 2: subtract 1 from each digit of the password, 3: remove the third digit of the password, 4: add 1 to the password. Swap the third and third digits. "
Further, it is assumed that the registered contents regarding the registrant are the same as those in the example of the second embodiment of the present invention. Although the conversion table is not shown in FIG. 4, it is assumed here that the conversion table is provided in the template conversion unit.

【0034】(1) まず利用者は自分が誰であるかをシス
テムに知らせるため、個人識別子を入力する。この例で
は「早川(6732)」が入力されたとする。
(1) First, a user inputs a personal identifier to inform the system of who he is. In this example, it is assumed that “Hayakawa (6732)” has been input.

【0035】(2) 個人識別子入力部11は、システム利
用者の個人識別子を受けとる。この例では入力から「話
者=早川」である。テンプレート読み込み部12Aは、
予め登録されている登録話者の暗証番号とテンプレート
のデータベースから、入力された識別子に対応する話者
の暗証番号(テキストデータ)とテンプレート(音声パ
ラメータ)を読み込み、インデックス入力部2に送る。
(2) The personal identifier input section 11 receives the personal identifier of the system user. In this example, “speaker = Hayakawa” from the input. The template reading unit 12A
The speaker's password (text data) and template (speech parameter) corresponding to the input identifier are read from the database of the registered speaker's password and template registered in advance, and sent to the index input unit 2.

【0036】(3) 次に、利用者は変換テーブルから変換
規則を選び、その番号(インデックス)を入力する。こ
の例では、2番の「暗証番号の各桁から1引く」を入力
するものとする。
(3) Next, the user selects a conversion rule from the conversion table and inputs its number (index). In this example, it is assumed that the user inputs "No. 1 is subtracted from each digit of the password".

【0037】(4) 変形規則番号入力部21Cは、複数あ
る変形規則候補のうち、入力される記号列の変形規則に
ついての情報を受け取り、後述するテンプレート変形部
22Cに渡す。この例では変形規則「2」を受けとった
としている。テンプレート変形部22Cは、入力された
変形規則の情報に従って、システム側も変換テーブルを
参照して、数字列テンプレートを変形する。この例では
暗証番号「6732」の各桁から1引くので「562
1」と並べる。
(4) The transformation rule number input section 21C receives information on transformation rules of an input symbol string from among a plurality of transformation rule candidates, and passes the information to a template transformation section 22C described later. In this example, it is assumed that the transformation rule “2” has been received. The template deforming unit 22C also deforms the numeric string template by referring to the conversion table on the system side in accordance with the information on the input deformation rule. In this example, since 1 is subtracted from each digit of the password “6732”, “562”
1 ".

【0038】(5) 最後に、利用者はすでに変形規則のテ
ーブルから「2」を選び入力したので、暗証番号の各桁
から1引いた「5621」を発音(音声入力)し、音声
入力部3に入力する。
(5) Finally, since the user has already selected and input "2" from the transformation rule table, he pronounces (5621) one less than each digit of the personal identification number (voice input), and outputs a voice. Enter 3

【0039】(6) 照合部4は、音声入力部3で求められ
た入力音声の音声パラメータとテンプレート変形部22
Cで変形されたテンプレートとの類似度を計算し、総合
類似度を判定部5に渡す。判定部5は、閾値にしたがっ
て利用者が本人か否かを判定する。
(6) The collating unit 4 includes the voice parameter of the input voice obtained by the voice input unit 3 and the template deforming unit 22
The similarity with the template deformed in C is calculated, and the overall similarity is passed to the determination unit 5. The determination unit 5 determines whether or not the user is the user according to the threshold.

【0040】図5は、本発明の実施の形態4を説明する
図である。識別子入力部1の一要素である個人識別子入
力部11は、利用者の個人識別子を受けとる。同じく識
別子入力部1の一要素であるテンプレート読み込み部1
2Aは、予め登録されている登録話者のテンプレートか
ら、入力された識別子に対応する話者のテンプレートを
読み込み、後述するインデックス入力部2に送る。イン
デックス入力部2の一要素である外部情報監視部21D
は、時間や場所など照合時によって異なる情報を採り入
れ、後述のテンプレート選択部22Dに渡す。同じくイ
ンデックス入力部2の一要素であるテンプレート選択部
22Dは、外部情報監視部21Dから送られた外部情報
に従って、記号列テンプレートを選択する。音声入力部
3は、外部情報によって決まる変形規則に従って変形し
入力した秘密の記号列の音声の音声パラメータを算出
し、後述する照合部4に渡す。照合部4は、音声入力部
3から渡された音声パラメータと、テンプレート選択部
22Dで変形されたテンプレートとの類似度を計算し、
総合類似度を後述する判定部5に渡す。判定部5は、閾
値に従って本人か否かを判定する。
FIG. 5 is a diagram for explaining Embodiment 4 of the present invention. A personal identifier input unit 11, which is one element of the identifier input unit 1, receives a personal identifier of a user. Template reading unit 1 which is also an element of identifier input unit 1
2A reads the template of the speaker corresponding to the input identifier from the template of the registered speaker registered in advance, and sends it to the index input unit 2 described later. External information monitoring unit 21D which is one element of index input unit 2
Adopts different information, such as time and place, depending on the collation time, and passes it to a template selection unit 22D described later. The template selection unit 22D, which is also an element of the index input unit 2, selects a symbol string template according to the external information sent from the external information monitoring unit 21D. The voice input unit 3 calculates voice parameters of the voice of the secret symbol string that has been deformed and input according to a deformation rule determined by external information, and passes the calculated voice parameters to the collating unit 4 described below. The matching unit 4 calculates the similarity between the voice parameter passed from the voice input unit 3 and the template deformed by the template selecting unit 22D,
The overall similarity is passed to a determination unit 5 described later. The determination unit 5 determines whether or not the user is a person according to the threshold.

【0041】以下では具体例を用いて本実施形態の説明
を行う。この実施の形態は電話回線上での話者照合を想
定しているものである。システムへは3箇所の電話番号
からアクセスできるものとする(それぞれ1,2,3と
番号をつけて区別する)。各登録話者はそれぞれ登録時
に、名前(テキストデータ)とパスワード(音声、音声
パラメータ)がそれぞれの電話番号に対応して登録して
あるものとする。ここでは、「1:925−8314:
あおもり,2:925−8315:とうきょう,3:9
25−8316:おおさか」が登録されたものとする。
The present embodiment will be described below using a specific example. This embodiment assumes speaker verification on a telephone line. It is assumed that the system can be accessed from three telephone numbers (numbers are distinguished by 1, 2, and 3 respectively). It is assumed that each registered speaker has registered a name (text data) and a password (voice, voice parameter) corresponding to each telephone number at the time of registration. Here, "1: 925-8314:
Aomori, 2: 925-8315: Tokyo, 3: 9
25-8316: Osaka "has been registered.

【0042】(1) まず利用者は複数あるシステムへアク
セスするための電話番号を選び電話を掛け、個人識別子
を音声認識、またはプッシュフォンで入力する。この例
では早川と入力する。
(1) First, a user selects a telephone number for accessing a plurality of systems, makes a call, and inputs a personal identifier by voice recognition or a push phone. In this example, enter Hayakawa.

【0043】(2) 個人識別子入力部11は、システム利
用者の個人識別子を受けとる。この例では「話者=早
川」を受けとる。テンプレート読み込み部12Aは、予
め登録されている登録話者の複数のテンプレート(電話
番号に対応している)のデータベースから、入力された
識別子に対応する話者のテンプレートを読み込み、イン
デックス入力部2に送る。この例では「早川」のテンプ
レート「1:あおもり,2:とうきょう,3:おおさ
か」を読み込む。
(2) The personal identifier input section 11 receives the personal identifier of the system user. In this example, “speaker = Hayakawa” is received. The template reading unit 12 </ b> A reads a template of a speaker corresponding to the input identifier from a database of a plurality of templates (corresponding to telephone numbers) of registered speakers registered in advance, and stores the template in the index input unit 2. send. In this example, the template “1: Aomori, 2: Tokyo, 3: Osaka” of “Hayakawa” is read.

【0044】(3) 外部情報監視部21Dは、時間や場所
など照合時によって異なる情報を採り入れ、後述するテ
ンプレート選択部22Dに渡す。今回は電話回線上で、
複数あるアクセスポイントのうち、どこにアクセスした
かによって、パスワードを決めようとしているので、そ
の掛けてきた電話番号に対応する番号(インデックス)
「2」を後述するテンプレート選択部22Dに送る。テ
ンプレート選択部22Dは、外部情報監視部21Dから
送られた外部情報に従って、記号列テンプレートを選択
する。今回の例では1〜3ある番号の中で「2」が送ら
れたので、「2」の「とうきょう」のテンプレートを選
ぶ。
(3) The external information monitoring unit 21D takes in different information such as time and place depending on the collation time, and passes it to the template selection unit 22D described later. This time on the phone line,
A password (index) corresponding to the called phone number because we are trying to determine a password depending on where we have accessed from multiple access points
“2” is sent to the template selection unit 22D described later. The template selection unit 22D selects a symbol string template according to the external information sent from the external information monitoring unit 21D. In this example, since “2” is sent among the numbers 1-3, the “Tokyo” template of “2” is selected.

【0045】(4) 最後に、利用者はすでに2番目のアク
セスポイントに電話を掛けてあるので、2番目に対応す
るパスワード「とうきょう」を発音する。
(4) Finally, since the user has already called the second access point, he pronounces the password "Tokyo" corresponding to the second.

【0046】(5) 音声入力部3は、入力音声の音声パラ
メータを計算して、後述する照合部4に渡す。照合部4
は、音声入力部3から渡された音声パラメータと、テン
プレート選択部22Dで選択されたテンプレートとの類
似度を計算し、総合類似度を判定部5に渡す。判定部5
は、閾値にしたがって本人か否かを判定する。
(5) The voice input unit 3 calculates a voice parameter of the input voice and passes it to a collating unit 4 described later. Collation unit 4
Calculates the similarity between the voice parameter passed from the voice input unit 3 and the template selected by the template selection unit 22D, and passes the overall similarity to the determination unit 5. Judgment unit 5
Determines whether or not the user is a person according to the threshold value.

【0047】図6は、本発明の実施の形態5を説明する
図である。識別子入力部1の一要素である個人識別子入
力部11は、システム利用者の個人識別子を受けとるも
のである。同じく識別子入力部1の一要素である複数テ
ンプレート読み込み部12Cは、予め登録されている登
録話者のテンプレートから、入力された識別子に対応す
る話者の複数の記号列テンプレートを読み込み、後述す
るテンプレート選択部22Dに渡すものである。インデ
ックス入力部2の一要素であるテンプレート番号入力部
21Eは、テンプレート番号を受け取り後述するテンプ
レート選択部22Dに渡すものである。同じくインデッ
クス入力部2の一要素であるテンプレート選択部22D
は、テンプレート番号入力部21Eからテンプレート番
号を受け取り、番号に対応する記号列のテンプレートを
選択するものである。照合部4は、音声入力部3で求め
られた入力音声の音声パラメータとテンプレート選択部
22Dで選択されたテンプレートとの類似度を計算し、
総合的な類似度を後述する判定部5に渡す。判定部5
は、閾値に従って本人か否かを判定する。
FIG. 6 is a view for explaining Embodiment 5 of the present invention. A personal identifier input unit 11, which is one element of the identifier input unit 1, receives a personal identifier of a system user. A multiple template reading unit 12C, which is also an element of the identifier input unit 1, reads a plurality of symbol string templates of the speaker corresponding to the input identifier from the registered speaker templates registered in advance, and reads a template described later. This is passed to the selection unit 22D. The template number input unit 21E, which is an element of the index input unit 2, receives a template number and passes it to a template selection unit 22D described later. A template selection unit 22D which is also an element of the index input unit 2.
Is for receiving a template number from the template number input section 21E and selecting a template of a symbol string corresponding to the number. The matching unit 4 calculates the similarity between the voice parameter of the input voice obtained by the voice input unit 3 and the template selected by the template selection unit 22D,
The overall similarity is passed to the determination unit 5 described later. Judgment unit 5
Determines whether or not the user is a person according to the threshold value.

【0048】以下では具体例を用いて本実施形態の説明
を行う。各登録話者は、それぞれ登録時に、名前と暗証
番号(テキストデータ)とインデックスと組となったパ
スワード(音声、音声パラメータ)が登録してあるもの
とする。ここでは、「早川」については「1:あおも
り,2:とうきょう,3:おおさか,4:しまね,5:
みやざき」が、「山田」については「1:りんご,2:
ばなな,3:みかん,4:いちご,5:めろん」が登録
されているとする。
The present embodiment will be described below using a specific example. It is assumed that each registered speaker has registered a password (voice, voice parameter) paired with a name, a password (text data), and an index at the time of registration. Here, "Hayakawa" means "1: Aomori, 2: Tokyo, 3: Osaka, 4: Shimane, 5:
"Miyazaki" and "Yamada" for "1: Apple, 2:
It is assumed that "Banana, 3: mandarin orange, 4: strawberry, 5: meron" is registered.

【0049】(1) まず利用者は自分が誰であるかをシス
テムに知らせるため、個人識別子を入力する。この例で
は早川が入力されたとする。
(1) First, the user inputs a personal identifier to inform the system of who he or she is. In this example, it is assumed that Hayakawa has been input.

【0050】(2) 個人識別子入力部11は、利用者の個
人識別子を受けとる。この例では入力から「話者=早
川」と受けとる。複数テンプレート読み込み部12C
は、予め登録されている登録話者のテンプレートのデー
タベースから、入力された識別子に対応する話者の複数
の記号列テンプレートを読み込み、テンプレート選択部
22Dに渡す。この例では登録話者「早川」のパスワー
ド列「あおもり,とうきょう,おおさか,しまね,みや
ざき」が対応するインデックス「1,2,3,4,5」
とともに読み込まれる。
(2) The personal identifier input section 11 receives the personal identifier of the user. In this example, “speaker = Hayakawa” is received from the input. Multiple template reading unit 12C
Reads a plurality of symbol string templates of the speaker corresponding to the input identifier from a database of templates of registered speakers registered in advance, and passes the template to the template selecting unit 22D. In this example, the password column "Aomori, Tokyo, Osaka, Shimane, Miyazaki" of the registered speaker "Hayakawa" corresponds to the index "1, 2, 3, 4, 5".
Is read with

【0051】(3) 次に、利用者はテンプレート番号を入
力する。今回の例では、「2」を入力したとする。
(3) Next, the user inputs a template number. In this example, it is assumed that "2" has been input.

【0052】(4) テンプレート番号入力部21Eは、テ
ンプレート番号を受け取り、テンプレート選択部22D
に渡す。今回の例では「2」を受ける。22はテンプレ
ート選択部で、21からテンプレート番号を受け取り、
番号に対応する記号列のテンプレートを選択する。この
例では1から5のテンプレートのうち、2番の「とうき
ょう」を選ぶ。
(4) The template number input section 21E receives the template number and sends it to the template selection section 22D.
Pass to. In this example, "2" is received. Reference numeral 22 denotes a template selection unit, which receives a template number from 21;
Select the template of the symbol string corresponding to the number. In this example, the second “Tokyo” is selected from the templates 1 to 5.

【0053】(5) 最後に、入力したテンプレートの番号
に対応するパスワードを入力する。この例では「2」を
入力したので「とうきょう」と発音する。
(5) Finally, enter the password corresponding to the entered template number. In this example, since "2" is input, "Tokyo" is pronounced.

【0054】(6) 音声入力部3は、データベースに蓄積
されているテンプレートと同じ方法(形式)で音声を分
析し、照合部4に渡す。照合部4は、音声入力部3で求
められた入力音声の音声パラメータと22Dで選択され
たテンプレートとの類似度を計算し、総合的な類似度を
判定部5に渡す。判定部5は、閾値にしたがって本人か
否かを判定する。
(6) The voice input unit 3 analyzes the voice in the same manner (format) as the template stored in the database, and passes the voice to the matching unit 4. The matching unit 4 calculates the similarity between the voice parameter of the input voice obtained by the voice input unit 3 and the template selected in 22D, and passes the overall similarity to the determination unit 5. The determination unit 5 determines whether or not the user is a person according to the threshold.

【0055】なお、以上の各実施形態において、初回の
利用に際して行う事前の登録のための各種入力および毎
回の利用に際して行う各種入力は、上記各例の識別子入
力部、インデックス入力部、音声入力部の全てに独立に
設ける必要はなく、共通に用いる構成も可能である。例
えば、識別子入力部とインデックス入力部への記号(数
字等)の入力に共通に用いる1つのキーボードと音声入
力部への音声入力の為の1本のマイクロフォンで構成す
ることが可能であるし、全ての入力を音声で行うなら
ば、1本のマイクロフォンで構成することが可能であ
る。
In each of the above embodiments, various inputs for pre-registration performed at the time of first use and various inputs performed at each time of use are the identifier input section, index input section, and voice input section in each of the above examples. Need not be provided independently for all of them, and a configuration commonly used is also possible. For example, it can be composed of one keyboard commonly used for inputting symbols (such as numbers) to the identifier input unit and the index input unit and one microphone for voice input to the voice input unit. If all inputs are made by voice, it is possible to configure with one microphone.

【0056】[0056]

【発明の効果】以上の説明から明らかなように、本発明
の話者照合方式によれば、入力記号列とともにその記号
列のインデックスも入力しなければならないため、他人
に入力音声記号列を聞かれても、そのインデックスがわ
からなければ本人になりすまして照合システムを利用す
ることができないという効果がある。
As is apparent from the above description, according to the speaker verification method of the present invention, the input symbol string must be inputted together with the index of the symbol string, so that the input speech symbol string is heard by another person. Even if the index is not known, there is an effect that the user cannot impersonate himself and use the collation system.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】 本発明の実施の形態1を説明する図である。FIG. 2 is a diagram illustrating Embodiment 1 of the present invention.

【図3】 本発明の実施の形態2を説明する図である。FIG. 3 is a diagram illustrating a second embodiment of the present invention.

【図4】 本発明の実施の形態3を説明する図である。FIG. 4 is a diagram illustrating a third embodiment of the present invention.

【図5】 本発明の実施の形態4を説明する図である。FIG. 5 is a diagram illustrating a fourth embodiment of the present invention.

【図6】 本発明の実施の形態5を説明する図である。FIG. 6 is a diagram illustrating a fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1は識別子入力部、 2はインデックス入力部、 3は音声入力部、 4は照合部、 5は判定部、 6は記憶部、 11は個人識別子入力部、 12Aはテンプレート読み込み部、 12Bは数字テンプレート読み込み部、 12Cは複数テンプレート読み込み部、 21Aは順序入力部、 21Bは演算規則入力部、 21Cは変形規則番号入力部、 21Dは外部情報監視部、 21Eはテンプレート番号入力部、 22Aはテンプレート並べ変え部、 22Bは演算部、 22Cはテンプレート変形部、 22Dはテンプレート選択部、 23は数字テンプレート選択部、 41Aは記号列分割部、 41Bは数字列分割部、 42Aは記号列照合部、 42Bは数字列照合部。 1 is an identifier input unit, 2 is an index input unit, 3 is a voice input unit, 4 is a collation unit, 5 is a judgment unit, 6 is a storage unit, 11 is a personal identifier input unit, 12A is a template reading unit, and 12B is a numeric template. A reading unit, 12C is a plural template reading unit, 21A is a sequence input unit, 21B is an operation rule input unit, 21C is a transformation rule number input unit, 21D is an external information monitoring unit, 21E is a template number input unit, and 22A is a template rearrangement. , 22B is an operation unit, 22C is a template transformation unit, 22D is a template selection unit, 23 is a numeric template selection unit, 41A is a symbol string division unit, 41B is a numeric string division unit, 42A is a symbol string collation unit, and 42B is a number. Column collation part.

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 事前に利用者毎に登録された個人識別子
とインデックスを伴う記号列である登録事項の少なくと
も一つに対応する内容を参照するための参照方法を指定
する第1の情報と、前記第1の情報に基づいて指定され
るべき第2の情報とが、利用者から入力されたことに応
答して、前記第2の情報と、前記第1の情報に基づき前
記登録事項に対応して指定される第3の情報とを比較す
ることにより、前記第2の情報の入力が正当な利用者に
よってなされたか否かを判断することを特徴とする利用
者照合方法。
1. first information for designating a reference method for referring to content corresponding to at least one of registered items which is a symbol string with an individual identifier and an index registered in advance for each user; In response to the user inputting second information to be designated based on the first information, the second information corresponds to the registration item based on the first information. And comparing the third information specified with the third information to determine whether the input of the second information is performed by a valid user.
【請求項2】 前記第2および第3の情報は音声情報で
ある請求項1記載のの利用者情報照合方法。
2. The method according to claim 1, wherein the second and third information is audio information.
【請求項3】 識別子入力部と、インデックス入力部
と、音声入力部と、変換部と、記憶部と、照合部と、判
定部とを有する利用者照合装置であって、 初回の利用に先立ち、各利用者は識別子入力部から自己
の個人識別子を、音声入力部から複数の記号列をそれぞ
れ入力し、利用者が音声入力部から入力した複数の記号
列は前記変換部で登録音声パラメータに変換され、該登
録音声パラメータと前記記号列に対応する登録インデッ
クスは個人識別子と共に前記記憶部に予め登録され、 毎回の利用に際して、利用者は個人識別子を識別子入力
部から入力するとともに、1つ以上の前記登録インデッ
クスを前記インデックス入力部から指定し、指定した該
インデックスに対応する前記記号列を前記音声入力部か
ら入力し、 利用者が前記音声入力部から入力した前記記号列は前記
変換部で音声パラメータに変換され、変換された前記音
声パラメータと対応する前記登録音声パラメータとは指
定された前記インデックスごとに前記照合部で比較さ
れ、その結果をもとに両者が一定の基準を満たすか否か
により、前記判定部は利用者が正当な利用者であるか否
かの照合結果を出力することを特徴とする利用者照合装
置。
3. A user verification device having an identifier input unit, an index input unit, a voice input unit, a conversion unit, a storage unit, a verification unit, and a determination unit. Each user inputs his or her personal identifier from the identifier input unit and a plurality of symbol strings from the voice input unit, and the plurality of symbol strings input by the user from the voice input unit are used as the registered voice parameters by the conversion unit. The converted speech parameters and the registration index corresponding to the symbol string are pre-registered in the storage unit together with the personal identifier. In each use, the user inputs the personal identifier from the identifier input unit and one or more The registered index is specified from the index input unit, and the symbol string corresponding to the specified index is input from the voice input unit, and a user inputs the symbol string to the voice input unit. The symbol string input from is converted into a voice parameter by the conversion unit, and the converted voice parameter and the corresponding registered voice parameter are compared by the matching unit for each specified index, and the result is also obtained. Wherein the determination unit outputs a verification result indicating whether or not the user is a valid user, based on whether or not both satisfy a predetermined standard.
【請求項4】 識別子入力部と、インデックス入力部
と、音声入力部と、変換部と、記憶部と、並べ変え部
と、照合部と、判定部とを有する利用者照合装置であっ
て、 初回の利用に先立ち、各利用者は自己の個人識別子を識
別子入力部から入力するとともに、複数の記号列を音声
入力部から入力し、利用者が音声入力部から入力した一
つの記号列は前記変換部で登録音声パラメータに変換さ
れ、該登録音声パラメータと前記記号列に対応する登録
インデックスは個人識別子とともに前記記憶部に予め登
録され、 毎回の利用に際して、利用者は個人識別子を前記識別子
入力部から入力するとともに、前記記号列を構成する各
記号の入力順序を前記インデックス入力部から入力し、
指定した該入力順序に従って前記各記号を前記音声入力
部から入力し、利用者が前記音声入力部から入力した前
記各記号は前記変換部で音声パラメータに変換され、 前記登録音声パラメータは前記並べ変え部で前記入力順
序に従って並べ変えられ、変換された前記音声パラメー
タと前記並べ変え部で並べ変えられた登録音声パラメー
タとは前記照合部で比較され、その結果をもとに両者が
一定の基準を満たすか否かにより、前記判定部は利用者
が正当な利用者であるか否かの照合結果を出力すること
を特徴とする利用者照合装置。
4. A user collation device comprising an identifier input unit, an index input unit, a voice input unit, a conversion unit, a storage unit, a rearrangement unit, a collation unit, and a determination unit, Prior to the first use, each user inputs his or her personal identifier from the identifier input unit, inputs a plurality of symbol strings from the voice input unit, and one symbol string input by the user from the voice input unit is The conversion unit converts the registered voice parameter into a registered voice parameter, and the registered voice parameter and a registration index corresponding to the symbol string are pre-registered in the storage unit together with a personal identifier. In each use, the user inputs the personal identifier into the identifier input unit. And input from the index input unit the input order of each symbol constituting the symbol string,
The symbols are input from the voice input unit according to the specified input order, and the symbols input by the user from the voice input unit are converted into voice parameters by the conversion unit, and the registered voice parameters are rearranged. Unit is rearranged according to the input order, the converted voice parameters and the registered voice parameters rearranged by the rearrangement unit are compared by the collating unit, and based on the result, both are based on a certain standard. The user collation device according to claim 1, wherein the determination unit outputs a collation result indicating whether or not the user is a valid user depending on whether the user satisfies the condition.
【請求項5】 識別子入力部と、インデックス入力部
と、音声入力部と、変換部と、記憶部と、演算部と、照
合部と、判定部とを有する利用者照合装置であって、 初回の利用に先立ち、各利用者は個人識別子を前記識別
子入力部から入力するとともに、1つの数字列を前記イ
ンデックス入力部から入力し、一定の数字の集合を前記
音声入力部から入力し、前記音声入力部から入力された
前記1つの数字列および前記一定の数字の集合が前記変
換部で登録音声パラメータに変換された結果は前記記憶
部に予め登録され、 毎回の利用に際して、各利用者は自己の個人識別子を前
記識別子入力部から入力するとともに、前記数字列の各
数字を用いる演算規則と該演算規則を用いて演算した結
果を音声入力部から入力し、 前記音声入力部から入力された結果は前記変換部で音声
パラメータに変換され、 前記数字列の登録音声パラメ
ータと前記演算規則をもちいて前記演算部で演算された
結果とは前記照合部で比較され、その結果をもとに両者
が一定の基準を満たすか否かにより前記判定部は利用者
が正当な利用者であるか否かの照合結果を出力すること
を特徴とする利用者照合装置。
5. A user collation device comprising an identifier input unit, an index input unit, a voice input unit, a conversion unit, a storage unit, a calculation unit, a collation unit, and a determination unit. Prior to the use of each, each user inputs a personal identifier from the identifier input unit, inputs one numeric string from the index input unit, inputs a set of fixed numbers from the voice input unit, and The result obtained by converting the set of one number string and the certain number inputted from the input unit into the registered voice parameter by the conversion unit is registered in the storage unit in advance. While inputting the personal identifier from the identifier input unit, inputting from the voice input unit the operation rule using each number of the numeral string and the result calculated using the operation rule, input from the voice input unit The conversion result is converted to a voice parameter by the conversion unit, the registered voice parameter of the number string and the result calculated by the calculation unit using the calculation rule are compared by the matching unit, based on the result The user collation device according to claim 1, wherein the judging unit outputs a collation result as to whether the user is a legitimate user based on whether or not both satisfy a predetermined standard.
【請求項6】 識別子入力部と、インデックス入力部
と、音声入力部と、変換部と、記憶部と、記号列変換部
と、照合部と、判定部とを有する利用者照合装置であっ
て、 初回の利用に先立ち、各利用者は自己の個人識別子を前
記識別子入力部から入力するとともに、1つの記号列を
前記音声入力部から入力し、利用者が前記音声入力部か
ら入力した1つの記号列が前記変換部で登録音声パラメ
ータに変換された結果と、インデックスによって区別さ
れている複数の記号列変換規則とが前記記憶部に予め登
録され、 毎回の利用に際して、各利用者は自己の個人識別子を前
記識別子入力部から入力するとともに、前記記号列変換
規則の1つを前記インデックス入力部から指定し、さら
に前記利用者自身が前記インデックス入力部から指定し
該記号列変換規則に従って変換した前記記号列を前記音
声入力部から入力し、 利用者が前記音声入力部から入力した前記記号列は前記
変換部で音声パラメータに変換され、該音声パラメータ
と利用者が指定した前記記号列変換規則に従って前記登
録音声パラメータが前記記号列変換部で変換された変換
登録音声パラメータとは前記照合部で比較され、両者が
一定の基準を満たすか否かにより、前記判定部は利用者
が正当な利用者であるか否かの照合結果を出力すること
を特徴とする利用者照合装置。
6. A user matching device comprising an identifier input unit, an index input unit, a voice input unit, a conversion unit, a storage unit, a symbol string conversion unit, a comparison unit, and a determination unit. Prior to the first use, each user inputs his / her personal identifier from the identifier input unit and one symbol string from the voice input unit, and the user inputs one symbol string from the voice input unit. The result of the conversion of the symbol string into the registered voice parameter by the conversion unit and a plurality of symbol string conversion rules distinguished by the index are registered in the storage unit in advance, and each time the user uses his or her own A personal identifier is input from the identifier input unit, and one of the symbol string conversion rules is specified from the index input unit. The symbol string converted according to the conversion rule is input from the voice input unit, and the symbol string input by the user from the voice input unit is converted into a voice parameter by the conversion unit, and the voice parameter and the user specify The registered voice parameter converted by the symbol string conversion unit in accordance with the symbol string conversion rule is compared with the converted registered voice parameter by the matching unit, and the determination unit is used depending on whether or not both satisfy a predetermined criterion. A user collation device that outputs a collation result as to whether or not a user is a valid user.
【請求項7】 請求項3ないし6の利用者照合装置にお
いて、利用者は通信回線を経由して利用することを特徴
とする利用者照合装置。
7. The user verification device according to claim 3, wherein the user uses the communication device via a communication line.
JP36038698A 1998-12-18 1998-12-18 User verification device Expired - Fee Related JP3835032B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36038698A JP3835032B2 (en) 1998-12-18 1998-12-18 User verification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36038698A JP3835032B2 (en) 1998-12-18 1998-12-18 User verification device

Publications (2)

Publication Number Publication Date
JP2000181490A true JP2000181490A (en) 2000-06-30
JP3835032B2 JP3835032B2 (en) 2006-10-18

Family

ID=18469191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36038698A Expired - Fee Related JP3835032B2 (en) 1998-12-18 1998-12-18 User verification device

Country Status (1)

Country Link
JP (1) JP3835032B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657431B2 (en) 2005-02-18 2010-02-02 Fujitsu Limited Voice authentication system
JP2015510606A (en) * 2011-12-29 2015-04-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Speaker verification in a health monitoring system
JP2018536889A (en) * 2015-10-14 2018-12-13 アリババ グループ ホウルディング リミテッド Method and apparatus for initiating operations using audio data
JP2020013126A (en) * 2018-07-12 2020-01-23 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Identity authentication method, identity authentication apparatus, electronic device, and computer readable storage medium
CN111755008A (en) * 2020-06-11 2020-10-09 北京字节跳动网络技术有限公司 Information processing method, information processing apparatus, electronic device, and medium
JP2021166052A (en) * 2018-06-03 2021-10-14 アップル インコーポレイテッドApple Inc. Promoted task execution

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7657431B2 (en) 2005-02-18 2010-02-02 Fujitsu Limited Voice authentication system
JP2015510606A (en) * 2011-12-29 2015-04-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Speaker verification in a health monitoring system
JP2018536889A (en) * 2015-10-14 2018-12-13 アリババ グループ ホウルディング リミテッド Method and apparatus for initiating operations using audio data
JP2021166052A (en) * 2018-06-03 2021-10-14 アップル インコーポレイテッドApple Inc. Promoted task execution
JP7050990B2 (en) 2018-06-03 2022-04-08 アップル インコーポレイテッド Accelerated task execution
JP2020013126A (en) * 2018-07-12 2020-01-23 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Identity authentication method, identity authentication apparatus, electronic device, and computer readable storage medium
US11294995B2 (en) 2018-07-12 2022-04-05 Beijing Baidu Netcom Science Technology Co., Ltd. Method and apparatus for identity authentication, and computer readable storage medium
JP7123871B2 (en) 2018-07-12 2022-08-23 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Identity authentication method, identity authentication device, electronic device and computer-readable storage medium
CN111755008A (en) * 2020-06-11 2020-10-09 北京字节跳动网络技术有限公司 Information processing method, information processing apparatus, electronic device, and medium

Also Published As

Publication number Publication date
JP3835032B2 (en) 2006-10-18

Similar Documents

Publication Publication Date Title
US9524719B2 (en) Bio-phonetic multi-phrase speaker identity verification
US6681205B1 (en) Method and apparatus for enrolling a user for voice recognition
AU2006306790B2 (en) System and method of subscription identity authentication utilizing multiple factors
US6529871B1 (en) Apparatus and method for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
US7054811B2 (en) Method and system for verifying and enabling user access based on voice parameters
CA2549092C (en) System and method for providing improved claimant authentication
JP4463526B2 (en) Voiceprint authentication system
KR100297833B1 (en) Speaker verification system using continuous digits with flexible figures and method thereof
JPWO2016092807A1 (en) SPEAKER IDENTIFYING DEVICE AND FEATURE REGISTRATION METHOD FOR REGISTERED SPEECH
US5450524A (en) Password verification system based on a difference of scores
KR20220077101A (en) System and method for achieving interoperability through the use of interconnected voice verification system
JP3835032B2 (en) User verification device
JPH10173644A (en) Identity authentication method
KR20190142056A (en) Voice recognition otp authentication method using machine learning and system thereof
JP2000067005A (en) Method for confirming person himself and device using the same method and record medium recording program for controlling the same device
JP4574889B2 (en) Speaker authentication device
JPH1020883A (en) User authentication device
CN113570754B (en) Voiceprint lock control method and device and electronic equipment
JP2001265385A (en) Speaker recognizing device
JP3592415B2 (en) Speaker recognition system
WO2006027844A1 (en) Speaker collator
US20060190735A1 (en) Method of entering a security code for a network apparatus
JP7254316B1 (en) Program, information processing device, and method
JP3506293B2 (en) Speaker identification system
JPH11344992A (en) Voice dictionary creating method, personal authentication device and record medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060717

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090804

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100804

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110804

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120804

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130804

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees