JPH0354600A - 不明人物の同一性検証方法 - Google Patents
不明人物の同一性検証方法Info
- Publication number
- JPH0354600A JPH0354600A JP2118491A JP11849190A JPH0354600A JP H0354600 A JPH0354600 A JP H0354600A JP 2118491 A JP2118491 A JP 2118491A JP 11849190 A JP11849190 A JP 11849190A JP H0354600 A JPH0354600 A JP H0354600A
- Authority
- JP
- Japan
- Prior art keywords
- voice
- circuit
- speaker
- user
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 37
- 238000000605 extraction Methods 0.000 abstract description 10
- 230000005236 sound signal Effects 0.000 abstract description 10
- 238000006243 chemical reaction Methods 0.000 abstract description 8
- 238000001514 detection method Methods 0.000 abstract description 4
- 238000001228 spectrum Methods 0.000 abstract 2
- 239000011159 matrix material Substances 0.000 description 65
- 238000012795 verification Methods 0.000 description 38
- 230000009466 transformation Effects 0.000 description 26
- 238000012790 confirmation Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000013475 authorization Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000012733 comparative method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Telephonic Communication Services (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は全体として音声分析、殊に話し手の識別を含む
高性能話者確認装置に関する。
高性能話者確認装置に関する。
今日、数多くの用途において不明人物の同一性を確認す
る必要が存在する。同一性確認装置の一例は写真バッジ
である.写真バッジによって関係者はバッジ上の写真を
確認を要求する人物と比較してその主張を検証すること
ができる。
る必要が存在する。同一性確認装置の一例は写真バッジ
である.写真バッジによって関係者はバッジ上の写真を
確認を要求する人物と比較してその主張を検証すること
ができる。
しかし、この検証方法は多くの欠点をもっている。第一
にバフジは紛失したり盗難されがちであって、複製と粗
悪化が比較的容易である。更に、バッジの検査は一人の
人間が行わなければならず、そのため確認を機械によっ
て行わなければならないような多くの状況には通用でき
ない。要するに、効果的な確認方式もしくは装置は費用
効果的で、高速正確かつ使いやすく不正な操作や扮装に
対して安全なものでなければならない。
にバフジは紛失したり盗難されがちであって、複製と粗
悪化が比較的容易である。更に、バッジの検査は一人の
人間が行わなければならず、そのため確認を機械によっ
て行わなければならないような多くの状況には通用でき
ない。要するに、効果的な確認方式もしくは装置は費用
効果的で、高速正確かつ使いやすく不正な操作や扮装に
対して安全なものでなければならない。
例えば、長距M電話クレジットカードサービスは使用者
を確認して詐称者が別人物をかたって同サービスを使用
しないようにする必要がある。従来技術方式では長い確
認番号(呼出しカードナンバー)が設けられ、長距離電
話サービスを開始するには電話のキーパッドを介して同
番号を入力しなければならない。だが、この方法は濫用
されやすい。というのはv/i認番号は盗難や単にその
確認番号を入力中に別人が盗み見たりすることによって
盗用されやすいからである。不法な使用によって長距離
電話サービスが蒙った損失は年に500,00o,oo
o ドルを上廻るものと見積もられている。
を確認して詐称者が別人物をかたって同サービスを使用
しないようにする必要がある。従来技術方式では長い確
認番号(呼出しカードナンバー)が設けられ、長距離電
話サービスを開始するには電話のキーパッドを介して同
番号を入力しなければならない。だが、この方法は濫用
されやすい。というのはv/i認番号は盗難や単にその
確認番号を入力中に別人が盗み見たりすることによって
盗用されやすいからである。不法な使用によって長距離
電話サービスが蒙った損失は年に500,00o,oo
o ドルを上廻るものと見積もられている。
話者i!認システムはここ数年間利用されている.然し
なから、大部分の用途では真正の話者の棄却率が非常に
小さく、詐称者の承認率が小さいことが必要である。も
し真正の話者の棄却率が余りに高ければ、その確認シス
テムはユーザに対して負担を課すことになろう。また、
もし詐称者の承認率が大きすぎると、その確認システム
は無価値なものとなる虞れがある。従来技術による話者
確認システムは真正の話者と詐称者間の必要な区別を行
うことができず、そのため会話環境が望ましくないよう
用途では商業上受け入れることができなかった。
なから、大部分の用途では真正の話者の棄却率が非常に
小さく、詐称者の承認率が小さいことが必要である。も
し真正の話者の棄却率が余りに高ければ、その確認シス
テムはユーザに対して負担を課すことになろう。また、
もし詐称者の承認率が大きすぎると、その確認システム
は無価値なものとなる虞れがある。従来技術による話者
確認システムは真正の話者と詐称者間の必要な区別を行
うことができず、そのため会話環境が望ましくないよう
用途では商業上受け入れることができなかった。
それ故、長距離電話サービス網上における話者の確認の
問題は今日、以前に克服されなかった挑戦を突きつけて
いる。送受マイクが異なると同じ話者について異なる送
受器から取集された会話データどうしが著しく不整合す
る結果になる。更に、電話回線は信号の歪みをもたらし
、話者確認システムの精度を低めている。同様に、話者
や音声条件に対して制御することが殆んど不可能である
。
問題は今日、以前に克服されなかった挑戦を突きつけて
いる。送受マイクが異なると同じ話者について異なる送
受器から取集された会話データどうしが著しく不整合す
る結果になる。更に、電話回線は信号の歪みをもたらし
、話者確認システムの精度を低めている。同様に、話者
や音声条件に対して制御することが殆んど不可能である
。
それ故、産業上、電話回線上呼出しカードの濫用を防止
できるシステムに対する必要が生まれている。更に、特
に確認が長距離電話網上で行われるような環境の下で真
正の話者と詐称者を効果的に識別することのできる話者
確認システムを提供する必要が生じている。
できるシステムに対する必要が生まれている。更に、特
に確認が長距離電話網上で行われるような環境の下で真
正の話者と詐称者を効果的に識別することのできる話者
確認システムを提供する必要が生じている。
本発明によれば、従来の確認システムに関連する諸問題
を実質上少なくすることのできる話者確認方法と装置が
提供される。
を実質上少なくすることのできる話者確認方法と装置が
提供される。
即ち、使用者が有効な使用者であるかそれとも詐称者で
あるかを判断する話者確認法を使用する長距M電話サー
ビスが提供される。使用者は或る種の61認形式を提供
することによって、g通には呼び出しカード番号を電話
のタフチトーンパッド上に入力することによってl+!
認を要求する。
あるかを判断する話者確認法を使用する長距M電話サー
ビスが提供される。使用者は或る種の61認形式を提供
することによって、g通には呼び出しカード番号を電話
のタフチトーンパッド上に入力することによってl+!
認を要求する。
相手側は使用者に対して音声サンプルを発するように求
め、それは続いて変形されて有効な使用者によって提供
される音声サンプルからつくりだされた基準モデルと比
較される.その比較によって点数がつけられ、その点数
はその使用者を受入れるか拒否するかを判断するために
使用される。
め、それは続いて変形されて有効な使用者によって提供
される音声サンプルからつくりだされた基準モデルと比
較される.その比較によって点数がつけられ、その点数
はその使用者を受入れるか拒否するかを判断するために
使用される。
本発明の電話サービスi認システムは従来技術に対して
著しい利点を提供することができる.承認されるために
は詐称者は正確な文句と適当な抑揚とリズム感を知って
おかなければならず、真正の話者に十分似かよった音声
の特徴を備える必要があろう。そのため同システムを出
し抜く可能性はすこぶる少ない。
著しい利点を提供することができる.承認されるために
は詐称者は正確な文句と適当な抑揚とリズム感を知って
おかなければならず、真正の話者に十分似かよった音声
の特徴を備える必要があろう。そのため同システムを出
し抜く可能性はすこぶる少ない。
本発明の話者確認システムは身元不明の話者からの入力
音声を受取る。音声信号はLPG解析に附され、音声信
号エネルギーと音声信号のスペクトル内容に基づいた一
組のスペクトルとエネルギーのパラメータを導き出す。
音声を受取る。音声信号はLPG解析に附され、音声信
号エネルギーと音声信号のスペクトル内容に基づいた一
組のスペクトルとエネルギーのパラメータを導き出す。
これらのパラメータは変換されて真正の話者と既知の詐
称者間の識別度を最大にするように設計された統計上最
適の特徴を有するテンプレートを導き出すようにする。
称者間の識別度を最大にするように設計された統計上最
適の特徴を有するテンプレートを導き出すようにする。
上記のテンプレートは真正の話者について先に記憶され
た基準モデルと比較される。その基準モデルとの比較か
ら一定のスコアが導き出され同スコアは闇値と比較され
てその道の話者が真正の話者であるか詐称者であるかが
判断される。入力音声の基準音声との比較はダイナミッ
クタイムヮーピングか陰マルコフ模型法(tlidde
n Marbov Mode1ing)の何れかを使用
してユークリンド距離測定値(対応する特徴どうしの間
の距離の2乗の和)を用いて行う。
た基準モデルと比較される。その基準モデルとの比較か
ら一定のスコアが導き出され同スコアは闇値と比較され
てその道の話者が真正の話者であるか詐称者であるかが
判断される。入力音声の基準音声との比較はダイナミッ
クタイムヮーピングか陰マルコフ模型法(tlidde
n Marbov Mode1ing)の何れかを使用
してユークリンド距離測定値(対応する特徴どうしの間
の距離の2乗の和)を用いて行う。
本発明の一面では、上記変換は2個のマトリックスを用
いて計算される。第1のマトリ.,クスはデータベース
内の真正話者全体の音声から導き出されるマトリックス
である。第2のマトリソクスはそのデータベース内の詐
称者全体から導き出されるマトリックスであって、それ
らの音声が真正の話者のそれと混同される可能性のある
ものである。
いて計算される。第1のマトリ.,クスはデータベース
内の真正話者全体の音声から導き出されるマトリックス
である。第2のマトリソクスはそのデータベース内の詐
称者全体から導き出されるマトリックスであって、それ
らの音声が真正の話者のそれと混同される可能性のある
ものである。
第2のデータベースは真正話者と既知の詐称者を識別す
ための基準を提供することによってシステムの識別度を
向上させる。
ための基準を提供することによってシステムの識別度を
向上させる。
本発明の話者確認システムは従来技術によるシステムに
対して著しい利点を提供する。第一に、真正話者が棄却
される割合に対して詐称者が承認される割合は減少する
。第2に、変換マトリックスの次元数が減るためテンプ
レ−Pの記憶条件と計算上の負担を少なくすることがで
きる。
対して著しい利点を提供する。第一に、真正話者が棄却
される割合に対して詐称者が承認される割合は減少する
。第2に、変換マトリックスの次元数が減るためテンプ
レ−Pの記憶条件と計算上の負担を少なくすることがで
きる。
本発明の実施例は第1−6図を参照することによって最
も良く理解することができよう。
も良く理解することができよう。
第1図は長距離呼出しカードサービスに関して話者確認
法を使用する人物確認法を描いたフローチャート10を
示す。ブロック12において、ある人物が唯一クしかな
い身元確認に相当する一定の情報を提供することによっ
て同一性確認を要求する。
法を使用する人物確認法を描いたフローチャート10を
示す。ブロック12において、ある人物が唯一クしかな
い身元確認に相当する一定の情報を提供することによっ
て同一性確認を要求する。
例えば、長距離電話加入者であれば唯一のID番号を入
力してその同一性確認を要求する。ビル内に立入る場合
のようなその他の用途では写真バッジを提示することに
よって確認を要求することができよう。
力してその同一性確認を要求する。ビル内に立入る場合
のようなその他の用途では写真バッジを提示することに
よって確認を要求することができよう。
ブロック12で提示される確認方法は盗難されたり変更
されたりするから、本発明の人物確認システムではブロ
ック14においてその人物から音声サンプルを要求する
ことになっている。ブロノク16において、その人物か
ら提供された音声サンプルはその1i1!認が求められ
ている話者(いかなる「真正の」話者)について先に得
た保存基準音声サンプルと比較される。許可を得ていな
い使用者が別の有効な使用者のために基準モデルを模造
しないようにするために追加的な気密保護対策が必要で
ある。もしその音声サンプルがデシジョンブロソク18
内の予め規定された判断基準に従って保存音声サンプル
と相関性をもっていれば、その人物により提供された身
元確認はプロソク20において承認される.もし基準音
声サンプルと入力された発声音声どうしを突合わせてそ
の結果がデシジョンブロックl8内の判断基準を充たさ
なければ、その提供された身元確認はブロック22で棄
却される。
されたりするから、本発明の人物確認システムではブロ
ック14においてその人物から音声サンプルを要求する
ことになっている。ブロノク16において、その人物か
ら提供された音声サンプルはその1i1!認が求められ
ている話者(いかなる「真正の」話者)について先に得
た保存基準音声サンプルと比較される。許可を得ていな
い使用者が別の有効な使用者のために基準モデルを模造
しないようにするために追加的な気密保護対策が必要で
ある。もしその音声サンプルがデシジョンブロソク18
内の予め規定された判断基準に従って保存音声サンプル
と相関性をもっていれば、その人物により提供された身
元確認はプロソク20において承認される.もし基準音
声サンプルと入力された発声音声どうしを突合わせてそ
の結果がデシジョンブロックl8内の判断基準を充たさ
なければ、その提供された身元確認はブロック22で棄
却される。
第2図はある使用者の音声を本発明の話者確認システム
内に組込んだ場合を示したブロック線図である。
内に組込んだ場合を示したブロック線図である。
上記績戒局面で、本システムの使用者はそれぞれ、使用
者がシステムに対するアクセス権を得るために使用する
許諾局面を伴う音声サンプルを提供する。登録された音
声サンプルはアナログデジタル(A/D)変換器24を
使用してデジタル化される。デジタル化された音声は回
路26において線形予測符号化(L P G)解析に付
される。登録された音声サンプルの初めと終りは発声提
出回路28によって検出される。発声検出回路28は高
速上部方向適応と低速下部方向適応法を使用してRMS
エネルギー発声レベルパラメータを見積もる。(40m
secフレーム毎に計算される。)発声検出闇値はノイ
ズレベル評価値と所定の最小発声レベルより判断される
。
者がシステムに対するアクセス権を得るために使用する
許諾局面を伴う音声サンプルを提供する。登録された音
声サンプルはアナログデジタル(A/D)変換器24を
使用してデジタル化される。デジタル化された音声は回
路26において線形予測符号化(L P G)解析に付
される。登録された音声サンプルの初めと終りは発声提
出回路28によって検出される。発声検出回路28は高
速上部方向適応と低速下部方向適応法を使用してRMS
エネルギー発声レベルパラメータを見積もる。(40m
secフレーム毎に計算される。)発声検出闇値はノイ
ズレベル評価値と所定の最小発声レベルより判断される
。
音声レベル評価値が特定の持続時間(例えば5 0 0
msec)についてピーク発声レベルの一定分数値(例
えば0.125)以下にとどまる場合に発声の終りが宣
言される。普通の場合、その発声は2〜3秒の持続時間
を有する。
msec)についてピーク発声レベルの一定分数値(例
えば0.125)以下にとどまる場合に発声の終りが宣
言される。普通の場合、その発声は2〜3秒の持続時間
を有する。
特徴抽出回路30はLPGデータの各フレームから複数
のパラメータを計算する。特徴抽出回路30は以下のも
のを含む32個のパラメータを計算することが望ましい
。即ち、音声レベル評価値、RMSフレームエネルギー
、スペクトル変化率のスカラー値、フレームエネルギー
によって正規化されたMEL間隔シミュレーションフィ
ルタを使用した14個のフィルタバンクの大きさ、40
msecにわたるフレームエネルギーの時間差、および
40msecにわたる14個のフィルタバンク値の時間
差である。
のパラメータを計算する。特徴抽出回路30は以下のも
のを含む32個のパラメータを計算することが望ましい
。即ち、音声レベル評価値、RMSフレームエネルギー
、スペクトル変化率のスカラー値、フレームエネルギー
によって正規化されたMEL間隔シミュレーションフィ
ルタを使用した14個のフィルタバンクの大きさ、40
msecにわたるフレームエネルギーの時間差、および
40msecにわたる14個のフィルタバンク値の時間
差である。
特徴抽出回路30は上記32個のパラメータを計算して
各フレームにつきLPGデータを線形変換して14個の
特徴を導き出す.(最も重要性のない特徴は破棄される
。)第5図に関して線形変換マトリックスの形戒方法を
説明する。40+msecフレーム毎に特徴抽出回路3
0により計算された14個の特徴は基準テンプレートメ
モリ32内に記憶される。
各フレームにつきLPGデータを線形変換して14個の
特徴を導き出す.(最も重要性のない特徴は破棄される
。)第5図に関して線形変換マトリックスの形戒方法を
説明する。40+msecフレーム毎に特徴抽出回路3
0により計算された14個の特徴は基準テンプレートメ
モリ32内に記憶される。
第3図はlii認回路を示すブロック線図である。
アクセスを希望する人物は音声・確認システムに対して
許可文句を繰返さなければならない。正確な許可文句を
知らないために詐称者の多くは拒否されることになろう
。入力音声(以下「確認用音声」と称する)は処理f1
!認回路34に入力され、そこでその確認用音声は登録
中に提供された音声とマッチするかどうかが判断される
。もしその音声が判断論理36によって承認されれば、
回路38内で基準テンプレートが更新される。もし確認
用音声が棄却されれば、その人物は文句を繰返すことを
求められる。もし所定数だけその試みを繰返した後でそ
の確認用音声が棄却されれば、使用者はアクセスを拒絶
される。
許可文句を繰返さなければならない。正確な許可文句を
知らないために詐称者の多くは拒否されることになろう
。入力音声(以下「確認用音声」と称する)は処理f1
!認回路34に入力され、そこでその確認用音声は登録
中に提供された音声とマッチするかどうかが判断される
。もしその音声が判断論理36によって承認されれば、
回路38内で基準テンプレートが更新される。もし確認
用音声が棄却されれば、その人物は文句を繰返すことを
求められる。もし所定数だけその試みを繰返した後でそ
の確認用音声が棄却されれば、使用者はアクセスを拒絶
される。
確認がそれぞれ首尾良く行われた後に、基準テンプレー
トはその基準と最近の発声(特徴定義域における)を以
下の如く平均化することによって更新される。即ち、 Rnew = (1−a) Raid +aT但し、 a =min( may(1/n, 0. 0 5 )
, 0. 2 )n−セッションインデックス R=基準テンプレートデータ T=最終承認発声 第4図に発声確認方法を示すブロック線図を示す。
トはその基準と最近の発声(特徴定義域における)を以
下の如く平均化することによって更新される。即ち、 Rnew = (1−a) Raid +aT但し、 a =min( may(1/n, 0. 0 5 )
, 0. 2 )n−セッションインデックス R=基準テンプレートデータ T=最終承認発声 第4図に発声確認方法を示すブロック線図を示す。
使用者がアクセスを求めることによって提供された音声
はブロック40−44内のA/D変換、LPC解析、お
よび特徴抽出に附される。上記A/て変換、LPC解析
および特徴抽出は第2図に関して説明したプロセスと同
一である.特徴抽出回路44により計算されたパラメー
タはダイナミックタイムワービング比較回路46に入力
される。ダイナミックタイムワービング(DTW)は2
個の発声(基準音声と確認用音声)の等時点での時間整
合が非線形である場合に最適のワーピング機能を使用す
るものである。2個の発声間の相関関係は各フレームに
おいて時間整合した基準音声とfII認用音声とを表わ
す特徴パラメータ間のユークリッド距離を時間積分する
ことによって導き出される。上記DTW比較回路46は
2個の音声間の類似性を表わすスコアを出力する。同ス
コアは判断論理36によって所定闇値と比較され、その
音声が承認できるかそれとも拒否さるべきかが判断され
る。
はブロック40−44内のA/D変換、LPC解析、お
よび特徴抽出に附される。上記A/て変換、LPC解析
および特徴抽出は第2図に関して説明したプロセスと同
一である.特徴抽出回路44により計算されたパラメー
タはダイナミックタイムワービング比較回路46に入力
される。ダイナミックタイムワービング(DTW)は2
個の発声(基準音声と確認用音声)の等時点での時間整
合が非線形である場合に最適のワーピング機能を使用す
るものである。2個の発声間の相関関係は各フレームに
おいて時間整合した基準音声とfII認用音声とを表わ
す特徴パラメータ間のユークリッド距離を時間積分する
ことによって導き出される。上記DTW比較回路46は
2個の音声間の類似性を表わすスコアを出力する。同ス
コアは判断論理36によって所定闇値と比較され、その
音声が承認できるかそれとも拒否さるべきかが判断され
る。
特徴抽出回路44、30内に使用される線形変換マトリ
ックスを計算するために一群の使用者についての音声デ
ータベースを収集する。例えば、その音声データベース
が電話網と関連して使用される場合にはデータベースの
音声は長距離電話網について収集し、電話回線による偏
差と送受マイクロと信号の歪みに対して備えることにな
ろう。
ックスを計算するために一群の使用者についての音声デ
ータベースを収集する。例えば、その音声データベース
が電話網と関連して使用される場合にはデータベースの
音声は長距離電話網について収集し、電話回線による偏
差と送受マイクロと信号の歪みに対して備えることにな
ろう。
音声は一連のセッションについて使用者から収集する。
各セッション中に使用者は“1650アトランタ、ジョ
ージア州”の如き許可用文句や“765−4821”の
如き電話番号を繰返すことになる。
ージア州”の如き許可用文句や“765−4821”の
如き電話番号を繰返すことになる。
第5a図は1人の使用者についての音声データを示す。
データベース音声はデシタル化され、第2図について論
じたようなLPG解析に付される。
じたようなLPG解析に付される。
その結果、各音声38は一連の4Qmsecフレーム5
0に分解される。各フレームは本文中で先に論じたよう
な32個のパラメータによって表わされる。例えば、第
5a図において、それぞれの話者は40個の発声を提供
する。真正の話者全部について計算されプール化された
共分散マトリソクスに対して実行された主戒分解析から
初期線形変換マトリックスもしくは「インクラスj共分
散マトリックス(L)が導き出される。初期線形変換マ
トリックス(L)を計算するためには40個(もしくは
その他の所定数の)時間整合データベース音声について
各話者毎に共分散マトリックスを計算する。データベー
ス内の各話者について導き出された共分散マトリックス
は共にプール化され対角線状に行列化される。初期線形
変換マトリックスはプール化された共分散マトリソクス
の固有ベクトルより構威される。その結果、上記対角線
状に行列化された初期線形変換マl− IJックスは3
2×32の次元を有することになろう。然しなから、そ
の結果得られるマトリフクスは統計的分散が少なくなる
順序に格付けされた非相関性の特徴を備えることになる
。それ故、最も重要でない特徴は廃棄することができる
。結果として得られる初期線形変換(上記の最も重要性
の少ない特徴を廃棄した後の)はデータ内の分散全体の
ほぼ95%を占めることになる。
0に分解される。各フレームは本文中で先に論じたよう
な32個のパラメータによって表わされる。例えば、第
5a図において、それぞれの話者は40個の発声を提供
する。真正の話者全部について計算されプール化された
共分散マトリソクスに対して実行された主戒分解析から
初期線形変換マトリックスもしくは「インクラスj共分
散マトリックス(L)が導き出される。初期線形変換マ
トリックス(L)を計算するためには40個(もしくは
その他の所定数の)時間整合データベース音声について
各話者毎に共分散マトリックスを計算する。データベー
ス内の各話者について導き出された共分散マトリックス
は共にプール化され対角線状に行列化される。初期線形
変換マトリックスはプール化された共分散マトリソクス
の固有ベクトルより構威される。その結果、上記対角線
状に行列化された初期線形変換マl− IJックスは3
2×32の次元を有することになろう。然しなから、そ
の結果得られるマトリフクスは統計的分散が少なくなる
順序に格付けされた非相関性の特徴を備えることになる
。それ故、最も重要でない特徴は廃棄することができる
。結果として得られる初期線形変換(上記の最も重要性
の少ない特徴を廃棄した後の)はデータ内の分散全体の
ほぼ95%を占めることになる。
本発明の重要な局面は、上記初期線形変換マトリックス
が所与のデータベース中で真正話者と詐称者の識別度を
最大にするように調節される点である。相関性のない特
徴は、識別するためには優れた特徴ではないから、話者
の識別度は一組の統計上相関性のない特徴をつくりだす
よりもより望ましい目標である。
が所与のデータベース中で真正話者と詐称者の識別度を
最大にするように調節される点である。相関性のない特
徴は、識別するためには優れた特徴ではないから、話者
の識別度は一組の統計上相関性のない特徴をつくりだす
よりもより望ましい目標である。
類別内のもしくは「混同」共分散マトリソクスを、所与
の真正話者について出し抜いた全ての詐称者に対する全
ての時間整合発声について計算する。例えば、もし真正
の話者以上の120人の詐称者によって提供された音声
データが真正の話者によるものと1認システムにより承
認されるであろうとデータベースが示した場合には、こ
れらの発声について共分散マトリックスが計算される。
の真正話者について出し抜いた全ての詐称者に対する全
ての時間整合発声について計算する。例えば、もし真正
の話者以上の120人の詐称者によって提供された音声
データが真正の話者によるものと1認システムにより承
認されるであろうとデータベースが示した場合には、こ
れらの発声について共分散マトリックスが計算される。
それぞれの真正話者の詐称者について計算された共分散
マトリックスは全ての真正話者についてプールされる。
マトリックスは全ての真正話者についてプールされる。
プール化された詐称者データに相当する共分散マトリッ
クスは「インタークラス」もしくは「混同」共分散マト
リックス(C)として知られる。
クスは「インタークラス」もしくは「混同」共分散マト
リックス(C)として知られる。
最後の線形変換マトリックス(LT)を計算するには、
初期線形変換共分散マトリソクス(L)が対角線状に行
列化されてマトリソクス(Ld)が得られる。マトリッ
クス(Ld)は混同マトリックス(c)と乗ぜられた後
対角線状に行列化される。その結果得られるマトリック
スは線形変換マトリソクス(LT)である.第5b図の
ブロック52−58内には線形変換マトリソクスのh十
算方法を示すブロック線図が示されている。
初期線形変換共分散マトリソクス(L)が対角線状に行
列化されてマトリソクス(Ld)が得られる。マトリッ
クス(Ld)は混同マトリックス(c)と乗ぜられた後
対角線状に行列化される。その結果得られるマトリック
スは線形変換マトリソクス(LT)である.第5b図の
ブロック52−58内には線形変換マトリソクスのh十
算方法を示すブロック線図が示されている。
混同マトリックスにより提供される変換によって更に音
声特徴ベクトルが回転し、真正話者と詐称者間の識別度
が大きくなる。詐称者の棄却率が大きくなる他に、上記
変換によって音声表示に使用される特徴数(次元数)は
更に少なくすることができる。何故ならば、有力な次元
のみを保存すれば足りるからである。主要なスペクトル
戒分については1フレームあたり18個の特徴ベクトル
を使用することが普通であるが、本発明に関しては14
個の特徴ベクトルを使用できることが判った.特徴ベク
トル数が少なければ少ない程、それだけ変換に固有のノ
イズは少なくなる。
声特徴ベクトルが回転し、真正話者と詐称者間の識別度
が大きくなる。詐称者の棄却率が大きくなる他に、上記
変換によって音声表示に使用される特徴数(次元数)は
更に少なくすることができる。何故ならば、有力な次元
のみを保存すれば足りるからである。主要なスペクトル
戒分については1フレームあたり18個の特徴ベクトル
を使用することが普通であるが、本発明に関しては14
個の特徴ベクトルを使用できることが判った.特徴ベク
トル数が少なければ少ない程、それだけ変換に固有のノ
イズは少なくなる。
第6図には詐称者の承認率を真正話者の棄却率の関数と
して比較した実験効果が示されている。
して比較した実験効果が示されている。
第6図において、曲線“A”は混同マトリックスを使用
せずに計算した詐称者の承認率を示す。曲線“B”は混
同マトリックスを使用して話者を識別する場合の詐称者
の承認率を示す。
せずに計算した詐称者の承認率を示す。曲線“B”は混
同マトリックスを使用して話者を識別する場合の詐称者
の承認率を示す。
同図より判る通り、ほぼ2%の真正話者の棄却率に対し
て本発明は詐称者の承認率をほぼlO%だけ減らすこと
ができる。
て本発明は詐称者の承認率をほぼlO%だけ減らすこと
ができる。
基準音声と確認用音声の比較を行うダイナミックタイム
ワーピング(時間整合)法の他に、陰マルコフ模型式(
Hidden Markov Model (HMM)
による比較法を使用することもできよう。)HMM比較
によればそれぞれ上記の如く変換される基準音声と確認
用音声とを状況に応じて比較することができよう。
ワーピング(時間整合)法の他に、陰マルコフ模型式(
Hidden Markov Model (HMM)
による比較法を使用することもできよう。)HMM比較
によればそれぞれ上記の如く変換される基準音声と確認
用音声とを状況に応じて比較することができよう。
主として語間の句切りによってひきおこされる不正確さ
のために逐語的なHMM比較法は全文句比較に好適であ
ることが判った。
のために逐語的なHMM比較法は全文句比較に好適であ
ることが判った。
以上、本発明を詳説したが、請求範囲に規定する本発明
の精神と範囲から逸脱せずに各種の変更、置換ならびに
変形を施こすことが可能であることを了解されたい。な
らびに変形を施こすことが可能であることを了解された
い。
の精神と範囲から逸脱せずに各種の変更、置換ならびに
変形を施こすことが可能であることを了解されたい。な
らびに変形を施こすことが可能であることを了解された
い。
以下の記載に関連して以下の条項を開示する。
l.不明人物より入力音声を受取り、
同入力音声を一組の所定パラメータにコーディングし、
同パラメータを真正話者と既知の詐称者間の識別度が最
大になるように変換する、段階とより成る不明人物の同
一性検証方法。
大になるように変換する、段階とより成る不明人物の同
一性検証方法。
2. 上記変換段階がパラメータを線形変換マトリック
スによって変換する段階より成る1項記載の方法。
スによって変換する段階より成る1項記載の方法。
3.上記線形変換マトリックスによりパラメータを変換
する段階が、 複数の話者から音声サンプルのデータベースを形成し、
同音声サンプルを複数のパラメータへコーディングし、
上記データベース内の真正話者全体のパラメータに基づ
いたインクラス共分散マトリックスをつくりだし、 データベース内の成功した詐称者のパラメータに基づい
たインタークラス共分散マトリックスをつくりだし、 上記インクラス共分散マトリックスとインタークラス共
分散マトリックスに基づいた線形変形マトリックスをつ
くりだす、段階より或る1項記載の方法。
する段階が、 複数の話者から音声サンプルのデータベースを形成し、
同音声サンプルを複数のパラメータへコーディングし、
上記データベース内の真正話者全体のパラメータに基づ
いたインクラス共分散マトリックスをつくりだし、 データベース内の成功した詐称者のパラメータに基づい
たインタークラス共分散マトリックスをつくりだし、 上記インクラス共分散マトリックスとインタークラス共
分散マトリックスに基づいた線形変形マトリックスをつ
くりだす、段階より或る1項記載の方法。
4.上記線形変換マトリソクスをつくりだす段階が、
インクラス共分散マトリソクスを対角線状に行列化し、
インタークラス共分散マトリックスを対角線状に行列化
されたインクラス共分散マトリックスによって乗算し、 同乗算段階において形成されたマトリックスを対角線状
に行列化する、段階より成る3もしくは10項記載の方
法。
されたインクラス共分散マトリックスによって乗算し、 同乗算段階において形成されたマトリックスを対角線状
に行列化する、段階より成る3もしくは10項記載の方
法。
5. 上記音声をコーディングする段階が同音声に対し
て線形予測コーディングを実行しスペクトル情報を生成
させる段階より或る1もしくは8項記載の方法。
て線形予測コーディングを実行しスペクトル情報を生成
させる段階より或る1もしくは8項記載の方法。
6. 上記音声コーディング段階が更らに同音声に対し
て線形予測コーディングを実行してエネルギー情報を生
戒される段階より成る5項もしくは13項記載の方法。
て線形予測コーディングを実行してエネルギー情報を生
戒される段階より成る5項もしくは13項記載の方法。
7. 上記音声コーディング段階が更に同音声をデジタ
ル化した後、上記線形予測コーディングを実行する6項
もしくは14項記載の方法。
ル化した後、上記線形予測コーディングを実行する6項
もしくは14項記載の方法。
8.電話網上で不明人物の同一性を検証する方法におい
て、 電話網上で不明人物から入力音声を受取り、入力音声を
一組の所定パラメータにコーディングし、 同パラメータを変換することによって真正話者と既知詐
称者間の識別度を最大化する、段階より成る前記方法。
て、 電話網上で不明人物から入力音声を受取り、入力音声を
一組の所定パラメータにコーディングし、 同パラメータを変換することによって真正話者と既知詐
称者間の識別度を最大化する、段階より成る前記方法。
9.上記変換段階が、電話網上で音声データを送る一群
の話者から受取った音声データに基づいて線形変換マト
リックスによりパラメータを変換する段階より成る8項
記載の方法。
の話者から受取った音声データに基づいて線形変換マト
リックスによりパラメータを変換する段階より成る8項
記載の方法。
10.上記線形変換マトリックスによりパラメータを変
換する段階が電話網上の複数の話者から音声サンプルの
データベースを形威し、同音声サンプルを複数のパラメ
ータにコーディングし、上記データベース内の真正話者
全体のパラメータにもとづいてインクラス共分敗マトリ
ックスをつくりだし、 データベース内の成功した詐称者のパラメータにもとづ
いてインタークラス共分散マトリックスをつくりだし、 上記インクラス共分散マトリックスとインタークラス共
分散マトリソクスにもとづいて線形変換マトリックスを
つくりだす、段階より或る9項記載の方法。
換する段階が電話網上の複数の話者から音声サンプルの
データベースを形威し、同音声サンプルを複数のパラメ
ータにコーディングし、上記データベース内の真正話者
全体のパラメータにもとづいてインクラス共分敗マトリ
ックスをつくりだし、 データベース内の成功した詐称者のパラメータにもとづ
いてインタークラス共分散マトリックスをつくりだし、 上記インクラス共分散マトリックスとインタークラス共
分散マトリソクスにもとづいて線形変換マトリックスを
つくりだす、段階より或る9項記載の方法。
11.不明人物より入力音声を受取る回路と、同入力音
声を一組の所定パラメータにコーディングする回路と、 同パラメータを変換することによって真正話者と既知詐
称者間の識別度を最大にする回路と、より成る不明人物
の同一性検証装置。
声を一組の所定パラメータにコーディングする回路と、 同パラメータを変換することによって真正話者と既知詐
称者間の識別度を最大にする回路と、より成る不明人物
の同一性検証装置。
12.上記変換回路が線形変換マトリソクスによりパラ
メータを変換する回路より成る1l項記載の装置. 13.上記線形変換マトリソクスによってパラメータを
変換する回路が、 複数の話者から音声サンプルのデータベースを形成する
回路と、 同音声サンプルを複数のパラメータにコーディングする
回路と、 データベース内の真正話者全体のパラメータに基づいて
インクラス共分散マトリックスをつくりだす回路と、 データベース内の或功した詐称者のパラメータに基づい
てインタークラス共分散マトリソクスをつくりだす回路
と、 上記インクラス共分散マトリノクスとインタークラス共
分散マトリソクスに基づいて線形f換マトリックスをつ
くりだす回路と、 より成る11項記載の装置。
メータを変換する回路より成る1l項記載の装置. 13.上記線形変換マトリソクスによってパラメータを
変換する回路が、 複数の話者から音声サンプルのデータベースを形成する
回路と、 同音声サンプルを複数のパラメータにコーディングする
回路と、 データベース内の真正話者全体のパラメータに基づいて
インクラス共分散マトリックスをつくりだす回路と、 データベース内の或功した詐称者のパラメータに基づい
てインタークラス共分散マトリソクスをつくりだす回路
と、 上記インクラス共分散マトリノクスとインタークラス共
分散マトリソクスに基づいて線形f換マトリックスをつ
くりだす回路と、 より成る11項記載の装置。
14.上記線形変換マトリックスをつくりだす回路が、
インクラス共分散マトリンクスを対角線状に行列化する
回路と、 インタークラス共分散マトリックスを対角線化されたイ
ンクラス共分散マトリックスを乗ずる回路と、 上記インタークラス共分散マトリソクスと対角線化され
たインクラス共分散マトリックスとの積を対角線状に行
列化する回路と、 より或る13項の装置。
回路と、 インタークラス共分散マトリックスを対角線化されたイ
ンクラス共分散マトリックスを乗ずる回路と、 上記インタークラス共分散マトリソクスと対角線化され
たインクラス共分散マトリックスとの積を対角線状に行
列化する回路と、 より或る13項の装置。
15.上記コーディング回路が上記音声に対して線形予
測コーディングを実行することによってスペクトル情報
を生戒する11項記載の装置。
測コーディングを実行することによってスペクトル情報
を生戒する11項記載の装置。
16.上記コーディング回路が更に上記音声に対して線
形予測コーディングを実行して工不ルギー情報を生戒さ
せる回路より或る15項記載の装置。
形予測コーディングを実行して工不ルギー情報を生戒さ
せる回路より或る15項記載の装置。
】7.上記コーディング回路が更に上記音声をデジタル
化した後に上記線形予測コーディングを実行する16項
記載の装置。
化した後に上記線形予測コーディングを実行する16項
記載の装置。
18.電話呼出しカードサービスの不明使用者の同一性
検証装置において、 同サービスの有効使用者に相当する確認情報を受取る回
路と、 上記不明の使用者に対して許可用文句を話すように求め
る回路と、 同要求に応じて不明使用者の音声信号を受取る回路と、 上記音声信号に基づいて不明使用者の同一性を検証する
回路と、 より成る前記装置。
検証装置において、 同サービスの有効使用者に相当する確認情報を受取る回
路と、 上記不明の使用者に対して許可用文句を話すように求め
る回路と、 同要求に応じて不明使用者の音声信号を受取る回路と、 上記音声信号に基づいて不明使用者の同一性を検証する
回路と、 より成る前記装置。
19.上記確認情報を受取る回路が識別番号に相当する
信号を受取る回路より成る18項記載の装置。
信号を受取る回路より成る18項記載の装置。
20.上記要求回路が所望文句を明らかにせずに不明使
用者から音声入力を要求するように動作する18項記載
の装置。
用者から音声入力を要求するように動作する18項記載
の装置。
21.上記要求回路が所望文句を出力し使用者に対して
その所望文句を繰返すように求める18項記載の装置。
その所望文句を繰返すように求める18項記載の装置。
22.上記検証回路が、
音声信号を音声特徴に変換する回路と、同音声特徴を有
効な使用者から得た基準音声特徴を比較する回路と、 より或る18項の装置。
効な使用者から得た基準音声特徴を比較する回路と、 より或る18項の装置。
23.更に、不明使用者が有効な使用者であることをt
i認した後に基準音声特徴を更新する回路を備える22
項記載の装置。
i認した後に基準音声特徴を更新する回路を備える22
項記載の装置。
24.電話呼出しカードサービスの不明使用者の同一性
検証方法において、 同サービスの有効使用者に相当する6m!認情報を受取
り、 不明使用者に対して許可用文句を話すように求め、 その要求に応じて不明使用者の音声1言号を受取り、 同音声信号に基づいて不明使用者の同一性を確認する、 前記方法。
検証方法において、 同サービスの有効使用者に相当する6m!認情報を受取
り、 不明使用者に対して許可用文句を話すように求め、 その要求に応じて不明使用者の音声1言号を受取り、 同音声信号に基づいて不明使用者の同一性を確認する、 前記方法。
25.上記確認情報を受取る段階が識別番号に対応する
信号を受取る段階より或る24項記載の方法。
信号を受取る段階より或る24項記載の方法。
26.上記要求段階が許可用文句を明らかにせずに不明
使用者に対して同文句を話すように求める段階より成る
24項記載の方法。
使用者に対して同文句を話すように求める段階より成る
24項記載の方法。
27.上記要求段階がある文句を不明使用者に伝達し、
同使用者に対してその伝達文句を繰返すように求める2
4項記載の方法。
同使用者に対してその伝達文句を繰返すように求める2
4項記載の方法。
28.上記確認段階が、
音声信号を音声特徴に変換し、
同音声特徴を有効な使用者から得た基準音声特徴と比較
する24項記載の方法。
する24項記載の方法。
29.更に、不明使用者が有効な使用者であることを確
認した後に基準音声特徴を更新する段階を備える28項
記載の方法。
認した後に基準音声特徴を更新する段階を備える28項
記載の方法。
30。話者確認装置が身元不明の話者からの入力音声を
受信する。
受信する。
同音声は同様に変換された基準音声パラメータと比較さ
れる時に真正の話者と詐称者間の識別を最大にするよう
にLPG解析と変換に附される。
れる時に真正の話者と詐称者間の識別を最大にするよう
にLPG解析と変換に附される。
上記変換はデータベース内に成功した詐称者の“インタ
ークラス”共分散マトリックスを組込んでいる。
ークラス”共分散マトリックスを組込んでいる。
第1図は音声確認法を使用する長距離電話呼出しカード
サービスにおける人物の同一性確認システムを示すフロ
ーチャート、 第2図は話者を本発明の話者確認システム中に登録した
状態を示すブロック線図、 第3図は本発明に使用されるfil認用音声と基準音声
の更新を示すプロ・ノク線図、 第4図は本発明に使用される確認システムを示すブロッ
ク線図、 第5a図は本発明において変換マトリックスを形威する
ために使用されるインクラスおよびインタークラスマト
リックス形戒用ベクトル図、第5b図は話者識別変換マ
トリソクスの形或を示すブロック線図、 第6図は従来技術話者確認システムと比較した時の本発
明の話者確認システムの比較図である。 10・・・71:I−チャート、18・・・アソアヨン
ブロック、24・・・A/D変換器、28・・・発声検
出回路、30・・特徴抽出回路、46・・・DTM比較
回路。 FIC;. 1 FIG. 2
サービスにおける人物の同一性確認システムを示すフロ
ーチャート、 第2図は話者を本発明の話者確認システム中に登録した
状態を示すブロック線図、 第3図は本発明に使用されるfil認用音声と基準音声
の更新を示すプロ・ノク線図、 第4図は本発明に使用される確認システムを示すブロッ
ク線図、 第5a図は本発明において変換マトリックスを形威する
ために使用されるインクラスおよびインタークラスマト
リックス形戒用ベクトル図、第5b図は話者識別変換マ
トリソクスの形或を示すブロック線図、 第6図は従来技術話者確認システムと比較した時の本発
明の話者確認システムの比較図である。 10・・・71:I−チャート、18・・・アソアヨン
ブロック、24・・・A/D変換器、28・・・発声検
出回路、30・・特徴抽出回路、46・・・DTM比較
回路。 FIC;. 1 FIG. 2
Claims (1)
- 【特許請求の範囲】 不明人物より入力音声を受取り、 同入力音声を一組の所定パラメータにコーディングし、 同パラメータを真正話者と既知の詐称者間の識別度が最
大になるように変化する、段階とより成る不明人物の同
一性検証方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US07/350,060 US5054083A (en) | 1989-05-09 | 1989-05-09 | Voice verification circuit for validating the identity of an unknown person |
US350060 | 1989-05-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0354600A true JPH0354600A (ja) | 1991-03-08 |
JP3080388B2 JP3080388B2 (ja) | 2000-08-28 |
Family
ID=23375063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP02118491A Expired - Fee Related JP3080388B2 (ja) | 1989-05-09 | 1990-05-08 | 不明人物の同一性検証方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US5054083A (ja) |
EP (1) | EP0397399B1 (ja) |
JP (1) | JP3080388B2 (ja) |
KR (1) | KR0139949B1 (ja) |
AU (1) | AU636335B2 (ja) |
CA (1) | CA2013371C (ja) |
DE (1) | DE69031189T2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007033898A (ja) * | 2005-07-27 | 2007-02-08 | Toshiba Corp | 話者照合装置 |
JP2013205807A (ja) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | モデル学習装置、モデル製造方法、及びプログラム |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5054083A (en) | 1989-05-09 | 1991-10-01 | Texas Instruments Incorporated | Voice verification circuit for validating the identity of an unknown person |
US5167004A (en) * | 1991-02-28 | 1992-11-24 | Texas Instruments Incorporated | Temporal decorrelation method for robust speaker verification |
US5293452A (en) * | 1991-07-01 | 1994-03-08 | Texas Instruments Incorporated | Voice log-in using spoken name input |
DE69229584T2 (de) * | 1991-08-30 | 2000-07-20 | Texas Instruments Inc | Telefonsignalklassifizierung und Verfahren und System zur Telefonnachrichtenablieferung |
DE4207837A1 (de) * | 1992-03-12 | 1993-09-16 | Sel Alcatel Ag | Verfahren und vorrichtung zur ueberpruefung und erlangung einer zugangsberechtigung |
US5566229A (en) * | 1992-08-24 | 1996-10-15 | At&T | Voice directed communications system employing shared subscriber identifiers |
US5450524A (en) * | 1992-09-29 | 1995-09-12 | At&T Corp. | Password verification system based on a difference of scores |
FI96247C (fi) * | 1993-02-12 | 1996-05-27 | Nokia Telecommunications Oy | Menetelmä puheen muuntamiseksi |
NZ250812A (en) * | 1993-02-27 | 1996-09-25 | Alcatel Australia | Voice controlled data memory and input/output card |
DE4306200A1 (de) * | 1993-02-27 | 1994-09-01 | Sel Alcatel Ag | Sprachgesteuerte Fernsprecheinrichtung |
US5677989A (en) * | 1993-04-30 | 1997-10-14 | Lucent Technologies Inc. | Speaker verification system and process |
US5502759A (en) * | 1993-05-13 | 1996-03-26 | Nynex Science & Technology, Inc. | Apparatus and accompanying methods for preventing toll fraud through use of centralized caller voice verification |
US5623539A (en) * | 1994-01-27 | 1997-04-22 | Lucent Technologies Inc. | Using voice signal analysis to identify authorized users of a telephone system |
US5414755A (en) * | 1994-08-10 | 1995-05-09 | Itt Corporation | System and method for passive voice verification in a telephone network |
US5696880A (en) * | 1995-06-26 | 1997-12-09 | Motorola, Inc. | Communication system user authentication method |
US5940476A (en) | 1996-06-28 | 1999-08-17 | Distributed Software Development, Inc. | System and method for identifying an unidentified caller |
US5901203A (en) | 1996-06-28 | 1999-05-04 | Distributed Software Development, Inc. | Computer-based system and method for identifying an unidentified caller |
US6205204B1 (en) | 1996-06-28 | 2001-03-20 | Distributed Software Development, Inc. | System and method for identifying an unidentified person using an ambiguity-resolution criterion |
US6529881B2 (en) | 1996-06-28 | 2003-03-04 | Distributed Software Development, Inc. | System and method for identifying an unidentified customer at the point of sale |
US7006605B1 (en) * | 1996-06-28 | 2006-02-28 | Ochopee Big Cypress Llc | Authenticating a caller before providing the caller with access to one or more secured resources |
US6205424B1 (en) | 1996-07-31 | 2001-03-20 | Compaq Computer Corporation | Two-staged cohort selection for speaker verification system |
US6292782B1 (en) * | 1996-09-09 | 2001-09-18 | Philips Electronics North America Corp. | Speech recognition and verification system enabling authorized data transmission over networked computer systems |
US5995927A (en) * | 1997-03-14 | 1999-11-30 | Lucent Technologies Inc. | Method for performing stochastic matching for use in speaker verification |
US6078807A (en) * | 1997-08-26 | 2000-06-20 | International Business Machines Corporation | Telephony fraud detection using voice recognition techniques |
US5913196A (en) * | 1997-11-17 | 1999-06-15 | Talmor; Rita | System and method for establishing identity of a speaker |
US6233555B1 (en) | 1997-11-25 | 2001-05-15 | At&T Corporation | Method and apparatus for speaker identification using mixture discriminant analysis to develop speaker models |
US6141644A (en) * | 1998-09-04 | 2000-10-31 | Matsushita Electric Industrial Co., Ltd. | Speaker verification and speaker identification based on eigenvoices |
US6519565B1 (en) * | 1998-11-10 | 2003-02-11 | Voice Security Systems, Inc. | Method of comparing utterances for security control |
IL129451A (en) | 1999-04-15 | 2004-05-12 | Eli Talmor | System and method for authentication of a speaker |
US6795804B1 (en) * | 2000-11-01 | 2004-09-21 | International Business Machines Corporation | System and method for enhancing speech and pattern recognition using multiple transforms |
US7899742B2 (en) * | 2001-05-29 | 2011-03-01 | American Express Travel Related Services Company, Inc. | System and method for facilitating a subsidiary card account |
US20030081756A1 (en) * | 2001-10-23 | 2003-05-01 | Chan Norman C. | Multi-detector call classifier |
US7299177B2 (en) | 2003-05-30 | 2007-11-20 | American Express Travel Related Services Company, Inc. | Speaker recognition in a multi-speaker environment and comparison of several voice prints to many |
WO2006087799A1 (ja) * | 2005-02-18 | 2006-08-24 | Fujitsu Limited | 音声認証システム |
US7940897B2 (en) | 2005-06-24 | 2011-05-10 | American Express Travel Related Services Company, Inc. | Word recognition system and method for customer and employee assessment |
CN101051463B (zh) * | 2006-04-06 | 2012-07-11 | 株式会社东芝 | 说话人认证的验证方法及装置 |
TWI412941B (zh) * | 2008-11-25 | 2013-10-21 | Inst Information Industry | 產生及驗證一訊息之一語音簽章之裝置、方法及其電腦程式產品 |
CN105245497B (zh) * | 2015-08-31 | 2019-01-04 | 刘申宁 | 一种身份认证方法及装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4032711A (en) * | 1975-12-31 | 1977-06-28 | Bell Telephone Laboratories, Incorporated | Speaker recognition arrangement |
US4053710A (en) * | 1976-03-01 | 1977-10-11 | Ncr Corporation | Automatic speaker verification systems employing moment invariants |
JPS58129682A (ja) * | 1982-01-29 | 1983-08-02 | Toshiba Corp | 個人照合装置 |
EP0233285A4 (en) * | 1985-07-01 | 1987-12-01 | Ecco Ind | SPEAKER VERIFICATION SYSTEM. |
US4827518A (en) * | 1987-08-06 | 1989-05-02 | Bell Communications Research, Inc. | Speaker verification system using integrated circuit cards |
US5216720A (en) | 1989-05-09 | 1993-06-01 | Texas Instruments Incorporated | Voice verification circuit for validating the identity of telephone calling card customers |
US5054083A (en) | 1989-05-09 | 1991-10-01 | Texas Instruments Incorporated | Voice verification circuit for validating the identity of an unknown person |
-
1989
- 1989-05-09 US US07/350,060 patent/US5054083A/en not_active Expired - Lifetime
-
1990
- 1990-03-29 CA CA002013371A patent/CA2013371C/en not_active Expired - Fee Related
- 1990-03-30 AU AU52403/90A patent/AU636335B2/en not_active Ceased
- 1990-05-03 DE DE69031189T patent/DE69031189T2/de not_active Expired - Fee Related
- 1990-05-03 EP EP90304828A patent/EP0397399B1/en not_active Expired - Lifetime
- 1990-05-08 JP JP02118491A patent/JP3080388B2/ja not_active Expired - Fee Related
- 1990-05-08 KR KR1019900006448A patent/KR0139949B1/ko not_active IP Right Cessation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007033898A (ja) * | 2005-07-27 | 2007-02-08 | Toshiba Corp | 話者照合装置 |
JP4714523B2 (ja) * | 2005-07-27 | 2011-06-29 | 富士通東芝モバイルコミュニケーションズ株式会社 | 話者照合装置 |
JP2013205807A (ja) * | 2012-03-29 | 2013-10-07 | Toshiba Corp | モデル学習装置、モデル製造方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR0139949B1 (ko) | 1998-07-15 |
AU5240390A (en) | 1990-11-15 |
CA2013371C (en) | 2001-10-30 |
DE69031189T2 (de) | 1997-12-11 |
EP0397399A3 (en) | 1991-07-31 |
DE69031189D1 (de) | 1997-09-11 |
KR900018910A (ko) | 1990-12-22 |
EP0397399A2 (en) | 1990-11-14 |
AU636335B2 (en) | 1993-04-29 |
CA2013371A1 (en) | 1990-11-09 |
US5054083A (en) | 1991-10-01 |
JP3080388B2 (ja) | 2000-08-28 |
EP0397399B1 (en) | 1997-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH0354600A (ja) | 不明人物の同一性検証方法 | |
US5216720A (en) | Voice verification circuit for validating the identity of telephone calling card customers | |
US5548647A (en) | Fixed text speaker verification method and apparatus | |
EP0528990B1 (en) | Simultaneous speaker-independent voice recognition and verification over a telephone network | |
US6480825B1 (en) | System and method for detecting a recorded voice | |
EP0647344B1 (en) | Method for recognizing alphanumeric strings spoken over a telephone network | |
US5127043A (en) | Simultaneous speaker-independent voice recognition and verification over a telephone network | |
US5517558A (en) | Voice-controlled account access over a telephone network | |
EP1019904B1 (en) | Model enrollment method for speech or speaker recognition | |
EP0671043B1 (en) | Telephone network voice recognition and verification using selectively-adjustable signal thresholds | |
EP0983587B1 (en) | Speaker verification method using multiple class groups | |
IL129451A (en) | System and method for authentication of a speaker | |
WO2006013555A2 (en) | Method and system for verifying and enabling user access based on voice parameters | |
US20120029922A1 (en) | Method of accessing a dial-up service | |
Kounoudes et al. | Voice biometric authentication for enhancing Internet service security | |
JP2001350494A (ja) | 照合装置及び照合方法 | |
US9978373B2 (en) | Method of accessing a dial-up service | |
Kounoudes et al. | Intelligent Speaker Verification based Biometric System for Electronic Commerce Applications | |
AU4068402A (en) | System and method for detecting a recorded voice |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |