JPH10214095A - 話者認識装置 - Google Patents
話者認識装置Info
- Publication number
- JPH10214095A JPH10214095A JP9015595A JP1559597A JPH10214095A JP H10214095 A JPH10214095 A JP H10214095A JP 9015595 A JP9015595 A JP 9015595A JP 1559597 A JP1559597 A JP 1559597A JP H10214095 A JPH10214095 A JP H10214095A
- Authority
- JP
- Japan
- Prior art keywords
- speaker
- standard pattern
- unit
- text
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012790 confirmation Methods 0.000 claims abstract description 30
- 238000004364 calculation method Methods 0.000 claims abstract description 17
- 230000006978 adaptation Effects 0.000 claims description 51
- 238000006243 chemical reaction Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 claims 2
- 238000013507 mapping Methods 0.000 claims 1
- 238000000034 method Methods 0.000 description 32
- 238000012795 verification Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 6
- 238000010606 normalization Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 2
- 244000000231 Sesamum indicum Species 0.000 description 1
- 235000003434 Sesamum indicum Nutrition 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
- G10L17/24—Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
者照合と、不特定話者の音声による発話内容照合を組み
合わせることにより、登録が簡単かつ記憶容量の少なく
て済む録音による詐称に頑健な話者照合装置を実現する
ものである。 【解決手段】 提示部102は、登録語と一緒に発声す
べき発声内容をあらわす指定テキストを音声、映像等を
用いて話者に提示する。指定テキストおよび話者の登録
語の音声が入力されると、発話テキスト確認部107は
指定テキストを受理する標準パターンに対応付けられた
音声パターンの発話内容が指定テキストと同一であるこ
とを確認し、類似度計算部111は、入力されたIDに
対応する話者標準パターンと登録語と対応付けられた音
声パターンとの類似度をめ、判定部112は、発話テキ
スト確認部107で指定テキストが発声されたことが確
認され、かつ、類似度計算部111で求められた類似度
があらかじめ定められた閾値よりも大きい場合、発話者
を話者IDが示す話者であると判断する。
Description
認識、認証を行なう話者認識装置、とくに未知話者があ
る登録話者と同一人物であるかを認証する話者照合に関
する。
る。端子701には未知話者の音声が入力される。音声
分析部702は入力された音声を音響分析し、特徴パラ
メータの時系列である入力パターンを作成する。個人情
報入力端子705には話者名あるいは話者ID等の話者
を特定するための情報が入力される。話者標準パターン
記憶部703は各登録話者の登録語の音響的特徴を表す
標準パターンが登録されている。類似度計算部704は
端子705に入力された情報により特定される話者の標
準パターンを標準パターン記憶部703から読みだし、
入力パターンとの類似度を計算する。判定部706は求
められた類似度をあらかじめ定められた閾値と比較し、
類似度が閾値よりも高ければ本人として受理、そうでな
ければ詐称者として棄却と判定を行ない、端子707へ
結果を出力する。
発声を録音することにより容易に詐称が可能となる。そ
こで、話者のすべての音素/音節等の標準パターンを登
録しておき、照合時にはシステムあるいはユーザが指定
した発声内容を受理するよう標準パターンを適宜連結
し、入力音声との類似度を求める方式が知られている
(特開平5−323990号公報「話者認識方式」、以
下、文献1)。
いて説明する。テキスト生成部801では発声内容を表
す指定テキストが生成される。提示部802にはテキス
ト生成部で作成された指定テキストが提示される。端子
803には音声が入力される。分析部804は入力され
た音声を音響分析し、特徴パラメータの時系列である入
力パターンを作成する。個人情報入力端子805には話
者名あるいは話者ID等の話者を特定するための情報が
入力される。話者標準パターン記憶部806には登録話
者の音素/音節の音響的特徴を表す標準パターンが蓄え
られている。類似度計算部807はテキスト生成部で生
成された指定テキストにしたがって、入力されたIDに
対応する話者の音素/音節の標準パターンを連結し、指
定テキストを受理する標準パターンを作成し、入力パタ
ーンとの類似度を計算する。判定部808は求められた
類似度があらかじめ定められた閾値よりも大きければ本
人と判定、そうでなければ詐称者として棄却と判定を行
ない端子809へ出力する。
照合の度に変更することが可能となり前述の録音により
詐称することは困難となる。
話者ごとに任意の発声内容を生成し得る音素/音節の音
響パターンを生成、保持しなければならないため、登録
時の話者への負担が大きいことと話者の標準パターンを
記憶する容量が膨大であるという問題がある。
は、未知話者が登録話者本人であるか否かを判断する話
者認識装置であって、発話内容を表す指定テキストと、
話者毎の登録語とを発声することを話者に指示し、前記
発話内容と、前記登録語と、話者を示すIDとを入力
し、前記発話内容が指定テキストと同一で、前記IDに
対応する話者の音響的特徴と前記入力された登録語の音
響的特徴との類似度があらかじめ定められた閾値よりも
大きい場合に本人であると判定する。
合による話者照合と、不特定話者の音声による発話内容
照合を組み合わせることにより、登録が簡単かつ記憶容
量の少なくて済む録音による詐称に頑健な話者照合装置
を実現するものである。
法としては渡辺他「音節認識を用いたゆう度補正による
未知発話のリジェクション」、電子情報通信学会論文
誌、Vol.J75−D−II,NO.12,(199
2,12)(以下文献2)が知られている。文献2では
入力音声と認識対象単語の標準パターンとの類似度を、
入力音声と任意の音声が受理可能な標準パターンとの類
似度で正規化し、閾値と比較することで、精度良く認識
対象外音声のリジェクトが行なえると述べられている。
により指定されたテキストの発声を行なわせ、登録語の
発声を用いて話者の照合を、指定テキストを用いて発声
内容の確認を行なうことで録音による詐称を防ぐことが
できる。たとえば、始めに「月日と登録語を続けて発声
してください」と話者に対して発声すべきテキストを提
示する。つぎに、不特定話者の音素/音節の音響的特徴
を表す標準パターンを連結し、その日の年月日を受理す
る標準パターンと、登録語を受理する標準パターンを作
成し、入力パターンとの時間軸対応付けを動的計画法
(例えば、迫江他、「動的計画法を利用した音声の時間
正規かに基づく連続単語認識」、音響学会誌、27、
9、pp.483−500、以下文献3)を用いて行な
い、年月日と対応付けられた音声パターンと登録語と対
応付けられた音声パターンに分割する。
その話者の登録語の発話内容が登録されて場合には、そ
の発話内容に従って音素/音節標準パターンを連結し、
その登録語を受理する標準パターンを作成する。例えば
月日が「12月25日(じゅうにがつにじゅうごに
ち)」、ある話者の登録語が「開け胡麻(ひらけご
ま)」である場合には、図5に示すような単語連鎖を受
理する標準パターンを作成する。発声内容の登録は平仮
名等で読み情報を与える他に、その話者の登録語と不特
定話者の任意語を受理する標準パターンの時間軸対応づ
けを行ない、音素/音節等の標準パターンの連鎖情報と
してあたえることが可能である。
登録語の標準パターンとして任意の語を受理可能な図6
に示すような標準パターンを用いる。つぎに月日と対応
付けられた音声パターンを文献2に述べられている方法
により発声内容の確認を行なうために、年月日を受理す
る標準パターンとの類似度を任意の音声が受理可能な標
準パターンとの類似度を用いて正規化しあらかじめ定め
られた閾値よりも大きければ指定テキストが発声された
ものとして判断する。つぎに話者の登録語と対応付けら
れた音声パターンとその話者の標準パターンとの類似度
を求め、あらかじめ定められた閾値よりも大きく、か
つ、指定テキストが発声されたと判断された場合に本人
として受理、そうでなければ詐称者として棄却を行な
う。
ンとして登録しておくのは登録語の音響的特徴のみであ
るので、文献1のすべての音素/音節の音響的特徴を蓄
える方法にくらべ記憶容量が少ない話者照合装置が実現
できる。例えば音節を認識単位とした場合、日本語の音
節は拗音、外来語を含めると100種類以上存在する
が、先の「開け胡麻」を登録語とする場合には/ひらけ
ごま/の5音節分の音響的特徴でよいため、記憶容量は
概算で5/100以下となる。また、登録する音響的特
徴が少ないため、登録時に必要となる発声が少なくて済
み、話者への負担が小さいという利点がある。
対処することが可能であるが、より悪質な詐称者では指
定テキスト部についてはその場で発声し、録音編集によ
り切り出した登録語を再生することで詐称を企てること
が予想される。これに対処するためには、指定テキスト
と登録語が同一話者による発声であるかの検証が必要と
なる。例えば、指定テキストと登録語に対応付けられた
音声により話者照合を行なう方法が考えられる。一般に
指定テキストと登録語の発声内容はことなると考えられ
るので、この場合発話内容非依存の話者照合を行なうこ
ととなる。発話内容非依存の話者照合方式としては既に
提案されている種々の方法が利用可能であり、たとえ
ば、A.E. Rosenberg and F.K.
Soong,「Evaluation of aVec
tor Quantization Talker R
ecognition System in Text
Independent and Text Dep
endent Modes」,Proc. of IC
ASSP86, pp.873−876, (1986
−4).(以下文献4)で用いられたベクトル量子化に
基づく方法や、Douglas Reynolds,
「The effects of handsetva
riation on speaker recogn
itinoperformance:experime
nts on the switchboard co
rpus,」 Proc.of ICASSP96,p
p.113−116,(1996)(以下文献5)で用
いられている隠れマルコフモデルに基づく方法等を用い
ることができる。
内容に関する情報を用いないので発話内容依存の話者照
合に比べ困難であるが、ここでは同一時期、同一環境で
発声された音声を用いた照合であるので、発話内容非依
存の話者照合でも十分な照合精度が得られる。
しては、指定テキストと登録語に対応付けられた音声パ
ターンをそれぞれ定められた複数話者で発話内容非依存
の話者同定を行なうことにより確認する方法が考えられ
る。指定テキストと登録語の音声パターンが同一話者に
より発声されている場合、あらかじめ定められた複数の
話者との類似度を求めた場合、二つの音声パターンに対
する類似話者の傾向は同様となるはずである。したがっ
て、二つの音声パターンそれぞれに対し各話者の任意の
音声を受理する標準パターンとの類似度を求めることで
同一性を確認することができる。例えば、指定テキスト
と登録語に対応付けられた音声パターンのそれぞれにも
っとも類似した話者が一致する、あるいは、類似した話
者の上位5名の内、3名が一致する等の基準でしらべる
ことができる。さらに、各類似話者との類似度で順位に
重み付けする等、類似度の値を反映させることも可能で
ある。
しては、指定テキストと対応付けられた音声パターンを
用いて不特定話者の音素/音節標準パターンを話者適応
化し、登録語に対応付けられた音声パターンの適応化前
の不特定話者の標準パターンとの類似度と、適応化後の
標準パターンと類似度を比較し、適応後の類似度の方が
おおきければ同一話者と判定することも可能である。こ
れは指定テキストと登録語に対応付けられた音声パター
ンが同一話者のものであれば、片方をもちいて話者適応
を行なった場合、他方の類似度も向上することを利用す
るものである。もちろん、逆に登録語に対応付けられた
音声パターンを用いて話者適応化を行なうことも可能で
ある。用いる話者適応方式としては指定テキストを用い
る場合や、登録語の発声内容が既知の場合には発声内容
依存の話者適応方式を用いることができる。また、発声
内容が未知である登録語を適応化に用いる場合には、一
旦、任意の音声を受理可能な標準パターンを用いて認識
を行ない発声内容を決定すれば良い。ここで用いる話者
適応方式としては種々のものが利用可能であり、例え
ば、篠田、「木構造化された確率分布を用いた話者適応
化」、日本音響学会講演論文誌、pp.23−24、
(1991.9)(以下、文献6)等を用いる。
なく、指定テキストに対応付けられた音声パターンを用
いて、その話者の登録語の標準パターンを話者適応化
し、適応化後の標準パターンを用いて登録語に対応付け
られた音声パターンの照合に用いることにより、間接的
に指定テキストと登録語に対応付けられた音声パターン
の同一性を確認することも可能である。この場合、話者
適応により登録語に含まれる個人性情報が指定テキスト
を発声した話者のものとなるため、指定テキストと登録
テキストを発声した話者が同一であれば類似度が高くな
る。この場合、話者適応化後の登録語の標準パターンに
は登録話者の個人性情報が含まれなくなるため、話者適
応前の標準パターンと話者適応後の標準パターンの両者
との類似度を求め、それぞれ閾値との比較を行なう。話
者適応化方式としてはたとえば文献6の方式を用いる。
もちろん、直接話者の同一性を確認する手法と、話者適
応を用いて間接的に話者の同一性を確認する方法を併用
することも可能である。
ブロック図を図1に示す。
声すべき発声内容をあらわす指定テキストを生成する。
提示部102は前記指定テキストを音声、映像等を用い
て話者に提示する。端子103には指定テキストおよび
話者の登録語の音声が入力される。分析部104は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。不特定話者音声標準パターン記憶部1
05は不特定話者の音素/音節等の音響的特徴を表す標
準パターンが蓄えられている。時間軸対応づけ部106
は前記音素/音節等の標準パターンを連結し、前記指定
テキストおよび登録語を受理する標準パターン作成し、
前記入力パターンと時間軸の対応付けを行ない、入力パ
ターンを指定テキストと対応付けられた音声パターン
と、登録語と対応づけられた音声パターンに分割する。
発話テキスト確認部107は前記指定テキストと対応付
けられた音声パターンの指定テキストを受理する標準パ
ターンとの類似度を、任意の音声を受理する標準パター
ンとの類似度により正規化し、あらかじめ定められた閾
値よりも正規化後の類似度が大きければ指定テキストが
発声されたものと判定する。
の登録後の音響的特徴を表す標準パターンが蓄えられて
いる。話者情報入力部109には話者を特定する名前、
話者番号等により特定された話者のIDが入力される。
類似度計算部111は、前記入力されたIDに対応する
話者標準パターンと前記登録語と対応付けられた音声パ
ターンとの類似度を例えば文献3に述べられている方法
により求める。判定部112は、発話テキスト確認部1
07で指定テキストが発声されたことが確認され、か
つ、類似度計算部111で求められた類似度があらかじ
め定められた閾値よりも大きい場合、発話者を話者ID
が示す話者であると受理し、そうでない場合には詐称者
として棄却し、結果を端子113へ出力する。
図を図2に示す。
更に、話者同一性確認部208を付加したものである。
話者同一性確認部208は前記指定テキストと対応付け
られた音声パターンと、前記登録語と対応づけられた音
声パターンを用いて、例えば、文献3および4に述べら
れているような発話内容に依存しない話者照合を行な
い、二つの音声パターンが同一話者により発話されたか
の判定を行なう。判定部212は、発話テキスト確認部
207で指定テキストが発声されたことが確認され、か
つ、話者同一性確認部で、入力が同一話者により発話さ
れたことが確認され、かつ、類似度計算部211で求め
られた類似度があらかじめ定められた閾値よりも大きい
場合、発話者を話者IDが示す話者であると受理し、そ
うでない場合には詐称者として棄却し、結果を端子21
3へ出力する。
ては、前記指定テキストと対応付けられた音声パターン
と前記登録語と対応づけられた音声パターンのそれぞれ
を例えば文献4および5に述べられている発声内容非依
存の話者同定をあらかじめ定められた複数の話者セット
について行ない、それぞれの音声パターンの同定結果が
類似している場合に前記指定テキストと対応付けられた
音声パターンと前記登録語と対応づけられた音声パター
ンが同一話者により発話されたと判定を行なう。
法しては、前記指定テキストと対応付けられた音声パタ
ーンを用いて、例えば文献6で述べられている話者適応
方式を用いて不特定話者の音素/音節標準パターンを用
いて指定テキストを発話した話者に適応化し、前記登録
語と対応づけられた音声パターンと話者適応化前と話者
適応後の標準パターンとの類似度を求め、類似度があら
かじめ定められた閾値よりも大きく改善された場合に、
前記指定テキストと対応付けられた音声パターンと前記
登録語と対応づけられた音声パターンとが同一話者によ
り発話されたと判定を行なう。
図を図3に示す。
声すべき発声内容をあらわす指定テキストを生成する。
提示部302は前記指定テキストを音声、映像等を用い
て話者に提示する。端子303には指定テキストおよび
話者の登録語の音声が入力される。分析部304は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。
は不特定話者の音素/音節等の音響的特徴を表す標準パ
ターンが蓄えられている。時間軸対応付け部306は前
記音/素音節等の標準パターンを連結し、前記指定テキ
ストおよび登録語を受理する標準パターン作成し、前記
入力パターンと時間軸の対応付けを行ない、入力パター
ンを指定テキストと対応付けられた音声パターンと、登
録語と対応づけられた音声パターンに分割する。発話テ
キスト確認部307は前記指定テキストと対応付けられ
た音声パターンの指定テキストを受理する標準パターン
との類似度を、任意の音声を受理する標準パターンとの
類似度により正規化し、あらかじめ定められた閾値より
も正規化後の類似度が大きければ指定テキストが発声さ
れたものと判定する。話者標準パターン記憶部310は
各話者の登録後の音響的特徴を表す標準パターンが蓄え
られている。話者情報入力部309には話者を特定する
名前、話者番号等により特定された話者のIDが入力さ
れる。話者適応部314は、前記入力されたIDに対応
する話者標準パターンを前記指定テキストと対応付けら
れた音声パターンを用いて、例えば文献6に述べられて
いる話者適応方法を用いて適応化する。類似度計算部3
11は話者適応部により話者適応化された標準パターン
と前記登録語と対応付けられた音声パターンとの類似度
である適応化後類似度と、話者適応前の標準パターンと
前記登録語と対応付けられた音声パターンとの類似度で
ある適応化前類似度を求める。判定部312は、発話テ
キスト確認部307で指定テキストが発声されたことが
確認され、かつ、前記話者適応化前類似度があらかじめ
定められた閾値よりも大きく、かつ、前記話者適応化後
類似度と前記話者適応化前類似度の差が別にあらかじめ
定められた閾値よりも大きい場合、発話者を話者IDが
示す話者であると受理し、そうでない場合には詐称者と
して棄却し、結果を端子313へ出力する。
図を図4に示す。
声すべき発声内容をあらわす指定テキストを生成する。
提示部402は前記指定テキストを音声、映像等を用い
て話者に提示する。端子403には指定テキストおよび
話者の登録語の音声が入力される。分析部404は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。
は不特定話者の音素/音節等の音響的特徴を表す標準パ
ターンが蓄えられている。時間軸対応付け部406は前
記音素/音節等の標準パターンを連結し、前記指定テキ
ストおよび登録語を受理する標準パターン作成し、前記
入力パターンと時間軸の対応付けを行ない、入力パター
ンを指定テキストと対応付けられた音声パターンと、登
録語と対応づけられた音声パターンに分割する。発話テ
キスト確認部407は前記指定テキストと対応付けられ
た音声パターンの指定テキストを受理する標準パターン
との類似度を、任意の音声を受理する標準パターンとの
類似度により正規化し、あらかじめ定められた閾値より
も正規化後の類似度が大きければ指定テキストが発声さ
れたものと判定する。話者同一性確認部408は前記指
定テキストと対応付けられた音声パターン前記登録語と
対応づけられた音声パターンを用いて、例えば、文献3
および4に述べられているような発話内容に依存しない
話者照合を行ない、二つの音声パターンが同一話者によ
り発話されたかの判定を行なう。
ては、前記指定テキストと対応付けられた音声パターン
と前記登録語と対応づけられた音声パターンのそれぞれ
を例えば文献4および5に述べられている発声内容非依
存の話者同定をあらかじめ定められた複数の話者セット
について行ない、それぞれの音声パターンの同定結果が
類似している場合に前記指定テキストと対応付けられた
音声パターンと前記登録語と対応づけられた音声パター
ンが同一話者により発話されたと判定を行なう。
法しては、前記指定テキストと対応付けられた音声パタ
ーンを用いて、例えば文献6で述べられている話者適応
方式を用いて不特定話者の音素/音節標準パターンを用
いて指定テキストを発話した話者に適応化し、前記登録
語と対応づけられた音声パターンと話者適応化前と話者
適応後の標準パターンとの類似度を求め、類似度があら
かじめ定められた閾値よりも大きく改善された場合に前
記指定テキストと対応付けられた音声パターンと、前記
登録語と対応づけられた音声パターンとが同一話者によ
り発話されたと判定を行なう。
登録後の音響的特徴を表す標準パターンが蓄えられてい
る。話者情報入力部409には話者を特定する名前、話
者番号等により特定された話者のIDが入力される。話
者適応部414は、前記入力されたIDに対応する話者
標準パターンを前記指定テキストと対応付けられた音声
パターンを用いて、例えば文献6に述べられている話者
適応方法を用いて適応化する。類似度計算部411は話
者適応部により話者適応化された標準パターンと前記登
録語と対応付けられた音声パターンとの類似度である適
応化後類似度と、話者適応前の標準パターンと前記登録
語と対応付けられた音声パターンとの類似度である適応
化前類似度を求める。判定部412は、発話テキスト確
認部407で指定テキストが発声されたことが確認さ
れ、かつ、話者同一性確認部408で、同一話者により
発話がなされたことが確認され、かつ、前記話者適応化
前類似度があらかじめ定められた閾値よりも大きく、か
つ、前記話者適応化後類似度と前記話者適応化前類似度
の差が別にあらかじめ定められた閾値よりも大きい場
合、発話者を話者IDが示す話者であると受理し、そう
でない場合には詐称者として棄却し、結果を端子413
へ出力する。
ーンとして登録語のみの音響的特徴を蓄えるだけで良い
ため、登録時の話者への負担が少なく、話者の標準パタ
ーンの記憶容量が少ない、録音による詐称に頑健な話者
認識装置が実現できる。
ある。
ある。
ある。
ある。
Claims (12)
- 【請求項1】未知話者が登録話者本人であるか否かを判
断する話者認識装置であって、発話内容を表す指定テキ
ストと、話者毎の登録語とを発声することを話者に指示
し、前記発話内容と、前記登録語と、話者を示すIDと
を入力し、前記発話内容が指定テキストと同一で、前記
IDに対応する話者の音響的特徴と前記入力された登録
語の音響的特徴との類似度があらかじめ定められた閾値
よりも大きい場合に本人であると判定することを特徴と
する話者認識装置。 - 【請求項2】未知話者が登録話者本人であるか否かを判
断する話者認識装置であって、発話内容を表す指定テキ
ストと、話者毎の登録語とを発声することを話者に指示
し、前記発話内容と、前記登録語と、話者を示すIDと
を入力し、前記発話内容と前記登録語とが同一話者によ
る発声であり、前記発話内容が指定テキストと同一であ
り、前記IDに対応する話者の音響的特徴と前記入力さ
れた登録語の音響的特徴との類似度があらかじめ定めら
れた閾値よりも大きい場合に本人であると判定すること
を特徴とする話者認識装置。 - 【請求項3】未知話者が登録話者本人であるかを認証す
る話者認識装置であって、発話内容を表す指定テキスト
を生成するテキスト生成部と、前記指定テキストを話者
毎の登録語と一緒に発声するよう話者に伝えるテキスト
提示部と、音声を入力する入力部と、話者を表すIDを
受けとる話者情報入力部と、不特定話者の任意の発話内
容を表現できる音素/音節等の音響的特徴の標準パター
ンが蓄えられている不特定話者音声標準パターン記憶部
と、複数の話者の登録語の音響的特徴が蓄えられている
話者標準パターン記憶部と、入力音声波形を分析し特徴
量を抽出して入力パターンへ変換する音声分析部と、前
記不特定話者音声標準パターン記憶部に蓄えられた音素
/音節等の標準パターンを連結し、前記指定テキストお
よび登録語を受理可能な標準パターンを作成し、前記入
力パターンとの時間軸対応づけを行なう時間軸対応付け
部と、前記時間軸対応付け部で前記指定テキストを受理
する標準パターンに対応づけられた音声パターンの発話
内容が指定テキストと同一であることを確認する発話テ
キスト確認部と、複数の話者の音響的特徴が蓄えられて
いる話者標準パターン記憶部と、前記話者標準パターン
記憶部に蓄えられている前記話者を表すIDに対応する
話者の標準パターンと、前記時間軸対応付け部で登録語
を受理可能なように連結された標準パターンと対応付け
られた音声パターンとの類似度を求める類似度計算部
と、前記発話テキスト確認部で指定テキストが発話され
たことが確認され、前記類似度計算部により計算された
類似度があらかじめ定められた閾値よりも大きい場合
に、本人であると判定する判定部とから構成されること
を特徴とする話者認識装置。 - 【請求項4】前記時間軸対応付け部で前記指定テキスト
を受理する標準パターンに対応付けられた音声パターン
と登録語を受理する標準パターンに対応づけられた音声
パターンが同一話者による発声であることを確認する話
者同一性確認部を更に備え、前記判定部は、前記発話テ
キスト確認部において指定テキストが発話されたこと及
び前記話者同一性確認部で指定テキストおよび登録語が
同一話者により発声されたことが確認され、前記類似度
計算部により計算された類似度があらかじめ定められた
閾値よりも大きい場合に、本人であると判定することを
特徴とする請求項3記載の話者認識装置。 - 【請求項5】未知話者が登録話者本人であるかを認証す
る話者認識装置であって、発話内容を表す指定テキスト
を生成するテキスト生成部と、前記指定テキストを話者
毎の登録語と一緒に発声するよう話者に伝えるテキスト
提示部と、音声を入力する入力部と、音声あるいはキー
ボード等により入力された話者を表すIDを受けとる話
者情報入力部と、複数の話者の登録語の音響的特徴が蓄
えられている話者標準パターン記憶部と、不特定話者の
任意の発話内容を表現できる音素/音節等の音響的特徴
の標準パターンが蓄えられている不特定話者音声標準パ
ターン記憶部と、入力音声波形を分析し特徴量を抽出し
て入力パターンへ変換する音声分析部と、前記不特定話
者音声標準パターン記憶部に蓄えらた音素/音節等の標
準パターンを連結し、前記指定テキストおよび登録語を
受理可能な標準パターンを作成し、入力パターンとの時
間軸対応づけを行なう時間軸対応付け部と、前記時間軸
対応付け部で前記指定テキストを受理する標準パターン
に対応づけられた音声パターンの発話内容が指定テキス
トと同一であることを確認する発話テキスト確認部と、
前記時間軸対応付け部で前記指定テキストを受理する標
準パターンに対応付けられた音声パターンを用いて前記
IDに対応する話者の標準パターンを入力音声に適応化
させる話者適応部と、前記適応化後の話者標準パターン
と前記時間軸対応付け部で登録語を受理可能なように連
結された標準パターンと対応付けられた音声パターンと
の類似度である適応化後類似度と、前記適応化前の話者
標準パターンと前記時間軸対応付け部で登録語を受理可
能なように連結された標準パターンと対応付けられた音
声パターンとの類似度である適応化前類似度とを求める
類似度計算部と、前記発話テキスト確認部で指定テキス
トが発話されたことが確認され、前記適応化前類似度が
あらかじめ定められた閾値よりも大きく、前記適応化後
類似度が前記適応化前類似度よりもあらかじめ定められ
た別の閾値以上に大きい場合に、本人であると判定を行
なう判定部とから構成されることを特徴とする話者認識
装置。 - 【請求項6】前記時間軸対応付け部で前記指定テキスト
を受理する標準パターンに対応付けられた音声パターン
と登録語を受理する標準パターンに対応づけられた音声
パターンが同一話者による発声であることを確認する話
者同一性確認部を更に備え、前記判定部は、前記発話テ
キスト確認部において指定テキストが発話されたこと及
び前記話者同一性確認部で同一話者により指定テキスト
および登録語が発声されたことが確認され、前記適応化
前類似度があらかじめ定められた閾値よりも大きく、前
記適応化後類似度が前記適応化前類似度よりもあらかじ
め定められた別の閾値以上に大きい場合に、本人である
と判定することを特徴とする請求項5記載の話者認識装
置。 - 【請求項7】前記発話テキスト確認部は、前記前記指定
テキストを受理する標準パターンに対応づけられた音声
パターンの指定テキストのみを受理する標準パターンと
の類似度を、任意の音素/音節系列を受理可能な標準パ
ターンとの類似度により正規化し、正規化後の類似度が
あらかじめ定められた閾値よりも大きい場合に、発話内
容が指定テキストと同一であることを確認することを特
徴とする請求項3、4、5又は6記載の話者認識装置。 - 【請求項8】前記話者同一性確認部は、前記時間軸対応
付け部で前記指定テキストを受理する標準パターンに対
応付けられた音声パターンと登録語を受理する標準パタ
ーンに対応づけられた音声パターンの類似度を計算し、
あらかじめ定められた閾値と比較することにより同一話
者であることを確認することを特徴とする請求項4又は
6記載の話者認識装置。 - 【請求項9】前記話者同一性確認部は、前記時間軸対応
付け部で前記指定テキストを受理する標準パターンに対
応付けられた音声パターンと、登録語を受理する標準パ
ターンに対応づけられた音声パターンのそれぞれについ
て、あらかじめ定められた複数話者の各話者の任意の音
素/音節系列を受理可能な標準パターンとの類似度を求
め、前記二つの音声パターンの類似度の大きい話者の順
位を比較することで同一話者が発声しているかの確認を
行なうことを特徴とする請求項4又は6記載の話者認識
装置。 - 【請求項10】前記話者同一性確認部は、前記時間軸対
応付け部で前記指定テキストを受理する標準パターンに
対応付けられた音声パターンと、登録語を受理する標準
パターンに対応づけられた音声パターンのどちらか一方
を用いて不特定話者の任意の音素/音節等の系列を受理
可能な標準パターンを話者適応化し、他方の音声パター
ンの話者適応化前の標準パターンとの類似度と話者適応
化後の標準パターンとの類似度の比較することで同一話
者が発声しているかの確認を行なうことを特徴とする請
求項4又は6記載の話者認識装置。 - 【請求項11】前記時間軸対応付け部は前記登録語を受
理可能な標準パターンとして任意の音素/音素系列を受
理可能な標準パターンを用いることを特徴とする請求項
3、4、5、6、7、8、9又は10記載の話者認識装
置。 - 【請求項12】前記話者標準パターン記憶部は複数の話
者の登録語の音響的特徴および発声内容を蓄え、前記時
間軸対応づけ部は前記登録語を受理可能な標準パターン
として前記入力された話者IDに対応した前記発声内容
を受理する標準パターンを用いることを特徴とする請求
項3、4、5、6、7、8、9又は10記載の話者認識
装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9015595A JP2991144B2 (ja) | 1997-01-29 | 1997-01-29 | 話者認識装置 |
CA002227925A CA2227925C (en) | 1997-01-29 | 1998-01-27 | Speaker recognition device |
EP98101563A EP0856836B1 (en) | 1997-01-29 | 1998-01-29 | Speaker recognition device |
DE69814195T DE69814195T2 (de) | 1997-01-29 | 1998-01-29 | Vorrichtung zur Sprechererkennung |
US09/015,757 US6094632A (en) | 1997-01-29 | 1998-01-29 | Speaker recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9015595A JP2991144B2 (ja) | 1997-01-29 | 1997-01-29 | 話者認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10214095A true JPH10214095A (ja) | 1998-08-11 |
JP2991144B2 JP2991144B2 (ja) | 1999-12-20 |
Family
ID=11893080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9015595A Expired - Fee Related JP2991144B2 (ja) | 1997-01-29 | 1997-01-29 | 話者認識装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US6094632A (ja) |
EP (1) | EP0856836B1 (ja) |
JP (1) | JP2991144B2 (ja) |
CA (1) | CA2227925C (ja) |
DE (1) | DE69814195T2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062874A (ja) * | 2003-08-11 | 2005-03-10 | Microsoft Corp | 音声認識で機能強化された発信者識別 |
JP2005128307A (ja) * | 2003-10-24 | 2005-05-19 | Aruze Corp | 声紋認証システム |
WO2016092807A1 (ja) * | 2014-12-11 | 2016-06-16 | 日本電気株式会社 | 話者識別装置および話者識別用の登録音声の特徴量登録方法 |
JP2021033315A (ja) * | 2019-08-13 | 2021-03-01 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
Families Citing this family (72)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5897616A (en) * | 1997-06-11 | 1999-04-27 | International Business Machines Corporation | Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases |
AU1933599A (en) * | 1997-12-19 | 1999-07-12 | Blake Rice | Automated right-party contact telephone system |
JP3090119B2 (ja) * | 1998-05-15 | 2000-09-18 | 日本電気株式会社 | 話者照合装置、方法及び記憶媒体 |
JP3156668B2 (ja) * | 1998-06-19 | 2001-04-16 | 日本電気株式会社 | 音声認識装置 |
US7283964B1 (en) * | 1999-05-21 | 2007-10-16 | Winbond Electronics Corporation | Method and apparatus for voice controlled devices with improved phrase storage, use, conversion, transfer, and recognition |
US6332122B1 (en) * | 1999-06-23 | 2001-12-18 | International Business Machines Corporation | Transcription system for multiple speakers, using and establishing identification |
DE19952049A1 (de) * | 1999-10-28 | 2001-05-10 | Siemens Ag | Verfahren und Anordnung zur Verifikation eines Sprechers anhand eines Rechners |
US6690772B1 (en) * | 2000-02-07 | 2004-02-10 | Verizon Services Corp. | Voice dialing using speech models generated from text and/or speech |
EP1158492A1 (de) * | 2000-05-23 | 2001-11-28 | Ascom Systec AG | Benutzerauthentifizierung beim Telebanking |
WO2002019317A1 (en) | 2000-09-01 | 2002-03-07 | Eliza Corporation | Sppech recognition method and system to determine the status of an outbound telephone call |
AU2002213338A1 (en) | 2000-10-16 | 2002-04-29 | Eliza Corporation | Method of and system for providing adaptive respondent training in a speech recognition application |
US6973426B1 (en) | 2000-12-29 | 2005-12-06 | Cisco Technology, Inc. | Method and apparatus for performing speaker verification based on speaker independent recognition of commands |
US20020104027A1 (en) * | 2001-01-31 | 2002-08-01 | Valene Skerpac | N-dimensional biometric security system |
US20030037004A1 (en) * | 2001-08-14 | 2003-02-20 | Chuck Buffum | Dialog-based voiceprint security for business transactions |
US7624073B1 (en) | 2001-09-21 | 2009-11-24 | Yt Acquisition Corporation | System and method for categorizing transactions |
US7437330B1 (en) | 2002-09-20 | 2008-10-14 | Yt Acquisition Corp. | System and method for categorizing transactions |
US7765164B1 (en) | 2001-09-21 | 2010-07-27 | Yt Acquisition Corporation | System and method for offering in-lane periodical subscriptions |
US8200980B1 (en) | 2001-09-21 | 2012-06-12 | Open Invention Network, Llc | System and method for enrolling in a biometric system |
US7464059B1 (en) | 2001-09-21 | 2008-12-09 | Yt Acquisition Corporation | System and method for purchase benefits at a point of sale |
US7269737B2 (en) | 2001-09-21 | 2007-09-11 | Pay By Touch Checking Resources, Inc. | System and method for biometric authorization for financial transactions |
US7533809B1 (en) | 2001-09-21 | 2009-05-19 | Yt Acquisition Corporation | System and method for operating a parking facility |
US9189788B1 (en) | 2001-09-21 | 2015-11-17 | Open Invention Network, Llc | System and method for verifying identity |
FR2842643B1 (fr) * | 2002-07-22 | 2004-09-03 | France Telecom | Normalisation de score de verification dans un dispositif de reconnaissance vocale de locuteur |
US7467403B2 (en) | 2004-01-09 | 2008-12-16 | Harris Scott C | Techniques for entry of less-than-perfect-passwords |
DE102004014416A1 (de) * | 2004-03-18 | 2005-10-06 | Deutsche Telekom Ag | Verfahren und System zur Personen/Sprecherverifikation über Kommunikationssysteme |
JP2006197115A (ja) * | 2005-01-12 | 2006-07-27 | Fuji Photo Film Co Ltd | 撮像装置及び画像出力装置 |
US7949533B2 (en) * | 2005-02-04 | 2011-05-24 | Vococollect, Inc. | Methods and systems for assessing and improving the performance of a speech recognition system |
US8200495B2 (en) | 2005-02-04 | 2012-06-12 | Vocollect, Inc. | Methods and systems for considering information about an expected response when performing speech recognition |
US7827032B2 (en) * | 2005-02-04 | 2010-11-02 | Vocollect, Inc. | Methods and systems for adapting a model for a speech recognition system |
US7895039B2 (en) * | 2005-02-04 | 2011-02-22 | Vocollect, Inc. | Methods and systems for optimizing model adaptation for a speech recognition system |
US7865362B2 (en) * | 2005-02-04 | 2011-01-04 | Vocollect, Inc. | Method and system for considering information about an expected response when performing speech recognition |
US20080312926A1 (en) * | 2005-05-24 | 2008-12-18 | Claudio Vair | Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition |
US8533485B1 (en) | 2005-10-13 | 2013-09-10 | At&T Intellectual Property Ii, L.P. | Digital communication biometric authentication |
US8458465B1 (en) | 2005-11-16 | 2013-06-04 | AT&T Intellectual Property II, L. P. | Biometric authentication |
US8244532B1 (en) * | 2005-12-23 | 2012-08-14 | At&T Intellectual Property Ii, L.P. | Systems, methods, and programs for detecting unauthorized use of text based communications services |
US20070219792A1 (en) * | 2006-03-20 | 2007-09-20 | Nu Echo Inc. | Method and system for user authentication based on speech recognition and knowledge questions |
US8099288B2 (en) * | 2007-02-12 | 2012-01-17 | Microsoft Corp. | Text-dependent speaker verification |
US7881938B2 (en) * | 2007-03-27 | 2011-02-01 | Nuance Communications, Inc. | Speech bookmarks in a voice user interface using a speech recognition engine and acoustically generated baseforms |
DE102007021772B4 (de) | 2007-05-09 | 2013-01-24 | Voicecash Ip Gmbh | Digitales Verfahren und Anordnung zur Authentifizierung eines Nutzers einer Datenbasis |
US8050919B2 (en) * | 2007-06-29 | 2011-11-01 | Microsoft Corporation | Speaker recognition via voice sample based on multiple nearest neighbor classifiers |
US8136034B2 (en) | 2007-12-18 | 2012-03-13 | Aaron Stanton | System and method for analyzing and categorizing text |
US8332223B2 (en) | 2008-10-24 | 2012-12-11 | Nuance Communications, Inc. | Speaker verification methods and apparatus |
US8190437B2 (en) | 2008-10-24 | 2012-05-29 | Nuance Communications, Inc. | Speaker verification methods and apparatus |
US8442824B2 (en) | 2008-11-26 | 2013-05-14 | Nuance Communications, Inc. | Device, system, and method of liveness detection utilizing voice biometrics |
WO2010066269A1 (en) * | 2008-12-10 | 2010-06-17 | Agnitio, S.L. | Method for verifying the identify of a speaker and related computer readable medium and computer |
US8914290B2 (en) | 2011-05-20 | 2014-12-16 | Vocollect, Inc. | Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment |
US8898064B1 (en) * | 2012-03-19 | 2014-11-25 | Rawles Llc | Identifying candidate passwords from captured audio |
US9489950B2 (en) * | 2012-05-31 | 2016-11-08 | Agency For Science, Technology And Research | Method and system for dual scoring for text-dependent speaker verification |
WO2013190169A1 (en) * | 2012-06-18 | 2013-12-27 | Aplcomp Oy | Arrangement and method for accessing a network service |
ES2605779T3 (es) | 2012-09-28 | 2017-03-16 | Agnitio S.L. | Reconocimiento de orador |
US20140095161A1 (en) * | 2012-09-28 | 2014-04-03 | At&T Intellectual Property I, L.P. | System and method for channel equalization using characteristics of an unknown signal |
US9043210B1 (en) | 2012-10-02 | 2015-05-26 | Voice Security Systems, Inc. | Biometric voice command and control switching device and method of use |
US9978395B2 (en) | 2013-03-15 | 2018-05-22 | Vocollect, Inc. | Method and system for mitigating delay in receiving audio stream during production of sound from audio stream |
JP6276132B2 (ja) * | 2014-07-30 | 2018-02-07 | 株式会社東芝 | 発話区間検出装置、音声処理システム、発話区間検出方法およびプログラム |
US10008208B2 (en) * | 2014-09-18 | 2018-06-26 | Nuance Communications, Inc. | Method and apparatus for performing speaker recognition |
US10740578B2 (en) | 2015-04-08 | 2020-08-11 | Fractal Antenna Systems, Inc. | Fractal plasmonic surface reader |
US10141009B2 (en) | 2016-06-28 | 2018-11-27 | Pindrop Security, Inc. | System and method for cluster-based audio event detection |
US10714121B2 (en) | 2016-07-27 | 2020-07-14 | Vocollect, Inc. | Distinguishing user speech from background speech in speech-dense environments |
US9824692B1 (en) | 2016-09-12 | 2017-11-21 | Pindrop Security, Inc. | End-to-end speaker recognition using deep neural network |
WO2018053537A1 (en) | 2016-09-19 | 2018-03-22 | Pindrop Security, Inc. | Improvements of speaker recognition in the call center |
WO2018053531A1 (en) * | 2016-09-19 | 2018-03-22 | Pindrop Security, Inc. | Dimensionality reduction of baum-welch statistics for speaker recognition |
WO2018053518A1 (en) | 2016-09-19 | 2018-03-22 | Pindrop Security, Inc. | Channel-compensated low-level features for speaker recognition |
US10397398B2 (en) | 2017-01-17 | 2019-08-27 | Pindrop Security, Inc. | Authentication using DTMF tones |
EP4293661A3 (en) | 2017-04-20 | 2024-02-21 | Google LLC | Multi-user authentication on a device |
US10592649B2 (en) * | 2017-08-09 | 2020-03-17 | Nice Ltd. | Authentication via a dynamic passphrase |
CN108305615B (zh) * | 2017-10-23 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 一种对象识别方法及其设备、存储介质、终端 |
CN109741749B (zh) * | 2018-04-19 | 2020-03-27 | 北京字节跳动网络技术有限公司 | 一种语音识别的方法和终端设备 |
KR102623246B1 (ko) * | 2018-10-12 | 2024-01-11 | 삼성전자주식회사 | 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체. |
US11355103B2 (en) | 2019-01-28 | 2022-06-07 | Pindrop Security, Inc. | Unsupervised keyword spotting and word discovery for fraud analytics |
WO2020163624A1 (en) | 2019-02-06 | 2020-08-13 | Pindrop Security, Inc. | Systems and methods of gateway detection in a telephone network |
WO2020198354A1 (en) | 2019-03-25 | 2020-10-01 | Pindrop Security, Inc. | Detection of calls from voice assistants |
US12015637B2 (en) | 2019-04-08 | 2024-06-18 | Pindrop Security, Inc. | Systems and methods for end-to-end architectures for voice spoofing detection |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5548647A (en) * | 1987-04-03 | 1996-08-20 | Texas Instruments Incorporated | Fixed text speaker verification method and apparatus |
US4987480A (en) * | 1989-07-11 | 1991-01-22 | Massachusetts Institute Of Technology | Multiscale coding of images |
JPH05323990A (ja) * | 1992-03-19 | 1993-12-07 | Nippon Telegr & Teleph Corp <Ntt> | 話者認識方法 |
US5414755A (en) * | 1994-08-10 | 1995-05-09 | Itt Corporation | System and method for passive voice verification in a telephone network |
US5774525A (en) * | 1995-01-23 | 1998-06-30 | International Business Machines Corporation | Method and apparatus utilizing dynamic questioning to provide secure access control |
EP0810737A3 (en) * | 1996-05-30 | 1999-03-03 | Gandalf Technologies Inc. | Method and apparatus for performing simultaneous data compression and encryption |
-
1997
- 1997-01-29 JP JP9015595A patent/JP2991144B2/ja not_active Expired - Fee Related
-
1998
- 1998-01-27 CA CA002227925A patent/CA2227925C/en not_active Expired - Fee Related
- 1998-01-29 US US09/015,757 patent/US6094632A/en not_active Expired - Fee Related
- 1998-01-29 DE DE69814195T patent/DE69814195T2/de not_active Expired - Fee Related
- 1998-01-29 EP EP98101563A patent/EP0856836B1/en not_active Expired - Lifetime
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062874A (ja) * | 2003-08-11 | 2005-03-10 | Microsoft Corp | 音声認識で機能強化された発信者識別 |
JP2005128307A (ja) * | 2003-10-24 | 2005-05-19 | Aruze Corp | 声紋認証システム |
WO2016092807A1 (ja) * | 2014-12-11 | 2016-06-16 | 日本電気株式会社 | 話者識別装置および話者識別用の登録音声の特徴量登録方法 |
JP2021033315A (ja) * | 2019-08-13 | 2021-03-01 | 富士ゼロックス株式会社 | 情報処理装置及び情報処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
DE69814195D1 (de) | 2003-06-12 |
US6094632A (en) | 2000-07-25 |
CA2227925A1 (en) | 1998-07-29 |
EP0856836B1 (en) | 2003-05-07 |
EP0856836A2 (en) | 1998-08-05 |
JP2991144B2 (ja) | 1999-12-20 |
DE69814195T2 (de) | 2004-01-08 |
CA2227925C (en) | 2001-11-27 |
EP0856836A3 (en) | 1999-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2991144B2 (ja) | 話者認識装置 | |
US10339290B2 (en) | Spoken pass-phrase suitability determination | |
US7447632B2 (en) | Voice authentication system | |
Faundez-Zanuy et al. | State-of-the-art in speaker recognition | |
US5913192A (en) | Speaker identification with user-selected password phrases | |
US20160372116A1 (en) | Voice authentication and speech recognition system and method | |
EP0892388B1 (en) | Method and apparatus for providing speaker authentication by verbal information verification using forced decoding | |
US20080312926A1 (en) | Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition | |
JPH11507443A (ja) | 話者確認システム | |
Reynolds | Automatic speaker recognition: Current approaches and future trends | |
CN101154380B (zh) | 说话人认证的注册及验证的方法和装置 | |
De Leon et al. | Evaluation of the vulnerability of speaker verification to synthetic speech | |
Ilyas et al. | Speaker verification using vector quantization and hidden Markov model | |
Ozaydin | Design of a text independent speaker recognition system | |
EP0892387A1 (en) | Method and apparatus for providing speaker authentication by verbal information verification | |
Jayanna et al. | Fuzzy vector quantization for speaker recognition under limited data conditions | |
JP4245948B2 (ja) | 音声認証装置、音声認証方法及び音声認証プログラム | |
JP3251460B2 (ja) | 話者照合方法および装置 | |
JP4391179B2 (ja) | 話者認識システム及び方法 | |
JP3075250B2 (ja) | 話者認識方法及び装置 | |
JP3036509B2 (ja) | 話者照合における閾値決定方法及び装置 | |
JP3090122B2 (ja) | 話者照合装置 | |
de Lima et al. | On the use of PCA in GMM and AR-vector models for text independent speaker verification | |
JP5436951B2 (ja) | 本人認証装置および本人認証方法 | |
Toledano et al. | BioSec Multimodal Biometric Database in Text-Dependent Speaker Recognition. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19990914 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071015 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081015 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091015 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101015 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |