JPH10214095A - 話者認識装置 - Google Patents

話者認識装置

Info

Publication number
JPH10214095A
JPH10214095A JP9015595A JP1559597A JPH10214095A JP H10214095 A JPH10214095 A JP H10214095A JP 9015595 A JP9015595 A JP 9015595A JP 1559597 A JP1559597 A JP 1559597A JP H10214095 A JPH10214095 A JP H10214095A
Authority
JP
Japan
Prior art keywords
speaker
standard pattern
unit
text
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9015595A
Other languages
English (en)
Other versions
JP2991144B2 (ja
Inventor
Hiroaki Hattori
浩明 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP9015595A priority Critical patent/JP2991144B2/ja
Priority to CA002227925A priority patent/CA2227925C/en
Priority to EP98101563A priority patent/EP0856836B1/en
Priority to DE69814195T priority patent/DE69814195T2/de
Priority to US09/015,757 priority patent/US6094632A/en
Publication of JPH10214095A publication Critical patent/JPH10214095A/ja
Application granted granted Critical
Publication of JP2991144B2 publication Critical patent/JP2991144B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies
    • G10L17/14Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces
    • G10L17/24Interactive procedures; Man-machine interfaces the user being prompted to utter a password or a predefined phrase

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Game Theory and Decision Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

(57)【要約】 【課題】 本人の登録語標準パターンとの照合による話
者照合と、不特定話者の音声による発話内容照合を組み
合わせることにより、登録が簡単かつ記憶容量の少なく
て済む録音による詐称に頑健な話者照合装置を実現する
ものである。 【解決手段】 提示部102は、登録語と一緒に発声す
べき発声内容をあらわす指定テキストを音声、映像等を
用いて話者に提示する。指定テキストおよび話者の登録
語の音声が入力されると、発話テキスト確認部107は
指定テキストを受理する標準パターンに対応付けられた
音声パターンの発話内容が指定テキストと同一であるこ
とを確認し、類似度計算部111は、入力されたIDに
対応する話者標準パターンと登録語と対応付けられた音
声パターンとの類似度をめ、判定部112は、発話テキ
スト確認部107で指定テキストが発声されたことが確
認され、かつ、類似度計算部111で求められた類似度
があらかじめ定められた閾値よりも大きい場合、発話者
を話者IDが示す話者であると判断する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は音声を用いて本人の
認識、認証を行なう話者認識装置、とくに未知話者があ
る登録話者と同一人物であるかを認証する話者照合に関
する。
【0002】
【従来の技術】始めに図7を用いて話者照合を説明す
る。端子701には未知話者の音声が入力される。音声
分析部702は入力された音声を音響分析し、特徴パラ
メータの時系列である入力パターンを作成する。個人情
報入力端子705には話者名あるいは話者ID等の話者
を特定するための情報が入力される。話者標準パターン
記憶部703は各登録話者の登録語の音響的特徴を表す
標準パターンが登録されている。類似度計算部704は
端子705に入力された情報により特定される話者の標
準パターンを標準パターン記憶部703から読みだし、
入力パターンとの類似度を計算する。判定部706は求
められた類似度をあらかじめ定められた閾値と比較し、
類似度が閾値よりも高ければ本人として受理、そうでな
ければ詐称者として棄却と判定を行ない、端子707へ
結果を出力する。
【0003】この場合、登録時あるいは照合時の登録語
発声を録音することにより容易に詐称が可能となる。そ
こで、話者のすべての音素/音節等の標準パターンを登
録しておき、照合時にはシステムあるいはユーザが指定
した発声内容を受理するよう標準パターンを適宜連結
し、入力音声との類似度を求める方式が知られている
(特開平5−323990号公報「話者認識方式」、以
下、文献1)。
【0004】以下では、図8を用いて文献1の方法につ
いて説明する。テキスト生成部801では発声内容を表
す指定テキストが生成される。提示部802にはテキス
ト生成部で作成された指定テキストが提示される。端子
803には音声が入力される。分析部804は入力され
た音声を音響分析し、特徴パラメータの時系列である入
力パターンを作成する。個人情報入力端子805には話
者名あるいは話者ID等の話者を特定するための情報が
入力される。話者標準パターン記憶部806には登録話
者の音素/音節の音響的特徴を表す標準パターンが蓄え
られている。類似度計算部807はテキスト生成部で生
成された指定テキストにしたがって、入力されたIDに
対応する話者の音素/音節の標準パターンを連結し、指
定テキストを受理する標準パターンを作成し、入力パタ
ーンとの類似度を計算する。判定部808は求められた
類似度があらかじめ定められた閾値よりも大きければ本
人と判定、そうでなければ詐称者として棄却と判定を行
ない端子809へ出力する。
【0005】この方法によれば照合に用いる発話内容を
照合の度に変更することが可能となり前述の録音により
詐称することは困難となる。
【0006】
【発明が解決しようとする課題】文献1の方法では登録
話者ごとに任意の発声内容を生成し得る音素/音節の音
響パターンを生成、保持しなければならないため、登録
時の話者への負担が大きいことと話者の標準パターンを
記憶する容量が膨大であるという問題がある。
【0007】
【課題を解決するための手段】本発明の音声認識装置
は、未知話者が登録話者本人であるか否かを判断する話
者認識装置であって、発話内容を表す指定テキストと、
話者毎の登録語とを発声することを話者に指示し、前記
発話内容と、前記登録語と、話者を示すIDとを入力
し、前記発話内容が指定テキストと同一で、前記IDに
対応する話者の音響的特徴と前記入力された登録語の音
響的特徴との類似度があらかじめ定められた閾値よりも
大きい場合に本人であると判定する。
【0008】本発明は本人の登録語標準パターンとの照
合による話者照合と、不特定話者の音声による発話内容
照合を組み合わせることにより、登録が簡単かつ記憶容
量の少なくて済む録音による詐称に頑健な話者照合装置
を実現するものである。
【0009】不特定話者の音声による発話内容の照合方
法としては渡辺他「音節認識を用いたゆう度補正による
未知発話のリジェクション」、電子情報通信学会論文
誌、Vol.J75−D−II,NO.12,(199
2,12)(以下文献2)が知られている。文献2では
入力音声と認識対象単語の標準パターンとの類似度を、
入力音声と任意の音声が受理可能な標準パターンとの類
似度で正規化し、閾値と比較することで、精度良く認識
対象外音声のリジェクトが行なえると述べられている。
【0010】そこで、照合時に登録語の発声とシステム
により指定されたテキストの発声を行なわせ、登録語の
発声を用いて話者の照合を、指定テキストを用いて発声
内容の確認を行なうことで録音による詐称を防ぐことが
できる。たとえば、始めに「月日と登録語を続けて発声
してください」と話者に対して発声すべきテキストを提
示する。つぎに、不特定話者の音素/音節の音響的特徴
を表す標準パターンを連結し、その日の年月日を受理す
る標準パターンと、登録語を受理する標準パターンを作
成し、入力パターンとの時間軸対応付けを動的計画法
(例えば、迫江他、「動的計画法を利用した音声の時間
正規かに基づく連続単語認識」、音響学会誌、27、
9、pp.483−500、以下文献3)を用いて行な
い、年月日と対応付けられた音声パターンと登録語と対
応付けられた音声パターンに分割する。
【0011】登録語を受理する標準パターンとしては、
その話者の登録語の発話内容が登録されて場合には、そ
の発話内容に従って音素/音節標準パターンを連結し、
その登録語を受理する標準パターンを作成する。例えば
月日が「12月25日(じゅうにがつにじゅうごに
ち)」、ある話者の登録語が「開け胡麻(ひらけご
ま)」である場合には、図5に示すような単語連鎖を受
理する標準パターンを作成する。発声内容の登録は平仮
名等で読み情報を与える他に、その話者の登録語と不特
定話者の任意語を受理する標準パターンの時間軸対応づ
けを行ない、音素/音節等の標準パターンの連鎖情報と
してあたえることが可能である。
【0012】登録語の内容が登録されていない場合には
登録語の標準パターンとして任意の語を受理可能な図6
に示すような標準パターンを用いる。つぎに月日と対応
付けられた音声パターンを文献2に述べられている方法
により発声内容の確認を行なうために、年月日を受理す
る標準パターンとの類似度を任意の音声が受理可能な標
準パターンとの類似度を用いて正規化しあらかじめ定め
られた閾値よりも大きければ指定テキストが発声された
ものとして判断する。つぎに話者の登録語と対応付けら
れた音声パターンとその話者の標準パターンとの類似度
を求め、あらかじめ定められた閾値よりも大きく、か
つ、指定テキストが発声されたと判断された場合に本人
として受理、そうでなければ詐称者として棄却を行な
う。
【0013】このようにすることで、話者の標準パター
ンとして登録しておくのは登録語の音響的特徴のみであ
るので、文献1のすべての音素/音節の音響的特徴を蓄
える方法にくらべ記憶容量が少ない話者照合装置が実現
できる。例えば音節を認識単位とした場合、日本語の音
節は拗音、外来語を含めると100種類以上存在する
が、先の「開け胡麻」を登録語とする場合には/ひらけ
ごま/の5音節分の音響的特徴でよいため、記憶容量は
概算で5/100以下となる。また、登録する音響的特
徴が少ないため、登録時に必要となる発声が少なくて済
み、話者への負担が小さいという利点がある。
【0014】上記により単純な録音、再生による詐称に
対処することが可能であるが、より悪質な詐称者では指
定テキスト部についてはその場で発声し、録音編集によ
り切り出した登録語を再生することで詐称を企てること
が予想される。これに対処するためには、指定テキスト
と登録語が同一話者による発声であるかの検証が必要と
なる。例えば、指定テキストと登録語に対応付けられた
音声により話者照合を行なう方法が考えられる。一般に
指定テキストと登録語の発声内容はことなると考えられ
るので、この場合発話内容非依存の話者照合を行なうこ
ととなる。発話内容非依存の話者照合方式としては既に
提案されている種々の方法が利用可能であり、たとえ
ば、A.E. Rosenberg and F.K.
Soong,「Evaluation of aVec
tor Quantization Talker R
ecognition System in Text
Independent and Text Dep
endent Modes」,Proc. of IC
ASSP86, pp.873−876, (1986
−4).(以下文献4)で用いられたベクトル量子化に
基づく方法や、Douglas Reynolds,
「The effects of handsetva
riation on speaker recogn
itinoperformance:experime
nts on the switchboard co
rpus,」 Proc.of ICASSP96,p
p.113−116,(1996)(以下文献5)で用
いられている隠れマルコフモデルに基づく方法等を用い
ることができる。
【0015】一般には発話内容非依存の話者照合は発話
内容に関する情報を用いないので発話内容依存の話者照
合に比べ困難であるが、ここでは同一時期、同一環境で
発声された音声を用いた照合であるので、発話内容非依
存の話者照合でも十分な照合精度が得られる。
【0016】また、話者の同一性を確認する別の方法と
しては、指定テキストと登録語に対応付けられた音声パ
ターンをそれぞれ定められた複数話者で発話内容非依存
の話者同定を行なうことにより確認する方法が考えられ
る。指定テキストと登録語の音声パターンが同一話者に
より発声されている場合、あらかじめ定められた複数の
話者との類似度を求めた場合、二つの音声パターンに対
する類似話者の傾向は同様となるはずである。したがっ
て、二つの音声パターンそれぞれに対し各話者の任意の
音声を受理する標準パターンとの類似度を求めることで
同一性を確認することができる。例えば、指定テキスト
と登録語に対応付けられた音声パターンのそれぞれにも
っとも類似した話者が一致する、あるいは、類似した話
者の上位5名の内、3名が一致する等の基準でしらべる
ことができる。さらに、各類似話者との類似度で順位に
重み付けする等、類似度の値を反映させることも可能で
ある。
【0017】また、話者の同一性を確認する別の方法と
しては、指定テキストと対応付けられた音声パターンを
用いて不特定話者の音素/音節標準パターンを話者適応
化し、登録語に対応付けられた音声パターンの適応化前
の不特定話者の標準パターンとの類似度と、適応化後の
標準パターンと類似度を比較し、適応後の類似度の方が
おおきければ同一話者と判定することも可能である。こ
れは指定テキストと登録語に対応付けられた音声パター
ンが同一話者のものであれば、片方をもちいて話者適応
を行なった場合、他方の類似度も向上することを利用す
るものである。もちろん、逆に登録語に対応付けられた
音声パターンを用いて話者適応化を行なうことも可能で
ある。用いる話者適応方式としては指定テキストを用い
る場合や、登録語の発声内容が既知の場合には発声内容
依存の話者適応方式を用いることができる。また、発声
内容が未知である登録語を適応化に用いる場合には、一
旦、任意の音声を受理可能な標準パターンを用いて認識
を行ない発声内容を決定すれば良い。ここで用いる話者
適応方式としては種々のものが利用可能であり、例え
ば、篠田、「木構造化された確率分布を用いた話者適応
化」、日本音響学会講演論文誌、pp.23−24、
(1991.9)(以下、文献6)等を用いる。
【0018】また、直接話者の同一性を確認するのでは
なく、指定テキストに対応付けられた音声パターンを用
いて、その話者の登録語の標準パターンを話者適応化
し、適応化後の標準パターンを用いて登録語に対応付け
られた音声パターンの照合に用いることにより、間接的
に指定テキストと登録語に対応付けられた音声パターン
の同一性を確認することも可能である。この場合、話者
適応により登録語に含まれる個人性情報が指定テキスト
を発声した話者のものとなるため、指定テキストと登録
テキストを発声した話者が同一であれば類似度が高くな
る。この場合、話者適応化後の登録語の標準パターンに
は登録話者の個人性情報が含まれなくなるため、話者適
応前の標準パターンと話者適応後の標準パターンの両者
との類似度を求め、それぞれ閾値との比較を行なう。話
者適応化方式としてはたとえば文献6の方式を用いる。
もちろん、直接話者の同一性を確認する手法と、話者適
応を用いて間接的に話者の同一性を確認する方法を併用
することも可能である。
【0019】
【発明の実施の形態】本発明の第1の実施の形態を示す
ブロック図を図1に示す。
【0020】テキスト生成部101は登録語と一緒に発
声すべき発声内容をあらわす指定テキストを生成する。
提示部102は前記指定テキストを音声、映像等を用い
て話者に提示する。端子103には指定テキストおよび
話者の登録語の音声が入力される。分析部104は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。不特定話者音声標準パターン記憶部1
05は不特定話者の音素/音節等の音響的特徴を表す標
準パターンが蓄えられている。時間軸対応づけ部106
は前記音素/音節等の標準パターンを連結し、前記指定
テキストおよび登録語を受理する標準パターン作成し、
前記入力パターンと時間軸の対応付けを行ない、入力パ
ターンを指定テキストと対応付けられた音声パターン
と、登録語と対応づけられた音声パターンに分割する。
発話テキスト確認部107は前記指定テキストと対応付
けられた音声パターンの指定テキストを受理する標準パ
ターンとの類似度を、任意の音声を受理する標準パター
ンとの類似度により正規化し、あらかじめ定められた閾
値よりも正規化後の類似度が大きければ指定テキストが
発声されたものと判定する。
【0021】話者標準パターン記憶部110には各話者
の登録後の音響的特徴を表す標準パターンが蓄えられて
いる。話者情報入力部109には話者を特定する名前、
話者番号等により特定された話者のIDが入力される。
類似度計算部111は、前記入力されたIDに対応する
話者標準パターンと前記登録語と対応付けられた音声パ
ターンとの類似度を例えば文献3に述べられている方法
により求める。判定部112は、発話テキスト確認部1
07で指定テキストが発声されたことが確認され、か
つ、類似度計算部111で求められた類似度があらかじ
め定められた閾値よりも大きい場合、発話者を話者ID
が示す話者であると受理し、そうでない場合には詐称者
として棄却し、結果を端子113へ出力する。
【0022】本発明の第2の実施の形態を示すブロック
図を図2に示す。
【0023】第2の実施の形態は、第1の実施の形態に
更に、話者同一性確認部208を付加したものである。
話者同一性確認部208は前記指定テキストと対応付け
られた音声パターンと、前記登録語と対応づけられた音
声パターンを用いて、例えば、文献3および4に述べら
れているような発話内容に依存しない話者照合を行な
い、二つの音声パターンが同一話者により発話されたか
の判定を行なう。判定部212は、発話テキスト確認部
207で指定テキストが発声されたことが確認され、か
つ、話者同一性確認部で、入力が同一話者により発話さ
れたことが確認され、かつ、類似度計算部211で求め
られた類似度があらかじめ定められた閾値よりも大きい
場合、発話者を話者IDが示す話者であると受理し、そ
うでない場合には詐称者として棄却し、結果を端子21
3へ出力する。
【0024】話者同一性確認部208の別の実現方法し
ては、前記指定テキストと対応付けられた音声パターン
と前記登録語と対応づけられた音声パターンのそれぞれ
を例えば文献4および5に述べられている発声内容非依
存の話者同定をあらかじめ定められた複数の話者セット
について行ない、それぞれの音声パターンの同定結果が
類似している場合に前記指定テキストと対応付けられた
音声パターンと前記登録語と対応づけられた音声パター
ンが同一話者により発話されたと判定を行なう。
【0025】話者同一性確認部208のまた別の実現方
法しては、前記指定テキストと対応付けられた音声パタ
ーンを用いて、例えば文献6で述べられている話者適応
方式を用いて不特定話者の音素/音節標準パターンを用
いて指定テキストを発話した話者に適応化し、前記登録
語と対応づけられた音声パターンと話者適応化前と話者
適応後の標準パターンとの類似度を求め、類似度があら
かじめ定められた閾値よりも大きく改善された場合に、
前記指定テキストと対応付けられた音声パターンと前記
登録語と対応づけられた音声パターンとが同一話者によ
り発話されたと判定を行なう。
【0026】本発明の第3の実施の形態を示すブロック
図を図3に示す。
【0027】テキスト生成部301は登録語と一緒に発
声すべき発声内容をあらわす指定テキストを生成する。
提示部302は前記指定テキストを音声、映像等を用い
て話者に提示する。端子303には指定テキストおよび
話者の登録語の音声が入力される。分析部304は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。
【0028】不特定話者音声標準パターン記憶部305
は不特定話者の音素/音節等の音響的特徴を表す標準パ
ターンが蓄えられている。時間軸対応付け部306は前
記音/素音節等の標準パターンを連結し、前記指定テキ
ストおよび登録語を受理する標準パターン作成し、前記
入力パターンと時間軸の対応付けを行ない、入力パター
ンを指定テキストと対応付けられた音声パターンと、登
録語と対応づけられた音声パターンに分割する。発話テ
キスト確認部307は前記指定テキストと対応付けられ
た音声パターンの指定テキストを受理する標準パターン
との類似度を、任意の音声を受理する標準パターンとの
類似度により正規化し、あらかじめ定められた閾値より
も正規化後の類似度が大きければ指定テキストが発声さ
れたものと判定する。話者標準パターン記憶部310は
各話者の登録後の音響的特徴を表す標準パターンが蓄え
られている。話者情報入力部309には話者を特定する
名前、話者番号等により特定された話者のIDが入力さ
れる。話者適応部314は、前記入力されたIDに対応
する話者標準パターンを前記指定テキストと対応付けら
れた音声パターンを用いて、例えば文献6に述べられて
いる話者適応方法を用いて適応化する。類似度計算部3
11は話者適応部により話者適応化された標準パターン
と前記登録語と対応付けられた音声パターンとの類似度
である適応化後類似度と、話者適応前の標準パターンと
前記登録語と対応付けられた音声パターンとの類似度で
ある適応化前類似度を求める。判定部312は、発話テ
キスト確認部307で指定テキストが発声されたことが
確認され、かつ、前記話者適応化前類似度があらかじめ
定められた閾値よりも大きく、かつ、前記話者適応化後
類似度と前記話者適応化前類似度の差が別にあらかじめ
定められた閾値よりも大きい場合、発話者を話者IDが
示す話者であると受理し、そうでない場合には詐称者と
して棄却し、結果を端子313へ出力する。
【0029】本発明の第4の実施の形態を示すブロック
図を図4に示す。
【0030】テキスト生成部401は登録語と一緒に発
声すべき発声内容をあらわす指定テキストを生成する。
提示部402は前記指定テキストを音声、映像等を用い
て話者に提示する。端子403には指定テキストおよび
話者の登録語の音声が入力される。分析部404は入力
音声データを例えば15ms毎に音響分析を行ない、音
響的特徴を表す音声パワーを含む特徴ベクトル系列に変
換する。特徴ベクトルとしては、例えば古井著、「ディ
ジタル音声処理」、東海大学出版会(以下文献7)にあ
げられているFFT分析、線形予測分析等により得られ
るケプストラム、LPC係数、これらの時間変化量等が
利用可能である。
【0031】不特定話者音声標準パターン記憶部405
は不特定話者の音素/音節等の音響的特徴を表す標準パ
ターンが蓄えられている。時間軸対応付け部406は前
記音素/音節等の標準パターンを連結し、前記指定テキ
ストおよび登録語を受理する標準パターン作成し、前記
入力パターンと時間軸の対応付けを行ない、入力パター
ンを指定テキストと対応付けられた音声パターンと、登
録語と対応づけられた音声パターンに分割する。発話テ
キスト確認部407は前記指定テキストと対応付けられ
た音声パターンの指定テキストを受理する標準パターン
との類似度を、任意の音声を受理する標準パターンとの
類似度により正規化し、あらかじめ定められた閾値より
も正規化後の類似度が大きければ指定テキストが発声さ
れたものと判定する。話者同一性確認部408は前記指
定テキストと対応付けられた音声パターン前記登録語と
対応づけられた音声パターンを用いて、例えば、文献3
および4に述べられているような発話内容に依存しない
話者照合を行ない、二つの音声パターンが同一話者によ
り発話されたかの判定を行なう。
【0032】話者同一性確認部408の別の実現方法し
ては、前記指定テキストと対応付けられた音声パターン
と前記登録語と対応づけられた音声パターンのそれぞれ
を例えば文献4および5に述べられている発声内容非依
存の話者同定をあらかじめ定められた複数の話者セット
について行ない、それぞれの音声パターンの同定結果が
類似している場合に前記指定テキストと対応付けられた
音声パターンと前記登録語と対応づけられた音声パター
ンが同一話者により発話されたと判定を行なう。
【0033】話者同一性確認部408のまた別の実現方
法しては、前記指定テキストと対応付けられた音声パタ
ーンを用いて、例えば文献6で述べられている話者適応
方式を用いて不特定話者の音素/音節標準パターンを用
いて指定テキストを発話した話者に適応化し、前記登録
語と対応づけられた音声パターンと話者適応化前と話者
適応後の標準パターンとの類似度を求め、類似度があら
かじめ定められた閾値よりも大きく改善された場合に前
記指定テキストと対応付けられた音声パターンと、前記
登録語と対応づけられた音声パターンとが同一話者によ
り発話されたと判定を行なう。
【0034】話者標準パターン記憶部410は各話者の
登録後の音響的特徴を表す標準パターンが蓄えられてい
る。話者情報入力部409には話者を特定する名前、話
者番号等により特定された話者のIDが入力される。話
者適応部414は、前記入力されたIDに対応する話者
標準パターンを前記指定テキストと対応付けられた音声
パターンを用いて、例えば文献6に述べられている話者
適応方法を用いて適応化する。類似度計算部411は話
者適応部により話者適応化された標準パターンと前記登
録語と対応付けられた音声パターンとの類似度である適
応化後類似度と、話者適応前の標準パターンと前記登録
語と対応付けられた音声パターンとの類似度である適応
化前類似度を求める。判定部412は、発話テキスト確
認部407で指定テキストが発声されたことが確認さ
れ、かつ、話者同一性確認部408で、同一話者により
発話がなされたことが確認され、かつ、前記話者適応化
前類似度があらかじめ定められた閾値よりも大きく、か
つ、前記話者適応化後類似度と前記話者適応化前類似度
の差が別にあらかじめ定められた閾値よりも大きい場
合、発話者を話者IDが示す話者であると受理し、そう
でない場合には詐称者として棄却し、結果を端子413
へ出力する。
【0035】
【発明の効果】本発明によれば、各登録話者の標準パタ
ーンとして登録語のみの音響的特徴を蓄えるだけで良い
ため、登録時の話者への負担が少なく、話者の標準パタ
ーンの記憶容量が少ない、録音による詐称に頑健な話者
認識装置が実現できる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態を示すブロック図で
ある。
【図2】本発明の第2の実施の形態を示すブロック図で
ある。
【図3】本発明の第3の実施の形態を示すブロック図で
ある。
【図4】本発明の第4の実施の形態を示すブロック図で
ある。
【図5】本発明の説明図である。
【図6】本発明の説明図である。
【図7】従来例のブロック図である。
【図8】従来例のブロック図である。
【符号の説明】 101 テキスト生成部 102 提示部 103 入力端子 104 分析部 105 不特定話者音声標準パターン記憶部 106 時間軸対応付け部 107 発話テキスト確認部 109 話者情報入力端子 110 話者標準パターン記憶部 111 類似度計算部 112 判定部 113 出力端子 201 テキスト生成部 202 提示部 203 入力端子 204 分析部 205 不特定話者音声標準パターン記憶部 206 時間軸対応付け部 207 発話テキスト確認部 208 話者同一性確認部 209 話者情報入力端子 210 話者標準パターン記憶部 211 類似度計算部 212 判定部 213 出力端子 301 テキスト生成部 302 提示部 303 入力端子 304 分析部 305 不特定話者音声標準パターン記憶部 306 時間軸対応付け部 307 発話テキスト確認部 309 話者情報入力端子 310 話者標準パターン記憶部 311 類似度計算部 312 判定部 313 出力端子 314 話者適応部 401 テキスト生成部 402 提示部 403 入力端子 404 分析部 405 不特定話者音声標準パターン記憶部 406 時間軸対応付け部 407 発話テキスト確認部 408 話者同一性確認部 409 話者情報入力端子 410 話者標準パターン記憶部 411 類似度計算部 412 判定部 413 出力端子 414 話者適応部 701 入力端子 702 音声分析部 703 話者標準パターン記憶部 704 類似度計算部 705 個人情報入力端子 706 判定部 707 出力端子 801 テキスト生成部 802 提示部 803 入力端子 804 分析部 805 個人情報入力端子 806 話者標準パターン記憶部 807 類似度計算部 808 判定部 809 出力端子

Claims (12)

    【特許請求の範囲】
  1. 【請求項1】未知話者が登録話者本人であるか否かを判
    断する話者認識装置であって、発話内容を表す指定テキ
    ストと、話者毎の登録語とを発声することを話者に指示
    し、前記発話内容と、前記登録語と、話者を示すIDと
    を入力し、前記発話内容が指定テキストと同一で、前記
    IDに対応する話者の音響的特徴と前記入力された登録
    語の音響的特徴との類似度があらかじめ定められた閾値
    よりも大きい場合に本人であると判定することを特徴と
    する話者認識装置。
  2. 【請求項2】未知話者が登録話者本人であるか否かを判
    断する話者認識装置であって、発話内容を表す指定テキ
    ストと、話者毎の登録語とを発声することを話者に指示
    し、前記発話内容と、前記登録語と、話者を示すIDと
    を入力し、前記発話内容と前記登録語とが同一話者によ
    る発声であり、前記発話内容が指定テキストと同一であ
    り、前記IDに対応する話者の音響的特徴と前記入力さ
    れた登録語の音響的特徴との類似度があらかじめ定めら
    れた閾値よりも大きい場合に本人であると判定すること
    を特徴とする話者認識装置。
  3. 【請求項3】未知話者が登録話者本人であるかを認証す
    る話者認識装置であって、発話内容を表す指定テキスト
    を生成するテキスト生成部と、前記指定テキストを話者
    毎の登録語と一緒に発声するよう話者に伝えるテキスト
    提示部と、音声を入力する入力部と、話者を表すIDを
    受けとる話者情報入力部と、不特定話者の任意の発話内
    容を表現できる音素/音節等の音響的特徴の標準パター
    ンが蓄えられている不特定話者音声標準パターン記憶部
    と、複数の話者の登録語の音響的特徴が蓄えられている
    話者標準パターン記憶部と、入力音声波形を分析し特徴
    量を抽出して入力パターンへ変換する音声分析部と、前
    記不特定話者音声標準パターン記憶部に蓄えられた音素
    /音節等の標準パターンを連結し、前記指定テキストお
    よび登録語を受理可能な標準パターンを作成し、前記入
    力パターンとの時間軸対応づけを行なう時間軸対応付け
    部と、前記時間軸対応付け部で前記指定テキストを受理
    する標準パターンに対応づけられた音声パターンの発話
    内容が指定テキストと同一であることを確認する発話テ
    キスト確認部と、複数の話者の音響的特徴が蓄えられて
    いる話者標準パターン記憶部と、前記話者標準パターン
    記憶部に蓄えられている前記話者を表すIDに対応する
    話者の標準パターンと、前記時間軸対応付け部で登録語
    を受理可能なように連結された標準パターンと対応付け
    られた音声パターンとの類似度を求める類似度計算部
    と、前記発話テキスト確認部で指定テキストが発話され
    たことが確認され、前記類似度計算部により計算された
    類似度があらかじめ定められた閾値よりも大きい場合
    に、本人であると判定する判定部とから構成されること
    を特徴とする話者認識装置。
  4. 【請求項4】前記時間軸対応付け部で前記指定テキスト
    を受理する標準パターンに対応付けられた音声パターン
    と登録語を受理する標準パターンに対応づけられた音声
    パターンが同一話者による発声であることを確認する話
    者同一性確認部を更に備え、前記判定部は、前記発話テ
    キスト確認部において指定テキストが発話されたこと及
    び前記話者同一性確認部で指定テキストおよび登録語が
    同一話者により発声されたことが確認され、前記類似度
    計算部により計算された類似度があらかじめ定められた
    閾値よりも大きい場合に、本人であると判定することを
    特徴とする請求項3記載の話者認識装置。
  5. 【請求項5】未知話者が登録話者本人であるかを認証す
    る話者認識装置であって、発話内容を表す指定テキスト
    を生成するテキスト生成部と、前記指定テキストを話者
    毎の登録語と一緒に発声するよう話者に伝えるテキスト
    提示部と、音声を入力する入力部と、音声あるいはキー
    ボード等により入力された話者を表すIDを受けとる話
    者情報入力部と、複数の話者の登録語の音響的特徴が蓄
    えられている話者標準パターン記憶部と、不特定話者の
    任意の発話内容を表現できる音素/音節等の音響的特徴
    の標準パターンが蓄えられている不特定話者音声標準パ
    ターン記憶部と、入力音声波形を分析し特徴量を抽出し
    て入力パターンへ変換する音声分析部と、前記不特定話
    者音声標準パターン記憶部に蓄えらた音素/音節等の標
    準パターンを連結し、前記指定テキストおよび登録語を
    受理可能な標準パターンを作成し、入力パターンとの時
    間軸対応づけを行なう時間軸対応付け部と、前記時間軸
    対応付け部で前記指定テキストを受理する標準パターン
    に対応づけられた音声パターンの発話内容が指定テキス
    トと同一であることを確認する発話テキスト確認部と、
    前記時間軸対応付け部で前記指定テキストを受理する標
    準パターンに対応付けられた音声パターンを用いて前記
    IDに対応する話者の標準パターンを入力音声に適応化
    させる話者適応部と、前記適応化後の話者標準パターン
    と前記時間軸対応付け部で登録語を受理可能なように連
    結された標準パターンと対応付けられた音声パターンと
    の類似度である適応化後類似度と、前記適応化前の話者
    標準パターンと前記時間軸対応付け部で登録語を受理可
    能なように連結された標準パターンと対応付けられた音
    声パターンとの類似度である適応化前類似度とを求める
    類似度計算部と、前記発話テキスト確認部で指定テキス
    トが発話されたことが確認され、前記適応化前類似度が
    あらかじめ定められた閾値よりも大きく、前記適応化後
    類似度が前記適応化前類似度よりもあらかじめ定められ
    た別の閾値以上に大きい場合に、本人であると判定を行
    なう判定部とから構成されることを特徴とする話者認識
    装置。
  6. 【請求項6】前記時間軸対応付け部で前記指定テキスト
    を受理する標準パターンに対応付けられた音声パターン
    と登録語を受理する標準パターンに対応づけられた音声
    パターンが同一話者による発声であることを確認する話
    者同一性確認部を更に備え、前記判定部は、前記発話テ
    キスト確認部において指定テキストが発話されたこと及
    び前記話者同一性確認部で同一話者により指定テキスト
    および登録語が発声されたことが確認され、前記適応化
    前類似度があらかじめ定められた閾値よりも大きく、前
    記適応化後類似度が前記適応化前類似度よりもあらかじ
    め定められた別の閾値以上に大きい場合に、本人である
    と判定することを特徴とする請求項5記載の話者認識装
    置。
  7. 【請求項7】前記発話テキスト確認部は、前記前記指定
    テキストを受理する標準パターンに対応づけられた音声
    パターンの指定テキストのみを受理する標準パターンと
    の類似度を、任意の音素/音節系列を受理可能な標準パ
    ターンとの類似度により正規化し、正規化後の類似度が
    あらかじめ定められた閾値よりも大きい場合に、発話内
    容が指定テキストと同一であることを確認することを特
    徴とする請求項3、4、5又は6記載の話者認識装置。
  8. 【請求項8】前記話者同一性確認部は、前記時間軸対応
    付け部で前記指定テキストを受理する標準パターンに対
    応付けられた音声パターンと登録語を受理する標準パタ
    ーンに対応づけられた音声パターンの類似度を計算し、
    あらかじめ定められた閾値と比較することにより同一話
    者であることを確認することを特徴とする請求項4又は
    6記載の話者認識装置。
  9. 【請求項9】前記話者同一性確認部は、前記時間軸対応
    付け部で前記指定テキストを受理する標準パターンに対
    応付けられた音声パターンと、登録語を受理する標準パ
    ターンに対応づけられた音声パターンのそれぞれについ
    て、あらかじめ定められた複数話者の各話者の任意の音
    素/音節系列を受理可能な標準パターンとの類似度を求
    め、前記二つの音声パターンの類似度の大きい話者の順
    位を比較することで同一話者が発声しているかの確認を
    行なうことを特徴とする請求項4又は6記載の話者認識
    装置。
  10. 【請求項10】前記話者同一性確認部は、前記時間軸対
    応付け部で前記指定テキストを受理する標準パターンに
    対応付けられた音声パターンと、登録語を受理する標準
    パターンに対応づけられた音声パターンのどちらか一方
    を用いて不特定話者の任意の音素/音節等の系列を受理
    可能な標準パターンを話者適応化し、他方の音声パター
    ンの話者適応化前の標準パターンとの類似度と話者適応
    化後の標準パターンとの類似度の比較することで同一話
    者が発声しているかの確認を行なうことを特徴とする請
    求項4又は6記載の話者認識装置。
  11. 【請求項11】前記時間軸対応付け部は前記登録語を受
    理可能な標準パターンとして任意の音素/音素系列を受
    理可能な標準パターンを用いることを特徴とする請求項
    3、4、5、6、7、8、9又は10記載の話者認識装
    置。
  12. 【請求項12】前記話者標準パターン記憶部は複数の話
    者の登録語の音響的特徴および発声内容を蓄え、前記時
    間軸対応づけ部は前記登録語を受理可能な標準パターン
    として前記入力された話者IDに対応した前記発声内容
    を受理する標準パターンを用いることを特徴とする請求
    項3、4、5、6、7、8、9又は10記載の話者認識
    装置。
JP9015595A 1997-01-29 1997-01-29 話者認識装置 Expired - Fee Related JP2991144B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP9015595A JP2991144B2 (ja) 1997-01-29 1997-01-29 話者認識装置
CA002227925A CA2227925C (en) 1997-01-29 1998-01-27 Speaker recognition device
EP98101563A EP0856836B1 (en) 1997-01-29 1998-01-29 Speaker recognition device
DE69814195T DE69814195T2 (de) 1997-01-29 1998-01-29 Vorrichtung zur Sprechererkennung
US09/015,757 US6094632A (en) 1997-01-29 1998-01-29 Speaker recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9015595A JP2991144B2 (ja) 1997-01-29 1997-01-29 話者認識装置

Publications (2)

Publication Number Publication Date
JPH10214095A true JPH10214095A (ja) 1998-08-11
JP2991144B2 JP2991144B2 (ja) 1999-12-20

Family

ID=11893080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9015595A Expired - Fee Related JP2991144B2 (ja) 1997-01-29 1997-01-29 話者認識装置

Country Status (5)

Country Link
US (1) US6094632A (ja)
EP (1) EP0856836B1 (ja)
JP (1) JP2991144B2 (ja)
CA (1) CA2227925C (ja)
DE (1) DE69814195T2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062874A (ja) * 2003-08-11 2005-03-10 Microsoft Corp 音声認識で機能強化された発信者識別
JP2005128307A (ja) * 2003-10-24 2005-05-19 Aruze Corp 声紋認証システム
WO2016092807A1 (ja) * 2014-12-11 2016-06-16 日本電気株式会社 話者識別装置および話者識別用の登録音声の特徴量登録方法
JP2021033315A (ja) * 2019-08-13 2021-03-01 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5897616A (en) * 1997-06-11 1999-04-27 International Business Machines Corporation Apparatus and methods for speaker verification/identification/classification employing non-acoustic and/or acoustic models and databases
AU1933599A (en) * 1997-12-19 1999-07-12 Blake Rice Automated right-party contact telephone system
JP3090119B2 (ja) * 1998-05-15 2000-09-18 日本電気株式会社 話者照合装置、方法及び記憶媒体
JP3156668B2 (ja) * 1998-06-19 2001-04-16 日本電気株式会社 音声認識装置
US7283964B1 (en) * 1999-05-21 2007-10-16 Winbond Electronics Corporation Method and apparatus for voice controlled devices with improved phrase storage, use, conversion, transfer, and recognition
US6332122B1 (en) * 1999-06-23 2001-12-18 International Business Machines Corporation Transcription system for multiple speakers, using and establishing identification
DE19952049A1 (de) * 1999-10-28 2001-05-10 Siemens Ag Verfahren und Anordnung zur Verifikation eines Sprechers anhand eines Rechners
US6690772B1 (en) * 2000-02-07 2004-02-10 Verizon Services Corp. Voice dialing using speech models generated from text and/or speech
EP1158492A1 (de) * 2000-05-23 2001-11-28 Ascom Systec AG Benutzerauthentifizierung beim Telebanking
WO2002019317A1 (en) 2000-09-01 2002-03-07 Eliza Corporation Sppech recognition method and system to determine the status of an outbound telephone call
AU2002213338A1 (en) 2000-10-16 2002-04-29 Eliza Corporation Method of and system for providing adaptive respondent training in a speech recognition application
US6973426B1 (en) 2000-12-29 2005-12-06 Cisco Technology, Inc. Method and apparatus for performing speaker verification based on speaker independent recognition of commands
US20020104027A1 (en) * 2001-01-31 2002-08-01 Valene Skerpac N-dimensional biometric security system
US20030037004A1 (en) * 2001-08-14 2003-02-20 Chuck Buffum Dialog-based voiceprint security for business transactions
US7624073B1 (en) 2001-09-21 2009-11-24 Yt Acquisition Corporation System and method for categorizing transactions
US7437330B1 (en) 2002-09-20 2008-10-14 Yt Acquisition Corp. System and method for categorizing transactions
US7765164B1 (en) 2001-09-21 2010-07-27 Yt Acquisition Corporation System and method for offering in-lane periodical subscriptions
US8200980B1 (en) 2001-09-21 2012-06-12 Open Invention Network, Llc System and method for enrolling in a biometric system
US7464059B1 (en) 2001-09-21 2008-12-09 Yt Acquisition Corporation System and method for purchase benefits at a point of sale
US7269737B2 (en) 2001-09-21 2007-09-11 Pay By Touch Checking Resources, Inc. System and method for biometric authorization for financial transactions
US7533809B1 (en) 2001-09-21 2009-05-19 Yt Acquisition Corporation System and method for operating a parking facility
US9189788B1 (en) 2001-09-21 2015-11-17 Open Invention Network, Llc System and method for verifying identity
FR2842643B1 (fr) * 2002-07-22 2004-09-03 France Telecom Normalisation de score de verification dans un dispositif de reconnaissance vocale de locuteur
US7467403B2 (en) 2004-01-09 2008-12-16 Harris Scott C Techniques for entry of less-than-perfect-passwords
DE102004014416A1 (de) * 2004-03-18 2005-10-06 Deutsche Telekom Ag Verfahren und System zur Personen/Sprecherverifikation über Kommunikationssysteme
JP2006197115A (ja) * 2005-01-12 2006-07-27 Fuji Photo Film Co Ltd 撮像装置及び画像出力装置
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7895039B2 (en) * 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US7865362B2 (en) * 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US20080312926A1 (en) * 2005-05-24 2008-12-18 Claudio Vair Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition
US8533485B1 (en) 2005-10-13 2013-09-10 At&T Intellectual Property Ii, L.P. Digital communication biometric authentication
US8458465B1 (en) 2005-11-16 2013-06-04 AT&T Intellectual Property II, L. P. Biometric authentication
US8244532B1 (en) * 2005-12-23 2012-08-14 At&T Intellectual Property Ii, L.P. Systems, methods, and programs for detecting unauthorized use of text based communications services
US20070219792A1 (en) * 2006-03-20 2007-09-20 Nu Echo Inc. Method and system for user authentication based on speech recognition and knowledge questions
US8099288B2 (en) * 2007-02-12 2012-01-17 Microsoft Corp. Text-dependent speaker verification
US7881938B2 (en) * 2007-03-27 2011-02-01 Nuance Communications, Inc. Speech bookmarks in a voice user interface using a speech recognition engine and acoustically generated baseforms
DE102007021772B4 (de) 2007-05-09 2013-01-24 Voicecash Ip Gmbh Digitales Verfahren und Anordnung zur Authentifizierung eines Nutzers einer Datenbasis
US8050919B2 (en) * 2007-06-29 2011-11-01 Microsoft Corporation Speaker recognition via voice sample based on multiple nearest neighbor classifiers
US8136034B2 (en) 2007-12-18 2012-03-13 Aaron Stanton System and method for analyzing and categorizing text
US8332223B2 (en) 2008-10-24 2012-12-11 Nuance Communications, Inc. Speaker verification methods and apparatus
US8190437B2 (en) 2008-10-24 2012-05-29 Nuance Communications, Inc. Speaker verification methods and apparatus
US8442824B2 (en) 2008-11-26 2013-05-14 Nuance Communications, Inc. Device, system, and method of liveness detection utilizing voice biometrics
WO2010066269A1 (en) * 2008-12-10 2010-06-17 Agnitio, S.L. Method for verifying the identify of a speaker and related computer readable medium and computer
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US8898064B1 (en) * 2012-03-19 2014-11-25 Rawles Llc Identifying candidate passwords from captured audio
US9489950B2 (en) * 2012-05-31 2016-11-08 Agency For Science, Technology And Research Method and system for dual scoring for text-dependent speaker verification
WO2013190169A1 (en) * 2012-06-18 2013-12-27 Aplcomp Oy Arrangement and method for accessing a network service
ES2605779T3 (es) 2012-09-28 2017-03-16 Agnitio S.L. Reconocimiento de orador
US20140095161A1 (en) * 2012-09-28 2014-04-03 At&T Intellectual Property I, L.P. System and method for channel equalization using characteristics of an unknown signal
US9043210B1 (en) 2012-10-02 2015-05-26 Voice Security Systems, Inc. Biometric voice command and control switching device and method of use
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
JP6276132B2 (ja) * 2014-07-30 2018-02-07 株式会社東芝 発話区間検出装置、音声処理システム、発話区間検出方法およびプログラム
US10008208B2 (en) * 2014-09-18 2018-06-26 Nuance Communications, Inc. Method and apparatus for performing speaker recognition
US10740578B2 (en) 2015-04-08 2020-08-11 Fractal Antenna Systems, Inc. Fractal plasmonic surface reader
US10141009B2 (en) 2016-06-28 2018-11-27 Pindrop Security, Inc. System and method for cluster-based audio event detection
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US9824692B1 (en) 2016-09-12 2017-11-21 Pindrop Security, Inc. End-to-end speaker recognition using deep neural network
WO2018053537A1 (en) 2016-09-19 2018-03-22 Pindrop Security, Inc. Improvements of speaker recognition in the call center
WO2018053531A1 (en) * 2016-09-19 2018-03-22 Pindrop Security, Inc. Dimensionality reduction of baum-welch statistics for speaker recognition
WO2018053518A1 (en) 2016-09-19 2018-03-22 Pindrop Security, Inc. Channel-compensated low-level features for speaker recognition
US10397398B2 (en) 2017-01-17 2019-08-27 Pindrop Security, Inc. Authentication using DTMF tones
EP4293661A3 (en) 2017-04-20 2024-02-21 Google LLC Multi-user authentication on a device
US10592649B2 (en) * 2017-08-09 2020-03-17 Nice Ltd. Authentication via a dynamic passphrase
CN108305615B (zh) * 2017-10-23 2020-06-16 腾讯科技(深圳)有限公司 一种对象识别方法及其设备、存储介质、终端
CN109741749B (zh) * 2018-04-19 2020-03-27 北京字节跳动网络技术有限公司 一种语音识别的方法和终端设备
KR102623246B1 (ko) * 2018-10-12 2024-01-11 삼성전자주식회사 전자 장치, 전자 장치의 제어 방법 및 컴퓨터 판독 가능 매체.
US11355103B2 (en) 2019-01-28 2022-06-07 Pindrop Security, Inc. Unsupervised keyword spotting and word discovery for fraud analytics
WO2020163624A1 (en) 2019-02-06 2020-08-13 Pindrop Security, Inc. Systems and methods of gateway detection in a telephone network
WO2020198354A1 (en) 2019-03-25 2020-10-01 Pindrop Security, Inc. Detection of calls from voice assistants
US12015637B2 (en) 2019-04-08 2024-06-18 Pindrop Security, Inc. Systems and methods for end-to-end architectures for voice spoofing detection

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5548647A (en) * 1987-04-03 1996-08-20 Texas Instruments Incorporated Fixed text speaker verification method and apparatus
US4987480A (en) * 1989-07-11 1991-01-22 Massachusetts Institute Of Technology Multiscale coding of images
JPH05323990A (ja) * 1992-03-19 1993-12-07 Nippon Telegr & Teleph Corp <Ntt> 話者認識方法
US5414755A (en) * 1994-08-10 1995-05-09 Itt Corporation System and method for passive voice verification in a telephone network
US5774525A (en) * 1995-01-23 1998-06-30 International Business Machines Corporation Method and apparatus utilizing dynamic questioning to provide secure access control
EP0810737A3 (en) * 1996-05-30 1999-03-03 Gandalf Technologies Inc. Method and apparatus for performing simultaneous data compression and encryption

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005062874A (ja) * 2003-08-11 2005-03-10 Microsoft Corp 音声認識で機能強化された発信者識別
JP2005128307A (ja) * 2003-10-24 2005-05-19 Aruze Corp 声紋認証システム
WO2016092807A1 (ja) * 2014-12-11 2016-06-16 日本電気株式会社 話者識別装置および話者識別用の登録音声の特徴量登録方法
JP2021033315A (ja) * 2019-08-13 2021-03-01 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
DE69814195D1 (de) 2003-06-12
US6094632A (en) 2000-07-25
CA2227925A1 (en) 1998-07-29
EP0856836B1 (en) 2003-05-07
EP0856836A2 (en) 1998-08-05
JP2991144B2 (ja) 1999-12-20
DE69814195T2 (de) 2004-01-08
CA2227925C (en) 2001-11-27
EP0856836A3 (en) 1999-02-03

Similar Documents

Publication Publication Date Title
JP2991144B2 (ja) 話者認識装置
US10339290B2 (en) Spoken pass-phrase suitability determination
US7447632B2 (en) Voice authentication system
Faundez-Zanuy et al. State-of-the-art in speaker recognition
US5913192A (en) Speaker identification with user-selected password phrases
US20160372116A1 (en) Voice authentication and speech recognition system and method
EP0892388B1 (en) Method and apparatus for providing speaker authentication by verbal information verification using forced decoding
US20080312926A1 (en) Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition
JPH11507443A (ja) 話者確認システム
Reynolds Automatic speaker recognition: Current approaches and future trends
CN101154380B (zh) 说话人认证的注册及验证的方法和装置
De Leon et al. Evaluation of the vulnerability of speaker verification to synthetic speech
Ilyas et al. Speaker verification using vector quantization and hidden Markov model
Ozaydin Design of a text independent speaker recognition system
EP0892387A1 (en) Method and apparatus for providing speaker authentication by verbal information verification
Jayanna et al. Fuzzy vector quantization for speaker recognition under limited data conditions
JP4245948B2 (ja) 音声認証装置、音声認証方法及び音声認証プログラム
JP3251460B2 (ja) 話者照合方法および装置
JP4391179B2 (ja) 話者認識システム及び方法
JP3075250B2 (ja) 話者認識方法及び装置
JP3036509B2 (ja) 話者照合における閾値決定方法及び装置
JP3090122B2 (ja) 話者照合装置
de Lima et al. On the use of PCA in GMM and AR-vector models for text independent speaker verification
JP5436951B2 (ja) 本人認証装置および本人認証方法
Toledano et al. BioSec Multimodal Biometric Database in Text-Dependent Speaker Recognition.

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990914

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees