JP2008146054A - 話者の音声特徴情報を利用した話者情報獲得システム及びその方法 - Google Patents

話者の音声特徴情報を利用した話者情報獲得システム及びその方法 Download PDF

Info

Publication number
JP2008146054A
JP2008146054A JP2007307828A JP2007307828A JP2008146054A JP 2008146054 A JP2008146054 A JP 2008146054A JP 2007307828 A JP2007307828 A JP 2007307828A JP 2007307828 A JP2007307828 A JP 2007307828A JP 2008146054 A JP2008146054 A JP 2008146054A
Authority
JP
Japan
Prior art keywords
speaker
information
gmm
specific
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007307828A
Other languages
English (en)
Other versions
JP4717872B2 (ja
Inventor
Hye Jin Kim
キム、ヘイ、ジン
Kyung Sook Bae
ベ、キュン、ソク
Keun Chang Kwak
カク、キュン‐チャン
Su Young Chi
チ、ス、ヤン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020070015541A external-priority patent/KR100864828B1/ko
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2008146054A publication Critical patent/JP2008146054A/ja
Application granted granted Critical
Publication of JP4717872B2 publication Critical patent/JP4717872B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】話者の音声特徴情報を利用した話者情報獲得システム及びその方法を提供する。
【解決手段】入力される話者別の音声特徴情報に対するGMMを生成するGMM生成部と、GMMと意思決定ツリーの各節に構築されたUBMとから特定の音声特徴を有する特定の話者に関する情報を導出する話者情報導出部と、を備える話者の音声特徴情報を利用した話者情報獲得システムである。
【選択図】図1A

Description

本発明は、話者の音声特徴情報を利用した話者情報獲得システム及びその方法に係り、特に話者の音声からその音声の特徴情報を抽出して、その情報から話者に関連した情報を獲得する話者の音声特徴情報を利用した話者情報獲得システム及びその方法に関する〔本発明は、情報通信部及び情報通信研究振興院のIT戦略技術開発事業の一環として行った研究から導出されたものである。課題管理番号:2005−S−033−02、課題名:URCのための内装型コンポーネント技術開発及び標準化〕。
人格体として待遇されようとする人間の欲望は、現代サービス産業の根幹をなす重要な要素である。しかし、環境的、社会的与件など諸与件は、機械を通じてサービスを受ける場合が多いが、自販機、コンピュータ、インターネット、今後ロボットがそのようなものである。かかる機械的サービスをユーザとの相互作用を通じてユーザがさらに人格的に受けられるならば、さらに良好なサービスを提供できるということは自明である。
話者の認識及び認証は、顔、指紋などの生体情報と共に話者を識別する次元として主に適用されてきた。認証サービスと関連した従来技術は、特定の事業者が提供する情報をサービスユーザが利用しようとする場合、サービスユーザが成人であるか否かを判別するために、ユーザが入力した住民登録番号に対する話者認識及び音声認識を通じて本人認証を行う方案がある。また、インターネットブラウザ及びコンピュータプログラムの実行時、IDとパスワードとを入力せねばならない煩わしさを減らし、音声命令、話者認証及び指紋認証を併合してユーザを簡便に認識できる認証技術も提示された。
また、話者認識において、性別及び年齢を基準とする色々な技術が紹介された。性別識別に関し、男女別のピッチ値とMFCC(Mel Frequency Cepstral Coefficient)情報とを利用してGMM(Gaussian Mixture Model)で話者の性別を識別する方法が紹介され、話者の特徴をよく表す単語群を通じてネットワーク基盤の話者学習及び話者確認方法も紹介された。また、携帯電話で話者独立型の音声認識のための性別区分システムが紹介されたが、このシステムは、音高平均値の臨界値を利用して、その平均値が臨界値より大きければ女性、低ければ男性の発声者と判断している。
本発明の目的は、話者の識別ないし認証に集中的に使われてきた話者の音声情報を話者合わせ型サービスを提供するための方式の一つで話者の音声情報を使用しようとするためのものであって、話者の音声からその音声の特徴情報を抽出して、その情報から話者に関する色々な情報の獲得を可能にする話者情報獲得システム及びその方法を提供することである。
本発明の目的を達成するために、本明細書で開示する話者の音声特徴情報を利用した話者情報獲得システムは、入力される話者別の音声特徴情報に対するGMMを生成するGMM生成部と、前記GMMと意思決定ツリーの各節に構築されたUBM(Universal Background Model)とから特定の音声特徴を有する特定の話者に関する情報を導出する話者情報導出部と、を備える。
本発明の目的を達成するために、本明細書で開示する話者の音声特徴情報を利用した話者情報の獲得方法は、(a)入力される話者別の音声特徴情報に対するGMMを生成するステップと、(b)前記GMMと意思決定ツリーの各節に構築されたUBMとから特定の音声特徴を有する特定の話者に関する情報を導出するステップと、を含む。
既存の話者認識及び認証システムは、話者が誰なのかを識別するのに焦点を合わせている一方、本発明は、話者識別だけでなく、音声から話者の性別、年齢、健康状態などの話者固有の情報を把握できる。話者情報は、話者を識別しなくても分かり、この情報を通じて話者の選好度を把握できるので、さらに話者が所望するサービスを提供できる。
以下、本発明の技術的思想を明確化するための発明の構成を、本発明の実施形態に基づいて添付図面を参照して詳細に説明するが、図面の構成要素への参照番号の付与において、同じ構成要素に対しては、たとえ他の図面上にあるとしても、同じ参照番号を付与し、該図面についての説明時に、必要な場合、他の図面の構成要素を引用しうる。
図1A及び図1Bは、本発明の構成及び望ましい一実施形態を示す図面である。
音声特徴情報抽出部10による話者別の音声特徴情報の抽出(S10)は、まず、話者別のデジタル化された音声を所定の長さほどスライシングし、終点検出を通じて話者を認識するのに必要な音声を検出する。このように検出された音声は、音声改善を通じてノイズが除去され、黙音区間が除去されて音声特徴情報xの抽出が行われる。
かかる音声特徴情報xの抽出は、訓練(学習)を通じて構築される音声DB 13からピッチを検出するか、またはMFCCを算出するか、またはLPC(Linear Predictive Coding)を行うなどからなり、したがって、前記抽出される音声特徴情報xは、ピッチ情報、MFCC情報、LPC情報などの多様な音声情報形式で表現される。
GMM生成部11は、前記抽出された話者別の音声特徴情報xから話者別の音声特徴情報xのGMMを生成するが(S11)、これは、話者別の音声特徴情報xのGMM確率を求める過程である。
GMM生成の第一のステップで、ミクスチャー確率算出部111は、話者別の音声特徴情報xに該当するミクスチャーの確率P(x)を求める(S111)。ミクスチャーの確率は、下記数式1のように表れる。GMMは、色々な統計資料のガウス分布のミクスチャー数を利用して具現されるが、本発明においては、話者別の音声特徴情報をGMMモデリングするために、話者別の音声特徴情報の統計資料に対するガウス分布を混合してモデリングし、ガウス分布の混合の数を通常1,2,2,2,2,…,210,…に増やしつつ適切なモデルの混合の数、すなわちミクスチャー数を探す。
Figure 2008146054
ここで、Dは、音声特徴情報ベクトルの次元、xは、前記抽出された音声特徴情報(ベクトルで表現される)、iは、各ミクスチャーのインデックスである。μは、音声DBに構築された学習データの平均、Σは、その共分散である。
(x)が算出されれば、GMM確率算出部112は、P(x)に各ミクスチャーの加重値wを付与して音声特徴情報xに対するGMM確率を算出する(S112)。各ミクスチャーの確率P(x)及びwは、ミクスチャーの個数Mほど存在するが、ユーザが任意に決めたM値によって話者別の音声特徴情報に対する確率、すなわちGMM確率は、M個の確率の組み合わせでなされる。前記M個の確率の組み合わせは、各ミクスチャーの加重値であるwとP(x)との積の和から求められるが、これがGMM確率に該当する。
一方、加重値wは、話者別の音声特徴情報によって付与されるが、話者個人の音声特徴が最適化されるように(最もよく反映されるように)付与される。
加重値wを反映したGMM確率P(x|λ)は、
Figure 2008146054
で表される。このとき、各ミクスチャーの加重値の和は1という条件を満足せねばならない。そして、λ=(μ,Σ)、平均μ、共分散Σ、加重値wは、GMMのパラメータである。パラメータλは、学習(訓練)により獲得されるが、GMM確率P(x|λ)は、このλに基づいた音声特徴情報xに対する確率を意味する。
一方、GMMのパラメータλは、さらに詳しくは、EM(Expectation−Maximization)アルゴリズムにより得られる。EMアルゴリズムは、GMMのパラメータλを求めるアルゴリズムのうち一つであって、多量の音声特徴情報からパラメータであるμ,Σ,wの値を測定するステップと、p(x|λ)を最大化させるステップとで構成される。EMアルゴリズムの流れは、既に公知されているので、これについての具体的な説明は省略する。
GMMの生成後、話者情報導出部12は、特定の音声特徴を有した特定の話者に関する情報を導出するが(S12)、かかる話者情報の導出は、まず、前記特定の話者を識別し(S121)、識別された特定の話者に対して認証することが先行される(S122)。
話者識別部121は、入力される話者別音声に対する前記生成されたGMM別に数式2により算出された確率のログ値log[p(x|λhyp)]を求めて、このログ値の最も大きい話者の音声モデルが特定の話者の音声と一致することによって、特定の話者を識別する(S121)。
話者認証部122は、前記識別された特定の話者を認証するが(S122)、具体的には次のように認証する。
[数3]
Λ(x)=log[p(x|λhyp)]-log[p(x|λubm)]
ここで、λhypは、前述したパラメータλを意味するが、λは、仮定した仮設に基づいて獲得される値であって、音声特徴情報xから得られたものである。λubmは、前記仮設の逆になる仮設から得られるパラメータ値を意味し、後述するUBMを作る時に使用する音声特徴情報のサンプルから得られる。
Λ(x)は、特定の話者の認証如何に直接関連する値であって、その値は、数式3に示したようにGMM確率のログ尤度の差である。特定の話者を識別した後、本格的な認証が開始されるが、話者認証では、log[p(X|λhyp)]からlog[p(X|λubm)]を差し引いて話者音声モデルごとにΛ(x)を獲得する。Λ(x)が最も大きい場合の話者音声モデルを入力される話者(特定の話者)の音声で識別するが、このΛ(x)が所定の臨界値と比較して臨界値より高ければ、話者と認証し、臨界値より低ければ、話者を詐称した者として認証を拒絶する(S122)。これは、仮定λhyp下でのGMMには特定の話者の音声特性がよく反映されているため、逆になる仮定λubm下でのGMMとの差が大きくて始めて特定の話者と見られるという意味である。
話者と認証されれば、話者情報抽出部123は、UBM 14、訓練(学習)過程を通じて習得された前記各音声特徴情報の臨界値を参照して特定の話者に関する情報を抽出するが(S123)、まず、UBM 14を利用して意思決定ツリーの分析法を通じて特定の話者が属した節を抽出することから始まる(S1231)。
意思決定ツリーの分析法は、意思決定規則を図表化して関心対象となる集団を幾つかの小集団に分類するか、または予測を行う計量的な分析法である。この分析法は、3段論法の方法である‘条件Aと条件Bとを満足すれば、C集団’という規則のように分析結果を導出し、計量的な方法で条件を分析できる。
図2A及び図2Bは、意思決定ツリーの一例を示す図面である。
図2A及び図2Bに示すように、意思決定ツリーの最も上位に位置する節を根節と呼び、分類対象の母集団を意味する。また、上位節が多数の下位節に分化されるとき、その上位節は、下位節の親節となり、下位節は、息子節となる。上位節から下位節への分化が進められ続けて、それ以上分化されない節は終端節である。
意思決定ツリーの分析法による意思決定ツリーは、まず、根節に該当する母集団の性格を最もよく反映できる節の分化基準を探せねばならない。この基準によって下位節への分化が行われ、かかる分化基準によって分化された下位節が他の下位節に分化可能であるまで分化が行われる。本発明の望ましい一実施形態によれば、最上位節に該当する話者の音声特徴情報を図2Aのように性別を基準として第1下位節(Female、Male)に分離する。もちろん、図2Bのように、第1下位節を他の基準で分離できるが、分離基準は選択的事項といえる。
特定の話者に関する情報の具体的な抽出は、意思決定ツリーの分析法により分化された各節に構築されたUBMを利用して、まず、特定の話者が属した節を抽出することから始まる。UBMは、話者の独立的な特性を有する一つの大きいGMMの一種であって、多数の話者の音声データでGMMを構築したものである。かかるUBMから特定の話者が属した節、例えば性別節、年齢節、健康状態節などの個別情報が得られる。
このように得られた個別情報にそれぞれ訓練(学習)過程を通じて習得された各音声特徴情報の臨界値を適用して、意思決定ツリーから各節別に特定の話者に関する情報を最終的に取得する(S1232)。
本方法発明は、また、コンピュータで読み取り可能な記録媒体にコンピュータで読み取り可能なコードとして具現することが可能である。コンピュータで読み取り可能な記録媒体は、コンピュータシステムにより読み取られるデータが保存されるあらゆる種類の記録装置を含む。
コンピュータで読み取り可能な記録媒体の例としては、ROM(Read Only Memory)、RAM(Random Access Memory)、CD−ROM、磁気テープ、フレキシブルディスク、光データ保存装置などがあり、またキャリアウェーブ(例えば、インターネットを通じた伝送)の形態で具現されるものも含む。また、コンピュータで読み取り可能な記録媒体は、ネットワークに連結されたコンピュータシステムに分散され、分散方式でコンピュータで読み取り可能なコードが保存されて実行されうる。
以上、本発明について、その望ましい実施形態を中心に述べた。当業者は、本発明が、本発明の本質的な特性から逸脱しない範囲で、変形された形態に具現可能であるということを理解できるであろう。
したがって、開示された実施形態は、限定的な観点ではなく、説明的な観点で考慮されねばならない。本発明の範囲は、前述した説明ではなく、特許請求の範囲に表れており、それと同等な範囲内にあるあらゆる相違点は、本発明に含まれていると解釈されねばならない。
本発明は、基本的に出入管理システムなど話者の音声特徴から特定人に対する認証が必要なシステムに利用され、さらに、話者の音声特徴から推論される話者に関連した色々な情報を利用する話者(ユーザ)合わせ型サービスが必要な産業関連の技術分野に利用されうる。
本発明の構成及び望ましい一実施形態を示す図面である。 本発明の構成及び望ましい一実施形態を示す図面である。 意思決定ツリーの一例を示す図面である。 意思決定ツリーの一例を示す図面である。
符号の説明
10 音声特徴情報抽出部
11 GMM生成部
12 話者情報導出部
13 音声DB
14 UBM
111 ミクスチャー確率算出部
112 GMM確率算出部
121 話者識別部
122 話者認証部
123 話者情報抽出部

Claims (6)

  1. 入力される話者別の音声特徴情報に対するGMMを生成するGMM生成部と、
    前記GMMと意思決定ツリーの各節に構築されたUBMとから特定の音声特徴を有する特定の話者に関する情報を導出する話者情報導出部と、を備えることを特徴とする話者の音声特徴情報を利用した話者情報獲得システム。
  2. 前記GMM生成部は、
    前記話者別の音声特徴情報に該当するミクスチャーの確率を求めるミクスチャー確率算出部と、
    前記ミクスチャーの確率に前記話者別の音声特徴を最適化させる加重値を付与して、前記話者別の音声特徴情報のGMM確率を求めるGMM確率算出部と、を備えることを特徴とする請求項1に記載の話者の音声特徴情報を利用した話者情報獲得システム。
  3. 前記話者情報導出部は、
    前記算出されたGMM確率の最も大きい話者の音声モデルが前記特定の話者の音声と一致するか否かを判断して、前記特定の話者を識別する話者識別部と、
    前記特定の話者が識別された場合、前記GMM確率と前記GMM確率を求めるための仮定と逆になる仮定下で求めたGMM確率との差から前記特定の話者を認証する話者認証部と、
    前記特定の話者が認証された場合、前記UBMを参照して前記特定の話者が属した節を抽出し、前記抽出された節に訓練(学習)過程を通じて習得された前記音声特徴情報の臨界値を適用して、前記特定の話者に関する最終情報を抽出する話者情報抽出部と、を備えることを特徴とする請求項2に記載の話者の音声特徴情報を利用した話者情報獲得システム。
  4. (a)入力される話者別の音声特徴情報に対するGMMを生成するステップと、
    (b)前記GMMと意思決定ツリーの各節に構築されたUBMとから特定の音声特徴を有する特定の話者に関する情報を導出するステップと、を含むことを特徴とする話者の音声特徴情報を利用した話者情報の獲得方法。
  5. 前記(a)のステップは、
    (a1)前記話者別の音声特徴情報に該当するミクスチャーの確率を求めるステップと、
    (a2)前記ミクスチャーの確率に前記話者別の音声特徴を最適化させる加重値を付与して、前記話者別の音声特徴情報のGMM確率を求めるステップと、を含むことを特徴とする請求項4に記載の話者の音声特徴情報を利用した話者情報の獲得方法。
  6. 前記(b)のステップは、
    (b1)前記算出されたGMM確率の最も大きい話者の音声モデルが前記特定の話者の音声と一致するか否かを判断するステップと、
    (b2)一致する場合、前記GMM確率と前記GMM確率を求めるための仮定と逆になる仮定下で求めたGMM確率との差が所定値以上であるか否かを判断して、その以上である場合、前記特定の話者を認証するステップと、
    (b3)前記特定の話者が認証された場合、前記UBMを参照して前記特定の話者が属した節を抽出するステップと、
    (b4)前記抽出された節に訓練(学習)過程を通じて習得された前記音声特徴情報の臨界値を適用して、前記特定の話者に関する最終情報を抽出するステップと、を含むことを特徴とする請求項5に記載の話者の音声特徴情報を利用した話者情報の獲得方法。
JP2007307828A 2006-12-06 2007-11-28 話者の音声特徴情報を利用した話者情報獲得システム及びその方法 Expired - Fee Related JP4717872B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20060123391 2006-12-06
KR10-2006-0123391 2006-12-06
KR1020070015541A KR100864828B1 (ko) 2006-12-06 2007-02-14 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및그 방법
KR10-2007-0015541 2007-02-14

Publications (2)

Publication Number Publication Date
JP2008146054A true JP2008146054A (ja) 2008-06-26
JP4717872B2 JP4717872B2 (ja) 2011-07-06

Family

ID=39606238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007307828A Expired - Fee Related JP4717872B2 (ja) 2006-12-06 2007-11-28 話者の音声特徴情報を利用した話者情報獲得システム及びその方法

Country Status (1)

Country Link
JP (1) JP4717872B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201237A (zh) * 2011-05-12 2011-09-28 浙江大学 基于模糊支持向量机的可靠性检测的情感说话人识别方法
CN103221996A (zh) * 2010-12-10 2013-07-24 松下电器产业株式会社 用于验证说话人的口令建模的设备和方法、以及说话人验证系统
JP2017511915A (ja) * 2014-02-04 2017-04-27 クアルコム,インコーポレイテッド オーディオパスワードの強度を評価するためのシステムおよび方法
CN108630207A (zh) * 2017-03-23 2018-10-09 富士通株式会社 说话人确认方法和说话人确认设备
WO2019198405A1 (ja) 2018-04-12 2019-10-17 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20210055464A (ko) * 2019-11-07 2021-05-17 연세대학교 산학협력단 기계학습 기반의 화자 분리 방법 및 그를 위한 장치
CN116705036A (zh) * 2023-08-08 2023-09-05 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082694A (ja) * 2000-07-05 2002-03-22 Matsushita Electric Ind Co Ltd 先行知識に基づく話者確認および話者識別
WO2005015547A1 (fr) * 2003-07-01 2005-02-17 France Telecom Procede et systeme d'analyse de signaux vocaux pour la representation compacte de locuteurs
JP2005221727A (ja) * 2004-02-05 2005-08-18 Nec Corp 音声認識システム、音声認識方法および音声認識用プログラム
JP2006526174A (ja) * 2003-03-26 2006-11-16 本田技研工業株式会社 ローカルモデルを用いた話者認識

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002082694A (ja) * 2000-07-05 2002-03-22 Matsushita Electric Ind Co Ltd 先行知識に基づく話者確認および話者識別
JP2006526174A (ja) * 2003-03-26 2006-11-16 本田技研工業株式会社 ローカルモデルを用いた話者認識
WO2005015547A1 (fr) * 2003-07-01 2005-02-17 France Telecom Procede et systeme d'analyse de signaux vocaux pour la representation compacte de locuteurs
JP2005221727A (ja) * 2004-02-05 2005-08-18 Nec Corp 音声認識システム、音声認識方法および音声認識用プログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103221996A (zh) * 2010-12-10 2013-07-24 松下电器产业株式会社 用于验证说话人的口令建模的设备和方法、以及说话人验证系统
US9257121B2 (en) 2010-12-10 2016-02-09 Panasonic Intellectual Property Corporation Of America Device and method for pass-phrase modeling for speaker verification, and verification system
CN102201237A (zh) * 2011-05-12 2011-09-28 浙江大学 基于模糊支持向量机的可靠性检测的情感说话人识别方法
JP2017511915A (ja) * 2014-02-04 2017-04-27 クアルコム,インコーポレイテッド オーディオパスワードの強度を評価するためのシステムおよび方法
CN108630207A (zh) * 2017-03-23 2018-10-09 富士通株式会社 说话人确认方法和说话人确认设备
WO2019198405A1 (ja) 2018-04-12 2019-10-17 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR20210055464A (ko) * 2019-11-07 2021-05-17 연세대학교 산학협력단 기계학습 기반의 화자 분리 방법 및 그를 위한 장치
KR102313387B1 (ko) * 2019-11-07 2021-10-14 연세대학교 산학협력단 기계학습 기반의 화자 분리 방법 및 그를 위한 장치
CN116705036A (zh) * 2023-08-08 2023-09-05 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法
CN116705036B (zh) * 2023-08-08 2023-10-27 成都信息工程大学 一种基于多层次特征融合的短语音说话人识别方法

Also Published As

Publication number Publication date
JP4717872B2 (ja) 2011-07-06

Similar Documents

Publication Publication Date Title
US10366693B2 (en) Acoustic signature building for a speaker from multiple sessions
JP5853029B2 (ja) 話者照合のためのパスフレーズ・モデリングのデバイスおよび方法、ならびに話者照合システム
Desai et al. Feature extraction and classification techniques for speech recognition: A review
JP2021527840A (ja) 声紋識別方法、モデルトレーニング方法、サーバ、及びコンピュータプログラム
JP4717872B2 (ja) 話者の音声特徴情報を利用した話者情報獲得システム及びその方法
US11315550B2 (en) Speaker recognition device, speaker recognition method, and recording medium
KR100406307B1 (ko) 음성등록방법 및 음성등록시스템과 이에 기초한음성인식방법 및 음성인식시스템
TWI395201B (zh) 情緒語音辨識方法及系統
Agrawal et al. Prosodic feature based text dependent speaker recognition using machine learning algorithms
Poddar et al. Quality measures for speaker verification with short utterances
Yudin et al. Speaker’s voice recognition methods in high-level interference conditions
KR100864828B1 (ko) 화자의 음성 특징 정보를 이용한 화자 정보 획득 시스템 및그 방법
JP6996627B2 (ja) 情報処理装置、制御方法、及びプログラム
KR101925252B1 (ko) 음성 특징벡터 및 파라미터를 활용한 화자확인 이중화 방법 및 장치
KR101229108B1 (ko) 단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법
Nguyen et al. Resident identification in smart home by voice biometrics
Sas et al. Gender recognition using neural networks and ASR techniques
Renjith et al. Prosody based voice forgery detection using SVM
Manor et al. Voice trigger system using fuzzy logic
Kadhim et al. Enhancement and modification of automatic speaker verification by utilizing hidden Markov model
Djellali et al. Random vector quantisation modelling in automatic speaker verification
JP7287442B2 (ja) 情報処理装置、制御方法、及びプログラム
Ben-Amor et al. Describing the phonetics in the underlying speech attributes for deep and interpretable speaker recognition
Farhood et al. Investigation on model selection criteria for speaker identification
JP7353839B2 (ja) 話者識別装置、話者識別方法、及び、プログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110330

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140408

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees