JPH11212588A - 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Info

Publication number
JPH11212588A
JPH11212588A JP10010129A JP1012998A JPH11212588A JP H11212588 A JPH11212588 A JP H11212588A JP 10010129 A JP10010129 A JP 10010129A JP 1012998 A JP1012998 A JP 1012998A JP H11212588 A JPH11212588 A JP H11212588A
Authority
JP
Japan
Prior art keywords
environment
feature
vector
unit
standard pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10010129A
Other languages
English (en)
Inventor
Toshihiro Kujirai
俊宏 鯨井
Akio Amano
明雄 天野
Toshiyuki Odaka
俊之 小高
Nobuo Hataoka
信夫 畑岡
Toshiyuki Matsuda
俊幸 松田
Hitoshi Sato
均 佐藤
Ryujiro Muramatsu
隆二郎 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP10010129A priority Critical patent/JPH11212588A/ja
Publication of JPH11212588A publication Critical patent/JPH11212588A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 発声の内容にかかわらず、環境の影響を補償
し、安定した音声認識、話者照合、話者認証を可能にす
ることにある。 【解決手段】 特徴量ベクトル列を、区間平均パワーと
区間平均パワーの微分値とによってクラスタリングし、
クラスタごとに環境の差を推定し、補正を行う。 【効果】 発声の内容や、使用環境によらず、安定して
音声認識装置などの性能を発揮させることができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識や話者照
合、話者認証などの機能を有する音声処理装置におい
て、環境の変動によらず安定した性能を引き出すための
補償方法の改良に関するものである。
【0002】
【従来の技術】従来、音声認識や話者認証、話者照合で
はマイクや音声情報の伝送路の特性などの環境の差によ
る装置の性能の劣化を押さえる手法として、標準パター
ンを構成する特徴量ベクトルの平均値と、認識に際して
入力された特徴量ベクトルの時間平均値の差を、環境の
差とみなして、前記入力された特徴量ベクトルから差し
引くことで、環境の差を補償し、性能を向上させる手法
が用いられてきた。
【0003】例えば、ジャーナル オブ アコースティッ
ク ソサイエティ イン アメリカ 55(Journal of Aco
ustic Society in America 55)の1304-1312ページに掲
載されている論文、エフェクティブネス オブ リニア
ープリディクション キャラクタリスティクス オブ ザ
スピーチ ウェーブ フォー オートマティック スピー
カー アイデンティフィケーション アンド ベリフィケ
ーション(Effectiveness of linear prediction charac
teristics of the speech wave for automaticspeaker
identification and verification)では、一定の時間分
の特徴量ベクトルの平均を求め、この平均値の標準パタ
ーンの特徴量ベクトルの平均の差を差し引くことで、話
者照合および話者認証の精度を向上させている。
【0004】
【発明が解決しようとする課題】前記の特徴量ベクトル
の平均の差を、入力された特徴量ベクトルから差し引く
ことで、環境の差を補償する手法では、特徴量ベクトル
の平均の差が、環境の差を表現しているという仮定に基
づいているが、実際には標準パターンを構成するために
使用された音声信号と、装置の使用時に入力される音声
信号の発声内容が異なるため、平均値の差は環境の差だ
けはなく、発声内容の差も反映されてしまい、補償の効
果が安定して得られない。
【0005】本発明の目的は、発声の内容によらず環境
の差を精度よく推定することで、音声認識や話者照合、
話者認証などの機能を有する高性能な音声処理装置を提
供することにある。
【0006】
【課題を解決するための手段】上記目的を解決するため
に、本願発明では、入力された音声信号を表現する特徴
量ベクトル列をベクトル列ごとに規定される大局的な特
徴量によってクラスタリングを行い、クラスタごとに、
音声が発声された環境を表現する特徴量ベクトルを推定
し、この環境を表現する特徴量ベクトルと、あらかじめ
記憶された標準パターンが作成された環境を表現する、
前記のクラスタごとの特徴量ベクトルを比較し、環境の
差違を前記特徴量ベクトル列各々に対し、クラスタごと
に補正を行う。
【0007】クラスタリングは、例えば、入力された音
声信号を表現する特徴量ベクトル列をベクトル列ごとの
区間平均パワーまたは、区間平均パワーの微分値、また
は区間平均パワーおよび区間平均パワーの微分値の何れ
かの情報によって行う。
【0008】そして、クラスタごとに補正された特徴量
ベクトル列と、あらかじめ記憶された複数の標準パター
ンを照合し尤度を計算し、前記尤度に基づいて尤もらし
い候補を選択して出力する。
【0009】また、クラスタごとに補正された特徴量ベ
クトル列と、あらかじめ記憶された特定の話者の標準パ
ターンを照合し尤度を計算し、前記尤度があらかじめ決
められたしきい値を超えた場合に発声者を前記標準パタ
ーンで特徴づけられる個人であると認証する。
【0010】
【発明の実施の形態】本発明の実施例について、以下、
図面を参照して説明する。
【0011】図1は、本発明の一実施例を表す図であ
る。
【0012】この音声信号補正装置は、環境推定部10
5と環境補正部106から構成されており、環境推定部
はさらにクラスタリング手段101と、平均算出部10
2から構成され、環境補正部は補正ベクトル算出部10
3と、補正ベクトル減算部104から構成される。
【0013】環境推定部105は、時系列で入力される
特徴量ベクトル列各々に対して、クラスタリング手段1
01と、平均算出部102を用いて、発声が行われた環
境を表現する環境特徴量ベクトル902を算出するもの
である。環境補正部106は、補正ベクトル算出部10
3と補正ベクトル減算部104とを用いて、入力された
特徴量ベクトル列各々から環境の差違を取り除き補正特
徴量903を算出するものである。クラスタリング手段
101は、入力された特徴量ベクトル列各々を、区間平
均パワーと区間平均パワーの微分値によってクラスタリ
ングするものである。
【0014】平均算出部102は、クラスタリングされ
た特徴量ベクトルに対して時間的な平均を算出するもの
である。補正ベクトル算出部は、前記平均算出部で求め
られた平均値と、あらかじめ記憶されている標準パター
ンの環境を表す平均値とを比較し、その差を環境補正ベ
クトルとして求めるものである。補正ベクトル減算部1
04は、入力された特徴量ベクトル列各々から、前記補
正ベクトルを差し引いて、環境の差を排除した補正特徴
量903を算出するものである。
【0015】次に図1の実施例の動作について説明す
る。
【0016】入力される特徴量ベクトル列は、音声信号
を適当な手段によって分析した結果であり、区間平均パ
ワーと区間平均パワーの微分値の情報も含んでいる必要
がある。分析手段としては、例えばNTTアドバンステ
クノロジ株式会社発行の「音声認識の基礎(上)」(以
下文献1とする)の139ページに記されているよう
な、LPCケプストラム(Linear Predictive Coding C
epstrum)を用いることができる。
【0017】特徴量ベクトル列はクラスタリング手段1
01によって、区間平均パワーと区間平均パワーの微分
値等によってクラスタリングされ、平均算出部102の
うち、対応するクラスタのユニットに振り分けられる。
特徴量ベクトル列をクラスタリングする理由は次の通り
である。例えば、母音などは相対パワーが大きく、摩擦
音などは相対パワーが小さい。また子音から母音への渡
りの部分は区間平均パワーの微分値が正になり、母音か
ら子音への渡りの部分は区間平均パワーの微分値が負に
なる。これらは発声内容には依存しないので、発声内容
によらず、相対パワーが大きい区間は母音等と、相対パ
ワーが低い区間は摩擦音等と推定することができる。同
様に、発声内容によらず、区間平均パワーの微分値が変
化する部分では、変化前は母音/子音であり、変化後は
子音/母音であると推定することができる。したがっ
て、相対パワーが大きい/小さい区間、区間平均パワー
の微分値が変化する部分等の情報に基づき特徴量ベクト
ルをクラスタリングすることによって、発声内容にかか
わらず、特徴量ベクトル列と標準パターンとの間の対応
付けを行うことができる。
【0018】平均算出部102は、各クラスタに割り当
てられたユニットごとに、特徴量ベクトルの時間的な平
均を算出し、入力された特徴量ベクトルに対する環境特
徴量ベクトル902として出力する。
【0019】補正ベクトル算出部103は、前記平均算
出部によって求められた環境特徴量ベクトル902と、
あらかじめ記憶された標準パターンの環境特徴量ベクト
ルの差を算出し、補正ベクトルとして出力する。標準パ
ターンの環境特徴量ベクトルとしては、標準パターンを
作成した音声信号を、環境推定部105に入力したとき
の出力を用いることができる。
【0020】補正ベクトル減算部104は、入力された
特徴量ベクトル列から前記補正ベクトルを減じ、補正特
徴量903として出力する。
【0021】クラスタリングされた特徴量ベクトルは、
同じクラスタに分類された標準パターンと同じような傾
向を持つため、標準パターンと比較する際、発声の内容
による偏向が相殺され、環境差を正確に推定することが
できる。
【0022】このように、環境の差違の補正をベクトル
列ごとに適切に行うことで、発声内容に関わらず、安定
した補償が行える。
【0023】また図5のように、クラスタリング手段1
01によって選択された補正ベクトルだけではなく、す
べての補正ベクトルの平均もしくは、クラスタが選択さ
れた回数による重み付き平均を用いて、補償を行うこと
もできる。
【0024】図2は、本発明の一実施例を表したもので
ある。
【0025】この音声認識装置は、音声分析部201
と、環境推定部105と、環境補正部106と標準パタ
ーン記憶部202と、照合部203から構成される。
【0026】音声分析部201は、入力された音声信号
を特徴分析し、特徴量ベクトル列901に変換するもの
である。環境推定部105および、環境補正部106
は、図1で説明したものと同様のものである。標準パタ
ーン記憶部202は、発声の標準パターンを記憶してお
くものである。照合部203は、環境補正部106から
出力された補正特徴量903と、標準パターン記憶部2
02からの出力904を比較し尤度を算出し、前記尤度
に基づいて標準パターンの中から尤もらしいものを出力
するものである。
【0027】次に図2の実施例の動作について説明す
る。
【0028】音声分析部201は、入力された音声信号
を特徴分析し、時系列の特徴量ベクトル列901に変換
する。このための手段としては、前記LPCケプストラ
ムなどを用いることができる。
【0029】環境推定部105および環境補正部106
は、図1で説明したものと同様の動作を行い、特徴量ベ
クトル列901と、標準パターンの環境特徴量ベクトル
から補正特徴量903を出力する。
【0030】標準パターン記憶部202は、発声に対す
る標準的なパターンを記憶しておき、環境補正部106
に対しては標準パターンの環境特徴量ベクトルを、照合
部203に対しては標準パターン904を出力する。標
準パターンの環境特徴量ベクトルとしては、環境推定部
105に標準パターンを作成した音声信号を入力したと
きの出力を用いることができる。標準パターンは、発声
の標準パターンを単位ごとに記憶したものであり、この
単位標準パターンを結合することで任意の発声の標準パ
ターン904を生成する。単位標準パターンとしては、
例えば電子情報通信学会論文集Vol.73−D−I
I、No.10の1619ページにあるような音素片を
用いることができ、その表現手段としては、 例えばN
TTアドバンヅテクノロジ株式会社発行の「音声認識の
基礎(下)」(以下文献2と呼ぶ)の6章にある、HM
M(Hidden Markov Models)を用いることができる。
【0031】照合部203は、前記補正特徴量903と
複数の標準パターン904との間の尤度を、ベクトル列
ごとに求め累積し、発声の終了時に尤度の最も高い標準
パターンを、発声された内容として出力する。尤度の算
出方法としては、前記HMMによる方法などを用いるこ
とができる。
【0032】このように、環境の差を発話内容によら
ず、精度よく補正することで、音声認識機能を有する音
声処理装置の認識性能を安定して向上させることができ
る。
【0033】図3は、本発明の一実施例を表したもので
ある。
【0034】この話者認識装置は、音声分析部201
と、環境推定部105と、環境補正部106と標準パタ
ーン記憶部301と、照合部203から構成される。音
声分析部201は、入力された音声信号を特徴分析し、
特徴量ベクトル列901に変換するものである。環境推
定部105および、環境補正部106は、図1で説明し
たものと同様のものである。標準パターン記憶部301
は、複数の話者の標準パターンを記憶しておくものであ
る。照合部203は、環境補正部106から出力された
補正特徴量903と、標準パターン記憶部301からの
出力904を比較し尤度を算出し、前記尤度に基づいて
標準パターンの中から尤もらしいものを出力するもので
ある。
【0035】次に図3の実施例の動作について説明す
る。
【0036】音声分析部201は、入力された音声信号
を特徴分析し、時系列の特徴量ベクトル列901に変換
する。このための手段としては、前記LPCケプストラ
ムなどを用いることができる。
【0037】環境推定部105および環境補正部106
は、図1で説明したものと同様の動作を行い、特徴量ベ
クトル列901と、標準パターンの環境特徴量ベクトル
から補正特徴量903を出力する。
【0038】標準パターン記憶部301は、複数の話者
に対する標準的なパターンを記憶しておき、環境補正部
106に対しては標準パターンの環境特徴量ベクトル
を、照合部203に対しては標準パターン904を出力
する。標準パターンの環境特徴量ベクトルとしては、環
境推定部105に標準パターンを作成した音声信号を入
力したときの出力を用いることができる。標準パターン
904は、複数の話者の標準パターンを記憶したもので
あり、その表現手段としては、例えば文献2の6章にあ
る、HMMを用いることができる。
【0039】照合部203は、前記補正特徴量903と
複数の話者の標準パターン904との間の尤度を、ベク
トル列ごとに求め累積し、発声の終了時に尤度の最も高
い標準パターンを、発声を行った話者として出力する。
尤度の算出方法としては、前記HMMによる方法などを
用いることができる。
【0040】このように、環境の差を発話内容によら
ず、精度よく補正することで、話者認識機能を有する音
声処理装置の認識性能を安定して向上させることができ
る。
【0041】図4は、本発明の一実施例を表したもので
ある。
【0042】この話者照合装置は、音声分析部201
と、環境推定部105と、環境補正部106と標準パタ
ーン記憶部401と、照合部203と判定部402から
構成される。
【0043】音声分析部201は、入力された音声信号
を特徴分析し、特徴量ベクトル列901に変換するもの
である。環境推定部105および、環境補正部106
は、図1で説明したものと同様のものである。標準パタ
ーン記憶部401は、特定の話者の発声の標準パターン
を記憶しておくものである。照合部203は、環境補正
部106から出力された補正特徴量903と、標準パタ
ーン記憶部401からの出力904を比較し尤度を算出
するものである。判定部402は、前記尤度があらかじ
め決められたしきい値を超えた場合に、発声者が標準パ
ターンで示される個人であることを出力し、しきい値を
超えない場合は発声者を標準パターンで示される個人で
あると認めないことを出力するものである。
【0044】次に図4の実施例の動作について説明す
る。
【0045】音声分析部201は、入力された音声信号
を特徴分析し、時系列の特徴量ベクトル列901に変換
する。このための手段としては、前記LPCケプストラ
ムなどを用いることができる。
【0046】環境推定部105および環境補正部106
は、図1で説明したものと同様の動作を行い、特徴量ベ
クトル列901と、標準パターンの環境特徴量ベクトル
から補正特徴量903を出力する。
【0047】標準パターン記憶部401は、特定の話者
の発声に対する標準的なパターンを記憶しておき、環境
補正部106に対しては標準パターンの環境特徴量ベク
トルを、照合部203に対しては標準パターン904を
出力する。標準パターンの環境特徴量ベクトルとして
は、環境推定部105に標準パターンを作成した音声信
号を入力したときの出力を用いることができる。標準パ
ターンは、特定の話者の発声の標準パターンを記憶した
ものであり、その表現手段としては、例えば文献2の6
章にある、HMMを用いることができる。
【0048】照合部203は、前記補正特徴量903と
複数の標準パターン904との間の尤度を、ベクトル列
ごとに求め累積し、発声の終了時に尤度の累積値を出力
する。尤度の算出方法としては、前記HMMによる方法
などを用いることができる。
【0049】判定部402は、前記照合部203の出力
である累積尤度が、あらかじめ決められたしきい値を超
えた場合に、発声者が標準パターンで示される個人であ
ることを出力し、しきい値を超えない場合は発声者を標
準パターンで示される個人であると認めないことを出力
する。
【0050】このように、環境の差を発話内容によら
ず、精度よく補正することで、話者照合機能を有する音
声処理装置の認識性能を安定して向上させることができ
る。
【0051】
【発明の効果】以上のように、本発明によれば、入力音
声が発声された環境を表現する特徴量ベクトルを発声内
容によらず精度よく推定し、これを用いて環境の差を補
正することで環境や発声内容によらず、安定した音声認
識や話者認識、話者照合を実現することができる。
【図面の簡単な説明】
【図1】環境推定部・補正部の一実施例。
【図2】環境推定部・補正部を持つ音声認識装置の一実
施例。
【図3】環境推定部・補正部を持つ話者認識装置の一実
施例。
【図4】環境推定部・補正部を持つ話者照合装置の一実
施例。
【図5】環境推定部・補正部の一実施例。
【符号の説明】
101…クラスタリング手段、102…平均算出部、1
03…補正ベクトル算出部、104…補正ベクトル減算
部、105…環境推定部、106…環境補正部、201
…音声分析部、202…標準パターン記憶部、203…
照合部、301…標準パターン記憶部、401…標準パ
ターン記憶部、501…平均補正ベクトル減算部、90
1…特徴量ベクトル列、902…環境特徴量ベクトル、
903…補正特徴量、904…標準パターン。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 畑岡 信夫 東京都国分寺市東恋ケ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 松田 俊幸 神奈川県横浜市戸塚区戸塚町216番地 株 式会社日立製作所情報通信事業部内 (72)発明者 佐藤 均 神奈川県横浜市戸塚区戸塚町216番地 株 式会社日立製作所情報通信事業部内 (72)発明者 村松 隆二郎 神奈川県横浜市戸塚区戸塚町216番地 株 式会社日立製作所情報通信事業部内

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】入力された音声信号を表現する特徴量ベク
    トル列をベクトル列ごとに規定される特徴量によってク
    ラスタリングを行う手段と、該クラスタごとに前記音声
    信号が発生された環境を表現する特徴量ベクトルを推定
    する手段とを有する環境推定部と、 前記環境推定部によって推定された音声信号が発生され
    た環境を表現する特徴量ベクトルと、予め記憶された、
    該特徴量ベクトルの推定された前記クラスタに対応する
    標準パターンの作成された環境を表現する特徴量ベクト
    ルとを比較し、両特徴ベクトルが表現する環境の差を補
    正する手段を有する環境補正部とを有することを特徴と
    する音声処理装置。
  2. 【請求項2】前記クラスタリングを行う手段は、前記入
    力された音声信号を表現する特徴量ベクトル列をベクト
    ル列ごとの区間平均パワー、区間平均パワーの微分値、
    または区間平均パワーおよび区間平均パワーの微分値の
    何れかの情報によってクラスタリングを行うことを特徴
    とする請求項1記載の音声処理装置。
  3. 【請求項3】前記環境補正部により、前記入力された音
    声信号を表現する特徴量ベクトル列に対して、前記環境
    の差が補正された特徴量ベクトル列と、前記予め記憶さ
    れた複数の標準パターンとを照合し尤度を計算し、前記
    尤度に基づいて尤もらしい候補を選択して出力する照合
    部を有することを特徴とする請求項2記載の音声処理装
    置。
  4. 【請求項4】前記入力された音声信号を特徴量ベクトル
    列に変換する音声分析部を有することを特徴とする請求
    項3記載の音声処理装置。
  5. 【請求項5】前記尤度が所定のしきい値を超えた場合に
    発声者を前記標準パターンで特徴づけられる個人である
    と認証する判定部を有することを特徴とする請求項3又
    は請求項4の何れかに記載の音声処理装置。
  6. 【請求項6】入力された音声信号を表現する特徴量ベク
    トル列をベクトル列ごとに規定される特徴量によってク
    ラスタリングを行い、該クラスタごとに前記音声信号が
    発生された環境を表現する特徴量ベクトルを推定し、前
    記推定された音声信号が発生された環境を表現する特徴
    量ベクトルと、予め記憶された、該特徴量ベクトルの推
    定された前記クラスタに対応する標準パターンの作成さ
    れた環境を表現する特徴量ベクトルとを比較し、両特徴
    ベクトルが表現する環境の差を補正することを特徴とす
    る音声処理方法。
  7. 【請求項7】入力された音声信号を表現する特徴量ベク
    トル列をベクトル列ごとに規定される特徴量によってク
    ラスタリングを行う手順と、 該クラスタごとに前記音声信号が発生された環境を表現
    する特徴量ベクトルを推定する手順と、 前記推定された音声信号が発生された環境を表現する特
    徴量ベクトルと、予め記憶された、該特徴量ベクトルの
    推定された前記クラスタに対応する標準パターンの作成
    された環境を表現する特徴量ベクトルとを比較し、両特
    徴ベクトルが表現する環境の差を補正する手順と、をコ
    ンピュータに実行させるプログラムを記録したコンピュ
    ータ読み取り可能な記録媒体。
JP10010129A 1998-01-22 1998-01-22 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体 Pending JPH11212588A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10010129A JPH11212588A (ja) 1998-01-22 1998-01-22 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10010129A JPH11212588A (ja) 1998-01-22 1998-01-22 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JPH11212588A true JPH11212588A (ja) 1999-08-06

Family

ID=11741687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10010129A Pending JPH11212588A (ja) 1998-01-22 1998-01-22 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JPH11212588A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6635364B1 (en) 1999-10-26 2003-10-21 Fuji Photo Film Co., Ltd. Aromatic condensed-ring compound, light emitting device material and light emitting device using the same
GB2422237A (en) * 2004-12-21 2006-07-19 Fluency Voice Technology Ltd Dynamic coefficients determined from temporally adjacent speech frames
JP2010164992A (ja) * 2010-03-19 2010-07-29 Toshiba Tec Corp 音声対話装置
JP2014153680A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 音響モデル補正パラメータ推定装置、特徴量補正パラメータ推定装置、それらの方法及びプログラム
JP2016038409A (ja) * 2014-08-05 2016-03-22 沖電気工業株式会社 音声帯域拡張装置及びプログラム、並びに、音声特徴量抽出装置及びプログラム
JP2016045249A (ja) * 2014-08-20 2016-04-04 沖電気工業株式会社 音声帯域拡張装置及びプログラム、並びに、音声特徴量抽出装置及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6635364B1 (en) 1999-10-26 2003-10-21 Fuji Photo Film Co., Ltd. Aromatic condensed-ring compound, light emitting device material and light emitting device using the same
US7083864B2 (en) 1999-10-26 2006-08-01 Fuji Photo Film Co., Ltd. Aromatic condensed-ring compound, light emitting device material and light emitting device using the same
GB2422237A (en) * 2004-12-21 2006-07-19 Fluency Voice Technology Ltd Dynamic coefficients determined from temporally adjacent speech frames
JP2010164992A (ja) * 2010-03-19 2010-07-29 Toshiba Tec Corp 音声対話装置
JP2014153680A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 音響モデル補正パラメータ推定装置、特徴量補正パラメータ推定装置、それらの方法及びプログラム
JP2016038409A (ja) * 2014-08-05 2016-03-22 沖電気工業株式会社 音声帯域拡張装置及びプログラム、並びに、音声特徴量抽出装置及びプログラム
JP2016045249A (ja) * 2014-08-20 2016-04-04 沖電気工業株式会社 音声帯域拡張装置及びプログラム、並びに、音声特徴量抽出装置及びプログラム

Similar Documents

Publication Publication Date Title
US9536525B2 (en) Speaker indexing device and speaker indexing method
US9536547B2 (en) Speaker change detection device and speaker change detection method
JP4568371B2 (ja) 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム
EP2216775B1 (en) Speaker recognition
EP1355296B1 (en) Keyword detection in a speech signal
US8515758B2 (en) Speech recognition including removal of irrelevant information
Chowdhury et al. Bayesian on-line spectral change point detection: a soft computing approach for on-line ASR
EP1465154A2 (en) Method of speech recognition using variational inference with switching state space models
US8423360B2 (en) Speech recognition apparatus, method and computer program product
JP5803125B2 (ja) 音声による抑圧状態検出装置およびプログラム
US11250860B2 (en) Speaker recognition based on signal segments weighted by quality
KR101122590B1 (ko) 음성 데이터 분할에 의한 음성 인식 장치 및 방법
WO2019107170A1 (ja) 緊急度推定装置、緊急度推定方法、プログラム
JPH11212588A (ja) 音声処理装置、音声処理方法、及び音声処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5296455B2 (ja) 話者識別装置、及びコンピュータプログラム
JP4391179B2 (ja) 話者認識システム及び方法
KR100614932B1 (ko) 강인한 음성인식을 위한 채널 정규화 장치 및 그 방법
JP2000259198A (ja) パターン認識装置および方法、並びに提供媒体
JP2001067094A (ja) 音声認識装置及び方法
JP3868798B2 (ja) 音声認識装置
JP2020008730A (ja) 感情推定システムおよびプログラム
JP2000039899A (ja) 音声認識装置
JPH09198084A (ja) モデル更新を伴う話者認識方法及びその装置
JP3009640B2 (ja) 音響モデル生成装置及び音声認識装置
JP2000047686A (ja) 音声認識装置および方法