JPH1165589A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH1165589A
JPH1165589A JP9323027A JP32302797A JPH1165589A JP H1165589 A JPH1165589 A JP H1165589A JP 9323027 A JP9323027 A JP 9323027A JP 32302797 A JP32302797 A JP 32302797A JP H1165589 A JPH1165589 A JP H1165589A
Authority
JP
Japan
Prior art keywords
time
series data
frequency
speech recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9323027A
Other languages
English (en)
Other versions
JP3905620B2 (ja
Inventor
Koji Akatsuka
浩二 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP32302797A priority Critical patent/JP3905620B2/ja
Publication of JPH1165589A publication Critical patent/JPH1165589A/ja
Application granted granted Critical
Publication of JP3905620B2 publication Critical patent/JP3905620B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】簡単な横成で、不特定話者の発話の多様性に対
しても高性能を維持することができて、誤認識を低減さ
せた音声認識装置を提供する。 【解決手段】音声信号を周波数分析して得た周波数スペ
クトルを、時間軸に沿って順次求めて時系列データ群に
変換する周波数分析器2に、複数の学習話者からの音声
信号が入力されたとき周波数分析器2から出力される時
系列データを部分周波数−時間パターン作成器3によっ
て予め定めた時間窓で切り出し、切り出された時系列デ
ータ群を主成分分析器4によって主成分分析した主成分
に基づき入力時系列データを低次の時系列データに特徴
抽出フィルタ5にて圧縮する。複数の学習話者からの音
声信号を低次の時系列データに圧縮した参照用低次圧縮
時系列データと、不特定話者からの音声信号を圧縮した
低次の時系列データとを照合して、照合結果に基づいて
不特定話者からの音声を認識する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、不特定話者から離
散的に発話された音声を自動的に認識する音声認識装置
に関する。
【0002】
【従来の技術】複数の不特定話者からの音声を誤認識せ
ずに認識する従来の音声認識装置の多くは、種々の周波
数分析手法を用いて音声信号に対してある程度の周波数
解像度を有する周波数分析を行って周波数−時間の符号
系列に変換し、出現が予想される音素の数の隠れマルコ
フモデルを用意し、さらに該用意した隠れマルコフモデ
ルを多くの話者からの発話音声によって学習させて予め
用意しておく。
【0003】この学習済みの隠れマルコフモデルを用い
て、不特定話者から発話された音声に基づく周波数−時
間の符号系列の部分区間を、全ての音素モデルと照合す
ることによって音素系列の候補の時系列に変換し、この
音素の時系列が最もよく表される単語を認識結果として
出力するようになされている。
【0004】
【発明が解決しようとする課題】しかしながら、従来の
音声認識装置では、不特定話者の発話の多様性に対応し
て高性能な音声認識特性を維持するための隠れマルコフ
モデルの学習に多くの学習データを必要とし、隠れマル
コフモデルで音素を精密に特定するためにある程度の周
波数分析の解像度、すなわち、ある程度の大きさのベク
トル次数を必要とするという問題点があった。
【0005】この結果、隠れマルコフモデルの学習時と
音素特定時の演算負荷が重く、さらに単語の認識過程に
おいて少なくとも音素照合と単語照合の2段階の照合演
算処理を必要とするという問題点があった。
【0006】本発明は、簡単な横成で、不特定話者の発
話の多様性に対しても高性能を維持することができて、
誤認識を低減させた音声認識装置を提供することを目的
とする。
【0007】
【課題を解決するための手段】本発明にかかる音声認識
装置は、音声信号を周波数分析して得た周波数スペクト
ルを、時間軸に沿って順次求めて時系列データ群に変換
する周波数分析手段と、複数の学習話者から発話された
音声に基づく音声信号が入力された前記周波数分析手段
からの出力時系列データを予め定めた時間窓で切り出す
切り出し手段と、前記切り出し手段によって切り出され
た時系列データ群を用いて主成分分析を行う主成分分析
手段と、前記主成分分析により得た主成分に基づき入力
時系列データを低次の時系列データに圧縮する特徴抽出
フィルタ手段とを備え、前記複数の学習話者から発話さ
れた音声に基づく低次の時系列データを参照用低次時系
列データとし、該参照用低次時系列データと不特定話者
から発話された音声に基づく低次の時系列データとを照
合して照合結果に基づいて音声認識をすることを特徴と
する。
【0008】本発明にかかる音声認識装置は、複数の学
習話者から発話された音声に基づく音声信号が周波数分
析手段に入力されて時系列データ群に変換され、周波数
分析手段によって変換された時系列データが切り出し手
段によって予め定めた時間窓で切り出され、切り出し手
段によって切り出された時系列データ群を用いて主成分
分析手段によって主成分分析され、主成分分析により得
られた主成分に基づき特徴抽出フィルタ手段にて入力時
系列データが低次の時系列データに圧縮される。複数の
学習話者から発話された音声に基づく低次の時系列デー
タが参照用低次時系列データとされて、不特定話者から
発話された音声に基づく低次の時系列データと照合され
て、照合結果に基づいて不特定話者から発話された音声
に対する音声認識がなされる。
【0009】
【発明の実施の形態】以下、本発明にかかる音声認識装
置を実施の一形態によって説明する。
【0010】図1は本発明の実施の一形態にかかる音声
認識装置の構成を示す模式ブロック図である。
【0011】図1の模式ブロック図において、作用の理
解を容易にするために、同一の構成要素であっても異な
る音声信号ラインに使用する構成要素は重複して示して
あって、図1において2重枠の構成要素がこれに当た
り、同一符号は同一の構成手段を示している。
【0012】本発明の実施の一形態にかかる音声認識装
置1は、複数の学習話者から発せられる発話音声に基づ
き学習話者の音素に対する特徴を抽出し、抽出した特徴
に基づいて特徴抽出フィルタを作成する特徴抽出フィル
タ作成部αと、複数の学習話者の発話たとえば単語の音
声信号に基づく情報を特徴抽出フィルタに供給し、特徴
抽出フィルタによって前記情報を圧縮して照合用低次圧
縮時系列データ群を生成する照合時系列データ作成部β
と、入力された不特定話者からの音声信号を特徴抽出フ
ィルタに供給して、特徴抽出フィルタによって圧縮した
時系列データを生成し、該時系列データを照合用低次圧
縮時系列データと照合して音声認識結果を出力する不特
定話者音声認識部γとを備えている。
【0013】特徴抽出フィルタ作成部αは、複数の学習
話者から発話された音声(以下、学習音声群とも記す)
の周波数スペクトルの時間的変化を示すため、複数の学
習話者から発話された音声に基づく音声信号を周波数分
析して得た周波数スペクトルを、時間軸に沿って順次求
めた時系列データ群(周波数−時間の時系列データ群)
に変換する周波数分析器2と、周波数分析器2によって
変換された前記複数の学習話者からの音声に基づく周波
数−時間の時系列データ群から小さな時間窓の範囲にお
ける部分周波数−時間の時系列データを切り出す部分周
波数−時間パターン作成器3と、部分周波数−時間パタ
ーン生成器3によって切り出された複数の部分周波数−
時間の時系列データを用いて主成分分析を行う主成分分
析器4と、主成分分析器4による主成分分析結果の低次
主成分において、周波数軸方向には低い周波数部分を用
い、かつ時間軸方向には時間窓の中央部のみを用いて畳
み込み積分を行う特徴抽出フィルタ5を備えて、複数の
学習話者からの発話音声から学習話者の音素に対する特
徴を抽出する。
【0014】照合時系列データ作成部βは照合用低次圧
縮時系列データ記憶器6を備え、複数の学習話者から発
話された単語音声の周波数スペクトルの時間的変化を示
すため、複数の学習話者から発話された前記単語音声の
音声信号を周波数分析器2によって周波数分析して得た
周波数スペクトルを、時間軸に沿って順次求めた周波数
−時間の時系列データ群に変換し、変換された周波数−
時間の時系列データ群を特徴抽出フィルタ5に送出し、
特徴抽出フィルタ5にて周波数−時間の時系列データを
次元圧縮して照合用低次圧縮時系列データ群を得て、照
合用低次圧縮時系列データ記憶器6に記憶させる。
【0015】不特定話者音声認識部γは時系列データ照
合器7を備え、不特定話者から発話された音声の周波数
スペクトルの時間的変化を示すため、不特定話者から発
話された音声に基づく音声信号を周波数分析器2によっ
て周波数分析して得た周波数スペクトルを、時間軸に沿
って順次求めた周波数−時間の時系列データ群に変換
し、変換された周波数−時間の時系列データ群を特徴抽
出フィルタ5に送出し、特徴抽出フィルタ5にて周波数
−時間の時系列データを次元圧縮して時系列データ群を
得て、時系列データ群と照合用低次圧縮時系列データ記
憶器6から読み出した照合用低次圧縮時系列データとを
時系列データ照合器7にて照合し、照合用低次圧縮時系
列データ群中から、時系列データ群に最も近いものを求
め、照合結果に基づいて不特定話者からの発生音声に基
づく言葉を認識する。
【0016】次に周波数分析器2、部分周波数−時間パ
ターン作成器3、主成分分析器4、特徴抽出フィルタ5
のそれぞれについて具体的に説明する。
【0017】周波数分析器2では、入力音声信号がA/
D変換され、A/D変換された音声信号に対して高域強
調処理がなされ、高域処理されたA/D変換音声信号に
対して時間窓としてのハニング窓がかけられ、線形予測
(LPC)分析によってLPC係数が求められ、このL
PC係数に対してフーリエ変換が行われて、周波数スペ
クトルが求められ、これを時間軸に沿って逐次求めるこ
とで、音声スペクトルの時間的変化を示すための周波数
−時間の時系列データに変換される。したがって周波数
分析器2では入力音声のサウンドスペクトルパターンで
ある周波数−時間パターンに実質的に展開されることに
なる。なおこの場合、周波数−時間の時系列データの各
時刻における周波数−時間の時系列データはN次ベクト
ルXiである。
【0018】この周波数分析法に応じて特徴抽出フィル
タ5を作成すれば、音声情報の欠落が少ない。また、周
波数分析法に応じて特徴抽出フィルタ5を作成したとき
に音声情報に欠落がないような他の周波数分析法によっ
てもよい。したがって、周波数分析器2による方法によ
れば、所謂LPCスペクトル包絡による方法よりも、さ
らにベクトル次数の少ない周波数−時間パターンにも適
用することができる。この結果、周波数−時間の時系列
データ群によって実質的に音声信号の周波数−時間パタ
ーンが示される。
【0019】部分周波数−時間パターン作成器3では、
周波数分析器2から出力される周波数−時間の時系列デ
ータ群中から、所定の小さな時間窓の範囲における周波
数−時間の時系列データが切り出される。このため、部
分周波数−時間パターン作成器3から出力される周波数
−時間の時系列データに基づく音声の周波数−時間パタ
ーンは、周波数分析器2から出力される周波数−時間の
時系列データに基づく音声の周波数−時間パターンの一
部分であって、部分周波数−時間パターンであるといえ
る。
【0020】特徴抽出フィルタ5は、周波数−時間の時
系列データから情報の欠落を最小限に抑え、情報圧縮し
た時系列データを作成する。本例では情報の圧縮に主成
分分析を用いている。さらに詳細には部分周波数−時間
パターンをサンプルデータとして主成分分析を行った結
果の主成分のうち低次主成分において、周波数軸方向に
は低い周波数部分を用い、かつ時間軸方向には時間窓の
中央部分のみを用いて、畳み込み積分を行っている。
【0021】さらに詳細に、例えば9名の異なる学習話
者の共通した100語の発話データを学習音声信号群と
して用いた場合の例を説明する。
【0022】この場合、発話データには、単語音声信号
区間中の発話音素と、発話音素の音声信号の時間軸上に
おける開始点と終了点とに対応がつけられたラベルデー
タとを持っているものとする。例えば図3(A)に示す
ように、音素Eに対する開始点の時間ラベルa、音素E
に対する終了点の時間ラベルでありかつ音素Fに対する
開始点の時間ラベルである時間ラベルb、音素Fに対す
る終了点の時間ラベルcを持っている。
【0023】部分周波数−時間パターン作成器3は、周
波数分析器2から出力される周波数−時間の時系列デー
タをラベルデータと共に、時間抽上の音素の中心位置、
図3(A)に示す例では(a+b)/2、(b+c)/
2を求め、この中心位置を中心に時間窓部分の周波数−
時間の時系列データを切り出す。
【0024】すなわち、学習音声信号群に対して、部分
周波数−時間パターン作成器3によって、例えば30m
sの時間窓Dで切り出しを行い、部分周波数−時間の時
系列データ群を作成する。部分周波数−時間パターン作
成器3によって作成された部分周波数−時間の時系列デ
ータの時間窓Dによる切り出しは、図3(B)に示すよ
うに、音素Eに対しては時間ラベルaと時間ラベルbと
の間の中央に時間窓Dがくるように、[{(a+b)/
2}−(D/2)]の位置から[{(a+b)/2}+
(D/2)]の位置までが切り出され、音素Fに対して
は時間ラベルbと時間ラベルcとの間の中央に時間窓D
がくるように、[{(b+c)/2}−(D/2)]の
位置から[{(b+c)/2}+(D/2)]の位置ま
でが切り出される。
【0025】この切り出し処理を同じ音素のラベル区間
について行うことによって、同じ音素の周波数−時間の
時系列データを複数集めることができる。同じ音素の複
数集めた周波数−時間の時系列データの平均値を求め、
これを部分周波数−時間の時系列データとする。この部
分周波数−時間の時系列データを音素毎に作成すること
によって部分周波数−時間の時系列データ群が作成され
る。
【0026】また、この切り出し処理を変化の少ない音
素毎、すなわち比較的定常的な音素毎に行ってもよい。
【0027】この部分周波数−時間の時系列データ群か
ら、主成分分析器4によって主成分が求められる。
【0028】部分周波数−時間の時系列データから主成
分分析器4による主成分の出力までの作用について図4
に基づいて説明する。図4においては、部分周波数−時
間の時系列データをパターンと略記してある。
【0029】切り出された音素Aの部分周波数−時間の
時系列データ群、音素Bの部分周波数−時間の時系列デ
ータ群、……、音素Zの部分周波数−時間の時系列デー
タ群は図4(A)に模式的に示す如くであり、各音素A
〜Zについての部分周波数−時間の時系列データ群の平
均値が求められる。音素Aの部分周波数−時間の時系列
データ群の平均値、音素Bの部分周波数−時間の時系列
データ群の平均値、……、音素Zの部分周波数−時間の
時系列データ群の平均値は図4(B)に模式的に示す如
くである。
【0030】各音素A〜Zの部分周波数−時間の時系列
データの平均値は主成分分析器4によって、図4(C)
に模式的に示すように、主成分分析が行われる。主成分
分析の結果、図4(D)に模式的に示すように、第1主
成分、第2主成分、……、第K主成分(Z>K)が求め
られる。
【0031】すなわち、主成分分析ではサンプルデータ
空間のベクトル次元数と同数の次元数の主成分が求めら
れ、サンプルデータの分散が最も多い軸を決める主成分
を第1主成分、分散が2番目に大きい軸を決める主成分
を第2主成分、以下同様に第K主成分が決まる。
【0032】主成分の内の低次主成分は部分周波数−時
間の時系列データ群の特徴に多く含まれる成分の固有空
間を定義しており、音声信号の周波数−時間の時系列デ
ータに基づく周波数−時間パターン中に最も含まれる部
分の特徴を表している。そこで、音声信号に含まれる学
習話者の個人性に基づく成分や認識に悪影響を及ぼすと
考えられるノイズ成分は、低次主成分には含まれていな
いと考えられる。
【0033】特徴抽出フィルタ5では、部分周波数−時
間パターンをサンプルデータとして、主成分分析を行っ
た結果の低次主成分において、周波数軸方向には低い周
波数部分を用い、かつ時間軸方向には時間窓Dの中央部
分のみを用いて畳み込み積分を行う。この畳み込み積分
を行うベクトルを特徴抽出ベクトルとも記す。
【0034】例えば、2つの特徴抽出ベクトルの場合
は、第1主成分ベクトルの周波数軸方向には低い周波数
部分を用い、かつ時間軸方向には時間窓Dの中央部分の
みを用いて畳み込み積分を行うものを第1特徴抽出ベク
トルδ1i、第2主成分ベクトルの周波数軸方向には低
い周波数部分を用い、かつ時間軸方向には時間窓Dの中
央部分のみを用いて畳み込み積分を行うものを第2特徴
抽出ベクトルδ2iと呼ぶことにする。
【0035】この第1、第2特徴抽出ベクトルδ1i、
δ2iを特徴抽出フィルタ5で用い、周波数分析器2か
ら出力される周波数−時間時系列データの各時刻におけ
る周波数−時間の時系列データと、第1、第2特徴抽出
ベクトルδ1i、δ2iとの間で相関値を求める。この
各特徴抽出ベクトル毎の相関値出力をチャンネル出力と
も記す。この相関値出力を各チャンネル毎に正規化して
2チャンネルフィルタ出力とする。
【0036】上記から明らかなように、特徴抽出フィル
タ5は2つの特徴抽出ベクトルδ1i、δ2iで構成さ
れる場合を例に示せば、図2に示すように、周波数分析
結果のN次ベクトルXiと第1、第2の特徴抽出ベクト
ルδ1i、δ2iとの積和演算を各時刻について積和演
算器511、512にてそれぞれ入力のN次ベクトルX
iに対して行って、各積和演算器511、512からの
出力を、正規化器521、522によってそれぞれにレ
ベルを正規化し、正規化された各正規化器521、52
2からの出力を各チャンネルの出力として送出する。
【0037】次に、照合用低次圧縮時系列データ群の作
成について説明する。
【0038】各単語の学習音声信号が周波数分析器2に
供給されて、学習音声信号に基づく周波数−時間の時系
列データが作成される。この周波数−時間の時系列デー
タが既に学習音声信号群における音素に対して求めてお
いた低次主成分を基底とする特徴抽出フィルタ5に供給
され、特徴抽出フィルタ5において次元圧縮されて特徴
抽出フィルタ5の各チャンネルから時系列データが出力
され、この時系列データが照合用低次圧縮時系列データ
群とされる。
【0039】このように作成された照合用低次圧縮時系
列データ群の構造は、図5に示すごとくであって、図5
(A)、(B)、(C)はそれぞれ学習音声の発話者、
例えばa′、b′、c′による同じ単語の学習音声によ
る場合の照合用低次圧縮時系列データ群であって、9名
の話者による100単語に対する場合には900個の照
合用低次圧縮時系列データ群が得られ、照合用低次圧縮
時系列データ群の各要素は学習音声信号の各発話単語名
とそれに対応する照合用低次圧縮時系列データの対で構
成される。この照合用低次圧縮時系列データ群は照合用
低次圧縮時系列データ記憶器6に記憶される。
【0040】上記のように照合用低次圧縮時系列データ
群が照合用低次圧縮時系列データ記憶器6に記憶させて
ある状態で、不特定話者からの音声認識が行われる。不
特定話者からの音声信号は周波数分析器2によって周波
数分析され、既に学習音声信号群からの音声信号に基づ
いて予め特徴抽出フィルタ作成部αで求められた特徴抽
出フィルタ5に供給されて、特徴抽出フィルタ5におい
て次元圧縮処理がなされて、時系列データに変換され
る。
【0041】不特定話者からの音声信号に基づく時系列
データは、学習音声信号群に基づいて照合時系列データ
作成部βで求められた照合用低次圧縮時系列データ群と
の間で時系列データ照合器7において照合されて、不特
定話者からの音声信号に基づく時系列データに最も近い
照合用低次圧縮時系列データが照合用低次圧縮時系列デ
ータ群の中から選び出され、選び出された照合用低次圧
縮時系列データに対する発話単語名が認識結果として出
力される。
【0042】次に、本実施の形態における時系列データ
照合器7について、DP(dynamicprogramming )法を
用いた照合の場合を例に説明する。
【0043】DP法は、入力時系列データとあらかじめ
記憶された各時系列データ群との間で、非線形に時間伸
縮することで時間正規化を行い対応づけを行う照合法で
ある。この方法によれば、入力時系列データと予め記憶
された各時系列データとの間の時間正規化後の距離が定
義され、この距離が最小である時系列データが入力時系
列データを最もよく表すものとし、認識結果とするもの
である。本実施の形態では、このDP法が不特定話者か
らの音声信号に基づく時系列データと照合用低次圧縮時
系列データとの間に適用されて、時間正規化後の最小距
離を持つ照合用低次圧縮時系列データに対応させた単語
名が出力される。
【0044】次に、本実施の形態に基づく評価実験結果
について説明する。ここでは、テストサンプルとして、
話者認定評価用データベースの10名の話者の100単
語を用いた。
【0045】テスト話者1名を除く9名の話者の発話デ
ータを学習音声信号群として用いて特徴抽出フィルタ作
成部αで特徴抽出フィルタ5を作成した。サンプルとし
て用いた音素は母音、破裂音、摩擦音、鼻音であり、部
分周波数−時間パターン作成器3を用いて、話者毎に部
分周波数−時間の時系列データを求め、この部分周波数
−時間の時系列データから主成分分析器4で主成分を求
め、この主成分のうち、第1、第2主成分において、周
波数軸方向には4.5kHz以下の低い周波数部分で、
時間軸方向には時間窓Dの中央部分の1単位時間分のみ
の部分を用いて特徴抽出ベクトルδ1i、δ2iとして
用いた。この特徴抽出ベクトルδ1i、δ2iの形状の
一例を、横軸に周波数を縦軸に重み係数をとった場合を
図6に示す。
【0046】時系列データ照合器7で用いる照合用低次
圧縮時系列データ群は、前記テスト話者1名を除く9名
の話者の発話データを学習音声信号群として、上記特徴
抽出フィルタ5を用いた照合時系列データ作成部βで9
00個の照合用低次圧縮時系列データを求めた。評価実
験では、テスト話者を変えながら行い、その都度、特徴
抽出フィルタ5を求め直し、照合用低次圧縮時系列デー
タを作成し直した。
【0047】次に本発明の一実施の形態にかかる音声認
識装置の変形例について説明する。
【0048】主成分の内の低次主成分は部分周波数−時
間の時系列データ群の特徴に多く含まれる成分の固有空
間を定義しており、音声信号の周波数−時間の時系列デ
ータに基づく周波数−時間パターン中に最も含まれる部
分の特徴を表して、音声信号に含まれる学習話者の個人
性に基づく成分や認識に悪影響を及ぼすと考えられるノ
イズ成分は、低次主成分には含まれていないと考えられ
ることは前記のとおりである。
【0049】このため、本変形例では特徴抽出フィルタ
5における特徴抽出ベクトルδ1i、δ2iに代わって
分散の大きい第1主成分から順次分散が減少する第4番
目の主成分を特徴抽出ベクトルとして用いてもよく、例
えば、情報の損失量の最小から最大の方向へ4つの主成
分を低次主成分として用いてもよい。
【0050】上記の4つの主成分を低次主成分として用
いたときの本変形例における特徴抽出フイルタでは、上
記の低次主成分を基底として用いて、例えば4つの第
1、第2、第3、第4低次主成分ベクトルδ1i′、δ
2i′、δ3i′、δ4i′を特徴抽出フィルタの基底
として用い、周波数分析器2から出力される周波数−時
間の時系列データの各時刻における周波数−時間の時系
列データと第1、第2、第3、第4低次主成分ベクトル
δ1i′、δ2i′、δ3i′、δ4i′との間で相関
値を求める。この各低次主成分ごとの相関値出力をチャ
ンネルとも記す。この相関値を各チャンネルごとに正規
化して、4チャンネルのフィルタ出力とする。
【0051】上記からも明らかなように、この変形例の
場合の特徴抽出フィルタは4つの低次主成分の場合を例
に示せば、図7に示すように、周波数分析結果のN次ベ
クトルXiと各低次主成分ベクトルδ1i′、δ2
i′、δ3i′、δ4i′との積和演算を各時刻におい
て積和演算器511′、512′、513′、514′
にてそれぞれ入力N次ベクトルXiに対して行って、各
積和演算器511′、512′、513′、514′か
らの出力を、正規化器521′、522′、523′、
524′によってそれぞれ各別にレベルを正規化して、
正規化された各正規化器521′、522′、52
3′、524′からの出力を各チャンネルの出力として
送出する。
【0052】次に、照合用低次圧縮時系列データ群の作
成について説明する。
【0053】各単語の学習音声信号が周波数分析器2に
供給されて、学習音声信号に基づく周波数−時間の時系
列データが作成される。この周波数−時間の時系列デー
タが既に学習音声信号群における音素に対して求めてお
いた低次主成分を基底とする特徴抽出フィルタ5に供給
され、特徴抽出フィルタ5において次元圧縮されて特徴
抽出フィルタ5の各チャンネルから時系列データが出力
され、この時系列データが照合用低次圧縮時系列データ
とされる。
【0054】このように作成された本変形例における照
合用低次時系列データの構成は、図8に示すごとくであ
って、図5(A)、(B)、(C)、(D)はそれぞれ
学習音声の発話者、例えばa′、b′、c′、d′によ
る同じ単語の学習音声による場合の照合用低次圧縮時系
列データであって、9名の話者による100単語に対す
る場合には900個の照合用低次圧縮時系列データ群が
得られ、照合用低次圧縮時系列データ群の各要素は学習
音声信号の各発話単語名とそれに対応する照合用低次圧
縮時系列データの対で構成される。この照合用低次圧縮
時系列データ群は照合用低次圧縮時系列データ記憶器6
に記憶される。
【0055】その他については、図6に示す特徴抽出ベ
クトルδ1i、δ2iの形状以外は、上記した本発明の
実施形態の一形態にかかる音声認識の場合と同様であ
る。
【0056】上記した本発明の実施の一形態にかかる音
声認識装置1において、2チャンネルに設定して特徴抽
出フィルタ5に図6に示した特徴抽出ベクトルδ1i、
δ2iを用いた場合と、前記変形例において説明した低
次の4つの主成分分析結果を用いて3チャンネルに設定
した特徴抽出フィルタを用いた場合の音声認識結果を図
9に示す。
【0057】図9において、aは前者すなわち2チャン
ネルに設定して特徴抽出フィルタ5に図6に示した特徴
抽出ベクトルを用いた場合の認識結果を示し、bは後者
すなわち低次の4つの主成分分析結果を用いて3チャン
ネルに設定した特徴抽出フィルタを用いた場合の認識結
果を示している。両者共良好な認識結果が得られている
が、前者の方がさらによいことが判る。
【0058】主成分分析を行うため、周波数分析の際の
切り出しの周波数、時間窓Dは0〜8kHz、30ms
ec幅であり、本変形例においては周波数は8kHz
(32点)、時間窓Dは30msec(=5msec×
6、6単位時間)であるのに対し、一実施の形態では周
波数は0〜4.5kHz(18点)であり、時間窓Dは
5msec(1単位時間)であって、周波数はほぼ1/
2であり、時間幅は1/6である。これは、音声認識の
ために定常的に安定な、周波数範囲かつ時間幅の部分を
切り出すのであるが、0〜4.5kHz、5msecの
範囲でも十分に音声の話者依存性の少ない特徴を抽出す
ることができることが判ったためである。
【0059】したがって、一単位時間当たりの音声の特
徴抽出のために必要とする計算量は、一実施の形態では
周波数で18点、時間軸で1点であるため合計18回の
乗算が必要であったのに対し、変形例では周波数で32
点、時間軸で6点で合計192回の乗算を必要とし、一
実施の形態の場合、一単位時間の低次圧縮にかかる計算
速度は変形例の場合の1/10.6倍に短縮されて、大
幅な計算量の削減が図れ、かつ同程度以上の良好な音声
認識結果が得られている。
【0060】さらに、参照時系列ベクトルを記憶してお
くためのメモリの記憶容量も、用いるチャンネル数が一
実施の形態の場合は2チャンネル、変形例の場合は3チ
ャンネルのために、一実施の形態の場合では2/3倍に
削減できることになる。
【0061】
【発明の効果】以上説明したように、本発明に係る音声
認識装置によれば、特徴抽出のための演算も、かつ照合
のための処理も簡単なため、その構成は簡単ですみ、か
つ不特定話者の多様性に対しても誤認識が少なく、音声
認識をすることができるという効果が得られる。さら
に、本発明によれば、音声の特徴抽出に必要な計算量の
削減と、照合に必要な計算量の削減と参照時系列ベクト
ルを記憶しておくためのメモリー容量を削減しつつ、良
好な音声認識特性を得ることができるという効果が得ら
れる。
【図面の簡単な説明】
【図1】本発明の一実施の形態にかかる音声認識装置の
構成を示す模式ブロック図である。
【図2】本発明の一実施の形態にかかる音声認識装置に
おける特徴抽出フィルタの構成を示すブロック図であ
る。
【図3】本発明の一実施の形態にかかる音声認識装置に
おける部分周波数−時間パターン作成器の作用の説明に
供する模式図である。
【図4】本発明の一実施の形態にかかる音声認識装置に
おける部分周波数−時間パターン作成器および主成分分
析器の作用の説明に供する模式図である。
【図5】本発明の一実施の形態にかかる音声認識装置に
おける照合用低次圧縮時系列データの構造の一例を示す
模式図である。
【図6】本発明の一実施の形態にかかる音声認識装置に
おける特徴抽出フィルタの特徴抽出ベクトルを示す図で
ある。
【図7】本発明の一実施の形態にかかる音声認識装置の
変形例における特徴抽出フィルタの他の構成を示すブロ
ック図である。
【図8】本発明の一実施の形態にかかる音声認識装置の
変形例における照合用低次圧縮時系列データの構造の一
例を示す模式図である。
【図9】本発明の一実施の形態にかかる音声認識装置に
よる音声認識結果を示す特性図である。
【符号の説明】
α 特徴抽出フィルタ作成部 β 照合時系列データ作成部 γ 不特定話者音声認識部 1 音声認識装置 2 周波数分析器 3 部分周波数−時間パターン作成器 4 主成分分析器 5 特徴抽出フィルタ 6 照合用低次圧縮時系列データ記憶器 7 時系列データ照合器

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】音声信号を周波数分析して得た周波数スペ
    クトルを、時間軸に沿って順次求めて時系列データ群に
    変換する周波数分析手段と、複数の学習話者から発話さ
    れた音声に基づく音声信号が入力された前記周波数分析
    手段からの出力時系列データを予め定めた時間窓で切り
    出す切り出し手段と、前記切り出し手段によって切り出
    された時系列データ群を用いて主成分分析を行う主成分
    分析手段と、前記主成分分析により得た主成分に基づき
    入力時系列データを低次の時系列データに圧縮する特徴
    抽出フィルタ手段とを備え、前記複数の学習話者から発
    話された音声に基づく低次の時系列データを参照用低次
    時系列データとし、該参照用低次時系列データと不特定
    話者から発話された音声に基づく低次の時系列データと
    を照合して照合結果に基づいて音声認識をすることを特
    徴とする音声認識装置。
  2. 【請求項2】請求項1記載の音声認識装置において、特
    徴抽出フィルタ手段は音声スペクトルより切り出された
    部分音声スペクトルデータをサンプルとして求めた主成
    分中の低次主成分における低い周波数部分のみを用いて
    畳み込み積分を行うことを特徴とする音声認識装置。
  3. 【請求項3】請求項1記載の音声認識装置において、特
    徴抽出フィルタ手段は音声スペクトルより切り出された
    部分音声スペクトルデータをサンプルとして求めた主成
    分中の低次主成分における時間窓の中心部分のみを用い
    て畳み込み積分を行うことを特徴とする音声認識装置。
  4. 【請求項4】請求項1記載の音声認識装置において、特
    徴抽出フィルタ手段は音声スペクトルより切り出された
    部分音声スペクトルデータをサンプルとして求めた主成
    分における低い周波数部分および時間窓の中心部分を用
    いて畳み込み積分を行うことを特徴とする音声認識装
    置。
  5. 【請求項5】請求項1記載の音声認識装置において、特
    徴抽出フィルタ手段は主成分分析により得た主成分中の
    低次主成分を基底とすることを特徴とする音声認識装
    置。
  6. 【請求項6】請求項1記載の音声認識装置において、参
    照用低次時系列データは、複数の学習話者から発話され
    た音声に基づく音声信号が入力された周波数分析手段か
    らの出力時系列データを特徴抽出フィルタ手段に供給し
    特徴抽出フィルタ手段にて圧縮された低次の時系列デー
    タであることを特徴とする音声認識装置。
  7. 【請求項7】請求項1記載の音声認識装置において、複
    数の学習話者から発話された音声に基づく音声信号が入
    力された周波数分析手段からの出力時系列データを特徴
    抽出フィルタ手段に供給し特徴抽出フィルタ手段にて圧
    縮された低次の時系列データを参照用時系列データとし
    て記憶する記憶手段を備え、不特定話者から発話された
    音声に基づく低次の時系列データと記憶手段から読み出
    した参照用時系列データとを照合して音声認識をするこ
    とを特徴とする音声認識装置。
  8. 【請求項8】請求項1記載の音声認識装置において、不
    特定話者から発話された音声に基づく低次の時系列デー
    タは、不特定話者から発話された音声に基づく音声信号
    が入力された周波数分析手段からの出力時系列データを
    特徴抽出フィルタ手段に供給し特徴抽出フィルタ手段に
    て圧縮された低次の時系列データであることを特徴とす
    る音声認識装置。
  9. 【請求項9】請求項1記載の音声認識装置において、切
    り出し手段は複数の学習話者の、同じ音素毎に時系列デ
    ータを切り出し、複数の学習話者の平均時系列データを
    作成することを特徴とする音声認識装置。
  10. 【請求項10】請求項1記載の音声認識装置において、
    切り出し手段は比較的定常的な音素毎に、時系列データ
    を切り出すことを特徴とする音声認識装置。
JP32302797A 1997-06-10 1997-11-25 音声認識装置 Expired - Fee Related JP3905620B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32302797A JP3905620B2 (ja) 1997-06-10 1997-11-25 音声認識装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP9-152663 1997-06-10
JP15266397 1997-06-10
JP32302797A JP3905620B2 (ja) 1997-06-10 1997-11-25 音声認識装置

Publications (2)

Publication Number Publication Date
JPH1165589A true JPH1165589A (ja) 1999-03-09
JP3905620B2 JP3905620B2 (ja) 2007-04-18

Family

ID=26481519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32302797A Expired - Fee Related JP3905620B2 (ja) 1997-06-10 1997-11-25 音声認識装置

Country Status (1)

Country Link
JP (1) JP3905620B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100574769B1 (ko) * 1998-04-30 2006-04-28 마쯔시다덴기산교 가부시키가이샤 최우법을 포함한 고유음성에 기초한 화자 및 환경 적응 방법
CN104409073A (zh) * 2014-11-04 2015-03-11 贵阳供电局 一种变电设备声音与语音的识别方法
CN114758560A (zh) * 2022-03-30 2022-07-15 厦门大学 一种基于动态时间规整的哼唱音准评价方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100574769B1 (ko) * 1998-04-30 2006-04-28 마쯔시다덴기산교 가부시키가이샤 최우법을 포함한 고유음성에 기초한 화자 및 환경 적응 방법
CN104409073A (zh) * 2014-11-04 2015-03-11 贵阳供电局 一种变电设备声音与语音的识别方法
CN114758560A (zh) * 2022-03-30 2022-07-15 厦门大学 一种基于动态时间规整的哼唱音准评价方法

Also Published As

Publication number Publication date
JP3905620B2 (ja) 2007-04-18

Similar Documents

Publication Publication Date Title
US4837831A (en) Method for creating and using multiple-word sound models in speech recognition
JP4224250B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP2823469B2 (ja) 文脈依存型音声認識装置および方法
Sinith et al. Emotion recognition from audio signals using Support Vector Machine
JPH05216490A (ja) 音声コード化装置及び方法並びに音声認識装置及び方法
JPH06274200A (ja) 音声コード化装置及び方法
JP2003308091A (ja) 音声認識装置、音声認識方法および音声認識プログラム
JPH07110695A (ja) 音声符号化装置および方法
Chavan et al. Speech recognition in noisy environment, issues and challenges: A review
JP3081108B2 (ja) 話者分類処理装置及び方法
Kamble et al. Emotion recognition for instantaneous Marathi spoken words
Thalengala et al. Study of sub-word acoustical models for Kannada isolated word recognition system
Yavuz et al. A Phoneme-Based Approach for Eliminating Out-of-vocabulary Problem Turkish Speech Recognition Using Hidden Markov Model.
JP2000194392A (ja) 騒音適応型音声認識装置及び騒音適応型音声認識プログラムを記録した記録媒体
JP3905620B2 (ja) 音声認識装置
JP2700143B2 (ja) 音声コーディング装置および方法
JP2001312293A (ja) 音声認識方法およびその装置、並びにコンピュータ読み取り可能な記憶媒体
JP2003044078A (ja) 発声速度正規化分析を用いた音声認識装置
JP2001255887A (ja) 音声認識装置、音声認識方法及び音声認識方法を記録した媒体
JP3767876B2 (ja) 音声認識装置
JP4226273B2 (ja) 音声認識装置、音声認識方法および音声認識プログラム
Jalalvand et al. A classifier combination approach for Farsi accents recognition
JP2003345384A (ja) 音声認識装置、音声認識方法および音声認識プログラム
JP3866171B2 (ja) 音素決定方法、その装置及びプログラム
JP2003177785A (ja) 線形変換行列計算装置及び音声認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070112

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120119

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees