JP2000181481A - 学習装置および学習方法、認識装置および認識方法、並びに記録媒体 - Google Patents

学習装置および学習方法、認識装置および認識方法、並びに記録媒体

Info

Publication number
JP2000181481A
JP2000181481A JP11287618A JP28761899A JP2000181481A JP 2000181481 A JP2000181481 A JP 2000181481A JP 11287618 A JP11287618 A JP 11287618A JP 28761899 A JP28761899 A JP 28761899A JP 2000181481 A JP2000181481 A JP 2000181481A
Authority
JP
Japan
Prior art keywords
learning
unit
vector
code
vector quantization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11287618A
Other languages
English (en)
Inventor
Tetsujiro Kondo
哲二郎 近藤
Norifumi Yoshihara
典文 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11287618A priority Critical patent/JP2000181481A/ja
Publication of JP2000181481A publication Critical patent/JP2000181481A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 信号が有する時間成分を考慮せずに認識を行
うことができるようにする。 【解決手段】 期待度数記憶部84は、コードブック記
憶部82に記憶されたコードブックのコードベクトルに
対応する各コードについて、認識対象の単語についての
統合パラメータが入力されたときに観測されることが期
待される期待度数を記憶しており、ベクトル量子化部8
1では、統合パラメータがベクトル量子化され、その統
合パラメータとの距離が最も近いコードベクトルのコー
ドの系列が出力される。さらに、カイ二乗検定部83に
おいて、ベクトル量子化部81が出力するコードの系
列、および期待度数記憶部84に記憶された各コードの
期待度数を用いてカイ二乗検定を行うことにより、統合
パラメータが、所定の認識対象に対応するものであるか
どうかの適正さが求められる。そして、そのカイ二乗検
定結果に基づいて、認識が行われる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、学習装置および学
習方法、認識装置および認識方法、並びに記録媒体に関
し、特に、例えば、音声などの、いわば非線形な時間成
分を有する信号を、その時間成分を考慮せずに認識を行
うことができるようにする学習装置および学習方法、認
識装置および認識方法、並びに記録媒体に関する。
【0002】
【従来の技術】例えば、音声については、同一人が同一
単語を発話しても、その長さが、発話ごとに、非線形に
伸縮する。従って、音声認識を行う場合には、その非線
形な時間の伸縮に対処する必要があり、例えば、DP
(Dynamic Programming)マッチング法は、非線形な時
間軸伸縮を行うことにより時間正規化(DTW(Dynamic Ti
meWarping))を行いながら、標準パターンとのマッチン
グを行う手法の1つとして知られている。
【0003】
【発明が解決しようとする課題】しかしながら、DPマ
ッチング法により時間軸伸縮を行っても、入力された音
声の音素と、標準パターンの音素とが正しく対応する保
証はなく、音素どうしが正しく対応しない場合には、誤
認識することになる。
【0004】一方、音声の非線形な時間成分を考慮せず
にマッチングを行うことができれば、上述したような時
間軸伸縮に起因する誤認識を防止することができること
になる。
【0005】本発明は、このような状況に鑑みてなされ
たものであり、信号が有する時間成分を考慮せずに認識
を行うことができるようにすることにより、認識率を向
上させることができるようにするものである。
【0006】
【課題を解決するための手段】本発明の学習装置は、時
系列の学習データから得られた、コードベクトルを示す
識別子の系列から、各識別子の期待度数を算出する算出
手段を備えることを特徴とする。
【0007】本発明の学習方法は、時系列の学習データ
から得られた、コードベクトルを示す識別子の系列か
ら、各識別子の期待度数を算出することを特徴とする。
【0008】本発明の第1の記録媒体は、時系列の学習
データから得られた、コードベクトルを示す識別子の系
列から、各識別子の期待度数を算出する算出ステップを
備えるプログラムが記録されていることを特徴とする。
【0009】本発明の認識装置は、入力データをベクト
ル量子化し、コードベクトルを示す識別子の系列を出力
するベクトル量子化手段と、入力データが、所定の認識
対象に対応するものであるかどうかの適正さを、入力デ
ータから得られる識別子の系列および識別子の期待度数
を用いて求める適正さ検出手段と、その適正さに基づい
て、入力データが所定の認識対象に一致するか否かを認
識する認識手段とを備えることを特徴とする。
【0010】本発明の認識方法は、入力データをベクト
ル量子化し、コードベクトルを示す識別子の系列を出力
し、入力データが、所定の認識対象に対応するものであ
るかどうかの適正さを、入力データから得られる識別子
の系列、および識別子が観測されることが期待される期
待度数を用いて求め、その適正さに基づいて、入力デー
タが所定の認識対象に一致するか否かを認識することを
特徴とする。
【0011】本発明の第2の記録媒体は、入力データを
ベクトル量子化し、コードベクトルを示す識別子の系列
を出力するベクトル量子化ステップと、入力データが、
所定の認識対象に対応するものであるかどうかの適正さ
を、入力データから得られる識別子の系列、および識別
子が観測されることが期待される期待度数を用いて求め
る適正さ検出ステップと、その適正さに基づいて、入力
データが所定の認識対象に一致するか否かを認識する認
識ステップとを備えるプログラムが記録されていること
を特徴とする。
【0012】本発明の学習装置および学習方法、並びに
第1の記録媒体においては、時系列の学習データから得
られた識別子の系列から、各識別子の期待度数が算出さ
れる。
【0013】本発明の認識装置および認識方法、並びに
第2の記録媒体においては、入力データをベクトル量子
化し、コードベクトルを示す識別子の系列が出力され、
入力データが、所定の認識対象に対応するものであるか
どうかの適正さが、入力データから得られる識別子の系
列、および識別子が観測されることが期待される期待度
数を用いて求められる。そして、その適正さに基づい
て、入力データが所定の認識対象に一致するか否かが認
識される。
【0014】
【発明の実施の形態】図1は、本発明を適用した音声認
識装置の一実施の形態の構成例を示している。
【0015】この音声認識装置には、ユーザが発話した
音声をマイクロフォンで集音した発話データの他、その
ユーザが発話している口唇をビデオカメラで撮影した画
像のデータ(画像データ)、ユーザが発話した環境にお
ける雑音のデータ(雑音データ)、その他のユーザの発
話(音声)を認識するのに役立ちうるデータ(例えば、
ユーザが発話を行っている場所を入力するボタンが装置
に設けられている場合において、そのボタンが操作され
たときの、その操作に対応する信号や、音声認識を行う
環境の温度を計測する温度センサの出力など)が、時系
列に、順次入力されるようになされており、これらのデ
ータを必要に応じて考慮して、発話データの認識が行わ
れるようになされている。
【0016】即ち、パラメータ化回路1には、上述した
発話データ、口唇の画像データ、雑音データ、その他の
データ(ここでは、いずれもディジタルデータとする)
が入力されるようになされている。そして、パラメータ
化回路1は、そこに入力される各種のデータそれぞれを
処理するための信号処理部111乃至11Nを有してお
り、発話データ、口唇の画像データ、雑音データ、その
他のデータを、対応する信号処理部11n(n=1,
2,・・・,N:Nは、パラメータ化回路1に入力可能
な信号の最大の種類数)において処理することにより、
各データの特徴を表す特徴パラメータの抽出等を行うよ
うになされている。パラメータ化回路1で抽出された特
徴パラメータは、統合パラメータ生成回路2に供給され
るようになされている。
【0017】ここで、図1の実施の形態では、信号処理
部111,112、または11Nそれぞれにおいて、口唇
の画像データ、発話データ、または雑音データが処理さ
れるようになされている。なお、発話データや雑音デー
タなどの音声(音響)データの特徴パラメータとして
は、例えば、線形予測係数や、ケプストラム(Cepstrum)
係数、パワー、線スペクトル対(Line Spectrum Pair)、
ゼロクロスなどがある。また、口唇の画像データの特徴
パラメータについては、後述する。
【0018】統合パラメータ生成回路2は、メディア間
正規化部21および統合パラメータ生成部22で構成さ
れ、パラメータ化回路1からの各種の信号の特徴パラメ
ータを統合した統合パラメータを生成するようになされ
ている。
【0019】即ち、メディア間正規化部21は、パラメ
ータ化回路1からの各種の信号の特徴パラメータを、同
一の重み(スケール)で扱うことができるように正規化
し、統合パラメータ生成部22に出力するようになされ
ている。統合パラメータ生成部22は、メディア間正規
化部21から供給される、各種の信号の、正規化された
特徴パラメータを統合する(つなぎ合わせる)ことによ
り、統合パラメータを生成し、マッチング回路3に出力
するようになされている。
【0020】マッチング回路3は、統合パラメータと、
標準パターン(認識対象のモデル)とのマッチングを行
い、そのマッチング結果を、判定回路4に出力するよう
になされている。マッチング回路3は、距離推移方式マ
ッチング部31および空間分布方式マッチング部32を
有している。距離推移方式マッチング部31は、後述す
る距離推移モデルを用いて、後述する距離推移方式によ
る統合パラメータのマッチングを行い、そのマッチング
結果を、判定回路4に出力するようになされている。空
間分布方式マッチング部32は、後述する空間分布方式
による統合パラメータのマッチングを行い、そのマッチ
ング結果を、判定回路4に出力するようになされてい
る。
【0021】判定回路4は、マッチング回路3の出力、
即ち、ここでは、距離推移方式マッチング部31および
空間分布方式マッチング部32におけるマッチング結果
に基づいて、ユーザの発話(音声)を認識し、その認識
結果としての、例えば、単語を出力するようになされて
いる。
【0022】次に、図2のフローチャートを参照して、
図1の音声認識装置の処理について説明する。
【0023】音声認識装置では、発話データ、口唇の画
像データ、雑音データ等が入力されると、それらのデー
タが、パラメータ化回路1に供給される。なお、パラメ
ータ化回路1には、口唇の画像データとともに、あるい
は口唇の画像データに替えて、発話者のジェスチャを撮
影した画像データや、喉の(筋肉の)動きを撮影した画
像データ(または喉の動きを計測するセンサの出力)等
を入力するようにすることも可能である。
【0024】パラメータ化回路1は、ステップS1にお
いて、発話データ、口唇の画像データ、雑音データ等を
処理し、それぞれのデータについて、特徴パラメータを
抽出する。各データの特徴パラメータは、統合パラメー
タ生成回路2に供給される。
【0025】統合パラメータ生成回路2のメディア間正
規化部21は、ステップS2において、パラメータ化回
路1からの各データの特徴パラメータを正規化し、その
正規化された特徴パラメータを、統合パラメータ生成部
22に供給する。統合パラメータ生成部22は、ステッ
プS3において、メディア間正規化部21からの各デー
タの正規化された特徴パラメータを統合し、統合パラメ
ータとする。この統合パラメータは、マッチング回路3
の距離推移方式マッチング部31および空間分布方式マ
ッチング部32に供給され、ステップS4に進む。
【0026】ステップS4では、距離推移方式マッチン
グ部31が、統合パラメータ生成回路2からの統合パラ
メータのマッチングを、距離推移方式によって行う。さ
らに、ステップS4では、空間分布方式マッチング部3
2が、統合パラメータ生成回路2からの統合パラメータ
のマッチングを、空間分布方式によって行う。そして、
距離推移方式マッチング部31および空間分布マッチン
グ部32によるマッチング結果は、判定回路4に供給さ
れる。判定回路4は、ステップS5において、マッチン
グ回路3からのマッチング結果に基づき、発話データの
認識を行い、その認識結果(音声認識結果)を出力し
て、処理を終了する。
【0027】次に、図1におけるパラメータ化回路1の
信号処理部111は、上述したように、口唇の画像デー
タを処理し、その特徴パラメータを抽出するようになっ
ているが、図3は、そのような信号処理部111の構成
例を示している。
【0028】口唇の画像データは、YIQ変換部41に
供給されるようになされており、YIQ変換部41は、
口唇の画像データを、YIQで表される信号に変換する
ようになされている。即ち、信号処理部111に入力さ
れる口唇の画像データは、例えば、RGB(Red, Gree
n, Blue)で表現されており、YIQ変換部41は、そ
のようなRGBで表現された口唇の画像データを、YI
Qで表現されたものに変換し、Q成分抽出部42に供給
するようになされている。
【0029】Q成分抽出部42は、YIQ変換部41か
らのYIQで表現された口唇の画像データのうちの、Q
成分の信号レベルが閾値以上となっている画素を抽出
し、その画素を、口唇を構成する画素(以下、適宜、口
唇画素という)として、全体重心算出部43、上重心/
下重心算出部44、分割重心算出部45、および分割部
46に出力するようになされている。
【0030】全体重心算出部43は、Q成分抽出部42
からの口唇画素全体の重心(以下、適宜、全体重心とい
う)を求め、上重心/下重心算出部44および分割重心
算出部45に供給するようになされている。
【0031】上重心/下重心算出部44は、後述する上
重心および下重心を求めるようになされている。即ち、
上重心/下重心算出部44は、全体重心算出部43から
の全体重心に基づいて、口唇画素を、上唇を構成する画
素(以下、適宜、上唇画素という)と、下唇を構成する
画素(以下、適宜、下唇画素という)とに仮に分割する
ようになされている。さらに、上重心/下重心算出部4
4は、上唇画素全体の重心(以下、適宜、上重心とい
う)、および下唇画素全体の重心(以下、適宜、下重心
という)を求め、分割重心算出部45に出力するように
なされている。
【0032】分割重心算出部45は、口唇画素を、上唇
画素と下唇画素とに最終的に分割するための、その分割
の基準となる点(以下、適宜、分割重心という)を、全
体重心算出部43からの全体重心、並びに上重心/下重
心算出部44からの上重心および下重心に基づいて求
め、分割部46に出力するようになされている。
【0033】分割部46は、Q成分抽出部42からの口
唇画素を、分割重心算出部45からの分割重心に基づい
て、上唇画素と下唇画素とに分割し、上唇画素はミラー
領域生成部47Uに、下唇画素はミラー領域生成部47
Dに、それぞれ出力するようになされている。
【0034】ミラー領域生成部47Uは、上唇画素につ
いて、後述するミラー領域を構成し、上唇画素ととも
に、楕円近似部48Uに供給するようになされている。
ミラー領域生成部47Dは、下唇画素について、ミラー
領域を構成し、下唇画素とともに、楕円近似部48Dに
供給するようになされている。
【0035】楕円近似部48Uは、ミラー領域生成部4
7Uからの上唇画素とそのミラー領域を近似する楕円を
求め、その楕円を規定するパラメータ(楕円パラメー
タ)を、口唇パラメータ出力部49に供給するようにな
されている。楕円近似部48Dは、ミラー領域生成部4
7Dからの下唇画素とそのミラー領域を近似する楕円を
求め、その楕円を規定する楕円パラメータを、口唇パラ
メータ出力部49に供給するようになされている。
【0036】口唇パラメータ出力部49は、楕円近似部
48Uおよび48Dからの楕円パラメータのうち、重複
するものを削除し、残りを、口唇の特徴を表す特徴パラ
メータである口唇パラメータとして出力するようになさ
れている。
【0037】次に、図4のフローチャートを参照して、
図3の処理部111の処理について説明する。
【0038】YIQ変換部41は、例えば、RGBで表
現された口唇の画像データを受信すると、ステップS1
1において、YIQ変換行列を用いて、その画像データ
を、YIQで表現されたものに変換し、Q成分抽出部4
2に供給する。
【0039】Q成分抽出部42は、ステップS12にお
いて、YIQ変換部41からのYIQで表現された口唇
の画像データのうちの、Q成分が閾値以上となっている
画素を抽出し、その画素を、口唇画素として、全体重心
算出部43、上重心/下重心算出部44、分割重心算出
部45、および分割部46に出力する。
【0040】ここで、本件発明者が行った調査によれ
ば、口唇を構成する画素(口唇画素)は、比較的、Q成
分が大きくなり、Q成分の大きい画素を抽出すること
で、口唇画素を比較的精度良く抽出することができるこ
とが分かっている。なお、Q成分は、赤系統の色の成分
であるが、RGBで表現された画像から、同じく赤系統
の色の成分であるR成分が大きい画素を抽出するより
は、Q成分の大きい画素を抽出した方が口唇画素を比較
的精度良く抽出することも、本件発明者が行った調査か
ら分かっている。
【0041】全体重心算出部43は、Q成分抽出部42
から、口唇画素を受信すると、ステップS13におい
て、図5に◎印で示すような、その口唇画素全体の重心
(全体重心)を求め、上重心/下重心算出部44および
分割重心算出部45に供給して、ステップS14に進
む。ステップS14では、上重心/下重心算出部44に
おいて、上重心および下重心が算出される。
【0042】即ち、上重心/下重心算出部44は、図5
に示すような、全体重心を通る水平方向の直線によっ
て、Q成分抽出部42からの口唇画素を、仮に上下に2
分割する。ここで、本実施の形態では、口唇の画像デー
タとして、発話を行っているユーザを正面から撮影して
得られるものが供給されるものとしている。
【0043】さらに、上重心/下重心算出部44は、口
唇画素を、上述したようにして上下2分割したものの上
側または下側の画素を、それぞれ上唇を構成する画素
(上唇画素)または下唇を構成する画素(下唇画素)と
して、図5に×印で示すような上重心または下重心をそ
れぞれ求める。この上重心および下重心は、分割重心算
出部45に供給される。
【0044】分割重心算出部45は、ステップS15に
おいて、分割重心を求める。即ち、分割重心算出部45
は、上重心/下重心算出部44における場合と同様に、
全体重心を通る水平方向の直線によって、Q成分抽出部
42からの口唇画素を、上下に2分割することで、上唇
画素と下唇画素とに分け、それぞれの画素数をカウント
する。さらに、分割重心算出部45は、上重心と下重心
とを通る線分を、上唇画素の画素数と下唇画素の画素数
との比にしたがって内分し、その内分点を、分割重心と
する。この分割重心は、分割部46に供給される。
【0045】分割部46は、ステップS16において、
分割重心算出部45からの、図5において・印で示す分
割重心を通る水平方向の直線によって、Q成分抽出部4
2からの口唇画素を、上下に2分割することにより、最
終的な上唇画素と下唇画素とに分け、上唇画素はミラー
領域生成部47Uに、下唇画素はミラー領域生成部47
Dに、それぞれ出力する。
【0046】そして、ステップS17において、ミラー
領域生成部47Uは、上唇画素について、ミラー領域を
構成し、ミラー領域生成部47Dは、下唇画素につい
て、ミラー領域を構成する。即ち、ミラー領域生成部4
7Uは、図6(A)に示すように、上唇画素について、
分割重心を通る水平方向の直線(以下、適宜、上下分割
線という)に線対称な領域を、そのミラー領域として生
成し、上唇画素とともに、楕円近似部48Uに供給す
る。また、ミラー領域生成部47Dは、図6(B)に示
すように、下唇画素について、上下分割線に線対称な領
域を、そのミラー領域として生成し、下唇画素ととも
に、楕円近似部48Dに供給する。
【0047】その後、ステップS18において、楕円近
似部48Uは、図6(A)に示すように、上唇画素とそ
のミラー領域を近似する、分割重心を中心とする楕円
を、例えば、最小二乗法によって求める。楕円近似部4
8Dも、図6(B)に示すように、下唇画素とそのミラ
ー領域を近似する、分割重心を中心とする楕円を、最小
二乗法によって求める。
【0048】即ち、いま、分割重心のxまたはy座標
を、x0またはy0と表すと、横径(x軸方向(水平方
向)の半径)または縦径(y軸方向(垂直方向)の半
径)を、それぞれ1/a1/2または1/b1/2とする楕円
は、次式で表すことができる。
【0049】 a(x−x02+b(y−y02=1 ・・・(1)
【0050】従って、上唇画素、およびそのミラー領域
を構成する画素を近似する二乗誤差を最小にする楕円
は、次式を解くことで求めることができる。
【0051】
【数1】 ・・・(2)ここで、式(2)において、Σは、上唇画
素、およびそのミラー領域を構成する画素すべてについ
てのサメーションを表す。
【0052】楕円近似部48Uは、上唇画素とそのミラ
ー領域を近似する、分割重心を中心とする楕円の横径お
よび縦径を、式(2)を解くことにより求め、上唇を近
似する楕円の楕円パラメータとして、口唇パラメータ出
力部49に供給する。楕円近似部48Dも、楕円近似部
48Uにおける場合と同様にして、下唇画素とそのミラ
ー領域を近似する楕円の横径および縦径を求め、口唇パ
ラメータ出力部49に供給する。
【0053】口唇パラメータ出力部49は、ステップS
19において、楕円近似部48Uまたは48Dからの楕
円パラメータのうち、重複するものを削除する。即ち、
上唇画素とそのミラー領域を近似する楕円の横径と、下
唇画素とそのミラー領域を近似する楕円の横径は、理想
的には、図7に示すように、一致するはずであり、口唇
パラメータ出力部49は、その一致する横径の1つを削
除し、残りの横径、並びに上唇画素とそのミラー領域を
近似する楕円の縦径(以下、適宜、上縦径という)およ
び下唇画素とそのミラー領域を近似する楕円の縦径(以
下、適宜、下縦径という)の3つの楕円パラメータを、
口唇の特徴パラメータとして出力し、処理を終了する。
【0054】なお、処理部111は、以上の処理を、例
えば、1フレームの口唇の画像データが供給されるごと
に繰り返す。
【0055】ここで、上唇画素とそのミラー領域を近似
する楕円の横径と、下唇画素とそのミラー領域を近似す
る楕円の横径は、上述したように、理想的には、一致す
るはずであるが、楕円を、最小二乗法によって求める場
合には、僅かな差ではあるが、一致しないことが多い。
そこで、横径についてだけは、図3において点線で示す
ように、楕円近似部48Uと48Dとの間でデータをや
りとりすることにより、上唇を近似する楕円の二乗誤差
と、下唇を近似する楕円の二乗誤差との和を求め、その
和を最小にする楕円の横径を求めるようにすることがで
きる。
【0056】なお、上唇画素とそのミラー領域を近似す
る楕円の横径と、下唇画素とそのミラー領域を近似する
楕円の横径とを、それぞれ独立に、最小二乗法によって
求めた後、そのうちのいずれか一方のみを選択したり、
また、その2つの横径の平均値を計算することによって
も、2つの横径を1つに、いわばまとめることが可能で
あるが、上唇または下唇を最も良く近似する楕円のうち
のいずれか一方の横径を選択する場合には、選択されな
かった方の楕円による近似の精度が悪化し、また、2つ
の横径の平均値を計算する場合には、その平均値を横径
とする楕円が、上唇および下唇を精度良く近似するとは
限らないため、楕円による上唇および下唇の近似の精度
を、ある程度高く維持するためには、上述したように、
上唇を近似する楕円の二乗誤差と、下唇を近似する楕円
の二乗誤差との和を求め、その和を最小にする楕円の横
径を求めるようにするのが望ましい。
【0057】以上のように、口唇画素を、上唇画素と下
唇画素とに2分割し、それぞれを近似する楕円を求め、
その楕円を表す横径および縦径を、口唇の特徴を表す特
徴パラメータとするようにしたので、この特徴パラメー
タによれば、口唇の動き等を、忠実に再現することがで
きる。
【0058】さらに、口唇を楕円で近似することによ
り、口唇の画像データが多少のノイズを有していても、
そのノイズに対して、ロバスト性のある特徴パラメータ
を得ることができる。
【0059】さらに、口唇を近似する楕円の横径、上縦
径、および下縦径である特徴パラメータは、人が、他人
または自身の口唇を見た場合に、視覚的に得る口唇の動
きに連動するから、その特徴パラメータの検証を行う場
合に、その検証効率を向上させることができる。
【0060】また、特徴パラメータが、横径、上縦径、
下縦径の3つで済むので、例えば、口唇の上下左右の4
つの端点を特徴パラメータとする場合に比較して、少な
い数の特徴パラメータで、口唇を、効率良く表現するこ
とができる。
【0061】その結果、例えば、図1に示すように、処
理部111が出力する口唇の特徴パラメータと、処理部
112が出力する発話データの特徴パラメータとを、送
信装置5から、例えば、電話回線や、CATV(Cable
Television)、インターネット、衛星回線などの伝送媒
体6を介して、受信装置7に伝送し、受信装置7におい
て、口唇の特徴パラメータに基づいて、人の顔の画像を
動かしながら、発話データの特徴パラメータに基づいて
音声を再生するような場合において、送信装置5から受
信装置7に送信する口唇の特徴パラメータのデータ量が
少なくて済むようになる。
【0062】さらに、図3の実施の形態においては、口
唇画素全体の重心(全体重心)を求め、その全体重心に
基づき、口唇画素を、上唇画素と下唇画素とに仮に分割
し、上重心および下重心を求め、さらに、分割重心を求
め、その分割重心に基づき、口唇画素を、最終的な上唇
画素と下唇画素とに分割するようにしたので、実際に
は、上唇を構成する画素が、誤って下唇画素とされた
り、逆に、下唇を構成する画素が、誤って上唇画素とさ
れたりするケースを少なくすることができる。即ち、一
般には、下唇の表面積が上唇の表面積より広いため、全
体重心は、下唇寄りに位置する。その結果、全体重心に
基づき、口唇画素を、上唇画素と下唇画素とに分割した
場合には、実際には、下唇を構成する画素が、誤って上
唇画素とされるケースが多くなる。これに対して、全体
重心に基づき、口唇画素を、上唇画素と下唇画素とに仮
に分割し、上重心および下重心を求め、さらに、分割重
心を求めて、その分割重心に基づき、口唇画素を、最終
的な上唇画素と下唇画素とに分割する場合には、分割重
心が、上重心寄りに位置することとなるため、下唇を構
成する画素が、誤って上唇画素とされるケースを少なく
することができる。
【0063】なお、図3の実施の形態では、発話者(ユ
ーザ)の口唇を楕円で近似するようにしたが、その他、
例えば、目などの人の顔の、口唇以外の器官も、上述の
場合と同様にして、楕円で近似することが可能である。
【0064】また、図3の実施の形態では、口唇を、上
唇と下唇とに2分割するようにしたが、その他、例え
ば、さらに、上唇のみを左右に2分割することにより、
合計で3分割し、各分割部分を楕円近似したり、上唇お
よび下唇の両方を左右に2分割することにより、合計で
4分割し、各分割部分を楕円近似したりすることも可能
である。
【0065】次に、図1のメディア間正規化部21は、
上述したように、パラメータ化回路1からの各種のデー
タの特徴パラメータを、同一の重みで扱うことができる
ように正規化するが、この正規化は、各特徴パラメータ
に、正規化係数を乗算することで行われるようになされ
ている。そして、その正規化係数は、学習を行うことに
より求められるようになされており、図8は、そのよう
な学習を行う学習装置の一実施の形態の構成例を示して
いる。
【0066】なお、ここでは、説明を簡単にするため
に、異なる2つのメディアである画像と音声の特徴パラ
メータの重みを同一にするための正規化係数を求める学
習について説明する。
【0067】仮正規化部51には、ベクトル量子化に用
いるコードブックを生成するためのコードベクトル学習
パラメータ(コードブック生成データ)としての、画像
の特徴パラメータPi,jおよび音声の特徴パラメータV
i,j(認識対象とする各音韻について、複数セットの特
徴パラメータPi,jおよび音声の特徴パラメータVi,j
が供給されるようになされており、仮正規化部51は、
正規化係数制御部55からの正規化係数によって、特徴
パラメータPi,jおよび音声の特徴パラメータVi ,jを、
仮に正規化し、コードブック作成部52に供給するよう
になされている。即ち、本実施の形態では、例えば、画
像の特徴パラメータPi,jの重みを基準とし、その重み
に、音声の特徴パラメータVi,jの重みを一致させるた
めに、音声の特徴パラメータVi,jに対して、正規化係
数制御部55からの正規化係数αが乗算される。従っ
て、画像の特徴パラメータPi,jには、正規化係数とし
て1が乗算されると考えることができる。
【0068】ここで、特徴パラメータPi,jおよびVi,j
の行を表すサフィックスiは、その特徴パラメータP
i,j,Vi,jが抽出された時刻(時間)を表し、列を表す
サフィックスjは、特徴パラメータPi,j,Vi,jの次数
(次元)を表す(従って、(P i,1,Pi,2,・・・,P
i,L,Vi,1,Vi,2,・・・,Vi,M)が、ある時刻iに
おける特徴パラメータ(特徴ベクトル)である)。ま
た、図8では、特徴パラメータPi,jにカッコ付きのサ
フィックス(k)を付して、P(k) i,jと示してあるが、
これは、kが異なれば、異なる学習用のデータから生成
された特徴パラメータであることを表している。V(k)
i,jのサフィックス(k)についても、同様である。
【0069】なお、本実施の形態においては、画像の特
徴パラメータPi,jとしては、例えば、上述した口唇を
近似する楕円の横径、上縦径、下縦径を用いることがで
き、この場合、特徴パラメータPi,jの次数Lは3次と
なる。また、音声の特徴パラメータVi,jとしては、例
えば、8次の線スペクトル対を用いることができ、この
場合、特徴パラメータVi,jの次数Mは8次となる。
【0070】コードブック作成部52は、仮の正規化が
なされた特徴パラメータとしてのコードベクトル学習パ
ラメータPi,jおよびVi,jを用いて、ベクトル量子化部
54におけるベクトル量子化に用いるコードブックを生
成し、ベクトル量子化部54に供給するようになされて
いる。
【0071】ここで、コードブック作成部52は、例え
ば、LBG(Linde, Buzo, Gray)アルゴリズムにした
がって、コードブックを作成するようになされている。
【0072】LBGアルゴリズムは、いわばバッチ型学
習アルゴリズムで、学習サンプル(学習データ)として
の特徴パラメータと、コードブックを構成するコードベ
クトル(代表ベクトル)(最初は、適当な初期値が与え
られる)との距離に対応して、特徴パラメータ空間を最
適分割するボロノイス(Voronois)分割、およびボロノイ
ス分割により得られる、特徴パラメータ空間の各部分領
域の重心への、コードベクトルの更新を繰り返し行うこ
とにより、コードブックのコードベクトルを、局所的に
最適な位置に収束させるようになっている。
【0073】ここで、学習サンプルの集合をxj(j=
0,1,・・・,J−1)と、コードベクトルの集合を
Y={y0,y1,・・・,yNa-1}と(Naはコードベ
クトルの数を表し、任意に設定される)、それぞれする
とき、ボロノイス分割では、学習サンプルの集合x
jが、コードベクトルYの集合によって、Na個の部分
集合Si(i=0,1,・・・,Na−1)に分割され
る。即ち、学習サンプルxjとコードベクトルyiとの間
の距離をd(xj,yi)と表した場合、iと等しくない
t(t=0,1,・・・,Na−1)すべてについて、
式 d(xj,yi)<d(xj,yt) ・・・(3) が成り立つとき、学習サンプルxjは、部分集合Siに属
する(xj∈Si)とされる。
【0074】また、ベクトルv0,v1,・・・,vM-1
についてのセントロイド(重心)C(v0,v1,・・
・,vM-1)を、式
【数2】 ・・・(4) で定義するとき、コードベクトルの更新では、コードベ
クトルyiが、式 yi=C({Si}) ・・・(5) にしたがって更新される。
【0075】なお、式(4)の右辺argmin{}
は、{}内の値を最小にするベクトルvを意味する。ま
た、式(5)による、いわゆるクラスタリング手法は、
k平均クラスタリング法(k-means法)と呼ばれる。
【0076】また、LBGアルゴリズムについては、例
えば、「音声・画像工学」、中田和男、南敏 著、昭晃
堂、昭和62年の第29ページ乃至第31ページなど
に、その詳細が記載されている。
【0077】ここで、図8の実施の形態において、コー
ドブック作成部52が出力するコードブックの要素S
i,jおよびTi,jの行を表すサフィックスi,jは、コー
ド#iに対応するコードベクトルのj番目の要素である
ことを表している。従って、(Si,1,Si,2,・・・,
i,L,Ti,1,Ti,2,・・・,Ti,M)は、コード#i
に対応するコードベクトルを表す。また、コードベクト
ルの要素Si,jは、画像に対応しており、要素Ti,jは、
音声に対応している。
【0078】仮正規化部53には、正規化係数αの学習
のための正規化係数学習パラメータとしての画像の特徴
パラメータPi,jおよび音声の特徴パラメータVi,j(こ
こでは、コードベクトル学習パラメータとは異なる画
像、音声から得られたものとする)が供給されるように
なされており、仮正規化部53は、仮正規化部51と同
様に、正規化係数制御部55からの正規化係数によっ
て、特徴パラメータPi,jおよび音声の特徴パラメータ
i,jを、仮に正規化し、ベクトル量子化部54に供給
するようになされている。即ち、仮正規化部53は、正
規化係数学習パラメータとしての画像の特徴パラメータ
i,jと音声の特徴パラメータVi,jのうちの音声の特徴
パラメータVi,jに対して、正規化係数制御部55から
の正規化係数αを乗算し、ベクトル量子化部54に出力
するようになされている。
【0079】なお、仮正規化部53には、正規化係数学
習パラメータが複数セット供給されるようになされてお
り、仮正規化部53は、その複数セットの正規化係数学
習パラメータそれぞれについて、正規化を行うようにな
っている。
【0080】ベクトル量子化部54は、コードブック作
成部52からの最新のコードブックを用いて、仮正規化
部53から供給される正規化された正規化係数学習パラ
メータをベクトル量子化し、そのベクトル量子化による
量子化誤差を、正規化係数制御部55に供給するように
なされている。
【0081】即ち、ベクトル量子化部54は、コードブ
ックのコードベクトルそれぞれ(標準パラメータ)と、
正規化された正規化係数学習パラメータとの距離(ユー
クリッド距離)(Euclidean distance)を、画像と音声そ
れぞれについて計算し、その距離のうちの最も短いもの
を、量子化誤差として、正規化係数制御部55に供給す
るようになされている。つまり、正規化された正規化係
数学習パラメータのうちの画像の特徴パラメータPi,j
と、コードブックにおけるコードベクトルそれぞれの画
像に関する要素Si,jからなるベクトルとの距離が算出
され、その距離の最も短いものが、画像についての量子
化誤差として、正規化係数制御部55に供給されるとと
もに、正規化された正規化係数学習パラメータのうちの
音声の特徴パラメータαVi,jと、コードブックにおけ
るコードベクトルそれぞれの音声に関する要素Ti,j
らなるベクトルとの距離が算出され、その距離の最も短
いものが、音声についての量子化誤差として、正規化係
数制御部55に供給されるようになされている。
【0082】正規化係数制御部55は、ベクトル量子化
部54からの画像と音声についての量子化誤差を、すべ
ての正規化係数学習パラメータに関して、それぞれ累積
(積算)し、その画像と音声についての累積値が等しく
なるように、仮正規化部51および53に供給する正規
化係数αを変更するようになされている。
【0083】次に、図9のフローチャートを参照して、
図8の学習装置が行う処理(正規化係数学習処理)につ
いて説明する。
【0084】図8の学習装置においては、まず最初に、
コードベクトル学習パラメータが仮正規化部51に供給
されるとともに、正規化係数学習パラメータが仮正規化
部53に供給され、正規化係数制御部55から、正規化
係数αの初期値が、仮正規化部51および53に供給さ
れる。
【0085】そして、ステップS21において、仮正規
化部51は、コードベクトル学習パラメータのうちの、
音声の特徴パラメータVi,jに対して、正規化係数制御
部55からの正規化係数αを乗算し、これにより、コー
ドベクトル学習パラメータを仮に正規化して、コードブ
ック作成部52に供給する。
【0086】コードブック作成部52は、仮正規化部5
1から、正規化されたコードベクトル学習パラメータを
受信すると、ステップS22において、そのコードベク
トル学習パラメータを用い、LBGアルゴリズムによ
り、ベクトル量子化部54がベクトル量子化を行うのに
用いるコードブックを作成し、ベクトル量子化部54に
供給する。
【0087】一方、仮正規化部53は、ステップS23
において、正規化係数学習パラメータのうちの音声の特
徴パラメータVi,jに対して、正規化係数制御部55か
らの正規化係数αを乗算し、これにより、正規化係数学
習パラメータを仮に正規化して、ベクトル量子化部54
に供給する。
【0088】ベクトル量子化部54は、コードブック作
成部52から、最新のコードブックを受信するととも
に、仮正規化部53から、最新の正規化された正規化係
数学習パラメータを受信すると、ステップS24におい
て、仮正規化部53からの正規化係数学習パラメータ
を、コードブック作成部52からのコードブックを用
い、画像と音声それぞれについてベクトル量子化を行
い、それぞれの量子化誤差を、正規化係数制御部55に
供給する。
【0089】即ち、ステップS24では、ベクトル量子
化部54は、正規化された正規化係数学習パラメータの
うちの画像の特徴パラメータ(画像パラメータ)Pi,j
と、コードベクトルのうちの画像に関する要素Si,j
らなるベクトルとの距離を算出し、その距離の最も短い
ものを、画像についての量子化誤差として、正規化係数
制御部55に供給するとともに、正規化された正規化係
数学習パラメータのうちの音声の特徴パラメータ(音声
パラメータ)αVi,jと、コードベクトルのうちの音声
に関する要素Ti,jからなるベクトルとの距離を算出
し、その距離のうち、最も短いものを、音声についての
量子化誤差として、正規化係数制御部55に供給する。
【0090】ここで、仮正規化部53には、上述したよ
うに、複数の正規化係数学習パラメータが供給されるた
め、ベクトル量子化部54にも、仮正規化された正規化
係数学習パラメータが複数セット供給されるが、ベクト
ル量子化部54は、その複数の正規化された正規化係数
学習パラメータそれぞれについて、順次、上述したよう
な画像および音声についての量子化誤差を求め、正規化
係数制御部55に供給するようになっている。
【0091】ステップS24では、さらに、正規化係数
制御部55が、ベクトル量子化部54から供給される画
像と音声についての量子化誤差を、すべての正規化係数
学習パラメータについて、それぞれ累積し、それぞれの
量子化誤差の累積値DPとDVを求める。この画像と音声
についての量子化誤差の累積値DPとDVは、正規化係数
制御部55に供給されて記憶される。
【0092】そして、ステップS25に進み、正規化係
数制御部55は、すべてのαに関して、画像と音声につ
いての量子化誤差の累積値DPとDVを求めたかどうかを
判定する。即ち、本実施の形態では、例えば、αを、そ
の初期値を0.001として、0.001から2.00
0までの範囲を、0.001刻みに変更(ここでは、増
加)して、累積値DPとDVを求めることとしており、正
規化係数制御部55は、ステップS25において、その
ような範囲のαに関して、画像と音声についての量子化
誤差の累積値DPとDVを求めたかどうかを判定する。
【0093】ステップS25において、すべてのαに関
して、まだ、累積値DPとDVが求められていないと判定
された場合、ステップS26に進み、正規化係数制御部
55は、正規化係数αを上述したように変更し、仮正規
化部51および53に供給する。そして、ステップS2
1に戻り、以下、変更後の正規化係数αを用いて、同様
の処理が繰り返される。
【0094】一方、ステップS25において、すべての
αに関して、累積値DPとDVが求められたと判定された
場合、ステップS27に進み、正規化係数制御部55
は、ステップS24で記憶した各値のαに関する画像に
ついての量子化誤差DPと、音声についての量子化誤差
Vとの差分の絶対値|DP−DV|を計算する。さら
に、正規化係数制御部55は、各値のαに関する差分絶
対値|DP−DV|の最小値を与えるα、即ち、理想的に
は、画像についての量子化誤差DPと、音声についての
量子化誤差DVとが同一になる場合のαを検出する。そ
して、ステップS28に進み、正規化係数制御部55
は、その最小の絶対値|DP−DV|を与える正規化係数
αを、画像と音声の特徴パラメータを、同一の重みで扱
うことができるように正規化することのできるものとし
て出力し、処理を終了する。
【0095】以上のように、画像と音声の特徴パラメー
タからなる統合パラメータであるコードベクトル学習パ
ラメータを正規化し、その正規化されたコードベクトル
学習パラメータを用いて、コードブックを生成する一
方、画像と音声の特徴パラメータからなる統合パラメー
タである正規化係数学習パラメータを仮に正規化し、そ
の正規化された正規化係数学習パラメータのうちの画像
または音声の特徴パラメータそれぞれについて、生成さ
れたコードブックを用いてベクトル量子化を行うことに
より、量子化誤差の累積値を求め、その累積値どうしが
等しくなるように、正規化係数を変更するようにしたの
で、画像と音声などといった異なるメディアの特徴パラ
メータを、同等の重みで扱うことができるように正規化
を行うことができる正規化係数を求めることができる。
【0096】その結果、例えば、音声から抽出した特徴
パラメータと、口唇の画像から抽出した特徴パラメータ
とを、正規化係数によって正規化し、さらに、それらを
統合して、統合パラメータとし、この統合パラメータを
用いて、音声の認識を行う場合においては、音声または
画像のうちのいずれか一方の影響を強く受けることによ
り、認識率の向上の妨げられることを防止することが可
能となる。
【0097】さらに、統合パラメータを構成する各メデ
ィアの特徴パラメータが、認識率に与える影響の検証
を、容易に行うことが可能となる。
【0098】なお、図8の実施の形態では、画像と音声
の2種類の特徴パラメータの重みを同一にするための正
規化係数αを求める学習について説明したが、3種類以
上の特徴パラメータ、あるいは、画像や音声の他のメデ
ィアの特徴パラメータの重みを同一にするための正規化
係数を求める学習も、同様に行うことが可能である。
【0099】また、上述した正規化係数の学習方法は、
特徴パラメータの種類や次元に依存するものではないた
め、特徴パラメータの種類や次元に関係なく適用可能で
ある。
【0100】次に、図10は、図1の距離推移方式マッ
チング部31の構成例を示している。
【0101】時間軸正規化部61には、統合パラメータ
生成回路2(図1)から、例えば、ある単語が発話され
たときの統合パラメータが時系列に供給されるようにな
されており、時間軸正規化部61は、その時系列の統合
パラメータの時間軸正規化を行うようになされている。
【0102】即ち、ある単語が発話されたときの発話時
間をtとすると、その単語の発話による統合パラメータ
のある要素の時間変化は、例えば、図11(A)に示す
ようになるが、図11(A)における発話時間tは、同
一人による同一単語の発話であっても、発話ごとに変動
する。そこで、時間軸正規化部61は、発話時間tが、
図11(B)に示すように、一律に、時間TCとなるよ
うに、時間軸正規化を行うようになされている。なお、
例えば、いま、図1の音声認識装置において、単語認識
を行うものとすると、時間TCは、認識対象の単語を発
話したときの一般的な発話時間よりも十分長い時間に設
定されている。従って、時間軸正規化部61では、図1
1(A)に示した時系列の統合パラメータが、いわば時
間軸方向に間延びしたように変更される。なお、時間軸
正規化の手法は、これに限定されるものではない。
【0103】時間軸正規化後の統合パラメータは、時間
軸正規化部61からベクトル量子化部62に供給される
ようになされている。ベクトル量子化部62は、コード
ブック記憶部63に記憶されたコードブックを用いて、
時間軸正規化された時系列の統合パラメータを、順次、
ベクトル量子化し、そのベクトル量子化結果としてのコ
ード、即ち、統合パラメータとの距離が最も近いコード
ベクトルに対応するコードを、順次、距離計算部64に
供給するようになされている。
【0104】コードブック記憶部63は、ベクトル量子
化部62がベクトル量子化に用いるコードブックを記憶
している。
【0105】距離計算部64は、距離推移モデル記憶部
65に記憶されている、認識対象の単語の距離推移モデ
ルから、ベクトル量子化部62が出力するコードの系列
が観測されるときの、コードベクトルとの距離を、時間
ごとに累積し、その累積値を、ソート部66に供給する
ようになされている。
【0106】距離推移モデル記憶部65は、例えば、図
12に示すような、認識対象の単語の時系列の統合パラ
メータ(標準系列)と、コードブック記憶部63に記憶
されたコードブックの各コードベクトルとの間の距離の
推移を表す距離推移モデルを記憶している。即ち、距離
推移モデル記憶部65は、後述する学習により得られ
る、図12に示したような距離推移モデルを、認識対象
とされている単語それぞれについて記憶している。
【0107】なお、図12の実施の形態では、コードブ
ック記憶部63に記憶されたコードブックが、J+1個
のコードベクトルC0乃至CJを有するものとしてある。
また、図12(A)は、距離推移モデルをグラフで、図
12(B)は、距離推移モデルを表で、それぞれ表して
いる。ここで、図12(B)の表において、コードベク
トルCjの行に注目すれば、その行に記載した各時刻
0,t1,t2,・・・における距離Dcjt0,Dcjt1
cjt2,・・・が図12(A)のグラフにおけるコード
ベクトルCjに対する距離の推移を表す。
【0108】ソート部66は、距離計算部64から供給
される、認識対象の各単語の距離推移モデルについての
距離の累積値のうち、その値が小さいものから、上位N
b個を選択し(Nbは自然数)、統合パラメータと距離
推移モデルとのマッチング結果として、判定回路4に出
力するようになされている。
【0109】以上のように構成される距離推移方式マッ
チング部31では、距離推移方式によるマッチングが行
われるようになされており、この距離推移方式によるマ
ッチング処理について、図13のフローチャートを参照
して説明する。
【0110】時間軸正規化部61は、統合パラメータ生
成回路2から、ある単語の発話に対応する時系列の統合
パラメータを受信すると、ステップS31において、そ
の時系列の統合パラメータを時間軸正規化し、ベクトル
量子化部62に出力する。ベクトル量子化部62は、ス
テップS32において、コードブック記憶部63に記憶
されたコードブックを参照することで、時間軸正規化部
61からの時系列の統合パラメータを、順次、ベクトル
量子化し、そのベクトル量子化結果としての、統合パラ
メータとの距離を最も短くするコードベクトルに対応す
るコードの系列を、順次、距離計算部64に供給する。
【0111】距離計算部64は、ステップS33におい
て、距離推移モデル記憶部65に記憶されている、認識
対象の単語の距離推移モデルから、ベクトル量子化部6
2が出力するコードの系列が観測されるときの、コード
ベクトルとの距離を累積する。
【0112】即ち、ベクトル量子化部62が出力するコ
ードの系列のうち、時刻tのコードをst(t=0,
1,・・・,TC)と表すと、距離計算部64は、ベク
トル量子化部62が最初に出力するコードs0に対応す
るコードベクトルCj(j=0,1,・・・,J)につ
いての、時刻#0における距離を、距離推移モデルを参
照することで求める。具体的には、例えば、コードs0
に対応するコードベクトルがC0である場合には、図1
2において、コードベクトルC0からの距離の推移を表
している曲線上の、時刻#0における距離が求められ
る。
【0113】さらに、距離計算部64は、ベクトル量子
化部62が2番目に出力するコードs1に対応するコー
ドベクトルCjとの、時刻#1における距離を、距離推
移モデルを参照することで求める。以下、同様にして、
距離計算部64は、ベクトル量子化部62が最後に出力
するコードsTCに対応するコードベクトルCjとの、時
刻#TCにおける距離までを、距離推移モデルを参照す
ることで、順次求めていき、それらの距離の累積値を計
算する。
【0114】従って、ベクトル量子化部62が、時刻#
0,#1,#2,・・・において、例えば、コード
0,S0,S1,・・・を出力する場合には、コードS0
に対応するコードベクトルC0との、時刻#0における
距離Dc 0 t 0、コードS0に対応するコードベクトルC0
の、時刻#1における距離Dc0t1、コードS1に対応す
るコードベクトルC1との、時刻#2における距離D
c1T2,・・・の加算値が、累積値として求められる。
【0115】そして、距離計算部64は、距離推移モデ
ル記憶部65に記憶されたすべての距離推移モデルそれ
ぞれについて、距離の累積値を計算すると、それらの距
離の累積値を、ソート部66に出力し、ステップS34
に進む。
【0116】ステップS34では、ソート部66におい
て、距離計算部64からの、認識対象の各単語の距離推
移モデルについての距離の累積値のうち、その値が小さ
いものから、上位Nb個が選択され、ステップS35に
進み、統合パラメータと距離推移モデルとのマッチング
結果として、判定回路4に出力され、処理を終了する。
【0117】次に、図14は、図10の距離推移モデル
記憶部65に記憶させる距離推移モデルを求める学習を
行う学習装置の一実施の形態の構成例を示している。
【0118】時間軸正規化部71には、距離推移モデル
を求める学習を行うのに用いる時系列の学習統合パラメ
ータが供給されるようになされており、時間軸正規化部
71は、図10の時間軸正規化部61と同様に、学習統
合パラメータを時間軸正規化し、距離計算部72に供給
するようになされている。
【0119】ここで、時間軸正規化部71には、例え
ば、ある単語の距離推移モデルを求めるための時系列の
学習統合パラメータが複数セット供給されるようになさ
れており、時間軸正規化部71は、その複数セットの学
習統合パラメータそれぞれについて時間軸正規化を行
い、それらを1の学習統合パラメータにまとめて出力す
るようになされている。即ち、時間軸正規化部71に
は、例えば、図15(A)に示すように、ある単語につ
いて、継続時間が必ずしも同一でない複数(図15にお
いては、Nc個)の学習統合パラメータが供給されるよ
うになされており、時間軸正規化部71は、その複数の
学習統合パラメータの継続時間が、図15(B)に示す
ように、いずれも時間TCとなるように時間軸正規化を
行う。そして、時間軸正規化部71は、図15(C)に
示すように、時間軸正規化を行った複数の学習統合パラ
メータの、同一時刻のサンプル値どうしの、例えば、平
均値を計算し、その平均値を、各時刻におけるサンプル
値とする1つの学習統合パラメータを生成する。
【0120】なお、複数の学習統合パラメータを、1つ
の学習統合パラメータにまとめる方法は、これに限定さ
れるものではない。また、ある単語の距離推移モデルを
求めるための時系列の学習統合パラメータが1つだけし
か用意されていない場合には、時間軸正規化部71は、
その1つの学習統合パラメータを時間軸正規化して、そ
のまま出力するようになされている。
【0121】距離計算部72は、図16に示すように、
コードブック記憶部73に記憶されたコードブックの各
コードベクトルと、時間軸正規化部71から供給される
時系列の学習統合パラメータとの距離を、順次計算し、
その距離の推移、即ち、時間軸正規化された、時刻#0
乃至#TCまでの学習統合パラメータと、各コードベク
トルとの距離の推移を、多項式表現化部74に供給する
ようになされている。
【0122】コードブック記憶部73は、図10のコー
ドブック記憶部63に記憶されているコードブックと同
一のコードブックを記憶している。なお、コードブック
記憶部63および73におけるコードブックは、コード
ブック作成部52(図8)が作成したものと同一のもの
であっても良いし、異なるものであっても良い。
【0123】多項式表現化部74は、距離計算部72か
ら供給されるコードベクトルとの間の距離の推移を近似
する多項式を求め、距離推移モデルとして出力するよう
になされている。即ち、多項式表現化部74では、図1
6に示したような距離の推移が、図12に示したような
多項式で表される曲線で近似されるようになされてい
る。
【0124】次に、図17のフローチャートを参照し
て、図14の学習装置の処理について説明する。
【0125】時間軸正規化部71に対しては、ある単語
の距離推移モデルを求めるための時系列の学習統合パラ
メータが複数セット供給され、時間軸正規化部71は、
ステップS41において、その複数セットの学習統合パ
ラメータそれぞれについて時間軸正規化を行い、それら
を1の学習統合パラメータにまとめて、距離計算部72
に出力する。距離計算部72は、ステップS42におい
て、図16に示したような、コードブック記憶部73に
記憶されたコードブックの各コードベクトルと、時間軸
正規化部71から供給される時系列の学習統合パラメー
タとの距離を、順次計算し、その距離の推移を、多項式
表現化部74に供給する。
【0126】多項式表現化部74では、ステップS43
において、距離計算部72から供給される、学習統合パ
ラメータ(標準系列)とコードベクトルとの間の距離の
推移を近似するNd次の多項式が、例えば、最小二乗法
により求められる。
【0127】即ち、時刻tにおける学習統合パラメータ
と、コードベクトルCjとの間の距離を近似するNd次
の多項式fj(t)は、次のように表すことができる。
【0128】 fj(t)=aj0+aj11+aj22+・・・+ajNdNd ・・・(6)
【0129】従って、距離計算部72において求められ
た、時刻tにおける学習統合パラメータと、コードベク
トルCjとの間の距離fj(t)を用いて、次式を解くこ
とで、最小二乗法により、式(6)を規定する係数
j0,aj1,aj2,・・・,ajN dを求めることができ
る。
【0130】
【数3】 ・・・(7)
【0131】多項式表現化部74は、式(7)を、コー
ドベクトルC0,C1,・・・,CJそれぞれについて解
くことで、次式に示すような、学習統合パラメータと、
コードベクトルC0,C1,・・・,CJそれぞれとの間
の距離の推移を近似するNd次の多項式fj(t)を規
定する係数のセットAを求める。
【0132】
【数4】 ・・・(8)
【0133】その後、ステップS44に進み、多項式表
現化部74は、式(8)の係数のセットAで近似される
距離の推移と、図16に示したような実際の距離の推移
との二乗誤差の、各コードベクトルCjについての累積
値を求め、係数のセットAとともに記憶して、ステップ
S45に進む。ステップS45では、多項式表現部74
は、あらかじめ用意された範囲のすべての次数Ndにつ
いて、上述したような二乗誤差の累積値を求めたかどう
かを判定する。ステップS45において、あらかじめ用
意された範囲のすべての次数Ndについて、まだ、二乗
誤差の累積値を求めていないと判定された場合、ステッ
プS46に進み、多項式表現化部74は、式(6)に示
した多項式fj(t)の次数Ndを、まだ二乗誤差の累
積値を求めていない値に変更する。そして、ステップS
43に戻り、変更後の次数Ndについて、以下、同様の
処理が繰り返される。
【0134】また、ステップS45において、あらかじ
め用意された範囲のすべての次数Ndについて、二乗誤
差の累積値を求めたと判定された場合、ステップS47
に進み、多項式表現化部74は、ステップS44で記憶
した、あらかじめ用意された範囲のすべての次数Ndに
ついての距離の推移の二乗誤差の累積値のうちの最小値
を検出し、その最小値とともに記憶している、多項式f
j(t)を規定する係数のセットAを、単語の距離推移
モデルとして出力して、処理を終了する。
【0135】なお、以上の処理は、認識対象の各単語に
ついてそれぞれ行われる。
【0136】以上のように、時系列の学習統合パラメー
タについて、時間軸の正規化を行い、その時間軸正規化
された学習統合パラメータ(標準系列)と、コードベク
トルとの間の距離を算出し、その距離の推移を表す距離
推移モデルを求めるようにしたので、認識対象が有する
本来の状態数や状態遷移の形態に沿うモデルを得ること
ができる。従って、そのような距離推移モデルによれ
ば、認識対象の定常状態や過渡状態が正確に表現され、
その結果、認識率を向上させることができる。
【0137】また、距離の推移を、多項式で近似するよ
うにしたので、その多項式を規定する係数だけで、即
ち、少ないデータ量で、距離の推移を表現することがで
きる。
【0138】さらに、距離の推移を近似する多項式の次
数Ndを、二乗誤差の累積値が最小になるように決定す
るようにしたので、その多項式により、精度良く、距離
の推移を表現することができる。
【0139】なお、図14では、統合パラメータを、学
習用のデータとして用いるようにしたが、単一の特徴パ
ラメータで認識を行う場合には、その単一の特徴パラメ
ータを、学習用のデータとして用いて、学習を行えば良
い。
【0140】また、上述した距離推移モデルの学習方法
は、特徴パラメータの種類や次元に依存するものではな
いため、特徴パラメータの種類や次元に関係なく適用可
能である。
【0141】さらに、上述の場合には、図16に示した
ような実際の距離の推移を、図12に示したように多項
式で近似された距離推移モデルを用いてマッチングを行
うようにしたが、マッチングは、図16に示したような
実際の距離の推移をそのまま距離推移モデルとして用い
て行うことも可能である。
【0142】次に、図18は、図1の空間分布方式マッ
チング部32の構成例を示している。
【0143】ベクトル量子化部81には、図1の統合パ
ラメータ生成回路2から統合パラメータが時系列に供給
されるようになされており、ベクトル量子化部81は、
その時系列の統合パラメータを、コードブック記憶部8
2に記憶されたコードブックを用いてベクトル量子化
し、そのベクトル量子化結果としてのコードの系列を、
順次、カイ二乗(χ2)検定部83に供給するようにな
されている。
【0144】コードブック記憶部82は、ベクトル量子
化部81におけるベクトル量子化に用いられるコードブ
ックを記憶している。
【0145】カイ二乗検定部83は、期待度数記憶部8
4を参照し、ベクトル量子化部81からのコード系列の
空間分布が、認識対象の単語が発話されたときに得られ
るコード系列の空間分布に類似しているかどうか、即
ち、ベクトル量子化部81に供給された統合パラメータ
が、認識対象の単語に対応するものであるかどうかの適
正さを、カイ二乗検定(Hi Square Test)を行うことによ
り求め、ソート部85に供給するようになされている。
【0146】期待度数記憶部84は、コードブック記憶
部82に記憶されたコードブックのコードベクトルに対
応する各コードについて、認識対象の単語に対応する統
合パラメータが入力されたときに観測される(ベクトル
量子化部81に供給されたときに、そこから出力され
る)期待度数を記憶している。
【0147】ソート部85は、カイ二乗検定部83から
供給される、入力された統合パラメータが認識対象の単
語に対応するものであるかどうかの適正さに基づいて、
適正さが上位Nb個となる単語を選択し、空間分布方式
によるマッチング結果として、判定回路4(図1)に出
力するようになされている。
【0148】以上のように構成される空間分布マッチン
グ部32では、空間分布方式によるマッチングが行われ
るようになされており、この空間分布方式によるマッチ
ング処理について、図19のフローチャートを参照して
説明する。
【0149】認識すべき統合パラメータは、時系列に、
ベクトル量子化部81に供給され、ベクトル量子化部8
1は、ステップS51において、時系列の統合パラメー
タを、順次ベクトル量子化し、そのベクトル量子化結果
としてのコードの系列を、カイ二乗検定部83に供給す
る。
【0150】カイ二乗検定部83は、ステップS52に
おいて、ベクトル量子化部81からのコード系列の空間
分布を求める。即ち、カイ二乗検定部83は、ベクトル
量子化部81からのコード系列において、各コードが観
測される回数(以下、適宜、観測度数という)をカウン
トする。そして、ステップS53に進み、カイ二乗検定
部83は、各コードの観測度数と、期待度数記憶部84
に記憶された、認識対象の単語の発話がなされたときに
観測されることが期待される各コードの回数である期待
度数とを用いてカイ二乗検定を行うことにより、入力さ
れた統合パラメータについての各コードの観測度数が、
認識対象の単語についての各コードの期待度数に類似し
ている度合い(以下、適宜、類似度という)を求め、ソ
ート部85に供給する。
【0151】即ち、カイ二乗検定部83は、あるコード
#jの観測度数をFjと表すとともに、ある単語Wのあ
るコード#jの期待度数をfjと表すと、次式に示すχ2
(カイ二乗)を計算し、例えば、その逆数を、単語Wに
対する類似度として、ソート部85に供給する。
【0152】
【数5】 ・・・(9)
【0153】なお、式(9)に示したχ2は、入力され
た統合パラメータについての各コードの観測度数が、認
識対象の単語についての各コードの期待度数に類似して
いるほど小さくなる。従って、その逆数である類似度
は、入力された統合パラメータについての各コードの観
測度数が、認識対象の単語についての各コードの期待度
数に類似しているほど大きくなる。
【0154】ソート部85は、カイ二乗検定部83か
ら、認識対象の単語すべてについての類似度を受信する
と、ステップS54において、そのうちの類似度の高い
上位Nb個を選択し、ステップS55に進み、空間分布
方式によるマッチング結果として、判定回路4に出力し
て、処理を終了する。
【0155】以上のような空間分布方式によるマッチン
グによれば、統合パラメータ空間における、入力された
統合パラメータの分布状態と、認識対象の単語の統合パ
ラメータの分布状態との類似性が、カイ二乗検定により
求められるため、その類似性は、入力された音声の時間
的変動に影響を受けない。即ち、入力された音声の時間
(音声区間の長さ)は、カイ二乗検定に用いる観測度数
に影響するが、各コードの観測度数それぞれが、音声区
間の長さに比例した値だけ増減すると予測されるため、
カイ二乗検定結果は影響を受けない。従って、音声が有
する時間成分を考慮せずに認識を行うことができ、その
結果、認識率を向上させることが可能となる。
【0156】次に、図20は、図18の期待度数記憶部
84に記憶されている認識対象の各単語についての各コ
ードの期待度数を求める学習を行う学習装置の一実施の
形態の構成例を示している。
【0157】ベクトル量子化部91には、認識対象の単
語について、期待度数の学習を行うための時系列の学習
統合パラメータが供給されるようになされており、ベク
トル量子化部91は、時系列の学習統合パラメータを、
コードブック記憶部92に記憶されたコードブックを用
いてベクトル量子化し、そのベクトル量子化結果として
のコードの系列を、期待度数算出部93に供給するよう
になされている。
【0158】コードブック記憶部92は、図18のコー
ドブック記憶部82が記憶しているコードブックと同一
のコードブックを記憶している。なお、コードブック記
憶部82および92におけるコードブックは、コードブ
ック作成部52(図8)が作成したものと同一のもので
あっても良いし、異なるものであっても良い。
【0159】期待度数算出部93は、ベクトル量子化部
91からのコードの系列において、各コードが観測され
る回数をカウントするようになされている。
【0160】次に、図21のフローチャートを参照し
て、図20の学習装置の処理について説明する。
【0161】ベクトル量子化部91には、認識対象の1
の単語について、例えば、複数の時系列の学習統合パラ
メータ(異なる話者が発話したり、同一の話者が複数回
発話して得られたもの)が供給されるようになされてお
り、ステップS61では、その統合パラメータの数をカ
ウントするための変数iが、例えば、1に初期化され、
ステップS62に進む。
【0162】ステップS62では、複数の学習統合パラ
メータのうちの最初の学習統合パラメータが、ベクトル
量子化部91に供給され、ベクトル量子化部91は、そ
の学習統合パラメータをベクトル量子化する。そのベク
トル量子化の結果得られるコードの系列は、期待度数算
出部93に供給され、ステップS63に進む。
【0163】ステップS63では、ベクトル量子化部9
1からのコードの系列において、各コードが観測される
回数が積算され、これにより各コードの観測度数が求め
られる。そして、ステップS64に進み、まだ、次に処
理すべき学習統合パラメータがあるかどうかが判定さ
れ、あると判定された場合、ステップS65に進み、変
数iが1だけインクリメントされる。そして、ステップ
S62に進み、その次に処理すべき学習統合パラメータ
を対象に、同様の処理が繰り返される。即ち、これによ
り、ある単語についての複数の学習統合パラメータから
観測される各コードの観測度数が積算されていく。
【0164】一方、ステップS64において、次に処理
すべき学習統合パラメータがないと判定された場合、ス
テップS66に進み、各コードの観測度数の積算値が、
例えば、変数iで除算され、即ち、ある単語についての
複数の学習統合パラメータから観測される各コードの観
測度数の平均値が求められ、その各コードの観測度数の
平均値が、その単語についての各コードの期待度数とし
て出力されて、処理を終了する。
【0165】なお、図21の処理は、認識対象の単語そ
れぞれについて行われる。
【0166】次に、図22は、図1の判定回路4の構成
例を示している。
【0167】スコア算出部101には、距離推移方式マ
ッチング部31が出力する、距離推移方式による上位N
b個のマッチング結果が供給されるようになっており、
スコア算出部102には、空間分布方式マッチング部3
2が出力する、空間分布方式による上位Nb個のマッチ
ング結果が供給されるようになっている。スコア算出部
101は、距離推移方式による上位Nb個のマッチング
結果に対して、その順位の高い順に、高いスコアを付
し、スコア加算部103に出力するようになっている。
スコア算出部102は、空間分布方式による上位Nb個
のマッチング結果に対して、その順位の高い順に、高い
スコアを付し、スコア加算部103に出力するようにな
っている。
【0168】スコア加算部103は、スコア算出部10
1と102それぞれからの上位Nb個のマッチング結果
の中から、同一単語のマッチング結果どうしのスコアを
加算し、その加算値を、最大スコア検出部104に供給
するようになっている。
【0169】最大スコア検出部104は、スコア加算部
103から供給されるスコアのうちの最大値を検出し、
その最大のスコアを与える単語を、最終的な音声認識結
果として出力するようになっている。
【0170】次に、図23のフローチャートを参照し
て、図22の判定回路4の処理について説明する。
【0171】スコア算出部101に対して、距離推移方
式マッチング部31から、距離推移方式による上位Nb
個のマッチング結果が供給されるとともに、スコア算出
部102に対して、空間分布方式マッチング部32か
ら、空間分布方式による上位Nb個のマッチング結果が
供給されると、ステップS71において、スコア算出部
101は、距離推移方式による上位Nb個のマッチング
結果に対して、その順位の高い順に、高いスコアを付
し、スコア加算部103に出力するとともに、スコア算
出部102は、空間分布方式による上位Nb個のマッチ
ング結果に対して、その順位の高い順に、高いスコアを
付し、スコア加算部103に出力する。
【0172】ここで、マッチング結果に対して付すスコ
アは、例えば、マッチング結果の順位に対して線形に変
化する値であっても良いし、非線形に変化する値であっ
ても良い。
【0173】スコア加算部103は、ステップS72に
おいて、スコア算出部101と102それぞれからの上
位Nb個のマッチング結果の中から、同一単語のマッチ
ング結果どうしのスコアを加算し、その加算値を、最大
スコア検出部104に出力する。なお、スコア加算部1
03は、スコア算出部101と102それぞれからの上
位Nb個のマッチング結果のいずれか一方にしか含まれ
ない単語については、その単語に付されたスコアを、そ
のまま最大スコア検出部104に供給する。
【0174】最大スコア検出部104は、ステップS7
3において、スコア加算部103から供給されるスコア
のうちの最大値を検出し、その最大のスコアを与える単
語を、最終的な音声認識結果として出力して、処理を終
了する。
【0175】次に、上述した一連の処理を行う、各ブロ
ック図で表される装置は、専用のハードウェアにより実
現することもできるし、ソフトウェアにより実現するこ
ともできる。ソフトウェアによって実現する場合には
(この場合、上述した各ブロック図は、機能ブロックを
表している図であるということができる)、そのソフト
ウェアを構成するプログラムが、汎用のコンピュータ等
にインストールされる。
【0176】そこで、図24は、上述した一連の処理を
実行するプログラムがインストールされるコンピュータ
の一実施の形態の構成例を示している。
【0177】プログラムは、コンピュータに内蔵されて
いる記録媒体としてのハードディスク205やROM2
03に予め記録しておくことができる。
【0178】あるいはまた、プログラムは、フロッピー
ディスク、CD-ROM(Compact Disc Read Only Memory),M
O(Magneto optical)ディスク,DVD(Digital Versatile
Disc)、磁気ディスク、半導体メモリなどのリムーバブ
ル記録媒体211に、一時的あるいは永続的に格納(記
録)しておくことができる。このようなリムーバブル記
録媒体211は、いわゆるパッケージソフトウエアとし
て提供することができる。
【0179】なお、プログラムは、上述したようなリム
ーバブル記録媒体211からコンピュータにインストー
ルする他、ダウンロードサイトから、ディジタル衛星放
送用の人工衛星を介して、コンピュータに無線で転送し
たり、LAN(Local Area Network)、インターネットとい
ったネットワークを介して、コンピュータに有線で転送
し、コンピュータでは、そのようにして転送されてくる
プログラムを、通信部208で受信し、内蔵するハード
ディスク205にインストールすることができる。
【0180】コンピュータは、CPU(Central Processing
Unit)202を内蔵している。CPU202には、バス2
01を介して、入出力インタフェース120が接続され
ており、CPU202は、入出力インタフェース120を
介して、ユーザによって、キーボードやマウス等で構成
される入力部207が操作されることにより指令が入力
されると、それにしたがって、ROM(Read Only Memory)
203に格納されているプログラムを実行する。あるい
は、また、CPU202は、ハードディスク205に格納
されているプログラム、衛星若しくはネットワークから
転送され、通信部208で受信されてハードディスク2
05にインストールされたプログラム、またはドライブ
209に装着されたリムーバブル記録媒体211から読
み出されてハードディスク205にインストールされた
プログラムを、RAM(Random Access Memory)204にロ
ードして実行する。これにより、CPU202は、上述し
たフローチャートにしたがった各種の処理を実行する。
そして、CPU202は、その処理結果を、必要に応じ
て、例えば、入出力インタフェース120を介して、LC
D(Liquid CryStal Display)やスピーカ等で構成される
出力部206から出力、あるいは、通信部208から送
信、さらには、ハードディスク205に記録等させる。
【0181】ここで、本明細書において、コンピュータ
に各種の処理を行わせるためのプログラムを記述する処
理ステップは、必ずしもフローチャートとして記載され
た順序に沿って時系列に処理する必要はなく、並列的あ
るいは個別に実行される処理(例えば、並列処理あるい
はオブジェクトによる処理)も含むものである。
【0182】また、プログラムは、1のコンピュータに
より処理されるものであっても良いし、複数のコンピュ
ータによって分散処理されるものであっても良い。さら
に、プログラムは、遠方のコンピュータに転送されて実
行されるものであっても良い。
【0183】以上、本発明を適用した音声認識装置につ
いて説明したが、本発明は、その他、例えば、話者や、
画像その他を認識する装置などにも適用可能である。
【0184】
【発明の効果】本発明の学習装置および学習方法、並び
に第1の記録媒体によれば、時系列の学習データから得
られた識別子の系列から、各識別子の期待度数が算出さ
れる。従って、その期待度数を用いることにより、信号
が有する時間成分を考慮せずに認識を行うことが可能と
なる。
【0185】本発明の認識装置および認識方法、並びに
第2の記録媒体によれば、入力データをベクトル量子化
することにより、コードベクトルを示す識別子の系列が
出力され、入力データが、所定の認識対象に対応するも
のであるかどうかの適正さが、入力データから得られる
識別子の系列および識別子の期待度数を用いて求められ
る。そして、その適正さに基づいて、入力データが所定
の認識対象に一致するか否かが認識される。従って、入
力データが有する時間成分を考慮せずに認識を行うこと
ができ、その結果、認識率を向上させることが可能とな
る。
【図面の簡単な説明】
【図1】本発明を適用した音声認識装置の一実施の形態
の構成例を示すブロック図である。
【図2】図1の音声認識装置の処理を説明するためのフ
ローチャートである。
【図3】図1の処理部111の一実施の形態の構成例を
示すブロック図である。
【図4】図3の処理部111の処理を説明するためのフ
ローチャートである。
【図5】全体重心、上重心、下重心、分割重心を示す図
である。
【図6】図3の楕円近似部48Uおよび48Dの処理を
説明するための図である。
【図7】図3の口唇パラメータ出力部49が出力する口
唇の特徴パラメータを説明するための図である。
【図8】図1のメディア間正規化部21が用いる正規化
係数の学習を行う学習装置の一実施の形態の構成例を示
すブロック図である。
【図9】図8の学習装置の処理を説明するためのフロー
チャートである。
【図10】図1の距離推移方式マッチング部31の一実
施の形態の構成例を示すブロック図である。
【図11】図10の時間軸正規化部61の処理を説明す
るための図である。
【図12】図10の距離推移モデル記憶部65に記憶さ
れている距離推移モデルを説明するための図である。
【図13】図10の距離推移方式マッチング部31の処
理を説明するためのフローチャートである。
【図14】距離推移モデルを求める学習を行う学習装置
の一実施の形態の構成例を示すブロック図である。
【図15】図14の時間軸正規化部71の処理を説明す
るための図である。
【図16】図14の距離計算部72が出力する距離の推
移を示す図である。
【図17】図14の学習装置の処理を説明するためのフ
ローチャートである。
【図18】図1の空間分布方式マッチング部32の一実
施の形態の構成例を示すブロック図である。
【図19】図18の空間分布方式マッチング部32の処
理を説明するためのフローチャートである。
【図20】図18の期待度数記憶部84に記憶されてい
る期待度数を求める学習を行う学習装置の一実施の形態
の構成例を示すブロック図である。
【図21】図20の学習装置の処理を説明するためのフ
ローチャートである。
【図22】図1の判定回路4の構成例を示すブロック図
である。
【図23】図22の判定回路4の処理を説明するための
フローチャートである。
【図24】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
1 パラメータ化回路, 2 統合パラメータ生成回
路, 3 マッチング回路, 4 判定回路, 111
乃至11N 処理部, 21 メディア間正規化部,
22 統合パラメータ生成部, 31 距離推移方式マ
ッチング部, 32空間分布方式マッチング部, 41
YIQ変換部, 42 Q成分抽出部,43 全体重
心算出部, 44 上重心/下重心算出部, 45 分
割重心算出部, 46 分割部, 47U,47D ミ
ラー領域生成部, 48U,48D 楕円近似部, 4
9 口唇パラメータ出力部, 51 仮正規化部, 5
2コードブック作成部, 53 仮正規化部, 54
ベクトル量子化部, 55 正規化係数制御部, 61
時間軸正規化部, 62 ベクトル量子化部,63
コードブック記憶部, 64 距離計算部, 65 距
離推移モデル記憶部, 66 ソート部, 71 時間
軸正規化部, 72 距離計算部, 73 コードブッ
ク記憶部, 74 多項式表現化部, 81 ベクトル
量子化部, 82 コードブック記憶部, 83 カイ
二乗検定部, 84 期待度数記憶部, 85 ソート
部, 91 ベクトル量子化部, 92 コードブック
記憶部, 93 期待度数算出部, 101,102
スコア算出部, 103スコア加算部, 104 最大
スコア検出部, 201 バス, 202 CPU, 2
03 ROM, 204 RAM, 205 ハードディス
ク, 206 出力部, 207 入力部, 208
通信部, 209 ドライブ, 120 入出力インタ
フェース, 211 リムーバブル記録媒体
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/20 G10L 3/02 301A 21/02 9/18 E 19/00 // G10L 101:10

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】 所定の入力系列をベクトル量子化し、そ
    のベクトル量子化結果に基づいて、前記入力系列が所定
    の認識対象に一致するか否かを認識するために用いる、
    前記ベクトル量子化結果が観測されることが期待される
    期待度数を求めるための学習を行う学習装置であって、 時系列の学習データをベクトル量子化し、コードベクト
    ルを示す識別子の系列を出力するベクトル量子化手段
    と、 前記時系列の学習データから得られた前記識別子の系列
    から、各識別子の期待度数を算出する算出手段とを備え
    ることを特徴とする学習装置。
  2. 【請求項2】 前記ベクトル量子化手段は、時系列の学
    習データそれぞれについて、その学習データとの距離が
    最も近いコードベクトルの識別子を出力することを特徴
    とする請求項1に記載の学習装置。
  3. 【請求項3】 前記算出手段は、同一の認識対象の認識
    のための学習に用いられる複数の学習データそれぞれに
    ついての識別子の期待度数の平均値を、その識別子の最
    終的な期待度数として求めることを特徴とする請求項1
    に記載の学習装置。
  4. 【請求項4】 所定の入力系列をベクトル量子化し、そ
    のベクトル量子化結果に基づいて、前記入力系列が所定
    の認識対象に一致するか否かを認識するために用いる、
    前記ベクトル量子化結果が観測されることが期待される
    期待度数を求めるための学習を行う学習方法であって、 時系列の学習データをベクトル量子化し、コードベクト
    ルを示す識別子の系列を出力し、 前記時系列の学習データから得られた前記識別子の系列
    から、各識別子の期待度数を算出することを特徴とする
    学習方法。
  5. 【請求項5】 所定の入力系列をベクトル量子化し、そ
    のベクトル量子化結果に基づいて、前記入力系列が所定
    の認識対象に一致するか否かを認識するために用いる、
    前記ベクトル量子化結果が観測されることが期待される
    期待度数を求めるための学習を、コンピュータに行わせ
    るプログラムが記録されている記録媒体であって、 時系列の学習データをベクトル量子化し、コードベクト
    ルを示す識別子の系列を出力するベクトル量子化ステッ
    プと、 前記時系列の学習データから得られた前記識別子の系列
    から、各識別子の期待度数を算出する算出ステップとを
    備えるプログラムが記録されていることを特徴とする記
    録媒体。
  6. 【請求項6】 時系列の入力データが所定の認識対象に
    一致するか否かを認識する認識装置であって、 ベクトル量子化に用いられるコードブックのコードベク
    トルに対応する各識別子について、前記入力データが入
    力されたときに観測されることが期待される期待度数を
    記憶している記憶手段と、 前記入力データをベクトル量子化し、コードベクトルを
    示す識別子の系列を出力するベクトル量子化手段と、 前記入力データが、所定の認識対象に対応するものであ
    るかどうかの適正さを、前記入力データから得られる前
    記識別子の系列、および前記識別子の期待度数を用いて
    求める適正さ検出手段と、 前記適正さに基づいて、前記入力データが所定の認識対
    象に一致するか否かを認識する認識手段とを備えること
    を特徴とする認識装置。
  7. 【請求項7】 前記ベクトル量子化手段は、時系列の入
    力データそれぞれについて、その入力データとの距離が
    最も近いコードベクトルの識別子を出力することを特徴
    とする請求項6に記載の認識装置。
  8. 【請求項8】 前記適正さ検出手段は、前記適正さを、
    カイ二乗検定を行うことにより求めることを特徴とする
    請求項6に記載の認識装置。
  9. 【請求項9】 前記時系列の入力データは、音声の特徴
    パラメータと、その音声の発話がなされているときの口
    唇の画像の特徴パラメータとを統合した統合パラメータ
    であることを特徴とする請求項6に記載の認識装置。
  10. 【請求項10】 時系列の入力データが所定の認識対象
    に一致するか否かを認識するを行う認識方法であって、 前記入力データをベクトル量子化することにより、コー
    ドベクトルを示す識別子の系列を出力し、 前記入力データが、所定の認識対象に対応するものであ
    るかどうかの適正さを、前記入力データから得られる前
    記識別子の系列、および前記識別子が観測されることが
    期待される期待度数を用いて求め、 その適正さに基づいて、前記入力データが所定の認識対
    象に一致するか否かを認識することを特徴とする認識方
    法。
  11. 【請求項11】 時系列の入力データが所定の認識対象
    に一致するか否かを認識する認識処理を、コンピュータ
    に行わせるプログラムが記録されている記録媒体であっ
    て、 前記入力データをベクトル量子化し、コードベクトルを
    示す識別子の系列を出力するベクトル量子化ステップ
    と、 前記入力データが、所定の認識対象に対応するものであ
    るかどうかの適正さを、前記入力データから得られる前
    記識別子の系列、および前記識別子が観測されることが
    期待される期待度数を用いて求める適正さ検出ステップ
    と、 その適正さに基づいて、前記入力データが所定の認識対
    象に一致するか否かを認識する認識ステップとを備える
    プログラムが記録されていることを特徴とする記録媒
    体。
JP11287618A 1998-10-09 1999-10-08 学習装置および学習方法、認識装置および認識方法、並びに記録媒体 Pending JP2000181481A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11287618A JP2000181481A (ja) 1998-10-09 1999-10-08 学習装置および学習方法、認識装置および認識方法、並びに記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP10-288038 1998-10-09
JP28803898 1998-10-09
JP11287618A JP2000181481A (ja) 1998-10-09 1999-10-08 学習装置および学習方法、認識装置および認識方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2000181481A true JP2000181481A (ja) 2000-06-30

Family

ID=26556804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11287618A Pending JP2000181481A (ja) 1998-10-09 1999-10-08 学習装置および学習方法、認識装置および認識方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2000181481A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079456A (ja) * 2004-09-10 2006-03-23 Nippon Signal Co Ltd:The 発話識別方法及びこれを用いたパスワード照合装置
JP2009533784A (ja) * 2006-04-17 2009-09-17 本田技研工業株式会社 物体との相互作用を含む複合動作の分類
JP2022028772A (ja) * 2019-08-23 2022-02-16 サウンドハウンド,インコーポレイテッド オーディオデータおよび画像データに基づいて人の発声を解析する車載装置および発声処理方法、ならびにプログラム
WO2022259564A1 (ja) * 2021-06-07 2022-12-15 日本電信電話株式会社 情報処理装置、情報処理方法、及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006079456A (ja) * 2004-09-10 2006-03-23 Nippon Signal Co Ltd:The 発話識別方法及びこれを用いたパスワード照合装置
JP4553667B2 (ja) * 2004-09-10 2010-09-29 日本信号株式会社 発話識別方法及びこれを用いたパスワード照合装置
JP2009533784A (ja) * 2006-04-17 2009-09-17 本田技研工業株式会社 物体との相互作用を含む複合動作の分類
JP2022028772A (ja) * 2019-08-23 2022-02-16 サウンドハウンド,インコーポレイテッド オーディオデータおよび画像データに基づいて人の発声を解析する車載装置および発声処理方法、ならびにプログラム
JP7525460B2 (ja) 2019-08-23 2024-07-30 サウンドハウンド,インコーポレイテッド オーディオデータおよび画像データに基づいて人の発声を解析するコンピューティングデバイスおよび発声処理方法、ならびにプログラム
WO2022259564A1 (ja) * 2021-06-07 2022-12-15 日本電信電話株式会社 情報処理装置、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
CN111292764A (zh) 辨识系统及辨识方法
JP5768093B2 (ja) 音声処理システム
JP6437581B2 (ja) 話者適応型の音声認識
KR100729316B1 (ko) 학습 장치 및 학습 방법, 인식 장치 및 인식 방법, 및기록 매체
CN110706714B (zh) 说话者模型制作系统
WO2002101719A1 (en) Voice recognition apparatus and voice recognition method
Thakur et al. Speech recognition using euclidean distance
JPWO2009133719A1 (ja) 音響モデル学習装置および音声認識装置
JPH0934486A (ja) 音声認識方法、情報形成方法、音声認識装置および記録媒体
JP2009086581A (ja) 音声認識の話者モデルを作成する装置およびプログラム
Shah et al. Unsupervised Vocal Tract Length Warped Posterior Features for Non-Parallel Voice Conversion.
JP2898568B2 (ja) 声質変換音声合成装置
JP2000181481A (ja) 学習装置および学習方法、認識装置および認識方法、並びに記録媒体
JP4345156B2 (ja) 学習装置および学習方法、認識装置および認識方法、並びに記録媒体
US6718299B1 (en) Information processing apparatus for integrating a plurality of feature parameters
Benkhellat et al. Genetic algorithms in speech recognition systems
JP2000181484A (ja) 学習装置および学習方法、認識装置および認識方法、並びに記録媒体
KR20230120790A (ko) 가변적 언어모델을 이용한 음성인식 헬스케어 서비스
JP2021189402A (ja) 音声処理プログラム、音声処理装置及び音声処理方法
JP2000122677A (ja) パラメータ抽出装置およびパラメータ抽出方法
JPH11122114A (ja) コードブック作成装置およびコードブック作成方法、並びにベクトル量子化装置およびベクトル量子化方法
Rijal et al. DCT-based Visual Feature Extraction for Indonesian Audiovisual Speech Recognition
JP2561553B2 (ja) 標準話者選択装置
JP3008520B2 (ja) 標準パタン作成装置
JP2000122693A (ja) 話者認識方法および話者認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090407