JPS6136797A - 音声セグメンテ−シヨン法 - Google Patents
音声セグメンテ−シヨン法Info
- Publication number
- JPS6136797A JPS6136797A JP15962584A JP15962584A JPS6136797A JP S6136797 A JPS6136797 A JP S6136797A JP 15962584 A JP15962584 A JP 15962584A JP 15962584 A JP15962584 A JP 15962584A JP S6136797 A JPS6136797 A JP S6136797A
- Authority
- JP
- Japan
- Prior art keywords
- phoneme
- recognition
- similarity
- frame
- vowel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
産業上の利用分野
本発明は、コンピュータ等の機械に音声で直接入力を行
なうだめの音声認識方法における音声セグメンテーショ
ン法に関するものである。
なうだめの音声認識方法における音声セグメンテーショ
ン法に関するものである。
従来例の構成とその問題点
単語音声あるいは連続音声認識システムにおいて、音素
境界や単語境界を検出するセグメンテーション方法は、
一つ誤ると付加や脱落あるいは認識誤りを生じるため、
最終の認識率に大きな影響を与える。音素を基本単位と
する単語音声認識の例として、三輪他″音声スベク)
IVの概略形とその動特性を利用した単語音声認識シス
テム0.音響学会誌Vol 、 34 A 3 (19
78)がある。
境界や単語境界を検出するセグメンテーション方法は、
一つ誤ると付加や脱落あるいは認識誤りを生じるため、
最終の認識率に大きな影響を与える。音素を基本単位と
する単語音声認識の例として、三輪他″音声スベク)
IVの概略形とその動特性を利用した単語音声認識シス
テム0.音響学会誌Vol 、 34 A 3 (19
78)がある。
この方法による単語認識システムの構成を第1図に示す
。図面を参照して構成ならびに動作の説明を行なう。先
ず、認識に先立ち、多数の標準話者の音声を音響分析部
1におけるフィルタバンクで分析し、10mg の分
析長(フレームと呼ぶ)毎にム/D変換した後、特徴パ
ラメータ抽出部2で認識に必要な特徴パラメータを求め
る。得られた特徴パラメータから母音、子音毎に標準パ
ターンを作成しておき、その結果を標準パターン登録部
4に登録しておく。次に、認識を行なう際には、認識す
る不特定話者の音声を入力し、同様に分析区間毎に音響
分析部1で分析し、特徴パラメータ抽出部2で特徴パラ
メータを求める。この特徴パラメータト標準パターン登
録部4の標準パターンt−基に、セグメンテーション及
び音素認識部3で音素単位のセグメンテーションを行な
うとともに、標準パターンと照合して最も類似度の高い
標準パターンに該当する音素を各セグメントにおける音
素と決定する。この結果作成された音素の時系列(以下
音素系列と呼ぶ)を誤シ訂正部5で音素結合規則を基に
訂正し、訂正した音素系列を作成する。更に単語認識部
6では、誤シ訂正部6で得られた音素系列と、同様に音
素系列で記述された単語辞書格納部7の単語辞書項目と
を比較照合して類似度の最も大きい単語辞書項目に該当
する単語を認識結果として出力する。
。図面を参照して構成ならびに動作の説明を行なう。先
ず、認識に先立ち、多数の標準話者の音声を音響分析部
1におけるフィルタバンクで分析し、10mg の分
析長(フレームと呼ぶ)毎にム/D変換した後、特徴パ
ラメータ抽出部2で認識に必要な特徴パラメータを求め
る。得られた特徴パラメータから母音、子音毎に標準パ
ターンを作成しておき、その結果を標準パターン登録部
4に登録しておく。次に、認識を行なう際には、認識す
る不特定話者の音声を入力し、同様に分析区間毎に音響
分析部1で分析し、特徴パラメータ抽出部2で特徴パラ
メータを求める。この特徴パラメータト標準パターン登
録部4の標準パターンt−基に、セグメンテーション及
び音素認識部3で音素単位のセグメンテーションを行な
うとともに、標準パターンと照合して最も類似度の高い
標準パターンに該当する音素を各セグメントにおける音
素と決定する。この結果作成された音素の時系列(以下
音素系列と呼ぶ)を誤シ訂正部5で音素結合規則を基に
訂正し、訂正した音素系列を作成する。更に単語認識部
6では、誤シ訂正部6で得られた音素系列と、同様に音
素系列で記述された単語辞書格納部7の単語辞書項目と
を比較照合して類似度の最も大きい単語辞書項目に該当
する単語を認識結果として出力する。
次にセグメンテーション及び音素認識部3における母音
のセグメンテーション法について述べる。
のセグメンテーション法について述べる。
母音のセグメンテーションについては、子音区間として
セグメンテーションされた残りの区間について、母音の
認識と同時に行ない、特別なパラメータは用いない。母
音の認識は、子音のセグメンテーションで脱落し易い鼻
音も含めて、フレーム毎に行なう。母音の認識及びセグ
メンテーションは次の手順で行なう。先ず、あらかじめ
多数の標準話者の音声を音響分析した後、母音及び鼻音
について、スベク)/しのホルマント周波数にホホ対応
するローカルピークを抽出し、周波数の低い方から順に
P+ 、 Pl とし、各母音、鼻音毎にPl−Pl
平面上の分布を調べる。次に、各母音・鼻音の分布で重
なりができる部分についてはそれらの中間母音を設定し
、PI−P2平面上で各母音・鼻音及び中間母音の領域
を設定して判別図を作成し、これを標準パターンとする
。不特定話者の音声を入力した場合、子音区間としてセ
グメンテーションされた残りの区間に対して、フレーム
毎に抽出されたローカルビークp、 、 p2を判別図
と照合することによシ、フレーム毎の音素認識結果を出
力する。得られたフレーム毎の音素認識結果の連続性を
基に母音・鼻音のセグメンテーションを行なう。この様
子を図面によって説明する。第2図は従来例の説明をす
るだめの図である。8はフレーム毎にあらかじめつけら
れた音素ラベルで、9はフレーム毎の音素認識結果を表
わす。この音素認識結果を基に、4フレ一ム以上の連続
性があるものについてはその区間を1つの音声区間とし
てセグメンテーションを行なう。この例は、第1領域1
0がOの区間、第2領域11がUの区間、第3領域12
がIの区間としてセグメンテーションされたもので、U
の区間が誤まってセグメンテーションされて付加してし
まっている。
セグメンテーションされた残りの区間について、母音の
認識と同時に行ない、特別なパラメータは用いない。母
音の認識は、子音のセグメンテーションで脱落し易い鼻
音も含めて、フレーム毎に行なう。母音の認識及びセグ
メンテーションは次の手順で行なう。先ず、あらかじめ
多数の標準話者の音声を音響分析した後、母音及び鼻音
について、スベク)/しのホルマント周波数にホホ対応
するローカルピークを抽出し、周波数の低い方から順に
P+ 、 Pl とし、各母音、鼻音毎にPl−Pl
平面上の分布を調べる。次に、各母音・鼻音の分布で重
なりができる部分についてはそれらの中間母音を設定し
、PI−P2平面上で各母音・鼻音及び中間母音の領域
を設定して判別図を作成し、これを標準パターンとする
。不特定話者の音声を入力した場合、子音区間としてセ
グメンテーションされた残りの区間に対して、フレーム
毎に抽出されたローカルビークp、 、 p2を判別図
と照合することによシ、フレーム毎の音素認識結果を出
力する。得られたフレーム毎の音素認識結果の連続性を
基に母音・鼻音のセグメンテーションを行なう。この様
子を図面によって説明する。第2図は従来例の説明をす
るだめの図である。8はフレーム毎にあらかじめつけら
れた音素ラベルで、9はフレーム毎の音素認識結果を表
わす。この音素認識結果を基に、4フレ一ム以上の連続
性があるものについてはその区間を1つの音声区間とし
てセグメンテーションを行なう。この例は、第1領域1
0がOの区間、第2領域11がUの区間、第3領域12
がIの区間としてセグメンテーションされたもので、U
の区間が誤まってセグメンテーションされて付加してし
まっている。
この例に示すように、上記セグメンテーション法を用い
て認識を行なう場合、付加や脱落が多い為に誤認識する
例がかなり見られた。この原因として、母音や鼻音のセ
グメンテーションに於て、母音間あるいは母音・鼻音間
のセグメンテーションを標準パターンのみに頼るために
、調音結合や話者に対する標準パターンのずれによって
現われた母音や中間母音の付加に対して音素認識の段階
で充分に取り、除くことができず、誤り訂正規則による
訂正後も残ってしまうため、その後の処理での負担が非
常に大きいために、満足のいく認識が行なえないという
ことが挙げられる。
て認識を行なう場合、付加や脱落が多い為に誤認識する
例がかなり見られた。この原因として、母音や鼻音のセ
グメンテーションに於て、母音間あるいは母音・鼻音間
のセグメンテーションを標準パターンのみに頼るために
、調音結合や話者に対する標準パターンのずれによって
現われた母音や中間母音の付加に対して音素認識の段階
で充分に取り、除くことができず、誤り訂正規則による
訂正後も残ってしまうため、その後の処理での負担が非
常に大きいために、満足のいく認識が行なえないという
ことが挙げられる。
発明の目的
本発明は、従来技術のもつ以上のような欠点を改良する
もので、より一層認識率を向上することのできる音声セ
グメンテーション法を提供するものである。
もので、より一層認識率を向上することのできる音声セ
グメンテーション法を提供するものである。
発明の構成
本発明は上記目的を達成するもので、フレーム区間毎に
音声を分析する手段と、特徴パラメータを抽出する手段
と、母音や鼻音に対して予め作成してある標準パターン
を基に、フレーム毎に入力の各標準パターンに対する類
似度を計算する手段と、フレーム間のスペクトルの変化
の大きさに基づいてセグメントの境界を決定する手段と
、得られたセグメント内において各標準パターンに対す
る類似度またはその順位によって決められた値に対して
フレーム毎に重みづけをすることによシ、セグメント内
で類似皮相あるいは類似度の順位によって決められた値
の和が最も大きくなった標準パターンに対する母音また
は鼻音をそのセグメントの認識結果として出力する手段
とを有し、母音または鼻音のセグメンテーシ町ンと認識
とを同時に行なうことによシ、調音結合による付加や認
識誤まりを減少させるものである。
音声を分析する手段と、特徴パラメータを抽出する手段
と、母音や鼻音に対して予め作成してある標準パターン
を基に、フレーム毎に入力の各標準パターンに対する類
似度を計算する手段と、フレーム間のスペクトルの変化
の大きさに基づいてセグメントの境界を決定する手段と
、得られたセグメント内において各標準パターンに対す
る類似度またはその順位によって決められた値に対して
フレーム毎に重みづけをすることによシ、セグメント内
で類似皮相あるいは類似度の順位によって決められた値
の和が最も大きくなった標準パターンに対する母音また
は鼻音をそのセグメントの認識結果として出力する手段
とを有し、母音または鼻音のセグメンテーシ町ンと認識
とを同時に行なうことによシ、調音結合による付加や認
識誤まりを減少させるものである。
実施例の説明
本発明は、主に母音や鼻音C/m/、/n/。
/N/ )のセグメンテーシツンと認識を行なう際に用
いる。第3図は本発明の一実施例における音声セグメン
テニション法を用いた認識装置の一構成を示すブロック
図で、以下に、図面を用いて本実施例の説明を行なう。
いる。第3図は本発明の一実施例における音声セグメン
テニション法を用いた認識装置の一構成を示すブロック
図で、以下に、図面を用いて本実施例の説明を行なう。
先ず、多数の標準話者の音声を音響分析部13で101
151のフレーム毎に分析した後、特徴パラメータ抽出
部14で線形予測分析を行ない、LPGケプストヲム係
数を求める。予め、ラベル付けされた母音や鼻音等の音
素毎にLPGケプストラム係数Gi=(Ct、(z+・
・・・・・、0p)(i:音素、p:次数)の平均値ベ
クトルxi および共分散行列Wi を次式により求め
真、Wi および行列式1Wilを母音標準パターン格
納部18に格納しておく。
151のフレーム毎に分析した後、特徴パラメータ抽出
部14で線形予測分析を行ない、LPGケプストヲム係
数を求める。予め、ラベル付けされた母音や鼻音等の音
素毎にLPGケプストラム係数Gi=(Ct、(z+・
・・・・・、0p)(i:音素、p:次数)の平均値ベ
クトルxi および共分散行列Wi を次式により求め
真、Wi および行列式1Wilを母音標準パターン格
納部18に格納しておく。
ここで、Ni は各音素の出現数、添字jは出現番号
、添字tは行列の、転置を表わす。
、添字tは行列の、転置を表わす。
次に入力音声を、音響分析部13および特徴パラメータ
抽出部14で同様の分析を行ない、フレーム毎のLPG
ケプストラム係数係数C水める。類似度計算部16では
、母音や鼻音に対するフレーム毎のLPGケプストヲム
係数C′の確率密度関数Li= −((C’−〇1)W
i−’(Φ′−Φi)−+−D・・・・・・・・・(4
)で表わされる類似度L1を計算する。ここでWi−1
は共分散行列w4の逆行列である。
抽出部14で同様の分析を行ない、フレーム毎のLPG
ケプストラム係数係数C水める。類似度計算部16では
、母音や鼻音に対するフレーム毎のLPGケプストヲム
係数C′の確率密度関数Li= −((C’−〇1)W
i−’(Φ′−Φi)−+−D・・・・・・・・・(4
)で表わされる類似度L1を計算する。ここでWi−1
は共分散行列w4の逆行列である。
一方、音素境界検出部17では、特徴パラメータ抽出部
14で得られたLPGケデストヲム俤数を基に音素境界
候補及び音素中心候補の抽出を行なう。この様子を第4
図を用いて説明する。19はフレーム毎の音素ラベル、
20はフレーム毎の音素認識結果を表わす。曲線22は
フレーム間スペクトル距離を示すもので4フレーム(2
oms)程度離れた部分のスペクトルの相違をLPGケ
プストラム係数のユークリッド距111 D(n)=(+Ij(’n+2)−Qi(n−z) (
G(n+z)−〇(n−z))・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・(6)(nは
フレーム番号)をフレーム毎に計算し、前後のフレーム
の荷重平均をとシ平滑したものである。この値を基に、
閾値21を越える極大フレームを音素境界候補とし、そ
の間の区間26および26を音素区間候補として出力す
る。またそれぞれの区間の中での極小フレーム23及び
24を音素中心候補として出力する。また、第3図にお
いて、セグメンテーシ舊ン及び母音認識部18では、音
素境界検出部17から得られた音素区間候補について、
類似度計算部16から得られたフレーム毎の各音素標準
パターンに対する類似度を基に音素判別を行なう。この
際、音素区間内の音素中心付近ではスペクトルの変化が
少なく調音結合の影響を受けにくいことから、音素中心
付近で最も重く、中心から離れるに従って軽くなるよう
な重み関数A(X) (xは音素中心フレームとのフレ
ーム差を表わす)によって、各音素標準パターンに対す
るフレーム毎の類似度または各音素候補の順位によって
決められた値Liに重みづけを行ない、区間内における
重みづけされた値の総和Mi(但し、nはフレーム番号
、Js+βc + Jeはそれぞれ区間の始端、中心、
終端フレーム番号を表わす。)が最大となる音素iをそ
の区間を代表する音素とする。重み関数ム(X)は標準
パターンの数や分析区間に応じ、音声認識シ′ステムに
応じてよシ高い認識率が得られるように設定する。例え
ば、音素中心付近でより大きな重みづけの行なえるA(
x)=;・+、 、−、°−゛°−゛−−−−−°−
°−(8)(aは定数、mは区間の長さ)のような関数
を選ぶ。
14で得られたLPGケデストヲム俤数を基に音素境界
候補及び音素中心候補の抽出を行なう。この様子を第4
図を用いて説明する。19はフレーム毎の音素ラベル、
20はフレーム毎の音素認識結果を表わす。曲線22は
フレーム間スペクトル距離を示すもので4フレーム(2
oms)程度離れた部分のスペクトルの相違をLPGケ
プストラム係数のユークリッド距111 D(n)=(+Ij(’n+2)−Qi(n−z) (
G(n+z)−〇(n−z))・・・・・・・・・・・
・・・・・・・・・・・・・・・・・・・(6)(nは
フレーム番号)をフレーム毎に計算し、前後のフレーム
の荷重平均をとシ平滑したものである。この値を基に、
閾値21を越える極大フレームを音素境界候補とし、そ
の間の区間26および26を音素区間候補として出力す
る。またそれぞれの区間の中での極小フレーム23及び
24を音素中心候補として出力する。また、第3図にお
いて、セグメンテーシ舊ン及び母音認識部18では、音
素境界検出部17から得られた音素区間候補について、
類似度計算部16から得られたフレーム毎の各音素標準
パターンに対する類似度を基に音素判別を行なう。この
際、音素区間内の音素中心付近ではスペクトルの変化が
少なく調音結合の影響を受けにくいことから、音素中心
付近で最も重く、中心から離れるに従って軽くなるよう
な重み関数A(X) (xは音素中心フレームとのフレ
ーム差を表わす)によって、各音素標準パターンに対す
るフレーム毎の類似度または各音素候補の順位によって
決められた値Liに重みづけを行ない、区間内における
重みづけされた値の総和Mi(但し、nはフレーム番号
、Js+βc + Jeはそれぞれ区間の始端、中心、
終端フレーム番号を表わす。)が最大となる音素iをそ
の区間を代表する音素とする。重み関数ム(X)は標準
パターンの数や分析区間に応じ、音声認識シ′ステムに
応じてよシ高い認識率が得られるように設定する。例え
ば、音素中心付近でより大きな重みづけの行なえるA(
x)=;・+、 、−、°−゛°−゛−−−−−°−
°−(8)(aは定数、mは区間の長さ)のような関数
を選ぶ。
このようにして音素候補区間毎に音素判別が済んだ後、
隣り合う区間の音素を比較し、同一音素でしかも両方の
区間の持続時間の長さの和が一定値以下の場合は2つの
区間を1つにまとめる操作を行ない、こうして得られた
音素系列を母音・鼻音の認識結果として出力する。
隣り合う区間の音素を比較し、同一音素でしかも両方の
区間の持続時間の長さの和が一定値以下の場合は2つの
区間を1つにまとめる操作を行ない、こうして得られた
音素系列を母音・鼻音の認識結果として出力する。
かかる方法においては入力音声に対するフレーム間によ
る相対的距離と、標準パターンとの絶対的距離とを効果
的に用いることにより、付加の減少と認識率の向上とを
同時にはかることができる。
る相対的距離と、標準パターンとの絶対的距離とを効果
的に用いることにより、付加の減少と認識率の向上とを
同時にはかることができる。
すなわち本実施例によれば、調音結合を受は易い音素の
コンテキストに対して、音素境界付近での付加を減少す
る効果があるほか、検出したセグメント内における音素
認識率が、例えば単純にセグメントの中心フレームで音
素認識を行なうのに比べ、そのセグメント内において、
統計的にシステムに対する認識傾向を把握した重みづけ
を行なうことにより向上(男性10名の発声した約20
00単語で約1%の向上を得た)させることが可能であ
るため、この認識結果を利用して隣シ合うセグメントの
間で再度セグメンテーションを行なうことによる付加の
減少の二重の効果があるほか、中間母音といった後の処
理に手間の要するものを使わなくて済み、標準パターン
も少なくて済むという効果がある。
コンテキストに対して、音素境界付近での付加を減少す
る効果があるほか、検出したセグメント内における音素
認識率が、例えば単純にセグメントの中心フレームで音
素認識を行なうのに比べ、そのセグメント内において、
統計的にシステムに対する認識傾向を把握した重みづけ
を行なうことにより向上(男性10名の発声した約20
00単語で約1%の向上を得た)させることが可能であ
るため、この認識結果を利用して隣シ合うセグメントの
間で再度セグメンテーションを行なうことによる付加の
減少の二重の効果があるほか、中間母音といった後の処
理に手間の要するものを使わなくて済み、標準パターン
も少なくて済むという効果がある。
発明の効果
以上要するに本発明は単語音声または連続音声を認識す
る音声認識装置において、入力音声に対し、フレーム区
間毎に、予め母音や鼻音毎に用意してある標準パターン
との量子類似度を計算し、異なるフレーム間におけるス
ペクトル形状の差分変化の大きさに基づきセグメントの
境界を決定し、セグメント内で類似度または類似度の順
位によって決められた値の重みづけ和が最も大きい標準
ノ々ターンに対する母音または鼻音をそのセグメントに
おける認識結果として出力することを特徴とする音声セ
グメンテーション法を提供するもので、付加や脱落のな
い高い認識率が得られる利点を有する。
る音声認識装置において、入力音声に対し、フレーム区
間毎に、予め母音や鼻音毎に用意してある標準パターン
との量子類似度を計算し、異なるフレーム間におけるス
ペクトル形状の差分変化の大きさに基づきセグメントの
境界を決定し、セグメント内で類似度または類似度の順
位によって決められた値の重みづけ和が最も大きい標準
ノ々ターンに対する母音または鼻音をそのセグメントに
おける認識結果として出力することを特徴とする音声セ
グメンテーション法を提供するもので、付加や脱落のな
い高い認識率が得られる利点を有する。
第1図は従来例の単語音声認識システムの構成を示すブ
ロック図、第2図は従来例のセグメンテーション法を説
明するだめの図、第3図は本発明の一実施例における音
声認識システムの構成を示すブロック図、第4図は本発
明のセグメンテーション法を説明するための図である。 13・・・・・・音響分析部、14・・・・・特徴パラ
メータ抽出部、15・・・・・類似度計算部、1e・・
・・・・母音標準パターン格納部、17・・・・・・音
素境界検出部、18・・・・セグメンテーション及び母
音認識部。 代理人の氏名 弁理士 中 尾 敏 男 ほか1名第1
図 10 ノ/lど 第3図
ロック図、第2図は従来例のセグメンテーション法を説
明するだめの図、第3図は本発明の一実施例における音
声認識システムの構成を示すブロック図、第4図は本発
明のセグメンテーション法を説明するための図である。 13・・・・・・音響分析部、14・・・・・特徴パラ
メータ抽出部、15・・・・・類似度計算部、1e・・
・・・・母音標準パターン格納部、17・・・・・・音
素境界検出部、18・・・・セグメンテーション及び母
音認識部。 代理人の氏名 弁理士 中 尾 敏 男 ほか1名第1
図 10 ノ/lど 第3図
Claims (1)
- フレーム区間毎に音声を分析する手段と、特徴パラメー
タを抽出する手段と、入力音声に対し、フレーム毎に予
め母音や鼻音毎に用意してある標準パターンとの間で類
似度を計算する手段と、異なるフレーム間でスペクトル
形状の差を求め、その変化の大きさに基づいてセグメン
トの境界を決定する手段と、セグメント内において各標
準パターンに対する類似度または類似度の順位によって
決められた値に対してフレーム毎に重みづけすることに
より、セグメント内で類似度または類似度の順位によっ
て決められた値の重みづけ和が最も大きくなった標準パ
ターンに対する母音または鼻音をそのセグメントの認識
結果として出力する手段とを少なくとも有することを特
徴とする音声セグメンテーション法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15962584A JPS6136797A (ja) | 1984-07-30 | 1984-07-30 | 音声セグメンテ−シヨン法 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP15962584A JPS6136797A (ja) | 1984-07-30 | 1984-07-30 | 音声セグメンテ−シヨン法 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JPS6136797A true JPS6136797A (ja) | 1986-02-21 |
Family
ID=15697806
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP15962584A Pending JPS6136797A (ja) | 1984-07-30 | 1984-07-30 | 音声セグメンテ−シヨン法 |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JPS6136797A (ja) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08500471A (ja) * | 1992-04-30 | 1996-01-16 | セリディアン コーポレイション | 放送セグメントを認識するための方法とシステム |
| JP2009151305A (ja) * | 2007-12-20 | 2009-07-09 | Toshiba Corp | 話認認証の検証のための方法および装置、話者認証システム |
-
1984
- 1984-07-30 JP JP15962584A patent/JPS6136797A/ja active Pending
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH08500471A (ja) * | 1992-04-30 | 1996-01-16 | セリディアン コーポレイション | 放送セグメントを認識するための方法とシステム |
| JP2009151305A (ja) * | 2007-12-20 | 2009-07-09 | Toshiba Corp | 話認認証の検証のための方法および装置、話者認証システム |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US7957959B2 (en) | Method and apparatus for processing speech data with classification models | |
| JP3114975B2 (ja) | 音素推定を用いた音声認識回路 | |
| EP0128755A1 (en) | Apparatus for speech recognition | |
| JPS5972496A (ja) | 単音識別装置 | |
| JPH04362699A (ja) | 音声認識方法及び装置 | |
| JP3298858B2 (ja) | 低複雑性スピーチ認識器の区分ベースの類似性方法 | |
| JP2955297B2 (ja) | 音声認識システム | |
| Kamble et al. | Emotion recognition for instantaneous Marathi spoken words | |
| JPS6136797A (ja) | 音声セグメンテ−シヨン法 | |
| Chen et al. | Text-Independent Speaker Verification Using Lightweight 3D Convolutional Neural Networks | |
| Makino et al. | Speaker independent word recognition system based on phoneme recognition for a large size (212 words) vocabulary | |
| CN120996038B (zh) | 适用于呼叫中心人工坐席的智能辅助方法及系统 | |
| JP2757356B2 (ja) | 単語音声認識方法および装置 | |
| JP2760096B2 (ja) | 音声認識方式 | |
| JPH0619497A (ja) | 音声認識方法 | |
| JPH0554678B2 (ja) | ||
| JPH06348291A (ja) | 単語音声認識方法 | |
| JP2602271B2 (ja) | 連続音声中の子音識別方式 | |
| JPS60147797A (ja) | 音声認識装置 | |
| JPS62111292A (ja) | 音声認識装置 | |
| JP2005173007A (ja) | 音声解析処理およびそれを用いた音声処理装置および媒体 | |
| JPH067352B2 (ja) | 音声認識装置 | |
| JPS58152300A (ja) | 音素認識方法 | |
| JPS6237797B2 (ja) | ||
| JPH01260499A (ja) | 子音認識法 |