JPH026079B2 - - Google Patents
Info
- Publication number
- JPH026079B2 JPH026079B2 JP58178548A JP17854883A JPH026079B2 JP H026079 B2 JPH026079 B2 JP H026079B2 JP 58178548 A JP58178548 A JP 58178548A JP 17854883 A JP17854883 A JP 17854883A JP H026079 B2 JPH026079 B2 JP H026079B2
- Authority
- JP
- Japan
- Prior art keywords
- word
- frame
- phoneme
- reference frame
- beginning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 238000000034 method Methods 0.000 claims description 28
- 238000001228 spectrum Methods 0.000 claims description 12
- 230000003595 spectral effect Effects 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 238000007792 addition Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000002123 temporal effect Effects 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Description
産業上の利用分野
本発明は、音声認識装置等に使用される語頭子
音のセグメンテーシヨン法に関するものである。 従来例の構成とその問題点 従来研究されあるいは発表されている音声認識
システムの動作原理としてはパタンマツチング法
が多く採用されている。この方法は認識される必
要がある全種類の単語に対して標準パターンをあ
らかじめ記憶しておき、入力される未知の入力パ
ターンと比較することによつて一致の度合(以下
類似度と呼ぶ)を計算し、最大類似度が得られる
標準パターンと同一の単語であると判定するもの
である。このパタンマツチング法では認識される
べき全ての単語に対して標準パターンを用意しな
ければならないため、発声者が変わつた場合には
新しく標準パターンを入力して記憶させる必要が
ある。従つて日本全国の都市名のように数百種類
以上の単語を認識対象とするような場合、全種類
の単語を発声して登録するには膨大な時間と労力
を必要とし、又登録に要するメモリ容量も膨大に
なることが予想される。さらに入力パターンと標
準パターンのパタンマツチングに要する時間も単
語数が多くなると長くなつてしまう欠点がある。 これに対して、入力音声を音素単位に分けて音
素の組合せとして認識し(以下音素認識と呼ぶ)
音素単位で表記された単語辞書との類似度を求め
る方法は単語辞書に要するメモリ容量が大巾に少
なくて済みパタンマツチングに要する時間が短か
くでき、辞書の内容変更も容易であるという特長
を持つている。この方法の例は「音声スペクトル
の概略形とその動特性を利用した単語音声認識シ
ステム」三輪他、日本音響学会誌34(1978)に述
べてある。 この方法における単語認識システムのブロツク
図を第1図に示す。まず、あらかじめ多数話者の
音声を10msの分析区間毎に音響分析部1によつ
てフイルタを用いて分析し、得られたスペクトル
情報をもとに特徴抽出部2によつて特徴パラメー
タを求める。この特徴パラメータから/a/、/
O/等の母音や、/n/、/b/等の子音に代表
される音素毎又は音素グループ毎に標準パターン
を作成して標準パターン登録部3に登録してお
く。次に、入力された不特定話者の音声を、同様
に分析区間毎に音響分析部1によつて分析し、特
徴抽出部2によつて特徴パラメータを求める。こ
の特徴パラメータと標準パターン登録部3の標準
パターンを用いてセグメンテーシヨン部4におい
てセグメンテーシヨンを行なう。この結果をもと
に、音素判別部5において、標準パターン登録部
3の標準パターンと照合することによつて、最も
類似度の高い標準パターンに該当する音素をその
区間における音素と決定する。最後に、この結果
作成した音素の時系列(以下音素系列と呼ぶ)を
単語認識部6に送り、同様に音素系列で表現され
た単語辞書7と最も類似度の大きい項目に該当す
る単語を認識結果として出力する。 次にセグメンテーシヨン部4における語頭子音
のセグメンテーシヨン法について述べる。 従来、語頭子音のセグメンテーシヨン法として
は、語頭の有声子音のスペクトルが鼻音のスペク
トルに類似していることを利用して、フレーム毎
に5母音と鼻音で音素認識を行ない鼻音/N/の
音素認識の結果の有無によつて判定していた。例
えば、語頭の/ma/はフレーム毎に音素認識を
行なうと/NNNNAAAA/という音素系列とし
て現われることがしばしばあり、この中で/
NNNN/の部分を有声子音とすることによ
り、/m/と/i/を区別する方法をとつてい
た。 また、語頭の短い無声子音の存在はスペクトル
の傾きが顕著に変動する現象を見つけることによ
つて子音を区別していた。例えば語頭の/pa/
は/p/から/a/へ移る部分でスペクトルの傾
きが急激に変化することがしばしばあるために、
それを使つて/p/と/a/を区別する方法をと
つていた。 しかし、上記方法では必ずしも子音の存在をと
らえることが出来ず、しばしば語頭子音を見過ご
したり(以下子音の脱落と呼ぶ)、語頭は母音で
始まるけれど子音区間とする誤り(以下子音の付
加と呼ぶ)が多い。それは、有声子音の中で/
r/、/b/、/d/等の子音は必ずしも鼻音性
を示さないからである。また、/p/、/t/等
の持続時間の短い無声子音は必ずしもスペクトル
の傾きの顕著な時間変化を現わすとは限らないか
らである。 発明の目的 本発明は上記欠点を解消するもので、語頭子音
の脱落と付加の少ない精度の良い語頭子音のセグ
メンテーシヨン法を提供することを目的とする。 発明の構成 本発明は上記目的を達成するもので語頭から最
初に母音スペクトルが時間的に安定して現われる
フレームを基準フレームとし、この基準フレーム
のスペクトル・パターンと語頭から基準フレーム
までの各フレームのスペクトル・パターンとを比
較することによつて語頭子音のセグメンテーシヨ
ンを精度良く行なうものである。 実施例の説明 本発明の語頭子音のセグメンテーシヨン法の実
施例を以下に示す。 本実施例において、スペクトル・パターンの特
徴を表わすパラメータとしてLPCケプストラム
係数C1〜Co(ただし、nは正の整数)を用いる。
母音スペクトルが時間的に安定して現われる基準
フレーム(本実施例では1フレームを10msecと
する)の選び方として、以下に述べる4つの方法
を用いる。 まず、低域、高域パワー情報を使用する第1の
基準フレーム検出法について述べる。 本実施例で低域パワーと高域パワーを併用する
のは有声子音は高域パワーに、無声子音は低域パ
ワーに特徴が現われやすいためである。 低域パワーは音声信号を低域の帯域フイルタに
通しフレーム毎にパワー値を求めそれを平滑化し
て得る。又、高域パワーは高域の帯域フイルタに
よつて同様にして得る。 第2図には、低域または高域パワーの語頭にお
ける時間的変化の例を示している。 語頭が主に破裂性の子音で始まる時、パワー値
の時間的変化をプロツトすると第2図のaのよう
になる。これは破裂性のためにパワーが急激に立
上がり、後続の母音との渡りの部分においてaの
ように凹状になるからである。 bはaのパワーの時間的変化の値を微分したも
のである。P1〜P3はaの変曲点のフレーム番号
を示している。ここでは音声区間の始まるフレー
ム番号を1にしている。ここで、a、bのように
P1、P3の微分値が正、P2の微分値が負、かつP3
<m(mはフレーム番号を示すいき値)を満足す
る時、(P3+a)フレーム(本実施例では、母音
の持続時間を考慮してa=3フレームとした)を
基準フレームとする。 次に、語頭における鼻音性を使用する第2の基
準フレーム検出法について述べる。 本実施例の音素認識は、各フレーム毎に行な
う。フレーム毎の音素認識はLPCケプストラム
係数を用いて、あらかじめ用意してある各音素の
標準パターンとの比較によつて行なう。標準パタ
ーンとしては5母音(/a/、/i/、/
u/、/e/、/o/)、鼻音(/N/で表わす)
を用いた。このようにして、各フレーム毎に類似
度の最も大きい音素(第1候補音素)を求める。
フレーム毎の第1候補音素をフレーム番号の順に
並べた系列を第1候補音素時系列とする。 上記第1候補音素時系列を語頭から順に見た
時、/N/が連続してd1フレーム現われた時、語
頭から(d1+a)フレーム目を基準フレームとす
る。例えば、/ma/をフレーム毎に音素認識し
た時、音素認識結果が第3図のようになつたとす
ると、/N/が5フレーム連続しているので(5
+a)フレーム目を基準フレームとする。 次に、無声子音性を使用する第3の基準フレー
ム検出法について述べる。 本実施例において無声子音性としては、フレー
ム毎の音声、無声判定結果を用いる。語頭から無
声判定がd2フレーム連続する時、語頭から(d2+
a)フレーム目を基準フレームとする。 最後に、第4の方法について述べる。 この方法は比較的持続時間の短かい子音を対象
とするために、基準フレームを語頭からd3フレー
ム目(本実施例ではd3=7)と固定して決定する
方法である。 本実施例は第1〜第4の基準フレーム検出法を
この順序で適用し、基準フレームが検出された時
には以降の方法を適用しないようにしたものであ
る。ただこれら第1〜第4の基準フレーム検出法
の上記順序に限定されるものでなく任意の順序で
適用することも可能で、またそれぞれ単独に適用
しても基準フレームが求めれば良い。 このようにして求められ基準フレームkと語頭
から基準フレームまでのスペクトル・パターンを
比較することによつて語頭子音のセグメンテーシ
ヨンを行なう。 ある2フレーム間のスペクトル・パターンを比
較する方法として(1)式を用いる。 f(i、j)=o 〓l=1 (Cl(i)−Cl(j)) ………(1) (1)式において、Cl(i)は語頭からiフレーム目に
おけるl番目のLPCケプトラム係数を表わして
いる。同様にCl(j)はjフレーム目におけるl番目
のLPCケプストラム係数を表わしている。f
(i、j)の値が大きいほど2つのフレームのス
ペクトル・パターンが異なつていることになる。 この(1)式を用いて基準フレームkと語頭から基
準フレームまでの各フレームとのf(i、k)(た
だし、1≦i≦k−1)を計算し、最大値を
fmaxの値があるいき値より大きいか小さいかに
よつて語頭子音の有無を判定する。この方法で検
出された場合、語頭子音区間としてはf(i、k)
の値の変化が一番大きいフレームまでを子音区間
とする。 第4図に例を示す。横軸は語頭のフレーム番号
を1とした時の時間軸、縦軸はフレーム番号kを
基準とした時のf(i、k)(ただし1≦i≦k−
1)の値を表わしている。図においてf(i、k)
の最大値fmax=f(1、k)の値が、いき値θよ
りも大きいため語頭子音を検出したことになり、
語頭子音の区間としてはf(i、k)の変化が最
も大きいフレーム番号3までとし、1〜3フレー
ムまでを語頭子音区間としてセグメンテーシヨン
を行なう。 本実施例と従来法について、男性10名がそれぞ
れ212単語を発声したデータ(約2100単語)を用
いて比較を行なつた。 表に従来の方法による語頭子音の検出率と本実
施例の方法を用いた語頭子音の検出率を示してい
る。 表に示したように語頭子音検出率が従来と比べ
て平均で85%から96%へと向上している。 また、語頭は母音で始まるけれど誤つて子音で
あると判定する(子音付加)割合は従来例では24
%であつたが、本実施例の方法では約20%へと減
少している。
音のセグメンテーシヨン法に関するものである。 従来例の構成とその問題点 従来研究されあるいは発表されている音声認識
システムの動作原理としてはパタンマツチング法
が多く採用されている。この方法は認識される必
要がある全種類の単語に対して標準パターンをあ
らかじめ記憶しておき、入力される未知の入力パ
ターンと比較することによつて一致の度合(以下
類似度と呼ぶ)を計算し、最大類似度が得られる
標準パターンと同一の単語であると判定するもの
である。このパタンマツチング法では認識される
べき全ての単語に対して標準パターンを用意しな
ければならないため、発声者が変わつた場合には
新しく標準パターンを入力して記憶させる必要が
ある。従つて日本全国の都市名のように数百種類
以上の単語を認識対象とするような場合、全種類
の単語を発声して登録するには膨大な時間と労力
を必要とし、又登録に要するメモリ容量も膨大に
なることが予想される。さらに入力パターンと標
準パターンのパタンマツチングに要する時間も単
語数が多くなると長くなつてしまう欠点がある。 これに対して、入力音声を音素単位に分けて音
素の組合せとして認識し(以下音素認識と呼ぶ)
音素単位で表記された単語辞書との類似度を求め
る方法は単語辞書に要するメモリ容量が大巾に少
なくて済みパタンマツチングに要する時間が短か
くでき、辞書の内容変更も容易であるという特長
を持つている。この方法の例は「音声スペクトル
の概略形とその動特性を利用した単語音声認識シ
ステム」三輪他、日本音響学会誌34(1978)に述
べてある。 この方法における単語認識システムのブロツク
図を第1図に示す。まず、あらかじめ多数話者の
音声を10msの分析区間毎に音響分析部1によつ
てフイルタを用いて分析し、得られたスペクトル
情報をもとに特徴抽出部2によつて特徴パラメー
タを求める。この特徴パラメータから/a/、/
O/等の母音や、/n/、/b/等の子音に代表
される音素毎又は音素グループ毎に標準パターン
を作成して標準パターン登録部3に登録してお
く。次に、入力された不特定話者の音声を、同様
に分析区間毎に音響分析部1によつて分析し、特
徴抽出部2によつて特徴パラメータを求める。こ
の特徴パラメータと標準パターン登録部3の標準
パターンを用いてセグメンテーシヨン部4におい
てセグメンテーシヨンを行なう。この結果をもと
に、音素判別部5において、標準パターン登録部
3の標準パターンと照合することによつて、最も
類似度の高い標準パターンに該当する音素をその
区間における音素と決定する。最後に、この結果
作成した音素の時系列(以下音素系列と呼ぶ)を
単語認識部6に送り、同様に音素系列で表現され
た単語辞書7と最も類似度の大きい項目に該当す
る単語を認識結果として出力する。 次にセグメンテーシヨン部4における語頭子音
のセグメンテーシヨン法について述べる。 従来、語頭子音のセグメンテーシヨン法として
は、語頭の有声子音のスペクトルが鼻音のスペク
トルに類似していることを利用して、フレーム毎
に5母音と鼻音で音素認識を行ない鼻音/N/の
音素認識の結果の有無によつて判定していた。例
えば、語頭の/ma/はフレーム毎に音素認識を
行なうと/NNNNAAAA/という音素系列とし
て現われることがしばしばあり、この中で/
NNNN/の部分を有声子音とすることによ
り、/m/と/i/を区別する方法をとつてい
た。 また、語頭の短い無声子音の存在はスペクトル
の傾きが顕著に変動する現象を見つけることによ
つて子音を区別していた。例えば語頭の/pa/
は/p/から/a/へ移る部分でスペクトルの傾
きが急激に変化することがしばしばあるために、
それを使つて/p/と/a/を区別する方法をと
つていた。 しかし、上記方法では必ずしも子音の存在をと
らえることが出来ず、しばしば語頭子音を見過ご
したり(以下子音の脱落と呼ぶ)、語頭は母音で
始まるけれど子音区間とする誤り(以下子音の付
加と呼ぶ)が多い。それは、有声子音の中で/
r/、/b/、/d/等の子音は必ずしも鼻音性
を示さないからである。また、/p/、/t/等
の持続時間の短い無声子音は必ずしもスペクトル
の傾きの顕著な時間変化を現わすとは限らないか
らである。 発明の目的 本発明は上記欠点を解消するもので、語頭子音
の脱落と付加の少ない精度の良い語頭子音のセグ
メンテーシヨン法を提供することを目的とする。 発明の構成 本発明は上記目的を達成するもので語頭から最
初に母音スペクトルが時間的に安定して現われる
フレームを基準フレームとし、この基準フレーム
のスペクトル・パターンと語頭から基準フレーム
までの各フレームのスペクトル・パターンとを比
較することによつて語頭子音のセグメンテーシヨ
ンを精度良く行なうものである。 実施例の説明 本発明の語頭子音のセグメンテーシヨン法の実
施例を以下に示す。 本実施例において、スペクトル・パターンの特
徴を表わすパラメータとしてLPCケプストラム
係数C1〜Co(ただし、nは正の整数)を用いる。
母音スペクトルが時間的に安定して現われる基準
フレーム(本実施例では1フレームを10msecと
する)の選び方として、以下に述べる4つの方法
を用いる。 まず、低域、高域パワー情報を使用する第1の
基準フレーム検出法について述べる。 本実施例で低域パワーと高域パワーを併用する
のは有声子音は高域パワーに、無声子音は低域パ
ワーに特徴が現われやすいためである。 低域パワーは音声信号を低域の帯域フイルタに
通しフレーム毎にパワー値を求めそれを平滑化し
て得る。又、高域パワーは高域の帯域フイルタに
よつて同様にして得る。 第2図には、低域または高域パワーの語頭にお
ける時間的変化の例を示している。 語頭が主に破裂性の子音で始まる時、パワー値
の時間的変化をプロツトすると第2図のaのよう
になる。これは破裂性のためにパワーが急激に立
上がり、後続の母音との渡りの部分においてaの
ように凹状になるからである。 bはaのパワーの時間的変化の値を微分したも
のである。P1〜P3はaの変曲点のフレーム番号
を示している。ここでは音声区間の始まるフレー
ム番号を1にしている。ここで、a、bのように
P1、P3の微分値が正、P2の微分値が負、かつP3
<m(mはフレーム番号を示すいき値)を満足す
る時、(P3+a)フレーム(本実施例では、母音
の持続時間を考慮してa=3フレームとした)を
基準フレームとする。 次に、語頭における鼻音性を使用する第2の基
準フレーム検出法について述べる。 本実施例の音素認識は、各フレーム毎に行な
う。フレーム毎の音素認識はLPCケプストラム
係数を用いて、あらかじめ用意してある各音素の
標準パターンとの比較によつて行なう。標準パタ
ーンとしては5母音(/a/、/i/、/
u/、/e/、/o/)、鼻音(/N/で表わす)
を用いた。このようにして、各フレーム毎に類似
度の最も大きい音素(第1候補音素)を求める。
フレーム毎の第1候補音素をフレーム番号の順に
並べた系列を第1候補音素時系列とする。 上記第1候補音素時系列を語頭から順に見た
時、/N/が連続してd1フレーム現われた時、語
頭から(d1+a)フレーム目を基準フレームとす
る。例えば、/ma/をフレーム毎に音素認識し
た時、音素認識結果が第3図のようになつたとす
ると、/N/が5フレーム連続しているので(5
+a)フレーム目を基準フレームとする。 次に、無声子音性を使用する第3の基準フレー
ム検出法について述べる。 本実施例において無声子音性としては、フレー
ム毎の音声、無声判定結果を用いる。語頭から無
声判定がd2フレーム連続する時、語頭から(d2+
a)フレーム目を基準フレームとする。 最後に、第4の方法について述べる。 この方法は比較的持続時間の短かい子音を対象
とするために、基準フレームを語頭からd3フレー
ム目(本実施例ではd3=7)と固定して決定する
方法である。 本実施例は第1〜第4の基準フレーム検出法を
この順序で適用し、基準フレームが検出された時
には以降の方法を適用しないようにしたものであ
る。ただこれら第1〜第4の基準フレーム検出法
の上記順序に限定されるものでなく任意の順序で
適用することも可能で、またそれぞれ単独に適用
しても基準フレームが求めれば良い。 このようにして求められ基準フレームkと語頭
から基準フレームまでのスペクトル・パターンを
比較することによつて語頭子音のセグメンテーシ
ヨンを行なう。 ある2フレーム間のスペクトル・パターンを比
較する方法として(1)式を用いる。 f(i、j)=o 〓l=1 (Cl(i)−Cl(j)) ………(1) (1)式において、Cl(i)は語頭からiフレーム目に
おけるl番目のLPCケプトラム係数を表わして
いる。同様にCl(j)はjフレーム目におけるl番目
のLPCケプストラム係数を表わしている。f
(i、j)の値が大きいほど2つのフレームのス
ペクトル・パターンが異なつていることになる。 この(1)式を用いて基準フレームkと語頭から基
準フレームまでの各フレームとのf(i、k)(た
だし、1≦i≦k−1)を計算し、最大値を
fmaxの値があるいき値より大きいか小さいかに
よつて語頭子音の有無を判定する。この方法で検
出された場合、語頭子音区間としてはf(i、k)
の値の変化が一番大きいフレームまでを子音区間
とする。 第4図に例を示す。横軸は語頭のフレーム番号
を1とした時の時間軸、縦軸はフレーム番号kを
基準とした時のf(i、k)(ただし1≦i≦k−
1)の値を表わしている。図においてf(i、k)
の最大値fmax=f(1、k)の値が、いき値θよ
りも大きいため語頭子音を検出したことになり、
語頭子音の区間としてはf(i、k)の変化が最
も大きいフレーム番号3までとし、1〜3フレー
ムまでを語頭子音区間としてセグメンテーシヨン
を行なう。 本実施例と従来法について、男性10名がそれぞ
れ212単語を発声したデータ(約2100単語)を用
いて比較を行なつた。 表に従来の方法による語頭子音の検出率と本実
施例の方法を用いた語頭子音の検出率を示してい
る。 表に示したように語頭子音検出率が従来と比べ
て平均で85%から96%へと向上している。 また、語頭は母音で始まるけれど誤つて子音で
あると判定する(子音付加)割合は従来例では24
%であつたが、本実施例の方法では約20%へと減
少している。
【表】
発明の効果
以上のように本発明は、語頭から最初に母音ス
ペクトルが時間的に安定して現われるフレームを
基準フレームとして求め、この基準フレームのス
ペクトル・パターンと、語頭から基準フレームま
での各フレームのスペクトル・パターンとを比較
することによつて語頭子音の検出とセグメンテー
シヨンを行うことを特徴とする語頭子音のセグメ
ンテーシヨン法を提供するもので、語頭子音検出
率及び母音に対する子音の付加率を著しく向上さ
せることができ、精度の高い語頭子音のセグメン
テーシヨンが行える利点を有する。
ペクトルが時間的に安定して現われるフレームを
基準フレームとして求め、この基準フレームのス
ペクトル・パターンと、語頭から基準フレームま
での各フレームのスペクトル・パターンとを比較
することによつて語頭子音の検出とセグメンテー
シヨンを行うことを特徴とする語頭子音のセグメ
ンテーシヨン法を提供するもので、語頭子音検出
率及び母音に対する子音の付加率を著しく向上さ
せることができ、精度の高い語頭子音のセグメン
テーシヨンが行える利点を有する。
第1図は従来の音声認識システムのブロツク
図、第2図は本発明の一実施例における語頭子音
のセグメンテーシヨン法のパワー情報による基準
フレーム検出法を示す図、第3図は本発明の同法
の音素認識結果による基準フレーム検出法を示す
図、第4図は本発明の同法の基準フレームのスペ
クトル・パターンと語頭から基準フレームまでの
各スクトル・パターンとの比較結果を示す図であ
る。 1……音響分析部、2……特徴抽出部、3……
標準パターン登録部、4……セグメンテーシヨン
部、5……音素判別部、6……単語認識部、7…
…単語辞書。
図、第2図は本発明の一実施例における語頭子音
のセグメンテーシヨン法のパワー情報による基準
フレーム検出法を示す図、第3図は本発明の同法
の音素認識結果による基準フレーム検出法を示す
図、第4図は本発明の同法の基準フレームのスペ
クトル・パターンと語頭から基準フレームまでの
各スクトル・パターンとの比較結果を示す図であ
る。 1……音響分析部、2……特徴抽出部、3……
標準パターン登録部、4……セグメンテーシヨン
部、5……音素判別部、6……単語認識部、7…
…単語辞書。
Claims (1)
- 1 語頭から最初に母音スペクトルが時間的に安
定して現われるフレームを基準フレームとし、こ
の基準フレームのスペクトル・パターンと語頭か
ら基準フレームまでの各フレームのスペクトル・
パターンとを比較することによつて語頭子音の検
出とセグメンテーシヨンを行うことを特徴とする
語頭子音のセグメンテーシヨン法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58178548A JPS6069695A (ja) | 1983-09-27 | 1983-09-27 | 語頭子音のセグメンテ−ション法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP58178548A JPS6069695A (ja) | 1983-09-27 | 1983-09-27 | 語頭子音のセグメンテ−ション法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6069695A JPS6069695A (ja) | 1985-04-20 |
JPH026079B2 true JPH026079B2 (ja) | 1990-02-07 |
Family
ID=16050404
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP58178548A Granted JPS6069695A (ja) | 1983-09-27 | 1983-09-27 | 語頭子音のセグメンテ−ション法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6069695A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6370899A (ja) * | 1986-09-13 | 1988-03-31 | シャープ株式会社 | 音声認識装置 |
-
1983
- 1983-09-27 JP JP58178548A patent/JPS6069695A/ja active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS6069695A (ja) | 1985-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3162994B2 (ja) | 音声のワードを認識する方法及び音声のワードを識別するシステム | |
US4736429A (en) | Apparatus for speech recognition | |
Bezoui et al. | Feature extraction of some Quranic recitation using mel-frequency cepstral coeficients (MFCC) | |
JPH02195400A (ja) | 音声認識装置 | |
Gupta et al. | Implicit language identification system based on random forest and support vector machine for speech | |
Yavuz et al. | A Phoneme-Based Approach for Eliminating Out-of-vocabulary Problem Turkish Speech Recognition Using Hidden Markov Model. | |
JP3493849B2 (ja) | 音声認識装置 | |
JPH026079B2 (ja) | ||
Laleye et al. | Automatic boundary detection based on entropy measures for text-independent syllable segmentation | |
JPH026078B2 (ja) | ||
Seman et al. | Hybrid methods of Brandt’s generalised likelihood ratio and short-term energy for Malay word speech segmentation | |
JPS6363919B2 (ja) | ||
JPH0114600B2 (ja) | ||
JPH0120440B2 (ja) | ||
JP2744622B2 (ja) | 破裂子音識別方式 | |
JPH0316039B2 (ja) | ||
JPS6363920B2 (ja) | ||
JPS63217399A (ja) | 音声区間検出装置 | |
JPH067353B2 (ja) | 音声認識装置 | |
JPH096387A (ja) | 音声認識装置 | |
Rabiner et al. | Some preliminary experiments in the recognition of connected digits | |
JPH0451039B2 (ja) | ||
JPS5958498A (ja) | 音声認識装置 | |
JPS61180300A (ja) | 音声認識装置 | |
JPH042199B2 (ja) |