JPH096385A - 音声認識装置および方法 - Google Patents
音声認識装置および方法Info
- Publication number
- JPH096385A JPH096385A JP7156539A JP15653995A JPH096385A JP H096385 A JPH096385 A JP H096385A JP 7156539 A JP7156539 A JP 7156539A JP 15653995 A JP15653995 A JP 15653995A JP H096385 A JPH096385 A JP H096385A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- standard pattern
- frame
- voice
- partial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000001186 cumulative effect Effects 0.000 claims abstract description 75
- 238000004364 calculation method Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims description 43
- 238000009825 accumulation Methods 0.000 claims description 9
- 238000003909 pattern recognition Methods 0.000 claims description 2
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 6
- 238000010606 normalization Methods 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 11
- 241000287828 Gallus gallus Species 0.000 description 5
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 229910000831 Steel Inorganic materials 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 229910052742 iron Inorganic materials 0.000 description 2
- 239000010959 steel Substances 0.000 description 2
- RRLHMJHRFMHVNM-BQVXCWBNSA-N [(2s,3r,6r)-6-[5-[5-hydroxy-3-(4-hydroxyphenyl)-4-oxochromen-7-yl]oxypentoxy]-2-methyl-3,6-dihydro-2h-pyran-3-yl] acetate Chemical compound C1=C[C@@H](OC(C)=O)[C@H](C)O[C@H]1OCCCCCOC1=CC(O)=C2C(=O)C(C=3C=CC(O)=CC=3)=COC2=C1 RRLHMJHRFMHVNM-BQVXCWBNSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Mobile Radio Communication Systems (AREA)
- Image Analysis (AREA)
Abstract
の位置でその位置を終端、それ前のフレームを始端とす
る複数の標準パターンを想定し、その累積距離を計算す
る。その中で累積距離を最小とする部分標準パターンを
部分入力音声パターンの認識結果とする。
Description
るための音声認識装置および方法に関し、より詳しくは
順次に入力される入力音声から抽出した特徴パラメータ
系列と音韻等が判明している標準パターンの特徴パラメ
ータ系列との間の距離を連続DP法により計算し、最も
距離が近くなった時点での標準パターンの特徴パラメー
タ系列を検出することにより文単位の音声認識を行う場
合に、部分文、たとえば単語の音声認識をも行う音声認
識装置および方法に関する。
ち、連続DP法を用いて文スポッティングで音声認識を
行う過程で部分文、たとえば単語を認識する方法とし
て、“文スポッティング音声認識における部分文認識と
未知語処理方式”、信学論(D−II)、J77−D−
II、No.8(1994−8)、伊藤慶明、木山次
郎、岡隆一が提案されている。
パターンの中で予め指定した区間と入力音声との整合度
を標準パターン全体の計算過程で同時に求めることによ
り部分文を認識する。この方法を図1を用いて説明す
る。図1は横軸に入力音声をとり、音声の内容を文字に
より表している。縦軸には標準パターンをとり、その内
容を文字により表している。なお、実際に音声認識を行
う場合には音声から一定時間単位で取り出した音声特
徴、これは一般的に特徴パラメータと呼ばれるが、この
特徴パラメータを時系列的に並べた特徴パラメータ系列
を用いて標準パターンと入力音声の整合を行うが内容の
理解を容易にするためにここでは文字を用いて説明する
ことを了解されたい。
間として「にわ」、「とり」を指定した場合を考える。
「に」の音声が入力されると、全ての組み合わせでの距
離計算が行われる。たとえば標準パターン側の「に」と
入力音声側の「に」の間の距離や標準パターン側の
「に」、「わ」...のそれぞれと入力音声パターン側
の「に」の間の距離が計算される。次に音声の「わ」が
入力されると、標準パターン側の「に」と入力音声パタ
ーン側の「わ」との間の距離、標準パターン側の「わ」
と入力音声パターン側の「わ」との間の距離が計算され
る。このようにして得られる距離計算の結果は前時点の
距離計算結果に累積されて行く。ある時点の入力音声と
標準パターン側の部分パターンとの間の距離計算結果は
前の時点の距離計算結果に加えられ、いくつかの計算結
果の中から結合の最適ルートが決定される。組み合わせ
パターンには図2に示すような入力音声と標準パターン
の時間的伸縮を吸収するようにした組み合わせが良く用
いられる。本例に当てはめるとA点は図2のP点の位置
を部分標準パターン「にわと」と入力音声「にわと」の
間の累積距離とすると、この累積距離としてはA→B→
Pの経路で得られる累積距離と、C→Pの経路で得られ
る累積距離と,E→D→Pの経路で得られる累積距離の
中の最小距離が用いられる。ちなみに、A点の累積距離
は標準パターン側の「にわ」と、入力音声側の「に」と
の間の累積距離となる。C点の累積距離は標準パターン
側の「にわ」と、入力音声パターン側の「にわ」との間
の累積距離となる。このようにして入力音声が入力され
る毎にいろいろな組み合わせにおける累積距離を決定し
ていく。標準パターン「にわとり」と現時点での入力音
声との累積距離に着目していくと、入力音声が「にわと
り」になった時点で累積距離がしきい値以下となるの
で、この時点で入力音声は「にわとり」と認識される。
なお、標準パターンは複数用意されているので、各標準
パターンについて上述の距離計算(連続DP法による計
算と呼ばれる)を行うことはいうまでもない。このよう
な処理を実行することにより連続的に音声で入力される
複数の文の中から特定標準パターンに合致する文をスポ
ッティング的に認識する。
には図1に示すように「にわとり」の累積距離D2から
「にわ」の累積距離D1を差し引く。
法では部分文の距離を得るためには部分文の範囲を手動
で指示しなければならない。そこで、本発明は上述の点
に鑑みて、任意の部分文の標準パターンと入力音声との
間の距離を自動的取得できる音声認識装置および方法を
提供することを目的とする。
るために、請求項1の発明は、入力音声信号から抽出し
た入力音声パターンと文の標準パターンとの間の距離計
算を連続DP法にしたがってフレーム単位で順次に実行
し、当該得られたフレーム単位の距離計算結果を前記標
準パターンの始端位置から終端位置に向かって累積し、
前記標準パターンの終端位置に対応する累積結果がしき
い値よりも小さくなった場合に前記標準パターンを前記
入力音声パターンの中の一部についての認識結果とする
音声認識装置において、前記標準パターンの始端位置と
終端位置の間の各フレーム位置で、当該フレーム位置を
部分標準パターンの終端とみなし、該フレーム位置の累
積結果と前記始端位置に近いフレーム位置の各々の累積
結果との差分値を計算する第1の演算処理手段と、当該
計算された差分値の中の最小の差分値を検出し、当該検
出された最小の差分値に対応する部分標準パターンを前
記入力音声パターンの中の部分音声パターンの認識結果
とする第2の演算処理手段とを具えたことを特徴とす
る。
て、前記部分標準パターンの終端から始端までのフレー
ム数を特定数以上に制限することを特徴とする。
した入力音声パターンと標準パターンとの間の距離計算
を連続DP法にしたがってフレーム単位で順次に音声認
識装置において実行し、当該得られたフレーム単位の距
離計算結果を前記標準パターンの始端位置から終端位置
に向かって前記音声認識装置内で累積し、前記標準パタ
ーンの終端位置に対応する累積結果がしきい値よりも小
さくなった場合に前記標準パターンを前記入力音声パタ
ーンの中の一部についての認識結果とする音声認識方法
において、前記標準パターンの始端位置と終端位置の間
の各フレーム位置で、当該フレーム位置を部分標準パタ
ーンの終端とみなし、該フレーム位置の累積結果と前記
始端位置に近いフレーム位置の各々の累積結果との差分
値を前記音声認識装置内で計算し、当該計算された差分
値の中の最小の差分値を前記音声認識装置において検出
し、当該検出された最小の差分値に対応する部分標準パ
ターンを前記入力音声パターンの中の部分音声パターン
の認識結果として音声認識装置から出力することを特徴
とする。
て、前記部分標準パターンの終端から始端までのフレー
ム数を特定数以上に制限することを特徴とする。
した入力音声パターンと文の標準パターンとの間の距離
計算を連続DP法にしたがってフレーム単位で順次に実
行し、当該得られたフレーム単位の距離計算結果を前記
標準パターンの始端位置から終端位置に向かって累積
し、前記標準パターンの終端位置に対応する累積結果が
しきい値よりも小さくなった場合に前記標準パターンを
前記入力音声パターンの中の一部についての認識結果と
する音声認識装置において、前記標準パターンの始端位
置と終端位置の間の各フレーム位置で、当該フレーム位
置を部分標準パターンの終端とみなし、該フレーム位置
の累積結果と前記始端位置に近いフレーム位置の各々の
累積結果との差分値を計算する第1の演算処理手段と、
当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段とを具え、前記標準パタ
ーンを現時点から前の時点に向って一定の長さWの入力
音声パターンとすることを特徴とする。
て、前記一定の長さWの入力音声パターンを記憶するバ
ッファを有し、フレーム単位の新しい入力音声パターン
が得られる毎に当該新しい入力パターン1フレームを前
記バッファに累積すると共に、当該バッファの最も古い
入力パターン1フレームを前記バッファから消去するこ
とを特徴とする。
した入力音声パターンと文の標準パターンとの間の距離
計算を連続DP法にしたがってフレーム単位で順次に実
行し、当該得られたフレーム単位の距離計算結果を前記
標準パターンの始端位置から終端位置に向かって累積
し、前記標準パターンの終端位置に対応する累積結果が
しきい値よりも小さくなった場合に前記標準パターンを
前記入力音声パターンの中の一部についての認識結果と
する音声認識装置において、前記標準パターンの始端位
置と終端位置の間の各フレーム位置で、当該フレーム位
置を部分標準パターンの終端とみなし、該フレーム位置
の累積結果と前記始端位置に近いフレーム位置の各々の
累積結果との差分値を計算する第1の演算処理手段と、
当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段とを具え、当該定められ
た部分音声パターンの認識結果複数について、時系列順
に隙間および重複なく合成することを特徴とする。
て、合成された前記認識結果複数を音声で再生出力する
ことを特徴とする。
した入力音声パターンと文の標準パターンとの間の距離
計算を連続DP法にしたがってフレーム単位で順次に実
行し、当該得られたフレーム単位の距離計算結果を前記
標準パターンの始端位置から終端位置に向かって累積
し、前記標準パターンの終端位置に対応する累積結果が
しきい値よりも小さくなった場合に前記標準パターンを
前記入力音声パターンの中の一部についての認識結果と
する音声認識装置において、前記標準パターンの始端位
置と終端位置の間の各フレーム位置で、当該フレーム位
置を部分標準パターンの終端とみなし、該フレーム位置
の累積結果と前記始端位置に近いフレーム位置の各々の
累積結果との差分値を計算する第1の演算処理手段と、
当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段と、前記部分音声パター
ンの認識結果についてその時間軸上の通過頻度を計数す
る計数手段と、当該計数した通過頻度がしきい値以下と
なる時点を検出し、話題の境界位置と定める境界位置検
出手段とを具えたことを特徴とする。
各フレームと入力パターンの各フレームとの間の距離計
算および累積計算を行う際に、標準パターンの中のフレ
ームを部分標準パターンの終端とみなし、従来、手動で
指示していた位置を自動指定する。また、この始端位置
と前の各フレームを始端とする複数の部分標準パターン
を設定し、累積距離を差分計算により取得する。取得さ
れた累積距離の中で最小の累積距離を有する部分標準パ
ターンが部分入力パターンに対して最も的確性を有す
る。
ンとして取り出すフレーム数を特定数以上とすることで
文字についての認識を省略し単語単位での認識が可能と
なる。
音声パターンから作成することにより一定長さの入力音
声パターンに含まれる複数の同一の単語等の部分文が部
分音声の認識結果として得られる。
メモリ等を用いることができメモリ容量の節約が図れ
る。
認識結果が1つに合成されるので、その内容は音声の要
約あるいはキーワード群として取扱うことができる。
生出力することにより送話者の要約を耳で確認すること
ができる。
目を自動検出できる。
細に説明する。
声認識方法を説明する。
下の数1式で表す。
特徴パラメータを示し、i(i)は 入力音声から取得
した入力パターン系列の中のi番目の特徴パラメータを
示す。また、本実施例ではこの特徴パラメータが得られ
た音声の単位部分をフレームと呼び、入力時刻をtで表
すことにする。入力パターンと標準パターンとに共通す
る区間を標準パターンおよび入力パターンについて以下
のように定める。
そのフレームを終端とするパスに対し累積距離の履歴を
全て保持することによりそのフレーム数前の区間距離は
この履歴の差として計算できる。その区間フレーム数で
区間距離を正規化すれば2つの区間の整合度を比較する
することが可能となる。例えば図3で時刻t1において
フレームτ3からτ6までの正規化距離は(D(6,
3)−D(6,3))/3で求められ、τ3からτ5ま
での正規化距離(D(5,3)−D(5,3))/2等
と比較することができる。ここでD(τ2,τ1){τ
1≦τ2}はフレームτ(τ2)に至るパス上のフレー
ムτ(τ1)における累積距離を表している。これによ
り連続した音声入力に対して標準パターンの連続DP計
算を行う過程で任意の区間同士の整合度を効率的に計算
することができる。また、必要があれば、単語の最短、
最長継続時間として履歴フレーム数に制限を与えること
も可能である。
分パスについてもその最適性が保証される。たとえば、
図4で(t0,τ0)〜(t3,τ3)間で最適となっ
た場合、(tj,τj)〜(t3,τ3)間のパスも最
適となる。また、連続DP法のように始端をフリーとし
てt0を決定した場合、τ1〜τ3間でも最適パスとな
る。しかし、この場合でもτ1〜τ3間が最適となって
いる保証はなく、τ1〜τ3間には点線で示すような最
適パスが存在することも可能である。すなわち、連続D
P法のように始端をフリーとする場合には標準パターン
全体の最適パスから得られる部分パスは必ずしも最適パ
スになるという保証は得られない。しかしながら、部分
分スポッティング実験では最適パスになっていなくても
性能の低下はみられなかった。
る手順を次に説明する。縦軸を標準パターンの時間軸τ
(1≦τ≦T)、各フレームをτ(τ)とし、横軸を入
力音声の時間軸とする。時刻tの入力音声のフレームと
標準パターンのフレームτとの局所距離をd(t,τ)
とする。
2のように対象の重み係数を持つものとする。D(t
1,τ2,τ1)、L(t,τ2,τ1)、S(t,τ
2,τ1)によりそれぞれ時刻tにおけるτ2を終端フ
レームとするパス上でフレームτ1に至るまでの累積距
離、累積重み係数およびフレームτ1を通過した入力時
刻を表す。したがって、たとえばD(t,τ2,0)を
0とすると、D(t,τ2,τ2)は時刻tにおけるフ
レーム0〜τ2に至るまでの累積距離を表すことにな
る。また、時刻tにおけるτ1〜τ2の区間累積距離は
D(t,τ2,τ2)−D(t,τ2,τ1−1))と
なる。なお、図3におけるD(τ1,τ2)はD(t,
τ1,τ2)のことである。
で正規化を行っても整合度が低くなるように大きな定数
を与えておく。また、τ2の最大値を設定すれば検出で
きる共通区間の最長区間となる。次にD,L,Sを計算
するためのフレーム同期で計算可能な漸化式を示す。
2 S(t,1,1)=t
・d(t−1,τ)+d(t,τ) P(t,τ,2)=D(t−1,τ−1,τ−1)+2
・d(t,τ) P(t,τ,3)=D(t−1,τ−2,τ−2)+2
・d(t,τ−1)+d(t,τ) Q(t,τ,1)=L(t−2,τ−1,τ−1)+3 Q(t,τ,2)=L(t−1,τ−1,τ−1)+2 Q(t,τ,3)=L(t−1,τ−2,τ−2)+3 ただし、
(t,τ) Q(t,τ,3)=L(t,τ−1,τ−1)+1 上記の式によって求めた3つのDPパス(図2参照)を
比較するため以下の式で正規化し、最適パスを決定す
る。
(t,τ,α) α=1,2,3 求めた最適パスから累積距離の履歴をフレームτに数8
式〜数10式でコピーし、τフレームまでの累積距離、
累積重みをP(t,τ,α* )、Q(t,τ,α* )を
用いて数11式を更新する。
ムτ6への3つのDPパスの各累積距離、累積重みを数
5式より求め、数7式より最適パス、すなわち、図2の
3つのDPパスの中の、累積距離を最小とするDPパス
を決定する。時刻t−1,フレーム5を始端とするDP
パスが最適となった場合、(α* =2)である。次に数
10式より、時刻t−1,フレーム5における累積距離
の履歴D(1,5){t−1}〜D(5,6){t−
1}を履歴D(1,5){t}〜D(5,6){t}に
コピーする。すなわち、式ではD(t−1,5,1)〜
D(t−1,5,5)からD(t,6,1)〜D(t,
6,5)へのコピーとなる。最後に選択されたパスの累
積距離D(6,6){t}を更新する。累積重みについ
ても同様の処理が必要である 上述したDPパスは図2に示すように対称の重み係数を
使用したが重み係数といste非対称でフレーム方向に
のみ重みを置く傾斜制限を用いれば、上述のL,Qを省
略することができ、数7式および数11式は以下のよう
に計算が非常に単純となる。
のみ処理すればよいので、計算機、記憶量とも大幅に削
減することができる。後述する最長継続時間の制約とし
てNmaxを与えるためには数8式〜数10式において
条件に1≦τ≦Nmaxを加えればよい。
に実行することにより標準パターンと連続音声パターン
との間の累積距離および部分音声パターンと、部分標準
パターンとの間の区間累積距離が求まる。
の「にわとり」と例にとると標準パターンの中の部分標
準パターン「に」と連続音声の中の部分音声パターン
「に」との間の区間累積距離や部分標準パターン「に
わ」と部分音声パターン「にわ」との間の区間累積距離
等いろいろな組み合わせの共通区間の累積距離が得られ
る。しかしながら音韻など非常に短い区間を計算の対称
としてもいたづらに計算量が増えるだけであり、実用的
ではない。そこで単語レベル程度以上のの音声長さを持
つ共通区間を検出し計算の対象とした方が好ましい。そ
こで最短の共通区間長Nminを予め決定しておくと以
下の処理により最適な共通区間長を得ることができる。
と仮定した場合、フレームτからn(n≧Nmin)前
までの区間(τ−n,τ)の整合度A(t,τ,n)は
以下の式で求められる。
(t,τ,τ−n)}/{L(t,τ,τ)−L(t,
τ,τ−n)} したがって、全てのフレームτ、全ての区間nの中で以
下の式で与えられる最小の整合度A(t,τ,n)を与
えるr* ,n* が時刻tにおける最適共通区間を示して
いる。
適整合度は以下の式で表される。
(t,tau* )
最適整合度の最小となる時刻における最適共通区間を全
区間における最適共通区間とする。
する方法としては(2)時間推移を観察し、ローカルミ
ニマムになる箇所を最適共通区間とする。
識装置のシステム構成の一例を図5に示す。図5におい
て11はパーソナルコンピュータ等の情報処理装置であ
る。
ログの電気信号に変換され、A/D変換器2によりデジ
タル信号に変換され、パーソナルコンピュータ11の入
出力インタフェース3に入力される。デジタル形態の音
声信号に対してたとえば、フーリエ解析等の処理が施さ
れ、音声信号のフレーム単位の特徴パラメータが抽出さ
れる。標準パターンの作成モードにおいては抽出された
特徴パラメータはCPU4の制御によりハードディスク
記憶装置(HDD)9に標準パターンとして格納され
る。このとき、音声の内容を示す文字等がキーボード等
の入力装置8から入力され、上記特徴パラメータと関連
づけて記憶される。一方、文字認識モードにおいては、
パーソナルコンピュータ11に入力されたデジタル形態
の音声信号は特徴パラメータに変換され、CPU4によ
り音声認識される。より具体的には、上述した音声認識
方法を用いてHDD9に格納された標準パターンと、音
声信号から得られる入力パターンを特徴パラメータ同士
で連続DPマッチング法で距離比較(整合)する。
様の処理を繰り返し実行し、整合の結果は順次にRAM
6に格納され、その累積結果も格納されていく。さらに
本発明に関わる部分パターンについての整合に関連する
データもRAM6上に格納される。入力音声パターンが
標準パターンに合致していると判断されたときにその標
準パターンが音声認識結果としてディスプレイ7上に文
字形態で表示される。また、D/A変換器12を介して
スピーカ13からも音声出力される。また、標準パター
ンの一部分と入力音声パターンの一部分、たとえば、単
語が合致していることもCPU4により検出され、その
音声認識結果がディスプレイ7に表示される。CPU4
はこれら一連の機器制御をROM5に格納されたシステ
ムプログラムに従って実行すると共に上述の音声認識処
理をHDD9に格納された専用のプログラムに従って実
行する。
を図6および図7を参照しながら説明する。図6は標準
パターンを構成するフレームと、入力音声パターンを構
成するフレームの整合結果および比較の対象となるフレ
ームの組み合わせ方(DPパス)を示す。図中∞は整合
結果としてまったく類似していないことを示し、数値0
は類似していることを示す。実際の整合結果は数値形態
で表すが説明の都合上かかる表現を用いる。図6の縦軸
は標準パターンを表し、横軸は時系列的に入力される入
力音声パターンを表す。
処理の処理手順を示す。この処理手順は実際にはCPU
4が実行可能なプログラム言語の形態でHDD9に格納
されている。説明の便宜上、処理内容については機能表
現している。本実施例では2フレーム(文字)以上の単
語について最短共通区間(Nmin=2)を設定してい
るものとする。
は図7の処理手順が開始され、計算に必要な初期値が設
定される(ステップS10)。マイクロホン1から認識
対象の音声が入力されるとパーソナルコンピュータ11
ではフレーム単位で入力音声パターンを入力し特徴パラ
メータを抽出する(ステップS20)。図6の例では
「そ」についてのフレームが得られる。CPU4は最初
に標準パターンのフレーム「に」、「わ」...「り」
と入力音声パターンの「そ」との整合をそれぞれ行い、
その整合結果を組み合わせ位置に対応させてRAM5に
記憶する。また、その整合結果を用いて初期条件式によ
りその組み合わせ位置の累積結果の初期値も計算され記
憶される(ステップS30)。
ての累積距離としきい値が比較されるこの場合、しきい
値以上となるので文の標準パターンとこれまでの入力音
声パターンは一致しないと判断される(ステップS4
0)。
1であり、最短共通区間2よりも小さいので、ステップ
S50からS100の処理を通過して、2番目の入力音
声フレームの入力を待つ。2番目の入力音声フレーム
「う」が入力されると、CPU4は前回と同様標準パタ
ーンの各フレームと整合を行い、整合結果を図6の整合
位置に対応させてRAM6に記憶し、文の認識結果の有
無を判定する(ステップS30からS40)。
の計算式を用いて標準パターンの部分区間「にわ」と入
力音声パターンの部分区間「そう」の整合が行われる。
この整合結果がRAM6に記憶される。また、このとき
の整合結果が仮の最小値として記憶される(ステップS
60→S80)。3番目の入力音声のフレーム「ち」が
入力されると、図6のPの位置の累積距離が図2の傾斜
制限を用いて数5式により決定される。すなわち、数5
式によりAのパスで定まる累積距離の値、Bのパスで定
まる累積距離の値、Cのパスで定まる累積距離の値の中
の最小値がPの位置の累積距離として決定され、この値
を持つパスが最適パス、換言すると、これまでに最も類
似するフレームの組み合わせ順として決定される。CP
U4はその他入力音声フレームのフレーム「ち」と標準
パターンのフレームの「り」の組み合わせについても数
5式を用いて累積距離を計算する(ステップS30)。
点として前の時点および標準パターンの始端に向かって
2つ以上の各フレーム長さの区間距離を累積距離の差分
計算(上述)により求めRAM6に記憶してゆく(ステ
ップS40)。この時点ではフレーム長さ2とフレーム
長さ3の2つの区間距離の値が得られる。この内の最小
値がこの位置での最適区間距離の値として記憶される
(ステップS50)。また、前のフレーム時点で検出さ
れた最適区間距離の最小値と新たに得られた最適区間距
離の比較が行われ、新たに得られた最適区間距離が最小
値として記憶される(ステップS75)。
CPU4は上述の文の標準パターンについての距離計算
およびその時点を起点とした所定区間の距離計算および
最適区間距離の計算等を行って行く。所定フレーム数、
たとえば、5毎にその中での最小最適区間距離を持つ部
分標準パターンが認識結果としてディスプレイ7に表示
され、次に次回のために仮の最小値が設定される(ステ
ップS80→S90→S100)。
の計算が開始されたパスが時刻t4になった時点で文の
最終端Qの位置の累積距離がしきい値以下となり、この
とき標準パターン「にわとりが」がスポット的にディス
プレイ7に認識結果として表示される(ステップS60
→S65)。
の標準パターンについての連続DPマッチングを行いな
がら、各時点でその時点を起点とした所定長さの区間距
離を計算して標準パターンの一部分と入力音声パターン
の中の一部分の一致を検出して行く。したがって、従来
のように距離計算を行うべき区間をユーザがわざわざ指
定する必要がなくなる。
る。
ての認識結果については表示装置、スピーカ、プリンタ
等所望の出力装置を使用すればよい。
語、述語等の単語で構成されるものを説明したが文節程
の長さの文章音声をも標準パターンとすることができ
る。
ーワード、例えば固有名詞はその話題音声にしばしば出
現し、ありふれた単語に比べ長いことが予想される。そ
こで話題に特有な語は次のような特性を持つと仮定す
る。
を持った音韻的に類似した区間を抽出することができれ
ば、重要な単語の含まれている区間の多くをカバーする
ことが可能であろう。
りふれた単語も上記の前提を満たすことが多いため、音
韻的類似度のみを用いたものではそれらも抽出してしま
うことは避けられない。したがって、何らかの後処理
で、それらの不要な情報を除く必要がある。
した単語等の部分文の検出手法を用いて、一定時間内に
複数個出現する部分文を検出する方法を説明する。これ
により、話題の中のキーワードのみが検出され、キーワ
ードに付属する副詞、接続詞等の不要部分が排除され
る。
ム構成を用いることができるが一部異なる点があるの
で、相異点を説明することにする。第1実施例では標準
パターンは予め用意され、その内容が変化することはな
い。第2実施例では入力音声から取り出した一定期間内
の音声パターンを標準パターンとして取り扱い、その標
準パターンの長さを一定期間に維持しつつ、入力音声の
入力に応じて標準パターンも変化させる点が第1実施例
と異なる。
をt−1とすると、この時点でDPマッチングに用いる
標準パターンは時刻t−W−1〜時刻t−1までの入力
音声から抽出した特徴パラメータ系列、すなわち、入力
パターンとなる。本実施例では時刻tに新たな音声部分
が入力されると、長さWを維持するために時刻t−W−
1のデータが標準パターンから消去され、新たに時刻t
のデータが標準パターンに加えられる。
における標準パターンの両端点における累積距離の計算
方法が問題となる。本実施例では、時刻tにおける標準
パターン始端と終端のパス形状を図9のように設定す
る。それ以外の計算は第1実施例と共通である。
区間と標準パターン上の類似した区間の探索は、図10
に示す領域で行われる。ここで、Wは標準パターンの最
大長、Hは類似区間の最大長である。また、Dは、tを
終端とする区間が検出されないために必要な遅延であ
る。もし、D=0であれば、常に、自分自身が検出され
てしまうからである。全体的に見れば、探索はハッチン
グで示す領域の範囲で行われることになる。
ためのCPU4の処理手順を図11に示しておく。音声
データのサンプリングが開始されると、標準パターンを
記憶するRAM6上のバッファのフル(満杯)の有無が
確認され、フルになるまではバッファに入力のデータ、
すなわち音声特徴パラメータが蓄積される(ステップS
210→S240)。この処理を繰り返すとバッファが
フルとなるので以後、FIFO(ファーストインファー
ストアウト)のように、蓄積結果の先頭の音声特徴パラ
メータが消去され、入力の音声特徴パラメータが蓄積結
果の最後尾に追加される(ステップS210→S220
→S230)。
て、部分文の検出を行うと一定期間W内に同一あるいは
類似の単語が複数回出現すると、第1実施例の計算結果
は複数回出現した単語の方が他の単語よりも区間累積距
離が小さくなるので、最適区間距離として選択され、複
数回出現の単語が類似単語として出力される。
る。
用いた部分文の検出結果をRAM6に記憶しておく。新
たに部分文を検出する毎に記憶内容を参照し、同一のも
のがある場合にはその出現頻度を計数することによって
も複数回出現する部分文を検出できる。ただし、複数回
出現する部分文のみを検出する目的であれば第2実施例
の方が処理時間も短く、使用するメモリ空間も小さくな
る。
語の抽出方法を実行して、抽出された複数の類似(区
間)の単語は図12に示すように時系列的に一部重複し
てしまったり、単語と単語の間に隙間が生じる。したが
って、抽出の類似単語を直に再生出力しようとした場
合、その再生音声は聞きづらいものとなる。
同士、あるいは時系列的に重複する類似単語を結合した
上で連続的に再生処理を行う。
示す。CPU4は、第1番目に抽出された類似単語を初
期合成類似単語としてRAM6に格納する。第2番目の
類似単語が得られると、初期合成単語の時間軸上の位置
関係を類似単語の始端および終端位置を比較することで
重複の有無(隙間の有無)を調べる(ステップS300
→S310)。この2つの類似単語が重複している場合
には、2つの類似単語の一つの重複部分を消去して、2
つの類似単語をマージ(結合)する(ステップS32
0)。一方、2つの類似単語に隙間が生じている場合に
は、後の時点の類似単語の始端を前の時点の類似単語の
終端に結合する(ステップS330)。
と、前時点で作成された合成類似単語と差し換えてRA
M6に記憶する。以下、新しい類似単語が得られる毎に
上述の手順を繰り返すと類似単語間の重複、隙間が除去
された1つの類似単語が合成される。一定回数、あるい
は一定時間上述の処理を繰り返すと(ステップS34
0)、合成処理された類似単語をスピーカ13から再生
する(ステップS350)。以下、順次類似単語の合
成、再生を繰り返す。
の標準パターンを用意しても入力音声が標準パターンと
一致することは実用上、ほとんどない。そこで、部分文
を検出する訳であるが部分文のみを出力すると、文の切
れ目が見つかりにくい。
れる単語集合が異なることに着目し、複数の話題を含む
音声に対し、第1実施例の手法により類似区間の検出を
行う。すると、同一話題内での類似区間の区間の対応は
多く、異なる話題間での対応は少なくなるであろうこと
が予測されるので、各時刻において、対応区間を結ぶ線
のよぎる頻度、すなわち、通過頻度を数えれば、図14
に示すように話題の境界においては頻度が低くなること
が予想される。したがって、対応線の通過頻度が局所的
に低い時刻は話題の境界である可能性が高いと考えられ
る。
の通過頻度を取得し、特定のしきい値以下になる点を話
題の境界と決定する。
示す。CPU4は第1実施例で説明した方法により類似
単語を検出すると、その類似単語の始端および終端の入
力時間の間の期間に長さが矩形の長さに相当し、一定高
さをもつ矩形イメージをRAM6の2次元空間(時間軸
と通過頻度軸とで構成)上に作成し、類似単語が検出す
る毎にこの矩形を通過頻度軸方向に積み上げる。これに
より図4に示す通過頻度のグラフがRAM6上に形成さ
れる。このグラフの各時刻毎の使用頻度(通過頻度軸方
向のドット数)をしきい値と比較することで話題の境界
点時刻が検出される(ステップS400)。この境界点
時刻がRAM6上に記憶される(ステップS410)。
きる。
ージ処理で行う例を示したが、数値計算により各時刻毎
の通過頻度を求めてもよい。
発明によれば、文の音声認識を行う途中で単語等の認識
が可能となり、かつ、従来のように部分標準パターンを
手動で指示する必要がなくなる。
ンとして取り出すフレーム数を特定数以上とすることで
文字についての認識を省略し単語単位での認識が可能と
なる。
の節約が図れる。
音声パターンから作成することにより一定長さの入力音
声パターンに含まれる複数の同一の単語等の部分文が部
分音声の認識結果として得られる。これにより繰り返し
使用される単語等を重要キーワードとして取得できる。
メモリ等を用いることができメモリ容量の節約が図れ
る。
認識結果が1つに合成されるので、その内容は音声の要
約あるいはキーワード群として取扱うことができる。
生出力することにより送話者の要約を耳で確認すること
ができる。
目を自動検出できる。
方法を示す説明図である。
得する方法を示す説明図である。
ある。
めの説明図である。
チャートである。
る。
である。
である。
である。
Claims (9)
- 【請求項1】 入力音声信号から抽出した入力音声パタ
ーンと文の標準パターンとの間の距離計算を連続DP法
にしたがってフレーム単位で順次に実行し、当該得られ
たフレーム単位の距離計算結果を前記標準パターンの始
端位置から終端位置に向かって累積し、前記標準パター
ンの終端位置に対応する累積結果がしきい値よりも小さ
くなった場合に前記標準パターンを前記入力音声パター
ンの中の一部についての認識結果とする音声認識装置に
おいて、 前記標準パターンの始端位置と終端位置の間の各フレー
ム位置で、当該フレーム位置を部分標準パターンの終端
とみなし、該フレーム位置の累積結果と前記始端位置に
近いフレーム位置の各々の累積結果との差分値を計算す
る第1の演算処理手段と、 当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段とを具えたことを特徴と
する音声認識装置。 - 【請求項2】 前記部分標準パターンの終端から始端ま
でのフレーム数を特定数以上に制限することを特徴とす
る請求項1に記載の音声認識装置。 - 【請求項3】 入力音声信号から抽出した入力音声パタ
ーンと標準パターンとの間の距離計算を連続DP法にし
たがってフレーム単位で順次に音声認識装置において実
行し、当該得られたフレーム単位の距離計算結果を前記
標準パターンの始端位置から終端位置に向かって前記音
声認識装置内で累積し、前記標準パターンの終端位置に
対応する累積結果がしきい値よりも小さくなった場合に
前記標準パターンを前記入力音声パターンの中の一部に
ついての認識結果とする音声認識方法において、 前記標準パターンの始端位置と終端位置の間の各フレー
ム位置で、当該フレーム位置を部分標準パターンの終端
とみなし、該フレーム位置の累積結果と前記始端位置に
近いフレーム位置の各々の累積結果との差分値を前記音
声認識装置内で計算し、 当該計算された差分値の中の最小の差分値を前記音声認
識装置において検出し、 当該検出された最小の差分値に対応する部分標準パター
ンを前記入力音声パターンの中の部分音声パターンの認
識結果として音声認識装置から出力することを特徴とす
る音声認識方法。 - 【請求項4】 前記部分標準パターンの終端から始端ま
でのフレーム数を特定数以上に制限することを特徴とす
る請求項3に記載の音声認識方法。 - 【請求項5】 入力音声信号から抽出した入力音声パタ
ーンと文の標準パターンとの間の距離計算を連続DP法
にしたがってフレーム単位で順次に実行し、当該得られ
たフレーム単位の距離計算結果を前記標準パターンの始
端位置から終端位置に向かって累積し、前記標準パター
ンの終端位置に対応する累積結果がしきい値よりも小さ
くなった場合に前記標準パターンを前記入力音声パター
ンの中の一部についての認識結果とする音声認識装置に
おいて、 前記標準パターンの始端位置と終端位置の間の各フレー
ム位置で、当該フレーム位置を部分標準パターンの終端
とみなし、該フレーム位置の累積結果と前記始端位置に
近いフレーム位置の各々の累積結果との差分値を計算す
る第1の演算処理手段と、 当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段とを具え、前記標準パタ
ーンを現時点から前の時点に向って一定の長さWの入力
音声パターンとすることを特徴とする音声認識装置。 - 【請求項6】 前記一定の長さWの入力音声パターンを
記憶するバッファを有し、フレーム単位の新しい入力音
声パターンが得られる毎に当該新しい入力パターン1フ
レームを前記バッファに累積すると共に、当該バッファ
の最も古い入力パターン1フレームを前記バッファから
消去することを特徴とする請求項5に記載の音声認識装
置。 - 【請求項7】 入力音声信号から抽出した入力音声パタ
ーンと文の標準パターンとの間の距離計算を連続DP法
にしたがってフレーム単位で順次に実行し、当該得られ
たフレーム単位の距離計算結果を前記標準パターンの始
端位置から終端位置に向かって累積し、前記標準パター
ンの終端位置に対応する累積結果がしきい値よりも小さ
くなった場合に前記標準パターンを前記入力音声パター
ンの中の一部についての認識結果とする音声認識装置に
おいて、 前記標準パターンの始端位置と終端位置の間の各フレー
ム位置で、当該フレーム位置を部分標準パターンの終端
とみなし、該フレーム位置の累積結果と前記始端位置に
近いフレーム位置の各々の累積結果との差分値を計算す
る第1の演算処理手段と、 当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段とを具え、当該定められ
た部分音声パターンの認識結果複数について、時系列順
に隙間および重複なく合成することを特徴とする音声認
識装置。 - 【請求項8】 合成された前記認識結果複数を音声で再
生出力することを特徴とする請求項7に記載の音声認識
装置。 - 【請求項9】 入力音声信号から抽出した入力音声パタ
ーンと文の標準パターンとの間の距離計算を連続DP法
にしたがってフレーム単位で順次に実行し、当該得られ
たフレーム単位の距離計算結果を前記標準パターンの始
端位置から終端位置に向かって累積し、前記標準パター
ンの終端位置に対応する累積結果がしきい値よりも小さ
くなった場合に前記標準パターンを前記入力音声パター
ンの中の一部についての認識結果とする音声認識装置に
おいて、 前記標準パターンの始端位置と終端位置の間の各フレー
ム位置で、当該フレーム位置を部分標準パターンの終端
とみなし、該フレーム位置の累積結果と前記始端位置に
近いフレーム位置の各々の累積結果との差分値を計算す
る第1の演算処理手段と、 当該計算された差分値の中の最小の差分値を検出し、当
該検出された最小の差分値に対応する部分標準パターン
を前記入力音声パターンの中の部分音声パターンの認識
結果とする第2の演算処理手段と、 前記部分音声パターンの認識結果についてその時間軸上
の通過頻度を計数する計数手段と、 当該計数した通過頻度がしきい値以下となる時点を検出
し、話題の境界位置と定める境界位置検出手段とを具え
たことを特徴とする音声認識装置。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15653995A JP3576272B2 (ja) | 1995-06-22 | 1995-06-22 | 音声認識装置および方法 |
US08/665,502 US5799275A (en) | 1995-06-22 | 1996-06-18 | Speech recognizing device and method assuming a current frame is an end point of a current reference pattern |
EP96304619A EP0750294B1 (en) | 1995-06-22 | 1996-06-21 | Speech recognizing device and method |
DE69620304T DE69620304T2 (de) | 1995-06-22 | 1996-06-21 | Vorrichtung und Verfahren zur Spracherkennung |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15653995A JP3576272B2 (ja) | 1995-06-22 | 1995-06-22 | 音声認識装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH096385A true JPH096385A (ja) | 1997-01-10 |
JP3576272B2 JP3576272B2 (ja) | 2004-10-13 |
Family
ID=15630012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15653995A Expired - Fee Related JP3576272B2 (ja) | 1995-06-22 | 1995-06-22 | 音声認識装置および方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US5799275A (ja) |
EP (1) | EP0750294B1 (ja) |
JP (1) | JP3576272B2 (ja) |
DE (1) | DE69620304T2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005315595A (ja) * | 2004-04-27 | 2005-11-10 | Nissan Motor Co Ltd | 異音発生源特定装置及び異音発生源特定方法 |
JP2005327006A (ja) * | 2004-05-13 | 2005-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 情報フィルタリング装置及び方法 |
US7653541B2 (en) | 2002-11-21 | 2010-01-26 | Sony Corporation | Speech processing device and method, and program for recognition of out-of-vocabulary words in continuous speech |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1006507A1 (de) * | 1998-11-27 | 2000-06-07 | Ascom Systec AG | Verfahren zur Durchführung einer Sprechererkennung |
EP1006508A1 (de) * | 1998-11-27 | 2000-06-07 | Ascom Systec AG | Verfahren zur Ueberprüfung einer Benutzerberechtigung |
US6195636B1 (en) * | 1999-02-19 | 2001-02-27 | Texas Instruments Incorporated | Speech recognition over packet networks |
DE10305821A1 (de) * | 2003-02-12 | 2004-09-02 | Infineon Technologies Ag | Verfahren und Vorrichtung zum Vergleichen einer Vielzahl von Eingangsvektoren mit m Referenzvektoren, Computerprogramm-Element und Computerlesbares Speichermedium |
US8583439B1 (en) * | 2004-01-12 | 2013-11-12 | Verizon Services Corp. | Enhanced interface for use with speech recognition |
US8255216B2 (en) | 2006-10-30 | 2012-08-28 | Nuance Communications, Inc. | Speech recognition of character sequences |
JP5467043B2 (ja) * | 2008-06-06 | 2014-04-09 | 株式会社レイトロン | 音声認識装置、音声認識方法および電子機器 |
KR102676221B1 (ko) | 2017-10-23 | 2024-06-19 | 삼성전자주식회사 | 음성 인식 방법 및 장치 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB1557286A (en) * | 1975-10-31 | 1979-12-05 | Nippon Electric Co | Speech recognition |
JPS5529803A (en) * | 1978-07-18 | 1980-03-03 | Nippon Electric Co | Continuous voice discriminating device |
JPS60179797A (ja) * | 1983-10-27 | 1985-09-13 | 日本電気株式会社 | パタンマツチング装置 |
JPS60211498A (ja) * | 1984-04-05 | 1985-10-23 | 日本電気株式会社 | 連続音声認識装置 |
US4783809A (en) * | 1984-11-07 | 1988-11-08 | American Telephone And Telegraph Company, At&T Bell Laboratories | Automatic speech recognizer for real time operation |
JPS62169199A (ja) * | 1986-01-22 | 1987-07-25 | 株式会社デンソー | 音声認識装置 |
JPS62187897A (ja) * | 1986-02-14 | 1987-08-17 | 日本電気株式会社 | 連続音声認識装置 |
CA1335001C (en) * | 1987-03-16 | 1995-03-28 | Hiroaki Sakoe | Pattern matching system |
JP2870224B2 (ja) * | 1991-06-19 | 1999-03-17 | 松下電器産業株式会社 | 音声認識方法 |
JPH06161488A (ja) * | 1992-11-17 | 1994-06-07 | Ricoh Co Ltd | 音声認識装置 |
-
1995
- 1995-06-22 JP JP15653995A patent/JP3576272B2/ja not_active Expired - Fee Related
-
1996
- 1996-06-18 US US08/665,502 patent/US5799275A/en not_active Expired - Lifetime
- 1996-06-21 DE DE69620304T patent/DE69620304T2/de not_active Expired - Lifetime
- 1996-06-21 EP EP96304619A patent/EP0750294B1/en not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7653541B2 (en) | 2002-11-21 | 2010-01-26 | Sony Corporation | Speech processing device and method, and program for recognition of out-of-vocabulary words in continuous speech |
JP2005315595A (ja) * | 2004-04-27 | 2005-11-10 | Nissan Motor Co Ltd | 異音発生源特定装置及び異音発生源特定方法 |
JP2005327006A (ja) * | 2004-05-13 | 2005-11-24 | Nippon Telegr & Teleph Corp <Ntt> | 情報フィルタリング装置及び方法 |
Also Published As
Publication number | Publication date |
---|---|
US5799275A (en) | 1998-08-25 |
EP0750294B1 (en) | 2002-04-03 |
DE69620304T2 (de) | 2002-11-07 |
EP0750294A3 (en) | 1998-04-29 |
DE69620304D1 (de) | 2002-05-08 |
EP0750294A2 (en) | 1996-12-27 |
JP3576272B2 (ja) | 2004-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6326490B2 (ja) | 録取された音声データに対する核心語の取出に基づく発話内容の把握システムと、このシステムを用いたインデクシング方法及び発話内容の把握方法 | |
US8311832B2 (en) | Hybrid-captioning system | |
US8380502B1 (en) | Voice interface for a search engine | |
KR100828884B1 (ko) | 데이터베이스 주석 및 검색 | |
JP5142769B2 (ja) | 音声データ検索システム及び音声データの検索方法 | |
JP3834169B2 (ja) | 連続音声認識装置および記録媒体 | |
JPWO2005069171A1 (ja) | 文書対応付け装置、および文書対応付け方法 | |
JPWO2008114811A1 (ja) | 情報検索システム、情報検索方法及び情報検索用プログラム | |
JPH02719B2 (ja) | ||
JP3576272B2 (ja) | 音声認識装置および方法 | |
CN1365488A (zh) | 语音识别方法和装置以及记录介质 | |
JP2023081946A (ja) | 学習装置、自動採譜装置、学習方法、自動採譜方法及びプログラム | |
JP2003255992A (ja) | 対話システムおよびその制御方法 | |
JPWO2009122779A1 (ja) | テキストデータ処理装置、方法、プログラム | |
JP2004343488A (ja) | 字幕挿入方法、字幕挿入システム、および字幕挿入プログラム | |
JP2007072331A (ja) | 音声対話方法および音声対話システム | |
CN113782050B (zh) | 声音变调方法、电子设备及存储介质 | |
JP5196114B2 (ja) | 音声認識装置およびプログラム | |
Fuchs et al. | Cnn-based spoken term detection and localization without dynamic programming | |
JPH10187181A (ja) | 音声認識装置 | |
JP4199927B2 (ja) | 発声言語における少なくとも1つのキーワードを計算器により認識する方法および認識装置 | |
JP2004145161A (ja) | 音声データベース登録処理方法,音声発生源認識方法,音声発生区間検索方法,音声データベース登録処理装置,音声発生源認識装置,音声発生区間検索装置,並びにそのプログラムおよびそのプログラムの記録媒体 | |
JP4877112B2 (ja) | 音声処理装置およびプログラム | |
CN115050393B (zh) | 获取回听音频的方法、装置、设备及存储介质 | |
WO2011030424A1 (ja) | 音声合成装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20040622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20040707 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070716 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080716 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090716 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100716 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110716 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120716 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |