JPS5842098A - 音声認識装置 - Google Patents
音声認識装置Info
- Publication number
- JPS5842098A JPS5842098A JP56140525A JP14052581A JPS5842098A JP S5842098 A JPS5842098 A JP S5842098A JP 56140525 A JP56140525 A JP 56140525A JP 14052581 A JP14052581 A JP 14052581A JP S5842098 A JPS5842098 A JP S5842098A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- pattern
- associative
- monosyllable
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims description 39
- 230000015654 memory Effects 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 21
- 108010076504 Protein Sorting Signals Proteins 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 description 17
- 238000010586 diagram Methods 0.000 description 3
- 238000012937 correction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/15—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being formant information
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Document Processing Apparatus (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
- Train Traffic Observation, Control, And Security (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
本発明は音声認識方式の改良に関し、特に入力された単
語等の音声を認識する音声認識方式に関するものである
。
語等の音声を認識する音声認識方式に関するものである
。
一般に入力された単語等音声を認識する場合、人力され
・たQt語等の音声情報を例えば音響処理して単音節音
声毎の特徴ベクトル人カバターンを得ると共に、この入
カバターンと予め記憶されていル単音m Tit 声標
準パターンをパターンマツチング法等により照合し、入
力された音声情報を単音節列として認識し、この認識さ
れた単音節列と単語等辞書の内容とを照合して入力され
た音声に対する゛単語を認識している。
・たQt語等の音声情報を例えば音響処理して単音節音
声毎の特徴ベクトル人カバターンを得ると共に、この入
カバターンと予め記憶されていル単音m Tit 声標
準パターンをパターンマツチング法等により照合し、入
力された音声情報を単音節列として認識し、この認識さ
れた単音節列と単語等辞書の内容とを照合して入力され
た音声に対する゛単語を認識している。
しかし、このような方法によれば、単音筋入カバターン
と単音節音声標準パターンとの照合に際し、ある程度の
あいまいさがあり、例えば「5月晴れ1に対する音声入
力が単音節列「/SA/TU/に工/PA/RE/J
’(第1候補)と認識される場合が多々あり、単語等の
認識率が低くなっていた。また単音筋入カバターンと単
音節音声標準パターンとの照合に際し、ある程度候補を
多く、例えば第4の単音節の認識候補としてPA、TA
。
と単音節音声標準パターンとの照合に際し、ある程度の
あいまいさがあり、例えば「5月晴れ1に対する音声入
力が単音節列「/SA/TU/に工/PA/RE/J
’(第1候補)と認識される場合が多々あり、単語等の
認識率が低くなっていた。また単音筋入カバターンと単
音節音声標準パターンとの照合に際し、ある程度候補を
多く、例えば第4の単音節の認識候補としてPA、TA
。
A、BA等が得られる場合、このそれぞれの単音節列と
単語等辞書との照合を行なって単語等の認識率をある程
度高めることが出来るが、照合時ff[が良くなり、ま
た誤認識が多くなる問題点がちった。
単語等辞書との照合を行なって単語等の認識率をある程
度高めることが出来るが、照合時ff[が良くなり、ま
た誤認識が多くなる問題点がちった。
本発明は」二記諸(天に鑑みて成されたものであり、?
1語等の音声認識腎おいて、アソシアトロンの連想記憶
モデルに括く連想処理により辞書照合を行なうように成
してtll、語等の認識率及び認識処理時間を改善した
音声Hp識方式を提供することを目的とし、この目的を
達成するため、本発明は、人力された音声を音響処理し
て第1の単音節列等の認識信号列を得る認識手段と、こ
の認識手段により得られた上記の第1の認識−信号列を
アソシアトロンの連想記憶モデルに基く連想処理を行な
い修正された第2の単音節列等の認識信号列を得る連想
1処理手段と、この連想処理手段により得られた上記の
第2の認識信号列と照合される単語等辞書を備え、この
照合結果により上記入力された音声に対応する単語等を
認識するように成されている。。
1語等の音声認識腎おいて、アソシアトロンの連想記憶
モデルに括く連想処理により辞書照合を行なうように成
してtll、語等の認識率及び認識処理時間を改善した
音声Hp識方式を提供することを目的とし、この目的を
達成するため、本発明は、人力された音声を音響処理し
て第1の単音節列等の認識信号列を得る認識手段と、こ
の認識手段により得られた上記の第1の認識−信号列を
アソシアトロンの連想記憶モデルに基く連想処理を行な
い修正された第2の単音節列等の認識信号列を得る連想
1処理手段と、この連想処理手段により得られた上記の
第2の認識信号列と照合される単語等辞書を備え、この
照合結果により上記入力された音声に対応する単語等を
認識するように成されている。。
以下、本発明の実施例VC″)いて詳細に説明する。
まず本発明の詳細な説明に先ケち、本発明の音声認識方
式に用いられる連想記憶モデルとその処理原理について
説明する。
式に用いられる連想記憶モデルとその処理原理について
説明する。
アソシアトロンの連想記憶モデルは自己想起型の分゛散
型多重連憇記憶であり、欠けた或いは変形したあいまい
な入カバターンに対し、最も相関の強い記憶パターンを
出力するのがこのアソシアトロンの連想記憶モデルの基
本的な特性である。
型多重連憇記憶であり、欠けた或いは変形したあいまい
な入カバターンに対し、最も相関の強い記憶パターンを
出力するのがこのアソシアトロンの連想記憶モデルの基
本的な特性である。
このアソシアトロンの連想記憶モデルにおけるパターン
の記憶及び想起の原理は下記の5つの式%式% (なお以下肉太の文字はベクトルを表わす)−パター”
Xk =(Xkl+ xkz・””kl+””Xk
L )+T:転置 −・・・・・・(1)成分
X keは、1,0.−1(7)8値を′!″6・
、 記 憶(K個);M=1mij)=、E’ Mk−・
川・・−・−・(2)k=1 Mk=Xk−Xk ・・・・山・・・旧・・・・−(3
)懇 起 ; Z−φ(M−Y〕・・萌・・・・・・
・・・(4)但しYは入力、Zは想起パター ンである。
の記憶及び想起の原理は下記の5つの式%式% (なお以下肉太の文字はベクトルを表わす)−パター”
Xk =(Xkl+ xkz・””kl+””Xk
L )+T:転置 −・・・・・・(1)成分
X keは、1,0.−1(7)8値を′!″6・
、 記 憶(K個);M=1mij)=、E’ Mk−・
川・・−・−・(2)k=1 Mk=Xk−Xk ・・・・山・・・旧・・・・−(3
)懇 起 ; Z−φ(M−Y〕・・萌・・・・・・
・・・(4)但しYは入力、Zは想起パター ンである。
1−記憶(1)に示されたパターンXkは、成分Xk。
が1.0.−1の3値をとる語長りの列ベクl−/しで
ある。また記憶は式(2)及び(3)ニ従ってパターン
X の相関行列Mkの多重行列Mとして行なう。
ある。また記憶は式(2)及び(3)ニ従ってパターン
X の相関行列Mkの多重行列Mとして行なう。
一方入カバターンYに対して式(4)原び(5)に従っ
て入カバターンYと記憶行列Mとの行列演算によって想
起パターンZを想起する。但し、この想起パターンZの
各成分は式(5)に従って量子化される。
て入カバターンYと記憶行列Mとの行列演算によって想
起パターンZを想起する。但し、この想起パターンZの
各成分は式(5)に従って量子化される。
以Eがアソシアトロンの連想記憶モデルにおけるパター
ンの記憶及び想起の原理であるが、このアソシアトロン
の記憶及び想起の簡単な例を第1図乃至第3図に示す。
ンの記憶及び想起の原理であるが、このアソシアトロン
の記憶及び想起の簡単な例を第1図乃至第3図に示す。
なお、この例では記憶行列Mは各成分m1.1を式(5
)で量子化している。
)で量子化している。
第1図は標準パターンXにおいてL=9.に−3とした
場合の3つのパターンxle’ )(2,x3It示し
、また図中@は“19口は“−ビ、1]は“0′を表わ
している。
場合の3つのパターンxle’ )(2,x3It示し
、また図中@は“19口は“−ビ、1]は“0′を表わ
している。
この第1図に示された3つのパターンX” + 、 X
2+x3 は式I2)及び(3)によって処理され
、第2図に示す相関行列Mとして記憶される。一方第3
図(5)。
2+x3 は式I2)及び(3)によって処理され
、第2図に示す相関行列Mとして記憶される。一方第3
図(5)。
(b)、’(c)に示す入カバターンY(YYY)A’
BI C に対し式(4)及び(5)によって記憶マトリックスM
との間で演算処理し、その結果として第3図(d)。
BI C に対し式(4)及び(5)によって記憶マトリックスM
との間で演算処理し、その結果として第3図(d)。
(e)、 (f’)に示すパターンZ(ZA、ZB、Z
c)を想起することになる。
c)を想起することになる。
の処理が行なわれてパターンZが入カバターンYより想
起される。
起される。
以上のようにしてあいまいな入カバターンY(YA、Y
Rは欠けたパターンでありYcは変形したパターンであ
る)に対し、この入カバターンYに最も相関の強い記憶
パターンが想起される。
Rは欠けたパターンでありYcは変形したパターンであ
る)に対し、この入カバターンYに最も相関の強い記憶
パターンが想起される。
本発明は、このようなアソシアトロンの連想記憶モデ)
vにおけるパターン修正原理、特に変形したパターンを
修正する特性を音声認識の辞書照合に適用するものであ
り、音響的に類似度の高い音声に対1〜で強い相関を与
えるようにパターンを作成することにより、」−記の連
想処理を可能としたものである。
vにおけるパターン修正原理、特に変形したパターンを
修正する特性を音声認識の辞書照合に適用するものであ
り、音響的に類似度の高い音声に対1〜で強い相関を与
えるようにパターンを作成することにより、」−記の連
想処理を可能としたものである。
次に本発明の一実施例を説明する。
第4図はli音節音声標準パターンを用いた音7i4認
識の辞書照合部に上記の連想記憶モデ/I/に枯く連想
処理を適用した装置の処理ブロック図である。
識の辞書照合部に上記の連想記憶モデ/I/に枯く連想
処理を適用した装置の処理ブロック図である。
第4図において、入力端子lに加えられた(lt語音声
信号は単音節認識部2に入力され名。該中r″1節認識
部2は従来公知のものであり、例えば入力端子1に加え
られた単語音声信号が音響処理部3により単音節毎に特
徴抽出処理が行なわれ、各1i音節毎の特徴パターンが
バッファメモリ4に一時記憶される。一方記憶装置5に
は各単音節mの標準パターンPi(i=1〜102)が
記憶されており、この標準パターンP1が順次記憶制御
装置6により読み出されてバッファメモリ7に一時記憶
される。次いで前記のバッファメモリ4に記憶された入
力音声の!!4音節入力特徴パターンとバッファメモリ
7に記憶された標準中音節の特徴バタ、−ンがマ′ンチ
ンクd1算手段に加えられ、マツチング計算が行なわれ
、同様の動作が繰返されて最も近似したものが、第1候
補として、また順次近似したものが次候補として選出さ
れその結果が記憶手段9に第1の単音節認識信号列とし
て記憶される。
信号は単音節認識部2に入力され名。該中r″1節認識
部2は従来公知のものであり、例えば入力端子1に加え
られた単語音声信号が音響処理部3により単音節毎に特
徴抽出処理が行なわれ、各1i音節毎の特徴パターンが
バッファメモリ4に一時記憶される。一方記憶装置5に
は各単音節mの標準パターンPi(i=1〜102)が
記憶されており、この標準パターンP1が順次記憶制御
装置6により読み出されてバッファメモリ7に一時記憶
される。次いで前記のバッファメモリ4に記憶された入
力音声の!!4音節入力特徴パターンとバッファメモリ
7に記憶された標準中音節の特徴バタ、−ンがマ′ンチ
ンクd1算手段に加えられ、マツチング計算が行なわれ
、同様の動作が繰返されて最も近似したものが、第1候
補として、また順次近似したものが次候補として選出さ
れその結果が記憶手段9に第1の単音節認識信号列とし
て記憶される。
上記単音節認識部2において認識された第1の単音節認
識信号列を記憶している記憶手段9の内容は候補選択手
段10を介して連想記憶部11A及び想起処理部JIB
より成る連想処理部11に入力され、この連想処理部1
1により第1の単音節認識信号列が修正され、そお結果
が第2の単音節認識信号列として出力されて記憶手段1
2に一時記憶される。この記憶手段12に記憶された第
2の91音節認識信号列と単語辞書記憶手段13の内容
が参照手段14により参照され、一致すればその結果が
出力部15に出力され、不一致の場合には候補選択手段
10を動作させて記憶手段9に記憶されている次候補の
第1の単音節認識信号列を連想処理部11に入力するよ
うに構成されている。
識信号列を記憶している記憶手段9の内容は候補選択手
段10を介して連想記憶部11A及び想起処理部JIB
より成る連想処理部11に入力され、この連想処理部1
1により第1の単音節認識信号列が修正され、そお結果
が第2の単音節認識信号列として出力されて記憶手段1
2に一時記憶される。この記憶手段12に記憶された第
2の91音節認識信号列と単語辞書記憶手段13の内容
が参照手段14により参照され、一致すればその結果が
出力部15に出力され、不一致の場合には候補選択手段
10を動作させて記憶手段9に記憶されている次候補の
第1の単音節認識信号列を連想処理部11に入力するよ
うに構成されている。
」二記連想処理部11は記憶手段16を有しており、該
記憶部“段16には前記したアソシアトロンの連想記憶
モデルに従って以下に述べる方法により作成された単語
辞書記憶手段13に対応した記憶行列Mが記憶されてお
り、この記憶行列Mに従って入力される第1の単音節信
号列から第2の単音節信号列を想起して出力する。
記憶部“段16には前記したアソシアトロンの連想記憶
モデルに従って以下に述べる方法により作成された単語
辞書記憶手段13に対応した記憶行列Mが記憶されてお
り、この記憶行列Mに従って入力される第1の単音節信
号列から第2の単音節信号列を想起して出力する。
次に記憶行列Mの作成方法について説明する。
まず記憶装置5に記憶され、記憶制御装置6を介して読
出された単音節禰準パターンP1はこの単吾節標準パタ
ーンP−,の相対距離分布を基にした“1″、“−1”
の2値を成分とする語長LS−32の符号5i(i=
lγ102)に変換されてメモリー7に記憶されている
。
出された単音節禰準パターンP1はこの単吾節標準パタ
ーンP−,の相対距離分布を基にした“1″、“−1”
の2値を成分とする語長LS−32の符号5i(i=
lγ102)に変換されてメモリー7に記憶されている
。
この単音節符号S1は単音節音声標準パターンP・ の
相対距離行列D((1,jl、(dijはi弔■ 音節とj単音節の距離)に基いて、次の方法で中音節を
語長L S = 32の符号に符号化されていム即ち最
長7v巨離法による階す的クラスタリングで102の単
音節(あ〜ん、及びが〜びょ)を31クラスターに区分
し、各クラスターに“1゛、““−1“ の2値を成分
とする語長32の直交符号を割当てる。また各直交符号
を中心にハミング距離半径2Q円周上に在りかつ相互相
関距離が4になる符号を同じクラスター内の各単音節に
与えてi単音節の符号S1を得る。このように単音節の
符°号S1を作成することにより同一クラスター内に在
る符号の相互相関距離、即ちハミング距離は4であり、
一方クラスター間に在る符号の相互ハミング距離は少く
とも12となる。
相対距離行列D((1,jl、(dijはi弔■ 音節とj単音節の距離)に基いて、次の方法で中音節を
語長L S = 32の符号に符号化されていム即ち最
長7v巨離法による階す的クラスタリングで102の単
音節(あ〜ん、及びが〜びょ)を31クラスターに区分
し、各クラスターに“1゛、““−1“ の2値を成分
とする語長32の直交符号を割当てる。また各直交符号
を中心にハミング距離半径2Q円周上に在りかつ相互相
関距離が4になる符号を同じクラスター内の各単音節に
与えてi単音節の符号S1を得る。このように単音節の
符°号S1を作成することにより同一クラスター内に在
る符号の相互相関距離、即ちハミング距離は4であり、
一方クラスター間に在る符号の相互ハミング距離は少く
とも12となる。
ことで上記階層的クラスタリング法とは、1階饗で、最
小距離を与えるカテゴリx、y2同一クラスターに併合
するとき、他のカテゴリZとの距離d((x、、ylZ
)を d−(Cx、 V)、 Z)=rr+t〆(d(x、
Z)、 d(Y、 z) )−(7)で定義する方法で
あり、またハミング距離とは2つの符号 a : (aIn a2+ ”’* an) r b
;−(bIn 62m ”’*b )の距離dHを で定義したときの距離である。
小距離を与えるカテゴリx、y2同一クラスターに併合
するとき、他のカテゴリZとの距離d((x、、ylZ
)を d−(Cx、 V)、 Z)=rr+t〆(d(x、
Z)、 d(Y、 z) )−(7)で定義する方法で
あり、またハミング距離とは2つの符号 a : (aIn a2+ ”’* an) r b
;−(bIn 62m ”’*b )の距離dHを で定義したときの距離である。
ト記連恕記憶部11Aにおいて18は単語辞書記憶手段
13の記憶内容を符号si による単語パターンに変換
する符号化処理手段であり、この符号化処理手段18に
より符号S1による単語パターンXkが作成される。こ
の単語パターンXkは単語辞書記憶手段13に記憶され
た単語の最大単音節数N=5として Xk−(A+ + A2r ”’+ Ane ”;AN
、A1 、 A2. ・=、 An。
13の記憶内容を符号si による単語パターンに変換
する符号化処理手段であり、この符号化処理手段18に
より符号S1による単語パターンXkが作成される。こ
の単語パターンXkは単語辞書記憶手段13に記憶され
た単語の最大単音節数N=5として Xk−(A+ + A2r ”’+ Ane ”;AN
、A1 、 A2. ・=、 An。
・・−ANI ・・・・・・・・・・・・・・・・
・・・・・・・曲・・・・・曲・叩・(6)の如く構成
される。
・・・・・・・曲・・・・・曲・叩・(6)の如く構成
される。
ここでAnは第n音節の単音節符号を表わし、Anii
:Anの反転符号を表わしている。但し、空の音節部は
成分0で構成するように成されている。
:Anの反転符号を表わしている。但し、空の音節部は
成分0で構成するように成されている。
従って単語パターンXkは成分1.−1の出現頻度が等
しい語長L=LS −N・2=320の列ベクトルで表
現されることになる。
しい語長L=LS −N・2=320の列ベクトルで表
現されることになる。
上記の′様にして符号化処理手段18によって単語辞書
記憶手段13に記憶された辞書の単語は単語パターンX
kに変換された後、相関演算・行列多重化処理手段19
に入力され、該相関演算・行列多重化処理手段19によ
り上記した式(3)に従って自己相関演算が施され、更
に上記した式(2)に従って各単語に対応した相関行列
を多重して記憶行列間が作成され、このようにして作成
された記憶行列Vが記憶手段16に単語情報として記憶
されている。
記憶手段13に記憶された辞書の単語は単語パターンX
kに変換された後、相関演算・行列多重化処理手段19
に入力され、該相関演算・行列多重化処理手段19によ
り上記した式(3)に従って自己相関演算が施され、更
に上記した式(2)に従って各単語に対応した相関行列
を多重して記憶行列間が作成され、このようにして作成
された記憶行列Vが記憶手段16に単語情報として記憶
されている。
一方連想処理部+1の想起処理部11Bは音響処理油3
を含む単音節認識部2により出力される単音節認識信号
列を符号化処理手段20によって符号S1による入力単
語パターンYに変換し7、行列演算部21において上記
した式(4)及び(5)に従って記憶手段16に記憶さ
れている記憶行列0Mとの。
を含む単音節認識部2により出力される単音節認識信号
列を符号化処理手段20によって符号S1による入力単
語パターンYに変換し7、行列演算部21において上記
した式(4)及び(5)に従って記憶手段16に記憶さ
れている記憶行列0Mとの。
間で行列演算が実行されて修正された単語パターン2が
想起される。このように想起された単語パターンZは復
号化手段22により、単語辞書記憶手段13に記憶され
ている情報と同一のコード体系の単音節信号列に変換さ
れて想起単音節列(第2の単音節列)として出力され、
記憶手段12に一時記憶される。この記憶手段12に記
憶された想起単音節列は、E述した様に参照手段14に
より単語辞書記憶手段13の記憶内容との間で辞書参照
が打なわれ、一致したものが参照されればその結果が出
力部15に出力される。
想起される。このように想起された単語パターンZは復
号化手段22により、単語辞書記憶手段13に記憶され
ている情報と同一のコード体系の単音節信号列に変換さ
れて想起単音節列(第2の単音節列)として出力され、
記憶手段12に一時記憶される。この記憶手段12に記
憶された想起単音節列は、E述した様に参照手段14に
より単語辞書記憶手段13の記憶内容との間で辞書参照
が打なわれ、一致したものが参照されればその結果が出
力部15に出力される。
上記の如き装置により単語音声の認識実験を行なった結
果、本発明による連想処理によってリジェクト率が改善
されることが確認された。
果、本発明による連想処理によってリジェクト率が改善
されることが確認された。
即ち対象単語として読本難い漢字語句50単語(最大単
音節数5.平均3.2)について男性話者3名が各10
回、単音節の離散発声で、いづれも2秒以内に発声した
合計1500個の単語音声を音声試料として用いると共
に、表1に示す単音節認識方式で認識された単音節候補
に対し、(1)、第1候補の単音節列を辞書照合した方
法(II)、候補順に単音節列を辞書照合した方法(I
ll)、(−II)に本発明の連想処理を施して辞書照
合した方法 の3方法′で認識実験を行なった結果、表2に示すよう
な結果が得られた。
音節数5.平均3.2)について男性話者3名が各10
回、単音節の離散発声で、いづれも2秒以内に発声した
合計1500個の単語音声を音声試料として用いると共
に、表1に示す単音節認識方式で認識された単音節候補
に対し、(1)、第1候補の単音節列を辞書照合した方
法(II)、候補順に単音節列を辞書照合した方法(I
ll)、(−II)に本発明の連想処理を施して辞書照
合した方法 の3方法′で認識実験を行なった結果、表2に示すよう
な結果が得られた。
正答率形
(エラー率%)
本表記以外は、リジェクト
表2.単語音声認識結果
−に記憶2に示す結果より上記3方法を比較すると(I
I)は(1)より平均36.9形、(II+)は(II
)より平均13.5%!Jジエクト率が改善されている
。
I)は(1)より平均36.9形、(II+)は(II
)より平均13.5%!Jジエクト率が改善されている
。
即ち、本発明(■の方法)によれば、例えば「五月晴れ
」という音声入力に対する単音節認識結果の第1候補「
SA」 「TU」「K■」 「PAl[REJに対して
本連想処理により単語辞書記憶手段13に記憶さKてい
る「五月晴れ」に対応【−たrSATUKよりAREJ
が想起され、従来の方法に比べてリジェクト率及び認
識速度が改善される結果が得られた。
」という音声入力に対する単音節認識結果の第1候補「
SA」 「TU」「K■」 「PAl[REJに対して
本連想処理により単語辞書記憶手段13に記憶さKてい
る「五月晴れ」に対応【−たrSATUKよりAREJ
が想起され、従来の方法に比べてリジェクト率及び認
識速度が改善される結果が得られた。
なお2法において候補単音節列は、単音節認識の照合距
離qmn (第n音節の第m候補tli音節の照合距離
)の和が小さい組合せ n の順に選定されたものが用いられた。
離qmn (第n音節の第m候補tli音節の照合距離
)の和が小さい組合せ n の順に選定されたものが用いられた。
以上述べた様に本発明の音声認識方式における連想処理
を施すことにより単語等の辞書内容に沿って認識情れた
単音節列が有効に修正されるため認識率及び認識処理時
間が改善される等の優れた効果が生じる。
を施すことにより単語等の辞書内容に沿って認識情れた
単音節列が有効に修正されるため認識率及び認識処理時
間が改善される等の優れた効果が生じる。
なお本発明に用いた連想記憶モデルは記憶が多重である
ため、記憶する語い数が増加すれば記憶内容がぼやけ記
憶容量に限度があるが、少数の音声標準パターンを装置
に登録するだけで、話題毎に°記憶・連想処理を行うこ
とが出来るという優れた利点があり、また単音節の距離
分布に基く、より最適な符号化によって、その修正能力
をより向上させることも可能であり、大語いの単語音声
認識に用いてより有効である。
ため、記憶する語い数が増加すれば記憶内容がぼやけ記
憶容量に限度があるが、少数の音声標準パターンを装置
に登録するだけで、話題毎に°記憶・連想処理を行うこ
とが出来るという優れた利点があり、また単音節の距離
分布に基く、より最適な符号化によって、その修正能力
をより向上させることも可能であり、大語いの単語音声
認識に用いてより有効である。
なお本発明の実施例において連想処理は単音節r′f声
標準標準パターンいた単語音声認識の辞書照合処理部に
適用した例を示したが、本発明はこれに限定されるもの
でなく、例えば音韻標準パターンを用いた単語音声認識
の辞書照合処理に用いても良く、また記憶行列Mを階1
的に構成し、文室弔位、更には話題単位で連想処理を行
っても良い。
標準標準パターンいた単語音声認識の辞書照合処理部に
適用した例を示したが、本発明はこれに限定されるもの
でなく、例えば音韻標準パターンを用いた単語音声認識
の辞書照合処理に用いても良く、また記憶行列Mを階1
的に構成し、文室弔位、更には話題単位で連想処理を行
っても良い。
第1図乃至第3図は本発明の音声認識方式に用いられる
アソシアトロンの連想記tflモデルによる連想処理過
程を示す説明図、第4図は本発明を用いた一実施例装置
の構成を示すブロック図である。 1・・・中語音戸■信号の入力される入力端子、2・・
・tg音節認識部、 訃・・音W憔理部、 5・・・単音節標準パターン記憶装置、9・・・第1の
単音節知識信号列記憶手段、11・・・連想処理部、 12・・・第2の単音節認識信号列記憶i段13・・・
単語辞書記憶手段、 14・・・辞書参照手段 x’ xi’ r’ 〕・ /L61 ((:) (7)
アソシアトロンの連想記tflモデルによる連想処理過
程を示す説明図、第4図は本発明を用いた一実施例装置
の構成を示すブロック図である。 1・・・中語音戸■信号の入力される入力端子、2・・
・tg音節認識部、 訃・・音W憔理部、 5・・・単音節標準パターン記憶装置、9・・・第1の
単音節知識信号列記憶手段、11・・・連想処理部、 12・・・第2の単音節認識信号列記憶i段13・・・
単語辞書記憶手段、 14・・・辞書参照手段 x’ xi’ r’ 〕・ /L61 ((:) (7)
Claims (1)
- 1、 人力された音声を音響処理し第1の認識信号列を
得る認識手段と、該認識手段により得られた上記第1の
認識、信号列をアソシアトロンの連想記憶モデルに基く
連g処理を行ない修正された第2の認識信号列を得る連
想処理手段と、該連想処理手段により得られた上記第2
の認識信号列と照合される単語等辞書を備え、−F記照
合結果によりL記入力された音声に対応する単語等を認
識するように成したことを特徴とする音声認識方式。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56140525A JPS5842098A (ja) | 1981-09-04 | 1981-09-04 | 音声認識装置 |
DE8282304648T DE3273358D1 (en) | 1981-09-04 | 1982-09-03 | Recognition of speech or speech-like sounds using associative memory |
US06/414,956 US4581756A (en) | 1981-09-04 | 1982-09-03 | Recognition of speech or speech-like sounds using associative memory |
EP82304648A EP0074769B1 (en) | 1981-09-04 | 1982-09-03 | Recognition of speech or speech-like sounds using associative memory |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP56140525A JPS5842098A (ja) | 1981-09-04 | 1981-09-04 | 音声認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS5842098A true JPS5842098A (ja) | 1983-03-11 |
JPS6332397B2 JPS6332397B2 (ja) | 1988-06-29 |
Family
ID=15270690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP56140525A Granted JPS5842098A (ja) | 1981-09-04 | 1981-09-04 | 音声認識装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US4581756A (ja) |
EP (1) | EP0074769B1 (ja) |
JP (1) | JPS5842098A (ja) |
DE (1) | DE3273358D1 (ja) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4771401A (en) * | 1983-02-18 | 1988-09-13 | Houghton Mifflin Company | Apparatus and method for linguistic expression processing |
US4674066A (en) * | 1983-02-18 | 1987-06-16 | Houghton Mifflin Company | Textual database system using skeletonization and phonetic replacement to retrieve words matching or similar to query words |
US4783758A (en) * | 1985-02-05 | 1988-11-08 | Houghton Mifflin Company | Automated word substitution using numerical rankings of structural disparity between misspelled words & candidate substitution words |
US5129000A (en) * | 1986-04-05 | 1992-07-07 | Sharp Kabushiki Kaisha | Voice recognition method by analyzing syllables |
JPS62235998A (ja) * | 1986-04-05 | 1987-10-16 | シャープ株式会社 | 音節識別方式 |
US4980917A (en) * | 1987-11-18 | 1990-12-25 | Emerson & Stern Associates, Inc. | Method and apparatus for determining articulatory parameters from speech data |
JP2739945B2 (ja) * | 1987-12-24 | 1998-04-15 | 株式会社東芝 | 音声認識方法 |
EP0394515A1 (en) * | 1989-04-25 | 1990-10-31 | Ezel Inc. | Acoustic recognition system |
JP2570448B2 (ja) * | 1989-12-28 | 1997-01-08 | 日本電気株式会社 | 標準パターン学習方法 |
US5146502A (en) * | 1990-02-26 | 1992-09-08 | Davis, Van Nortwick & Company | Speech pattern correction device for deaf and voice-impaired |
US5208897A (en) * | 1990-08-21 | 1993-05-04 | Emerson & Stern Associates, Inc. | Method and apparatus for speech recognition based on subsyllable spellings |
US5222188A (en) * | 1990-08-21 | 1993-06-22 | Emerson & Stern Associates, Inc. | Method and apparatus for speech recognition based on subsyllable spellings |
EP0859332A1 (en) * | 1997-02-12 | 1998-08-19 | STMicroelectronics S.r.l. | Word recognition device and method |
US6375467B1 (en) * | 2000-05-22 | 2002-04-23 | Sonia Grant | Sound comprehending and recognizing system |
US11691076B2 (en) | 2020-08-10 | 2023-07-04 | Jocelyn Tan | Communication with in-game characters |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2552437A1 (de) * | 1975-11-22 | 1977-06-02 | Gerd Dipl Ing Willwacher | Speichersystem zur assoziativen verarbeitung gerasterter informationsmuster |
JPS5529803A (en) * | 1978-07-18 | 1980-03-03 | Nippon Electric Co | Continuous voice discriminating device |
US4277644A (en) * | 1979-07-16 | 1981-07-07 | Bell Telephone Laboratories, Incorporated | Syntactic continuous speech recognizer |
JPS5722295A (en) * | 1980-07-15 | 1982-02-05 | Nippon Electric Co | Speaker recognizing system |
-
1981
- 1981-09-04 JP JP56140525A patent/JPS5842098A/ja active Granted
-
1982
- 1982-09-03 DE DE8282304648T patent/DE3273358D1/de not_active Expired
- 1982-09-03 EP EP82304648A patent/EP0074769B1/en not_active Expired
- 1982-09-03 US US06/414,956 patent/US4581756A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE3273358D1 (en) | 1986-10-23 |
JPS6332397B2 (ja) | 1988-06-29 |
US4581756A (en) | 1986-04-08 |
EP0074769B1 (en) | 1986-09-17 |
EP0074769A1 (en) | 1983-03-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPS5842098A (ja) | 音声認識装置 | |
WO1981002943A1 (en) | Continuous speech recognition system | |
JPH01997A (ja) | ベクトル量子化を用いた音声認識方式 | |
JPH067345B2 (ja) | ベクトル量子化を用いた音声認識方式 | |
US4790017A (en) | Speech processing feature generation arrangement | |
Buzo et al. | Discrete utterance recognition based upon source coding techniques | |
JP2820093B2 (ja) | 単音節認識装置 | |
Bush et al. | Segmentation in isolated word recognition using vector quantization | |
JPS6312000A (ja) | 音声認識装置 | |
KR100476337B1 (ko) | 음성인식기의유사단어인식방법 | |
Neuburg | Dynamic frequency warping, the dual of dynamic time warping | |
JPH0654440B2 (ja) | 音声認識におけるマツチング方法 | |
JPS60217399A (ja) | 音声認識方式 | |
JPS62173498A (ja) | 音声認識装置 | |
Yfantis et al. | Vector interpolation for time alignment in speech recognition | |
JPS60216391A (ja) | 音声認識における辞書作成方式 | |
JPS6344698A (ja) | 単語検出方式 | |
JPH04298795A (ja) | 標準パタン作成装置 | |
JPS6378200A (ja) | 音声認識方法 | |
Smyth | Segmental sub-word unit classification using a multilayer perceptron | |
JPS62178999A (ja) | 音声認識装置 | |
JPS62118398A (ja) | 単語認識装置 | |
JPH09198078A (ja) | 音声認識装置 | |
JPS6076800A (ja) | 音声認識方式 | |
JPS59127098A (ja) | 連続単語音声認識装置 |