JPH0214000A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH0214000A
JPH0214000A JP63162509A JP16250988A JPH0214000A JP H0214000 A JPH0214000 A JP H0214000A JP 63162509 A JP63162509 A JP 63162509A JP 16250988 A JP16250988 A JP 16250988A JP H0214000 A JPH0214000 A JP H0214000A
Authority
JP
Japan
Prior art keywords
input
neural network
syllable
layer
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63162509A
Other languages
English (en)
Inventor
Akio Amano
天野 明雄
Nobuo Hataoka
畑岡 信夫
Hiroshi Ichikawa
市川 熹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP63162509A priority Critical patent/JPH0214000A/ja
Publication of JPH0214000A publication Critical patent/JPH0214000A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は音声i!i!、識装置に孫装置特に発声速度が
速く、あいまいな発声に対しても認識精度を高く保ち、
かつ1j゛語処理部の負担の軽減にも好適な音声認識装
置に関する。
〔従来の技術〕
ニューラルネットワークを音声認識の後処理部として用
いる考え方として、昭和63年電子情報通信学会春季全
国大会講演論文集、分冊A−1゜1−15頁に記載のよ
うに認識候補の置換誤りをニューラルネットワークで訂
正しようとするものはあった。
〔発明が解決しようとする課題〕
上記従来技術は、現在の音声認識技術では発声が速くな
ったり、あいまいになったりすると本来入力音声に含ま
れているのに認識候補として呪われない脱落の問題、ま
た逆に本来入力音声中に含まれていないのに認識候補が
現われる挿入の問題が存在することに対して配慮がされ
ておらず、脱落、挿入の無い場合にしか適用できないと
いう問題があった。
本発明の目的は、ニューラルネットワークによる後処理
方法を脱落、挿入に対しても適用できるようにし、自然
な音声に対して有効動作するようにすることにある。
〔課題を解決するための手段〕
上記目的は、ニューラルネットワークの出力層に脱落、
挿入に対応する出力ユニットを設けること、および入力
層に時間間隔情報を人力するような入力ユニットを設け
ることにより達成される。
〔作用〕
ニューラルネットワークの出力層に脱落、挿入に対応す
る出力ユニットを設けることにより、認識結果候補系列
中に脱落、挿入があった場合にも対応する出カバターン
(教師パターン)を出力層に提示することができる。こ
れにより、脱落、挿入がどのような状況で生じるかをニ
ューラルネットワークの中に学習することができるよう
になる。
さらに入力層に時間間隔情報を入力できるような人カニ
ニットを設けることにより、脱落、挿入の出現状況を認
識結果候補の時間間隔と関連づけて学習することができ
、脱落、挿入の出現状況を精密に学習することができる
。この精密に学習されたニューラルネットワークを用い
れば、認識結果候補系列中の脱落、挿入を精度よく検出
できる6〔実施例〕 以下、本発明の一実施例を説明する。
まず、本実施例の全体構成を第1図を用いて説明する。
本実施例は話者の発声した入力音声3をとりこみ、認識
結果候補系列4を出力する音声認識処理部1.認識結果
候補系列4を入力とし修正認識結果5を出力する階層型
ニューラルネットワーク2よりなる。
次に本実施例の動作について説明する。入力された入力
音声3は音声認識処理部1において周波数分析、パター
ンマツチング等の処理を施こされ音節単位に複数の認識
結果候補が得られる。この認識結果候補を時間方向に連
結して系列とすることにより認識結果候補系列4が第1
図(b)のような形式で得られる。第1図(b)の例は
、入力音声の中に6音節の音節が含まれていると判定さ
れた場合であり、各音節毎に第5候補までとるようにし
ている。ここで音声認識処理部】であるが。
本処理部は音節単位に認識結果候補を得、最終的に認識
結果候補系列4を第1図(b)のような形態で出力でき
るものであればいかなるh°式のものであってもよく、
例えば特開昭59−26800に記載の音声認識方式、
あるいは斎藤・中田著、音声情報処理の基礎、第12章
、(1981年)オー4社に記載の音声認識方式等を用
いればよい。ところで、これらの音声認識方式は必ずし
も完全なものではなく、認識結果に誤りが含まれるとい
うことがしばしば生ずる。誤りの種類としては入力され
た音節を他の音節と判断する置換誤り、入力音声中には
音節の存在しない位置に音節が存在すると判断する挿入
誤り、入力音声中には存在する音節を存在しないと判断
する脱落誤りの3種類がある。第1図(b)に示したの
は話者が「東京都」と発声したときの認識結果候補系列
であり第1音節は置換誤り、第3音節および第6音節は
挿入誤り、また第4音節と第5音節の間に脱落誤りが1
つある。階層型ニューラルネットワーク2ではこのよう
な誤りを含んだ認識結果候補系列4を入力として受けと
り、認識結果候補系列中の各候補が正解であるか誤りで
あるかを前後の候補の出現状況から判断し、誤りである
と判断された部分を訂正した結果を最終的に出力する。
第1図の例の場合、訂正が完全に行なわれれば第1図(
c)のような出力が得られる。
次に階層型ニューラルネットワーク2において行なう訂
正処理について第2図、第3図、第4図を用いて詳しく
説明する。
第2図は階層型ニューラルネットワーク2の構成を示す
図である。本階層型ニューラルネットワークは入力M2
1.中間層22.出力層23の3層からなる。入力層2
1には訂正処理の対象となる音節、およびそれに先行す
る音節、後続する音節の計3音節分の認識結果候補系列
を入力することとし、それぞれ先行音節用人力層211
.対応音節用入力層212.後続音節用入力層、213
が用意される。
本実施例では、先行音節、対応音節、後続音節の計3音
節の情報に基づいて対応音節の訂正を行なうようにした
が、対応音節の前後それぞれ数音節(例えば3音節)分
の情報を入力できるように入力層を構成することも考え
られる。入力層21に/、illするすべてのユニット
は中間層22に属するすべてのユニットと入力層中間層
間結合24を介して結合される。出力層23には対応音
節用入力層212に入力された認識結果候補に対する訂
正結果を出力するための対応音節用出力層231゜対応
音節と後続音節との間の脱落誤りを検出し、脱落した音
節の種類を出力する脱落音節用出力層232が用意され
る。認識結果候補の音節間に脱落誤りが複数存在する場
合も考えられるが、このような場合には脱落音節用出力
層を複数段ければよい。本実施例の場合は音節間の脱落
誤りの上限を1と仮定し脱落音節用出力M232を1つ
とし°た。出力層23に属するすべてのユニットは中間
層22に属するすべてのユニットと中間層出力層間結合
25を介して結合される。以上が階層型ニューラルネッ
トワーク2の構成の概要であるが、第3図、第4図を用
いてそれぞれ入力層21.出力層23の構成の詳細を説
明する。まず入力層21であるが、この中で先行音節用
入力M211の部分だけを取り出したのが第3図(a)
である。
先行音節用入力層211はSXNケの入力ユニットから
構成される。Nは認識対象の音節カテゴリーの総数であ
り、本実施例ではN=116としている。本人力層には
認識結果候補の第5位までを入力するようにしており、
各音節カテゴリー毎に5個の入力ユニットを持つ。本人
力層の入力ユニットは0.1の離散的な値をとり、例え
ば第i番目の音節カテゴリーが第1位であるときには入
力ユニット211(I工s)を1とする。同様に第i番
目の音節カテゴリーが第2位の場合には入力ユニット2
112(I21)を1とする。このようにして、各順位
毎に1つの入力ユニットのみを1とし他の入力ユニット
は全て0とする。例えば、第1図(b)の第1音節目の
認識結果候補〜は順に[ソJ、rコJ、N−J、rホ」
、「オ」であるがこれを先行音節用入力層211に入力
すると第3図(b)のようになる。第3図(b)では黒
く塗りつぶした入力ユニットが値上をとり、その他の入
力ユニットは値Oをとるものとする。次に出力層23で
あるがこの中で対応音節用出力層231の部分だけを取
り出したのが第4図(a)、脱落音節出力層232の部
分だけを取り出したのが第4図(b)である。対応音節
用出力層231はN千1ケの出力ユニット01〜ON+
1よりなる。01〜ONは音節カテゴリーに対応し、○
〜+1は対応する音節が挿入誤りであることを示すため
の出力ユニットである。すなわち、対応音節の認識結果
候補に対して第i番目の音節カテゴリーを出力結果とす
るときには出力ユニツl−2311(01)のみが出力
し、他の出力ユニツ1〜は出力しないようにする。また
、対応音節が挿入誤りであるときは出力ユニット231
2 (ON)のみが出力し、他の出力ユニットは出力し
ないようにする。脱落音節用出力層はNヶの出力ユニッ
トD1〜DNからなる。
対応音節と後続音節の間に第iカテゴリーの音節の脱落
があったとき、出力ユニット232 t(D+:が出力
する。脱落が無い場合にはどの出力ユニットも出力しな
い。第1図(b)の認識結果候補系列の第3音節目を先
行音節用入力層211、第4音節目を対応音節用入力層
212、第5音節目を後続音節用入力層213にそれぞ
れ入力したとき対応音節用出力層231の出力は第4図
(C)、脱落音節用出力層232の出力は第4図(d)
のようになる。
以上、階層型ニューラルネットワーク2において行なわ
れる訂正処理を説明したが、次に、本訂正処理がニュー
ラルネットワークの動作として実現されるメカニズムを
説明する。
いま、説明の簡単のため入力層21に属するすべての入
力ユニット計3XSXNケについて順序番目がふられて
いるものとし、入力ユニットをI+(i=1〜3X5X
N)と記すことにする。中間層22にhAするユニット
も同様にして、HJ (j=1〜M)とM己すことにす
る。また、出力、ユニッ1−も同様に○h(k=1〜2
N+1)と記すことに:  する。入力層の全ユニット
と中間層の全ユニツ1〜の間には結合があるが、入力ユ
ニット■1と中間ユニットHJ の間の結合係数をWI
JIとする。中間層の全ユニットと出力層の全ユニッI
−の間にも結合があるが、中間ユニットHJ と出力ユ
ニット、   Okの間の結合係数をw2kJとする。
また、入力ユニットI+、中間ユニット■1Δ、出力二
二ッ1−〇hの出力をそれぞれYfI、3’HJl ’
IOhとする。
入力ユニットrIの出力値yItには人カニニットに与
えられる0、1の値がそのまま与えられる。
中間ユニットHJの出力値y旧は次の式に従って計算さ
れる。
出力ユニットOkの出力値yOkも同様の次式に従って
計算される。
ここで関数f(x)は、単調非減少な非線形関数であり
1本実施例では次式で与えられるsigmoij関数を
用いている。
f (x)= 1/(1+exp(−x))認識結果候
補系列4に基づいて入力層21に0゜1の値が設定され
るとこれに基づいてytt(i = 1〜3X5XN)
の値が定まる。入力層21の中の全ての入力ユニットの
出力値yT+が定まるとこれに基づいて中間層22の中
の全ての中間ユニットの出力値yHJ(j=1〜M)が
定まる。中間層22の全ての中間ユニット出力値’jH
iが定まるとこれに基づいて出力層23の中の全ての出
力ユニットの出力値yok(k=1〜2N+1)が定ま
る。以上で最終的出力が得られる。結合係数wlJ+、
w2kJを適当な値に設定すれば、以上説明した計算過
程により前記説明した訂正処理が実現される。
以上4本実施例によれば、発声速度が速かったり1発声
があいまいであることに起因して生ずる挿入誤り、脱落
誤りが含まれるような認識結果候補系列に対しても適用
可能で高精度な誤り訂正処理が実現でき、高精度の音声
認識性能が得られる。
なお、本実施例では階層型ニューラルネットワーク2を
3層構成としたが、これを4層構成とすることも可能で
あり、より高い性能が実現できる。
また本実施例では、ニューラルネットワークを階層型と
したが、ニューラルネッ1−ワークを相互結合型とし1
本実施例における入力層21.出力層23と同様のユニ
ットを用意し、入力層21に相当するユニットにはM!
2識結果候補系列から定まる値を設定し、出力値23に
相当するユニットにはす八て値0を設定し、こ九を初期
値としてネットワークを動作させ、収束した時点におけ
る出力層23に相当するユニットの値を出力とするよう
な構成も考えられる6 上記実施例においては、入力層と中間層との間の結合係
数、中間層と出力層との間の結合係数は予じめ適当な値
に設定されているものとしたが、ここで、結合係数の学
習方法の一実施例を第5図を用いて説明する。
本実施例は音声認識処理部12階階層型ニューラルネッ
トワーク、音声データ格納部6.結果解析部7.学習制
御部8からなる。音声データ格納部6には学習に用いる
発声内容既知の音声データが格納されている。各音声デ
ータには発声内容を表わすラベル情報が付加されている
。学習に先立って、まず階層型ニューラルネットワーク
2の各結合係数に乱数に基づいて初期値を設定しておく
学習にあたっては、まず、音声データ格納部6から音声
データを読み出し、これを音声認識処理部1で認識結果
候補系列に変換する。認識結果候補系列は階層型ニュー
ラルネットワーク2、および結果解析部7に送られる。
階層型ニューラルネットワーク2では認識結果候補系列
を与えられるとニューラルネットワークの計算手順に従
って出力ユニットの値を算出し出力する。一方、結果解
析部7では認識結果候補系列とともに音声データの発声
内容を表わすラベル情報を入力し、認識結果−候補系列
のどの部分に誤りがあるかを解析し、これをもとにして
階層型ニューラルネット、ワーク2の目標出力を求める
。学習制御部8には結果解析部7で得られた目標出力、
および階層型ニューラルネットワーク2の実際の出力が
与えられ、この両者の間の差異の情報に基づいて、 r
+r層型二型ニューラルネットワーク2合係数をどのよ
うに修正すれば前記差異が減少するかを算出する。この
算出結果は階層型ニューラルネットワーク2に送られ結
合係数の値を更新する。結合係数の修正は全学習データ
を繰返し呈示して行ない、前記差異の大きさが予め定め
た値より小さくなったところで学習を終了する。なお、
結合係数の修正量の算出法としては、バックプロパゲー
ションという手法が知られておりこの手法を用いればよ
い。バックプロパゲーションの詳細は文献、エム、アイ
、ティープレス出版、パラレル、デイステウリビューテ
ラ1−.プロセシング 第1巻、(1986年)第8章
、第318頁から第362頁(M I TPress、
Paralle Distributed Proce
ssing VoQ 、1゜(1986) Chap8
. pp3]8−362)に記載されている。
以上、本実施例の学習方法を用いれば、階層型ニューラ
ルネットワーク2に適切な結合係数を設定することがで
き、高精度な訂正能力を実現できる。
次に、VIt層型二型ニューラルネットワーク2間間隔
情報を入力できるようにした場合の実施例を第6図を用
いて説明する。本実施例は第2図、第3図で示した実施
例と入力層21の構成のみが異なる。第2図、第3図で
示した実施例の場合、入力)PJ21には音節カテゴリ
ーの種別のみを表わす記号データをパターン化した0、
1のデータのみが入力される。これに対し本実施例では
、入力層21の各音節用入力層211,21.2,21
3にそれぞれ、1つ入力ユニットを追加し、この入力ユ
ニットには対応する音節とそれに後続する音節との時間
間隔を入力できるようにする。第6図は先行音節用人力
)?4211について示したものであり1時間間隔用人
カニニット2113(T)が新たに設定されている。入
力ユニットの総数は音節あたり5XN+1となる。時間
間隔用人カニニット2113(T)には他の入カユニツ
1−とは異なり連続的な値が人力される。第2図、第3
図の実施例と異なるのは以上の点のみであり、その他の
点は全て第2図、第3図の実施例の場合と同様である。
本実施例の場合、挿入誤り、脱落誤りの出現状況を候補
音節の出現時間間隔と関連づけて学習したり、処理した
りできるので、より精度の高い誤り訂正ができる。
なお、第7図に示すように音声認識処理部1゜階層型ニ
ューラルネットワーク2、にさらに言語処理部9.制御
部10を組合せれば音声タイプライタが実現でき、また
第8図に示すように、音声認識処理部12階階層型ニュ
ーラルネットワーク。
音声応答部11.サービス制御部12をセンタに置き、
これに対して電話回線13を介して電話端末14からア
クセスできるように構成すればオンライン電を舌サービ
スシステムが実現できる。
〔発明の効果〕
本発明によれば、挿入誤り、脱落誤りが存在するような
認識結果候補系列を精度よく訂正することができ、結果
として高精度の音声認識結果が得られるとともに、言g
4処理部の負担を軽減できるという効果がある。
【図面の簡単な説明】
第1図は本発明の一実施例を説明する図、第2図は第1
図の中の階層型ニューラルネッ1−ワークの構成図、第
3図は第2図の階層型ニューラルネットワークの入力層
の説明図、第4図は第2図の階層型ニューラルネットワ
ークの出力層の説明図、第5図は、第2図の階層型ニュ
ーラルネットワークの学習方法の説明図、第6図は時間
間隔情報を入力できる入力層の説明図、第7図は本発明
を用いて構成した音声タイプライタの構成図、第8図は
本発明を用いて構成したオンライン電話サービスシステ
ムの構成図である。 1・・・音声認識処理部、2・・・階RiI型ニューラ
ルネツノ   2  3  451 一時間(壌i:攪挿) (C) Y 2 図 211         2I2          
2/3VJ 3 図 (仄) 571−・−〇−〇−■−〇− 第 4 図 (久) Cb) (d) 柘 5図 閉 6 図 2//3 第 7 図

Claims (1)

  1. 【特許請求の範囲】 1、音節あるいは音素単位に複数の認識候補を出力する
    ような音声認識装置において、認識候補の選択、削除、
    追加、修正を行なう後処理部を設けたことを特徴とする
    音声認識装置。 2、特許請求の範囲第1項記載の音声認識装置において
    、上記後処理部は階層型または相互結合型のニューラル
    ネットワークにより構成されていることを特徴とする音
    声認識装置。 3、特許請求の範囲第2項記載の音声認識装置において
    上記ニューラルネットワークは階層型とし、該ニューラ
    ルネットワークで構成される後処理部に入力される音節
    あるいは音素単位の認識候補が元々の入力音声中には存
    在しなかつたことを示す出力ユニット、および、元々入
    力音声中には存在したのに、後処理部への入力としての
    認識候補として現われなかつたこと(いわゆる脱落)を
    示す出力ユニットを出力層に設けたことを特徴とする音
    声認識装置。 4、特許請求の範囲第2項記載の音声認識装置において
    、上記ニューラルネットワークの入力層に、認識候補系
    列中の各候補間の時間間隔の情報を入力できるような入
    力ユニットを設けたことを特徴とする音声認識装置。 5、発声内容既知の音声に対する音声認識結果を階層型
    ニユーラルネツトワークへの入力とし、前記音声認識結
    果について誤りの有無および誤りの種別を判定した判定
    結果を前記ニューラルネットワークの目標出力とするよ
    うしたことを特徴とする階層型ニューラルネットワーク
    の学習方法。 6、特許請求の範囲第1項、第2項、第3項又は第4項
    記載の音声認識装置を構成要素として持つ音声タイプラ
    イタ。 7、特許請求の範囲第1項、第2項、第3項又は第4項
    記載の音声認識装置をセンターの制御装置の構成要素と
    して持つオンライン電話サービスシステム。
JP63162509A 1988-07-01 1988-07-01 音声認識装置 Pending JPH0214000A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63162509A JPH0214000A (ja) 1988-07-01 1988-07-01 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63162509A JPH0214000A (ja) 1988-07-01 1988-07-01 音声認識装置

Publications (1)

Publication Number Publication Date
JPH0214000A true JPH0214000A (ja) 1990-01-18

Family

ID=15755975

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63162509A Pending JPH0214000A (ja) 1988-07-01 1988-07-01 音声認識装置

Country Status (1)

Country Link
JP (1) JPH0214000A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
JP2006234907A (ja) * 2005-02-22 2006-09-07 Canon Inc 音声認識方法
US7676372B1 (en) * 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP2012146306A (ja) * 2011-01-12 2012-08-02 Fujitsu Ltd プロセッサ・ノード、人工ニューラル・ネットワーク及び人工ニューラル・ネットワークの動作方法
WO2020225999A1 (ja) * 2019-05-08 2020-11-12 株式会社Nttドコモ 認識誤り訂正装置及び訂正モデル

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5887069A (en) * 1992-03-10 1999-03-23 Hitachi, Ltd. Sign recognition apparatus and method and sign translation system using same
US5659764A (en) * 1993-02-25 1997-08-19 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US5953693A (en) * 1993-02-25 1999-09-14 Hitachi, Ltd. Sign language generation apparatus and sign language translation apparatus
US7676372B1 (en) * 1999-02-16 2010-03-09 Yugen Kaisha Gm&M Prosthetic hearing device that transforms a detected speech into a speech of a speech form assistive in understanding the semantic meaning in the detected speech
JP2006234907A (ja) * 2005-02-22 2006-09-07 Canon Inc 音声認識方法
JP4574390B2 (ja) * 2005-02-22 2010-11-04 キヤノン株式会社 音声認識方法
JP2012146306A (ja) * 2011-01-12 2012-08-02 Fujitsu Ltd プロセッサ・ノード、人工ニューラル・ネットワーク及び人工ニューラル・ネットワークの動作方法
WO2020225999A1 (ja) * 2019-05-08 2020-11-12 株式会社Nttドコモ 認識誤り訂正装置及び訂正モデル
JPWO2020225999A1 (ja) * 2019-05-08 2020-11-12

Similar Documents

Publication Publication Date Title
EP0342630B1 (en) Speech recognition with speaker adaptation by learning
JP3003276B2 (ja) 信号解析装置
US11380315B2 (en) Characterizing accuracy of ensemble models for automatic speech recognition by determining a predetermined number of multiple ASR engines based on their historical performance
CN112863489B (zh) 语音识别方法、装置、设备及介质
CN112990464B (zh) 一种知识追踪方法及系统
JPH08227408A (ja) ニューラルネットワーク
CN117043857A (zh) 用于英语发音评估的方法、设备和计算机程序产品
JP3521429B2 (ja) ニューラルネットワークを用いた音声認識装置およびその学習方法
JPH0214000A (ja) 音声認識装置
JPH0673080B2 (ja) 連続音声認識方式
JP2003524792A (ja) 音声認識システムと方法
JP2531227B2 (ja) 音声認識装置
CN111951785A (zh) 语音识别方法、装置及终端设备
US5497448A (en) Learning type waveform recognizer
CN113239678A (zh) 一种面向答案选择的多角度注意力特征匹配方法及系统
JPH01114899A (ja) ダイナミックなニューラルネットワーク
JPH01241667A (ja) 学習機構を有するダイナミック・ニユーラル・ネットワーク
CN111339755A (zh) 一种局数据自动纠错方法及装置
CN113065339B (zh) 中文文本的自动纠错方法、装置、设备以及存储介质
CN112926302A (zh) 语音识别文本的断句与标点预测方法及其装置、存储介质
JPH06203004A (ja) ニューラルネットワークモデルの学習方法
JP2545961B2 (ja) 音声認識用学習方式
JPH0570838B2 (ja)
JPH01241668A (ja) 学習機構を有するダイナミック・ニユーラル・ネットワーク
CN118153584A (zh) 基于对比隐变量和风格前缀的混合对话方法