JPH07104786A - 音声対話システム - Google Patents

音声対話システム

Info

Publication number
JPH07104786A
JPH07104786A JP5247834A JP24783493A JPH07104786A JP H07104786 A JPH07104786 A JP H07104786A JP 5247834 A JP5247834 A JP 5247834A JP 24783493 A JP24783493 A JP 24783493A JP H07104786 A JPH07104786 A JP H07104786A
Authority
JP
Japan
Prior art keywords
utterance
dialogue
voice
scene
language model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5247834A
Other languages
English (en)
Other versions
JP2871420B2 (ja
Inventor
Hiroyuki Sakamoto
博之 坂本
Shoichi Matsunaga
昭一 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Original Assignee
ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
ATR Interpreting Telecommunications Research Laboratories
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK, ATR Interpreting Telecommunications Research Laboratories filed Critical ATR ONSEI HONYAKU TSUSHIN KENKYUSHO KK
Priority to JP5247834A priority Critical patent/JP2871420B2/ja
Publication of JPH07104786A publication Critical patent/JPH07104786A/ja
Application granted granted Critical
Publication of JP2871420B2 publication Critical patent/JP2871420B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 従来例に比較して音声対話時の話者の音声認
識率を向上させることができ、しかもシステムを小型化
することができる音声対話システムを提供する。 【構成】 操作者とシステムとの間で音声を用いて所定
の目的のための対話を行うために、上記操作者の発話内
容に応じて自動的に上記操作者に対して発話する発話回
路を備えた音声対話システムにおいて、上記所定の目的
のための対話における複数の場面に応じて互いに異なる
複数の統計的言語モデルを格納する記憶装置と、上記発
話回路による発話内容の場面に基づいて上記複数の統計
的言語モデルのうちの1つを選択する選択回路と、上記
選択回路によって選択された統計的言語モデルを参照し
て、上記発話手段による発話の後に上記操作者が発話す
る発話内容を音声認識する音声認識回路とを備える。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、システムと人間との間
で音声を用いて対話するための音声対話システムに関す
る。
【0002】
【従来の技術及び発明が解決しようとする課題】人間の
コミュニケーション手段の1つである音声は、対話形式
で用いられるのが一般的であり、このことから、対話音
声処理に関する研究が進められている。
【0003】例えば、音声認識の効率向上を目的とし
て、対話の話題ならびにシステム側の質問の内容・型か
ら、ユーザの次発話に対し構文・単語予測を行なう音声
対話システム(以下、第1の従来例という。)が、森屋
裕治ほか,“対話予測を利用した音声による観光案内対
話システム”,電子情報通信学会技術報告,SP92−
121,pp43−50,1993年1月に開示されて
いる。この第1の従来例では、観光案内をタスクとした
音声対話システムにおいて、対話システムの音声認識の
効率を向上させるために、ユーザの次発話の予測の方法
を提案している。この方法では、タスクが決定した上で
の対話であれば、対話の進行とともにユーザの発話中の
単語は限定されるために、単語予測を行うことができる
とともに、直前のシステムの発話の内容と文型から、ユ
ーザの発話の構文的な予測を行っている。そして、音声
認識における言語モデルに対して予測情報による制約を
実行することでパープレキシティを減少させている。し
かしながら、この第1の従来例のシステムは、対話予測
により単語辞書と文法の制限を行なうシステムであり、
語彙・構文の知識データベースが必要となり、大きな記
憶容量を有する記憶装置を必要とし、当該システムが大
型化するという問題点があった。
【0004】一方、音節の連鎖統計情報を隠れマルコフ
モデル(HMM)法による音韻認識と組み合わせること
によって、語彙の仮定なしに入力音声を音韻系列に変換
するシステム(以下、第2の従来例という。)が、川端
豪ほか,“HMM音韻認識における音節連鎖統計情報の
利用”,電子情報通信学会技術報告,SP89−11
0,pp7−12,1990年1月に開示されており、
この方法を上記第1の従来例の対話システムに応用する
ことが考えられる。しかしながら、第2の従来例では、
1つの統計的言語モデルを常時使う方法であり、音声認
識率が比較的低く実用化することは難しいという問題点
があった。
【0005】本発明の目的は以上の問題点を解決し、従
来例に比較して音声対話時の話者の音声認識率を向上さ
せることができ、しかもシステムを小型化することがで
きる音声対話システムを提供することにある。
【0006】
【課題を解決するための手段】本発明に係る請求項1記
載の音声対話システムは、操作者とシステムとの間で音
声を用いて所定の目的のための対話を行うために、上記
操作者の発話内容に応じて自動的に上記操作者に対して
発話する発話手段を備えた音声対話システムにおいて、
上記所定の目的のための対話における複数の場面に応じ
て互いに異なる複数の統計的言語モデルを格納する記憶
手段と、上記発話手段による発話内容の場面に基づいて
上記複数の統計的言語モデルのうちの1つを選択する選
択手段と、上記選択手段によって選択された統計的言語
モデルを参照して、上記発話手段による発話の後に上記
操作者が発話する発話内容を音声認識する音声認識手段
とを備えたことを特徴とする。
【0007】また、請求項2記載の音声対話システム
は、請求項1記載の音声対話システムにおいて、上記統
計的言語モデルは、音節trigramモデルであるこ
とを特徴とする。
【0008】さらに、請求項3記載の音声対話システム
は、請求項1又は2記載の音声対話システムにおいて、
上記対話における複数の場面は、(1)対話の開始場面
と、(2)システムが名前を尋ねた場面と、(3)シス
テムがいつかと尋ねた場面と、(4)システムが何かと
尋ねた場面と、(5)システムがどこかと尋ねた場面
と、(6)対話の終了場面と、のうちの少なくとも1つ
を含むことを特徴とする。
【0009】
【作用】本発明に係る音声対話システムにおいては、上
記選択手段は、上記発話手段による発話内容の場面に基
づいて上記複数の統計的言語モデルのうちの1つを選択
し、次いで、上記音声認識手段は、上記選択手段によっ
て選択された統計的言語モデルを参照して、上記発話手
段による発話の後に上記操作者が発話する発話内容を音
声認識する。
【0010】
【実施例】以下、図面を参照して本発明に係る実施例に
ついて説明する。図1は本実施例の音声対話システムの
ブロック図であり、本実施例の音声対話システムは、図
1に示すように、HMM−LR(left-to-right rightm
ost)型音声認識装置を用いて、対話の中で予め場面に
応じて互いに異なる複数の統計的言語モデルを格納した
言語モデルメモリ12−1乃至12−6を設け、対話の
場面に応じて、その中から1つを随時選択して用いるこ
とを特徴とする。具体的には、「音声対話システムにお
けるユーザとシステムとの対話」という状況を想定し、
システム側からユーザの発話を予測するという形式で音
節trigramの選択を行う。すなわち、システム側
から直前に発話した内容の場面に応じて選択的に切り換
えられた言語モデルメモリ(12−1乃至12−6の内
の1つ)内の言語モデルを参照して音声認識処理を実行
する。
【0011】統計的言語モデルの選択を行なうにあたっ
て、音声対話システムがユーザ発話を予測し得る場面を
設定する必要がある。ここで、ユーザの発話を予測可能
な場面としては、対話の開始・終了場面や、システムが
何らかの質問をした場面、つまり、システムの質問に対
応した回答がユーザから得られる場面が考えられる。本
実施例においては、以下に示す分類に該当する場面を抽
出して、各場面に対応して統計的言語モデルを予め格納
した言語モデルメモリ12−1乃至12−6を設ける。 (1)対話の開始場面(start) (2)システムが名前を尋ねた場面(who) (3)システムがいつかと尋ねた場面(when) (4)システムが何かと尋ねた場面(what) (5)システムがどこかと尋ねた場面(where) (6)対話の終了場面(end)
【0012】図1において、話者の発声音声はマイクロ
ホン1に入力されて音声信号に変換された後、特徴抽出
部2に入力される。特徴抽出部2は、入力された音声信
号をA/D変換した後、例えばLPC分析を実行し、対
数パワー、16次ケプストラム係数、Δ対数パワー及び
16次Δケプストラム係数を含む34次元の特徴パラメ
ータを抽出する。抽出された特徴パラメータの時系列は
バッファメモリ3を介して音素照合部4に入力される。
音素照合部4に接続される隠れマルコフモデル(以下、
HMMという。)メモリ11内のHMMは、複数の状態
と、各状態間の遷移を示す弧から構成され、各弧には状
態間の遷移確率と入力コードに対する出力確率を有して
いる。音素照合部4は、LRパーザ5からの音素照合要
求に応じて音素照合処理を実行する。
【0013】文脈自由文法データベースメモリ20内の
所定の文脈自由文法(CFG)を公知の通り自動的に変
換してLRテーブルを作成してLRテーブルメモリ13
に格納される。一方、上記6つの場面に応じてそれぞれ
予め作成されて格納された各音節trigramモデル
を含む統計的言語モデルメモリ12−1乃至12−6
は、発話決定部6によって選択的に切り換え制御される
スイッチSWを介してLRパーザ5に接続される。ここ
で、言語モデルメモリ12−1乃至12−6に格納した
音節trigramモデルは、削除補間法(deleted in
terpolation)を用いて平滑化の処理を予め行う。な
お、本実施例においては、言語モデルメモリ12−1乃
至12−6は別々のメモリで構成しているが、これに限
らず、同一のメモリで構成して、スイッチSWの代わり
にアドレス指定によって言語モデルを切り換えるように
構成してもよい。
【0014】LRパーザ5は、言語モデルメモリ12−
1乃至12−6のうちの選択された1つと、上記LRテ
ーブルとを参照して、入力された音素予測データについ
て左から右方向に、後戻りなしに処理して連続的に音声
認識の処理を実行する。ここで、構文的にあいまいさが
ある場合は、スタックを分割してすべての候補の解析が
平行して処理される。LRパーザ5は、LRテーブルメ
モリ13内のLRテーブルから次にくる音素を予測して
音素予測データを音素照合部4に出力する。これに応答
して、音素照合部4は、その音素に対応するHMMメモ
リ11内の情報を参照して照合し、その確率値を音声認
識スコアとしてLRパーザ5に戻し、順次音素を連接し
ていくことにより、連続音声の認識を行っている。複数
の音素が予測された場合は、これらすべての存在をチェ
ックし、ビームサーチの方法により、部分的な音声認識
の確率値の高い部分木を残すという枝刈りを行って高速
処理を実現する。入力された話者音声の最後まで処理し
た後、全体の確率値が最大のものを音声認識結果データ
(文字列データ)として発話決定部6に出力する。
【0015】発話決定部6は、例えば旅行手続き関する
旅行会社と客との間の対話という所定のタスクのために
所定の自動発話のための対話ルールのデータを予め格納
するメモリを内蔵している。そして、発話決定部6は、
入力された音声認識結果データに基づいて起動され、入
力された文字列データが平叙文であるならば対話ルール
スタック上の現在イネーブルされている対話ルールを用
いて解釈実行し、次の発話内容を決定する。一方、疑問
文であれば、その質問に答えるための特別な対話ルール
が対話ルールスタックにロードされ解釈実行して、次の
発話内容を決定する。発話決定部6は、次の発話内容の
決定の後に、当該決定された発話内容のデータを音声合
成部7に出力するとともに、その発話内容の場面に対応
した1つの言語モデルを選択するようにスイッチSWを
切り換える。ここで、スイッチSWの切り換えにあたっ
ては、システムの発話内容の各々に対して場面の情報が
予め付加され、その情報に基づいて実行される。
【0016】音声合成部7は、入力された発話内容のデ
ータに基づいてその音声を合成してスピーカ8を介して
出力する。スピーカ8を介して出力された発話内容に対
してユーザがマイクロホン1に向かって発話するが、そ
のとき入力された音声の認識処理は、上述のように、シ
ステムが直前に発話した内容の場面に応じて選択的に切
り換えられた言語モデルメモリ12−1乃至12−6の
うちの1つのメモリ内の1つの言語モデルを参照して実
行される。
【0017】本発明者は、言語モデルの選択の効果を検
証するためにシミュレーションを以下のように行った。
このシミュレーションにおいては、旅行手続きに関する
旅行会社と客の対話データから客側の発話を選択し、そ
のうちの638発話(7091文節)を学習用テキスト
として使用するとともに、158発話(1019文節)
を評価用テキストとして使用した。
【0018】次いで、分類した学習テキストによる言語
モデルを以下のように作成した。各場面について、場面
ごとに分類して得た学習テキストと、学習用テキスト全
体からランダム(random)に選んだ同一の文節数
の学習テキストを用いて、それぞれ言語モデルを作成し
た。そして、対応する場面の評価テキストに対してパー
プレキシティを求めた。その結果を表1に示す。ここで
は、対話の開始場面(start)についてのみ示した
が、他の場面でも同様の結果が得られた。この結果か
ら、言語情報には、場面に応じて偏りがあることが確認
できる。以下、表中の( )内は文節数を表す。
【0019】
【表1】 分類した学習テキストから作成した言語モデルと、ランダムに選んだテキスト から作成した言語モデルの比較 ─────────────────────────── 学習テキスト テストテキスト パープレキシティ ─────────────────────────── start (306) start (67) 9.55 random(306) start (67) 17.7 ───────────────────────────
【0020】場面ごとに分類して得た学習テキストはサ
ンプル数が少ないので、それから求められる言語モデル
は信頼性が低い。そこで、それぞれの場面以外の残りの
テキストを全て補間用テキストとして使用して新たに補
間を施した言語モデルを作成する。この言語モデルの作
成おいては、松永ほか,“音節連鎖統計情報のタスク適
応化”,第42回情報処理学会全国大会,6D−5,1
991年3月に開示された方法を参照した。上記作成し
たモデルを、場面ごとの学習テキストのみから作成した
モデル、並びに、すべての学習テキストを用いて作成し
た単一の言語モデルと比較した結果を、表2に示す。表
中*は残りのテキストによる補間を、「unifor
m」は分類無しの単一言語モデルを表す。
【0021】
【表2】 補間を施した言語モデルのパープレキシティ ─────────────────────────── テスト 学習テキスト ─────────────────────────── start start(306) start* uniform (67) 9.55 6.87 7.17 ─────────────────────────── who who (424) who* uniform (53) 13.7 14.1 22.6 ─────────────────────────── what what(59) what* uniform (8) 31.4 15.3 15.6 ─────────────────────────── when when(333) when* uniform (32) 12.1 10.8 11.9 ─────────────────────────── where where(366) where* uniform (26) 19.4 14.0 14.2 ─────────────────────────── end end(80) end* uniform (22) 1.75 1.88 3.77 ───────────────────────────
【0022】上記表2の結果から、それぞれの場面でそ
の場面に応じた言語モデルを使用する方が、分類無しの
単一言語モデルよりも、パープレキシティが低くなるこ
とがわかる。「who」及び「end」については、分
類した学習テキストのみの言語モデルの方が、補間を施
した言語モデルよりもパープレキシティが低くなってい
るが、一般的には補間を施した言語モデルの方がより信
頼性が高いと考えられる。
【0023】次いで、システム発話テキストの利用を試
みた。これは、「ユーザの発話が直前のシステムの発話
内容の影響を受けるのではないか」という仮定に基づく
ものである。そこで、評価テキストの各発話ごとに、直
前のシステムの1発話分のテキストを取り出し、これを
場面ごとに分類した学習テキストに加え、言語モデルを
作成した。
【0024】また、前述の6つの場面のいずれにも属さ
ない場面(other)は、システムが質問をしない場
面であり、説明を行なっている場面が多い。従って、そ
の説明内容の影響を受けたユーザ発話が多くなると予想
できる。そこで、どの場面にも属さないテキストについ
ても、学習用テキスト全体にシステム発話のテキストを
追加して学習した。そのシミュレーション結果を、表3
に示す。加えるシステム発話テキストに対する重みづけ
(すなわち、何回加えるか。)については、いくつかの
値で評価し最適であったものを選び示す。表中の[ ]
内は、重みづけの値を表す。
【0025】
【表3】
【0026】ユーザ発話直前のシステム発話テキストの
追加によって、全体的にパープレキシティは低くなっ
た。特に、「what」、「when」、及び「oth
er」は、直前の発話テキストを加える効果が比較的大
きかった。これは、この旅行手続きのタスクにおいては
直前のシステム発話の中で、「when」の場面で期日
の説明、並びに、「what」、「other」の場面
で旅行の説明を行なっている場合が多く、その説明内容
の影響を受けたユーザ発話が多かったためと考えられ
る。
【0027】次いで、学習テキストを分類して場面ごと
に作成した言語モデルと、さらにそれにシステム発話を
追加して作成した言語モデルの効果を調べるために、以
下の3つのモデルについて、評価テキスト全体に対する
平均パープレキシティを求めた。 (1)分類を行なわず学習用テキスト全てを用いて作成
した、単一の言語モデル(以下、「uniform」と
いう。) (2)分類した学習テキストに対し、残りのテキストを
用いて補間を施して作成した言語モデル(以下、「条件
1」という。) (3)分類した学習テキストにシステム発話テキストを
追加して、言語モデルを作成し、さらに残りの学習テキ
ストで、上記(2)の補間と同じ係数をそのまま用いて
補間した言語モデル(以下、「条件2」という。) ただし、6つの分類のいずれにも属さない場面の言語モ
デルには、上記(2)では上記(1)「uniform」
の言語モデルを用いるとともに、上記(3)では学習用
テキスト全体に直前のシステム発話のテキストを追加し
て学習したものを用いた。その結果を表4に示す。
【0028】
【表4】 単一言語モデルと条件つき言語モデルの平均パープレキシティの比較 ─────────────────────────────── 学習 (1)uniform (2)条件1 (3)条件2 (7091) (7091) (7091) +system ─────────────────────────────── テスト −−−−−−すべて(1019)−−−−−−− パープレキシティ 10.8 10.3 9.72 ───────────────────────────────
【0029】上記表4の結果から、対話の場面に応じた
言語モデルを選択し、使用することによって、また、ユ
ーザ発話の直前のシステム発話のテキストを追加するこ
とによって、全体的にパープレキシティが低くなること
が確認できた。
【0030】以上説明したように、本実施例において
は、「音声対話システムにおけるユーザとシステムの対
話」という状況を想定し、直前のシステム側の発話内容
により分類される場面に応じてユーザの発話を予測する
という形式で音節trigramを含む統計的言語モデ
ルの選択を行っている。従って、パープレキシティを減
少させるために、学習テキストを場面ごとに分類して作
成した言語モデルが有効であり、さらにユーザ発話の直
前のシステム発話テキストの利用が有効であることがわ
かった。
【0031】以上の実施例において、統計的言語モデル
として音節のtrigramモデルを用いているが、本
発明はこれに限らず、音素、モーラ、音節又は単語のN
−gramモデル、もしくは確率文脈自由文法などを用
いてもよい。
【0032】
【発明の効果】以上詳述したように本発明によれば、操
作者とシステムとの間で音声を用いて所定の目的のため
の対話を行うために、上記操作者の発話内容に応じて自
動的に上記操作者に対して発話する発話手段を備えた音
声対話システムにおいて、上記所定の目的のための対話
における複数の場面に応じて互いに異なる複数の統計的
言語モデルを格納する記憶手段と、上記発話手段による
発話内容の場面に基づいて上記複数の統計的言語モデル
のうちの1つを選択する選択手段と、上記選択手段によ
って選択された統計的言語モデルを参照して、上記発話
手段による発話の後に上記操作者が発話する発話内容を
音声認識する音声認識手段とを備える。従って、本発明
は以下の特有の効果を有する。 (1)従来例のように、1つの統計的言語モデルを常時
使う方法に比べて、場面に応じたモデルを選択すること
によりパープレキシティの値が低くなるので、音声認識
の効率を大幅に向上させることができる。 (2)統計的言語モデルは、知識データベースを必要と
せずテキストデータにより容易に作成できるので、大き
な記憶容量の記憶装置を必要とせず、当該音声対話シス
テムをより小型化することができる。
【図面の簡単な説明】
【図1】 本発明に係る一実施例である音声対話システ
ムのブロック図である。
【符号の説明】
1…マイクロホン、 2…特徴抽出部、 3…バッファメモリ、 4…音素照合部、 5…LRパーザ、 6…発話決定部、 7…音声合成部、 8…スピーカ、 11…隠れマルコフモデル(HMM)メモリ、 12−1乃至12−6…言語モデルメモリ、 13…LRテーブルメモリ、 20…文脈自由文法データベースメモリ、 SW…スイッチ。

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 操作者とシステムとの間で音声を用いて
    所定の目的のための対話を行うために、上記操作者の発
    話内容に応じて自動的に上記操作者に対して発話する発
    話手段を備えた音声対話システムにおいて、 上記所定の目的のための対話における複数の場面に応じ
    て互いに異なる複数の統計的言語モデルを格納する記憶
    手段と、 上記発話手段による発話内容の場面に基づいて上記複数
    の統計的言語モデルのうちの1つを選択する選択手段
    と、 上記選択手段によって選択された統計的言語モデルを参
    照して、上記発話手段による発話の後に上記操作者が発
    話する発話内容を音声認識する音声認識手段とを備えた
    ことを特徴とする音声対話システム。
  2. 【請求項2】 上記統計的言語モデルは、音節trig
    ramモデルであることを特徴とする請求項1記載の音
    声対話システム。
  3. 【請求項3】 上記対話における複数の場面は、(1)
    対話の開始場面と、(2)システムが名前を尋ねた場面
    と、(3)システムがいつかと尋ねた場面と、(4)シ
    ステムが何かと尋ねた場面と、(5)システムがどこか
    と尋ねた場面と、(6)対話の終了場面と、のうちの少
    なくとも1つを含むことを特徴とする請求項1又は2記
    載の音声対話システム。
JP5247834A 1993-10-04 1993-10-04 音声対話システム Expired - Lifetime JP2871420B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5247834A JP2871420B2 (ja) 1993-10-04 1993-10-04 音声対話システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5247834A JP2871420B2 (ja) 1993-10-04 1993-10-04 音声対話システム

Publications (2)

Publication Number Publication Date
JPH07104786A true JPH07104786A (ja) 1995-04-21
JP2871420B2 JP2871420B2 (ja) 1999-03-17

Family

ID=17169376

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5247834A Expired - Lifetime JP2871420B2 (ja) 1993-10-04 1993-10-04 音声対話システム

Country Status (1)

Country Link
JP (1) JP2871420B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096856A (ja) * 1995-06-15 1997-01-10 Fuji Xerox Co Ltd 文書作成装置
US6839671B2 (en) * 1999-12-20 2005-01-04 British Telecommunications Public Limited Company Learning of dialogue states and language model of spoken information system
JP2006085179A (ja) * 2003-01-15 2006-03-30 Matsushita Electric Ind Co Ltd 放送受信方法、放送受信システム、記録媒体、及びプログラム
KR100765282B1 (ko) * 2006-02-08 2007-10-09 엘지전자 주식회사 대화형 방송 단말 장치
WO2011145272A1 (ja) * 2010-05-20 2011-11-24 日本電気株式会社 パープレキシティ算出装置
US8818801B2 (en) 2008-07-28 2014-08-26 Nec Corporation Dialogue speech recognition system, dialogue speech recognition method, and recording medium for storing dialogue speech recognition program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002067244A1 (fr) * 2001-02-19 2002-08-29 Cai Co., Ltd Procede de reconnaissance de la parole pour interaction de la parole, systeme et programme de reconnaissance de la parole

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0283738A (ja) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd 対話処理方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0283738A (ja) * 1988-09-21 1990-03-23 Matsushita Electric Ind Co Ltd 対話処理方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096856A (ja) * 1995-06-15 1997-01-10 Fuji Xerox Co Ltd 文書作成装置
US6839671B2 (en) * 1999-12-20 2005-01-04 British Telecommunications Public Limited Company Learning of dialogue states and language model of spoken information system
JP2006085179A (ja) * 2003-01-15 2006-03-30 Matsushita Electric Ind Co Ltd 放送受信方法、放送受信システム、記録媒体、及びプログラム
KR100765282B1 (ko) * 2006-02-08 2007-10-09 엘지전자 주식회사 대화형 방송 단말 장치
US8818801B2 (en) 2008-07-28 2014-08-26 Nec Corporation Dialogue speech recognition system, dialogue speech recognition method, and recording medium for storing dialogue speech recognition program
WO2011145272A1 (ja) * 2010-05-20 2011-11-24 日本電気株式会社 パープレキシティ算出装置
US9075774B2 (en) 2010-05-20 2015-07-07 Nec Corporation Perplexity calculation device
JP5790646B2 (ja) * 2010-05-20 2015-10-07 日本電気株式会社 パープレキシティ算出装置

Also Published As

Publication number Publication date
JP2871420B2 (ja) 1999-03-17

Similar Documents

Publication Publication Date Title
US7162423B2 (en) Method and apparatus for generating and displaying N-Best alternatives in a speech recognition system
US6937983B2 (en) Method and system for semantic speech recognition
Zissman et al. Automatic language identification
US6725199B2 (en) Speech synthesis apparatus and selection method
US5758319A (en) Method and system for limiting the number of words searched by a voice recognition system
Lee et al. Improved acoustic modeling for large vocabulary continuous speech recognition
EP0664535A2 (en) Large vocabulary connected speech recognition system and method of language representation using evolutional grammar to represent context free grammars
US7191132B2 (en) Speech synthesis apparatus and method
EP0769184B1 (en) Speech recognition methods and apparatus on the basis of the modelling of new words
US5875426A (en) Recognizing speech having word liaisons by adding a phoneme to reference word models
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JP2000029495A (ja) ニュ―ラルネットワ―クとマルコフモデル認識技術を用いた音声認識の方法及び装置
JP2871420B2 (ja) 音声対話システム
JP3776391B2 (ja) 多言語音声認識方法、装置、プログラム
JP2886117B2 (ja) 音声認識装置
JP2871557B2 (ja) 音声認識装置
Mŭller et al. Design of speech recognition engine
JPH10171490A (ja) 連続音声認識装置
JP2905674B2 (ja) 不特定話者連続音声認識方法
JP2880436B2 (ja) 音声認識装置
JP2905686B2 (ja) 音声認識装置
JP4163207B2 (ja) 多言語話者適応方法、装置、プログラム
JP2731133B2 (ja) 連続音声認識装置
Georgila et al. A speech-based human-computer interaction system for automating directory assistance services
JP4636695B2 (ja) 音声認識

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080108

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090108

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100108

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100108

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110108

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110108

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120108

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130108

Year of fee payment: 14

EXPY Cancellation because of completion of term