JPH07239694A - 音声対話装置 - Google Patents

音声対話装置

Info

Publication number
JPH07239694A
JPH07239694A JP6032254A JP3225494A JPH07239694A JP H07239694 A JPH07239694 A JP H07239694A JP 6032254 A JP6032254 A JP 6032254A JP 3225494 A JP3225494 A JP 3225494A JP H07239694 A JPH07239694 A JP H07239694A
Authority
JP
Japan
Prior art keywords
dialogue
voice
conversation
response
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6032254A
Other languages
English (en)
Inventor
Toru Miyamae
徹 宮前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP6032254A priority Critical patent/JPH07239694A/ja
Publication of JPH07239694A publication Critical patent/JPH07239694A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 対話の履歴に即した最適な応答文を適応的に
出力することによって対話の自然さを実現し、またヒュ
−マンインタ−フェイスに優れた音声対話装置を提供す
る。 【構成】 対話履歴管理部106は対話の履歴を管理し
ながら内部に蓄積し、この対話履歴に基づいて対話状態
判定部107は対話の自然性が損なわれない範囲の対話
を一つの対話状態と判定し、一方、対話状態遷移表10
8にはあらゆる対話状態の遷移に対応した合成応答文メ
モリ109内の応答文を指示出来る情報が格納されてい
る。対話管理部105は対話状態が遷移したときに対話
状態遷移表108から対応する応答文の指示情報を検索
して応答メッセージ生成部110に伝達し、応答メッセ
ージが作成される。これにより対話の履歴に応じて常に
適切な応答文で応答することが可能となる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、音声認識および音声
合成装置を利用して音声対話を行う音声対話装置に関す
るものである。
【0002】
【従来の技術】従来、音声対話によりユ−ザの所望する
サ−ビスを提供する装置として、例えば文献(天野他、
「音声対話システムの試作」 日本音響学会講演論文集
(平成4年10月発行) pp.39−40)に記載さ
れるもの等があり、これらに記載された技術は次のよう
なものであった。例えば、道順等の案内システムにおい
て、ユ−ザが音声で自分の行き先等を入力すると、シス
テムはその入力音声を認識し、当該認識結果に基づい
て、相当する道順をデ−タベ−ス中からサ−チし、当該
道順を合成音声でもってユ−ザに教えるというものであ
る。このような対話システムにおいては、ヒューマンイ
ンターフェイスを向上させるために様々な工夫がこらさ
れている。例えば、認識誤りに対処するために、一定回
数を限度として認識結果をユ−ザに逐一確認させる処理
を設ける等である。このような場合には、ユーザの満足
度は主としてシステムの受理の曖昧さ、即ち、認識率と
確認回数の関数になっていると考えられる。さらに対話
の導き方として、システムがユーザに入力を要求しなが
ら対話を導くシステム主導型であるか、逆にユーザがシ
ステムに命令しながら対話を導くユーザ主導型であるか
が重要なファクターとなる。しかし、どちらの型がヒュ
ーマンインターフェイスに優れているかは、一概に言い
切ることはできず、個人差や慣れ不慣れの問題によって
答が変わってくる。
【0003】
【発明が解決しようとする課題】しかし、前記従来技術
においては、認識率や確認回数といったもっぱら機能面
でヒューマンインターフェイスの向上を図ろうとしてお
り、ユーザがいかに効率よく所望の目的を達成するかが
主眼であった。従って、必ずしもユ−ザとの対話そのも
のの良否を考慮してはおらず、ただ単に入力手段として
音声認識を用い、出力手段として音声合成を用いていた
に過ぎなかった。即ち、その対話が本当にユ−ザにとっ
て、心地よいものであるか否かといった問題は、合成音
の質を良くする方法以外、余り省みられていなかったと
言える。例えば、「おわり」、「もういい」、「ありが
とう」の語で当該対話タスクを終了させる対話システム
の場合、それに対する応答文を代えなければ、対話の自
然さが保てないといった問題点がある。さらに応答文を
認識結果に応じて代えたとしても、対話履歴によって
は、著しく対話の自然性を阻害するという新たな問題も
発声する。
【0004】そこで、本発明は以上述べた音声対話装置
の問題点に鑑み、対話の履歴に即して最適な応答文を適
応的に出力することによって対話の自然さを実現し、ま
たヒュ−マンインタ−フェイスの優れた音声対話装置を
提供することを目的とする。
【0005】
【課題を解決するための手段】この発明は前記課題を解
決するために、入力音声を認識する音声認識部と、応答
音声を合成出力する音声合成部と、前記音声認識部の認
識結果に基づいてユーザの意図を判断し、ユーザとの対
話の流れを管理する対話管理部と、前記対話管理部の指
示情報に基づき応答メッセージを生成する応答メッセー
ジ生成部と、あらかじめあらゆる対話の状況における応
答を想定した応答文の情報を格納している合成応答文メ
モリと、対話履歴を蓄積して管理する対話履歴管理部
と、前記対話履歴に基づいて対話の自然性が損なわれな
い範囲内を一つの対話状態として判定する対話状態判定
部と、対話状態間の遷移に対応して最も適切と判断され
た前記合成応答文メモリ内の応答文を指定する情報を、
前記対話状態遷移のそれぞれについて格納した対話状態
遷移表とを有し、前記対話状態遷移があったときに前記
対話状態遷移表及び前記合成応答文メモリの内容に基づ
いて当該状態遷移に対して最も適切な応答文を生成する
ようにしたことを特徴とする。
【0006】
【作用】この発明によれば、対話履歴管理部は対話の履
歴を管理しながら内部に蓄積し、この対話履歴に基づい
て対話状態判定部は対話の自然性が損なわれない範囲の
対話を一つの対話状態と判定し、一方、対話状態遷移表
にはあらゆる対話状態の遷移に対応した合成応答文メモ
リ内の応答文を指示出来る情報が格納されている。対話
管理部は対話状態が遷移したときに対話状態遷移表から
対応する応答文の指示情報を検索して応答メッセージ生
成部に伝達し、応答メッセージが作成される。これによ
り対話の履歴に応じて常に適切な応答文で応答すること
ができ、より自然で、ヒューマンインターフェースに優
れた音声対話装置の実現が可能となり、前記課題が解決
される。
【0007】
【実施例】第1図は、本発明の音声対話装置の一実施例
の構成を示すブロック図である。ここで、101は入力
音声、102は音声認識部、103は音声合成部、10
4は応答音声、105は対話管理部、106は対話履歴
管理部、107は対話状態判定部、108は対話状態遷
移表、109は合成応答文メモリ、110は応答メッセ
ージ生成部である。以下、各部の動作について説明す
る。
【0008】先ず、ユーザが音声を入力すると、入力音
声101は音声認識部102において記号としての認識
結果に変換される。音声認識部102の内部において
は、例えば、次のような処理がなされる。入力されたア
ナログ音声波形は、先ず、AD変換され、線形予測分析
等によってケプストラム等の特徴パラメータの時系列に
変換され、さらにベクトル量子化によって、離散的なベ
クトル列に変換される。このベクトル列がマルコフ過程
に従って、出力されていると仮定し、あらかじめ用意さ
れた認識単位毎の隠れマルコフモデルを適用して生成確
率を計算し、もっとも確率の大きかったモデルが表すカ
テゴリを認識結果として出力する。また、このとき認識
対象が限定されてるなどの場合、文法的に許容される認
識結果のみを受理し、パープレキシティの削減を図って
認識性能を高める処理をする。
【0009】以上の処理により、音声認識部102より
出力された認識結果は、対話管理部105に送られる。
対話管理部105では、対話の流れを管理しており、当
該認識結果の意味をキーワード等から解析し、その意味
内容から、次に続くべき応答文を生成すべく応答メッセ
ージ生成部110に指令を発して、対話を成立させる。
【0010】例えば、ここで天気予報についての情報案
内タスクが採用されている場合を考える。「明日の東京
の天気を教えて下さい。」というユーザの発話があった
ときに、「教えて」というキーワードより、ユーザが当
該情報についての検索を要求していると判断する。ただ
し、当該タスクが情報の検索のみを扱っている場合に
は、検索を要求していることは明かであるから、その場
合には、ユーザの発話は常に検索要求として受け取るこ
ととなる。そして「明日」という言葉から時間情報、
「東京」から場所情報、「天気」より情報の種類が確定
し、ユーザの意図が一意に判断できる。ユーザの意図が
確定したら、対話管理部105はユーザの所望の情報を
データベースから検索し、検索結果を応答メッセージ生
成部110及び音声合成部103に通知し、最終的に
「明日の東京の天気は快晴です。」という応答文が生成
される。
【0011】また逆に、時間、場所、種類のいずれかの
情報が欠けている場合、例えばユーザが「東京の天気を
教えて下さい」とだけ言って、時間情報について何等明
示しなかったときは、検索のための情報が不確定である
とみなして、「いつの東京の天気ですか?」という応答
文を生成するための情報を応答メッセージ生成部110
に伝達する。また、ユーザがなかなか話しかけようとは
しないとき、即ち、空き時間が一定以上に達したときな
どは、ユーザに発話を促すためのガイダンスを与える等
することにより対話を導いていく。
【0012】以上のように対話管理部105は、ユーザ
からの音声入力について、その認識結果の意味を解析
し、それに対して答えたり、ユーザに対話を促したりす
るために、応答メッセージ生成部110及び音声合成部
103を制御しがら、対話を成立させる役割を担ってい
る。
【0013】応答メッセージ生成部110は、上述した
ように対話管理部105から送られてきた情報に基づい
て、応答メッセージを生成する。例えば、当該対話につ
いての対話管理部105の判断として「天気情報検索に
ついての検索」、「場所情報=未確定」、「時間情報=
明後日」、「天気情報=予想気温」という各項目につい
ての情報が送られてきたとする。すると応答メッセージ
生成部110は、当該情報より、天気予報タスクで場所
情報だけが未確定である場合であると判断し、合成応答
文メモリ109の中から当該対話状況に即した合成文を
検索する。合成応答文メモリ109では、各対話状況毎
の合成文がすべて用意されており、例えば、上の例なら
ば「どこのXXの○○ですか?」という形式で格納され
ている。ここで、XXは時間情報、○○は天気情報を意
味しているが、これらはまだ確定していないパラメータ
として表現されている。検索が終了すると、応答メッセ
ージ生成部110は、当該合成文のパラメータの中に確
定した情報、ここでは時間と天気情報を当てはめて、最
終的な応答メッセージを生成する。従って、「どこの明
後日の予想気温ですか?」という合成文が生成される。
応答メッセージ生成部110は、このようにして生成さ
れた合成文を音声合成部103に送る。
【0014】音声合成部103では、送られてきた合成
文に基づいて、当該合成文に対応する素片データを収集
して、応答音声104として出力する。
【0015】以上の経緯だけならば、従来の音声対話装
置と何等変わるところは無いが、本発明による実施例で
は、対話履歴管理部106及び対話状態判定部107及
び対話状態遷移表108に基づき、対話の状況に沿った
適切な応答を達成することに、最大の特徴がある。以
下、これらの動作について説明する。
【0016】先ず、ユーザと本発明の音声対話装置とが
対話のやりとりを行っているときの対話は、対話履歴管
理部106の管轄において監視され、その履歴は対話履
歴として内部メモリに蓄えられていく。対話状態判定部
107では、当該対話履歴に基づいて、対話を構成する
個々の対話状態をリアルタイムに抽出していく。ここ
で、ある一つの応答音声が、ユーザに対して同一の心理
的作用を及ぼしうると考えられる対話範囲を同一の話題
とし、同一の話題の範囲内でやりとりをしている対話単
位が、一つの対話状態とみなされる。ただし、認識誤り
に対して何回も確認をした場合には、たとえ同一話題、
同一応答文であったとしても、その回数に応じて、ユー
ザに与える心理的影響は異なると考えられるので、一定
回数の確認毎に異なる対話状態に遷移していくものとす
る。
【0017】従って、対話状態が同一ならば同一の応答
文でもって対処しても不自然ではないが、対話状態が変
わっても、それに対して何等的確な応答をせず、また同
一の応答文で対処しようとすると、ユーザに対して奇異
な印象を与えることとなる。そこで、対話状態の遷移に
伴って、適切な応答文を生成して、ユーザに自然な対話
の流れを感じさせることはヒューマンインターフェイス
の向上にとって重要であり、本発明の目的もそこにあ
る。
【0018】この目的の達成のために、本実施例では、
対話状態遷移表108にあらかじめ考えられうる対話状
態遷移間に対応するすべての応答文の合成応答文メモリ
109におけるアドレスを格納しておく。対話管理部1
05は、対話状態判定部107において、対話履歴に基
づいて判定された対話状態が遷移したときに、対話状態
遷移表108から当該状態遷移に対応する応答文のアド
レスを検索し、当該アドレスを応答メッセージ生成部1
10に伝達する。応答メッセージ生成部110は、合成
応答文メモリ109から、当該アドレスに対応する応答
文を読みとることによって、応答メッセージを生成し、
音声合成部103に送る。音声合成部103では、当該
応答メッセージを実際の合成音104として出力し、対
話状態遷移に伴う適切な応答が可能となり、自然な対話
が達成できる。
【0019】次に実際の対話に本発明を応用した例につ
いて説明する。図2に、対話状態が遷移していく様子を
表した対話状態遷移図を示す。ここでは、最も簡単に話
題Sは一つしかないとする。従って、最低でも認識誤り
に対する確認回数(ゼロを含む)の分だけ対話状態が存
在していることになる。図2では最大3回までの確認を
許容しているため、その対話状態をS0、S1、S2、S3
と表す。ここで、添え字が確認回数を示している。ま
た、当該対話が終了した状態も一つの対話状態とみなせ
るため、これをEと表すこととし、さらにユーザの対応
の相違により、終了した状態も複数ありうることから、
ここでは3種類あると仮定し、それぞれE1、E2、E3
で表す。なお、3回の確認をもってしてもなお認識誤り
になったとき、即ち対話が成立しなかった場合の状態を
Fとすることとする。
【0020】また、ここでは、話題Sの遷移に伴って、
出力される応答文をPで表し、話題Sから終了状態Eへ
の遷移に伴って出力される応答文をQで表すこととす
る。P、Qに添えられた数字は、それぞれ、遷移前と遷
移後の対話状態を区別するための添え字を意味している
ものとする。即ち、S0からS1、S1からS2、S2から
3に遷移したときの応答文はそれぞれP01、P12、P
23とする。また、S0からE1、E2、E3では、Q01、Q
02、Q03が、S1からE1、E2、E3では、Q11、Q12
13が、S2からE1、E2、E3ではQ21、Q22、Q
23が、S3からE1、E2、E3ではQ31、Q32、Q33がそ
れぞれ対応する。なお、FからE1、E2、E3の状態遷
移に伴って、出力された応答文はR1、R2、R3であ
る。
【0021】ここで、話題Sを道路交通情報の問い合わ
せであるとして以下に説明する。図2(a)では、S0
からEへの状態遷移を表している。即ち、一回も認識誤
りを犯すことなく認識した後、対話終了となった場合で
ある。この場合の応答文は、ユーザが満足しているとみ
なして、それに対応したものになっている。例えば、次
のような対話のやりとりである。
【0022】< 図2(a)における対話例 > T1(システム): 画面に表示されている道路名の中
からお好きなものを選んで下さい。 T2(ユーザ) : 東名高速をお願いします。 T3(システム): 東名高速ですね? T4(ユーザ) : はい、そうです。 T5(システム): 承知しました。これから検索しま
すので、少々お待ち下さい。 T6(システム): 東名高速の午後2時現在の交通事
情は、4kmの渋滞となっております。 T7(システム): 他の道路についても検索しますか
? T8(ユーザ) : おわり。 T9(システム): 道路交通情報をご利用頂きありが
とうございました。
【0023】上の対話例では、T1からT6までが、一つ
の対話状態S0を表しており、T7、T8が対話状態の遷
移部分となる対話である。対話状態判定部107は、こ
のような対話の遷移部分を検出して、対話状態の遷移を
判断する。そして、T8のようなユーザの応答で対話が
終了する場合の状態をE1とすれば、T9がQ01に相当す
る応答文となっている。T9は、一度も認識誤りを犯し
ていなかったことに鑑みて、ユーザは満足しているとみ
なして、利用に対する感謝を表すのみにとどまってい
る。ここで、例えば、T8におけるユーザの応答とし
て、 例1 : ありがとうございました。 例2 : もういい。 という場合も考えられる。例1では、ユーザは感謝の意
を、例2では、不満を内在させていると解釈できるか
ら、それに対して何か対応しなければ、自然な対話は達
成できない。そこで、それぞれの終わりの状態をE2
3として区別し、対応する応答文もQ02、Q03とし
て、個別に対応する。ここで、Q02、Q03の例として、
例えば、次のような対応が考えられる。 Q02の例: どういたしまして。またのご利用をお待ち
しております。 Q03の例: なにか問題点がございましたら、係りの者
におっしゃってください。 道路交通情報をご利用頂きありがとうございました。
【0024】ここで、Q03の例では「もういい」という
言葉の裏に隠されたユーザの不満の可能性に対する対処
を述べている。、あからさまに「すみませんでした。」
というようにしなかったのは、特に不満はなくとも「も
ういい」というユーザもいると考えられるからである。
しかし、図2(b)のS1のように一回認識誤りを犯し
た後に対話が成立した状態から、E3に終了した場合に
は、ユーザの不満は図2(a)よりも大きいのは明白で
ある。さらに図2(c)のS2、図2(d)のS3のよう
に確認回数が増えるにつれて、ユーザの不満は増大す
る。従って、それに対する応答文Q13、Q23、Q33は、
不満に応じた適切な対応が必要になってくる。特にFか
らE3のように対話そのものが成立しないで終わった場
合の応答文R3には、注意する必要がある。
【0025】本実施例では、例えば、次のように応答す
る。 R3: 「今後は、もっと性能の向上に努めますので、
なにとぞ、ご容赦ください。またのご利用をお待ちして
おります。」 また、S3やFからE2に遷移して終わった場合は、ユー
ザは感謝の言葉を述べているものの、不満を抱えている
と判断できるので、これに対する応答文は「どういたし
まして。」で始まるのは、明らかに自然な対話とは言い
がたい。そこで、Q32の例としては、次のような応答が
考えられる。 Q32: 「認識結果が悪かったにもかかわらず、おほめ
下さって、恐縮です。今後は、もっとがんばりますの
で、よろしくお願いします。」
【0026】またPは、同一の話題の対話であっても認
識誤りを犯したために、対話状態が変わったとみなされ
た対話状態間の遷移に対応する応答文である。例えば、
01、即ち、一回目の対話で失敗し、再度チャレンジす
るときにユーザにガイダンスするための応答文の例で
は、次のものがあげられる。 P01: 「もう一回チャレンジしてみましょう。」 しかし、P12やP23でもP01と同じ応答文を採用するの
は、対話の自然な流れに反する。そこで、Pについても
状態遷移に応じて、応答内容を適応的に変更するのが望
ましい。P23の例としては、次のような応答が考えられ
る。 P23: 「今度こそ、よい結果をだせるようにがんばり
ます。」 以上のように、対話の状態遷移に応じて、それに応答し
た的確な合成文を生成することによって、ヒューマンイ
ンターフェイスに優れた自然な対話が実現できる。
【0027】なお、図1の各部の構成、配列、入出力の
流れ等は、本発明と同一の効果を奏する範囲内で、任意
好適に変更可能である。また、対話状態判定部107に
おける対話状態の判定方法は、上述の例のように状態遷
移に伴うキーワードから判定する方法だけではなく、例
えば、それぞれの話題で発声される認識対象語をあらか
じめグルーピングしておき、認識結果がどのグループに
属するかまたは一定の対話の範囲内でどのグループの認
識対象語が最も頻繁に出現するかを判定することによっ
て当該話題を推定する方法もある。
【0028】また、対話状態の遷移は、必ずしもこの通
りであるとは限らず、複数の話題間の遷移や一つの対話
状態からの分岐がいくつの場合であっても本発明の適用
は妨げられない。なお、上述の例では同一の話題であっ
ても、最終的な確認の際に認識誤りがあったときに異な
る状態に遷移したとみなしていたが、この認識誤りの回
数は必ずしも1回であるとは限らない。例えば、確認に
対する認識誤りが2回またはそれ以上あった場合に対話
状態が遷移したとみなすようにすることもできる。これ
らの回数は、本来任意的なものではなく、対話の自然性
を保つように定めるべきだからである。
【0029】
【発明の効果】以上、詳細に説明したように本発明によ
る音声対話装置においては、入力音声を認識する音声認
識部と、応答音声を合成出力する音声合成部と、前記音
声認識部の認識結果に基づいてユーザの意図を判断し、
ユーザとの対話の流れを管理する対話管理部と、前記対
話管理部の指示情報に基づき応答メッセージを生成する
応答メッセージ生成部と、あらかじめあらゆる対話の状
況における応答を想定した応答文の情報を格納している
合成応答文メモリと、対話履歴を蓄積して管理する対話
履歴管理部と、前記対話履歴に基づいて対話の自然性が
損なわれない範囲内を一つの対話状態として判定する対
話状態判定部と、対話状態間の遷移に対応して最も適切
と判断された前記合成応答文メモリ内の応答文を指定す
る情報を、前記対話状態遷移のそれぞれについて格納し
た対話状態遷移表とを有し、前記対話状態遷移があった
ときに前記対話状態遷移表及び前記合成応答文メモリの
内容に基づいて当該状態遷移に対して最も適切な応答文
を生成するようにしたので、ユーザとの通常の対話が可
能であるのは勿論のこと、対話の履歴等に応じた適切な
応答文が生成されるので、より自然な対話、より優れた
ヒューマンインターフェイスを持つ音声対話装置が実現
できる。
【図面の簡単な説明】
【図1】本発明の音声対話装置の一実施例の構成を示す
ブロック図である。
【図2】対話状態遷移図である。
【符号の説明】
101 入力音声 102 音声認識部 103 音声合成部 104 応答音声 105 対話管理部 106 対話履歴管理部 107 対話状態判定部 108 対話状態遷移表 109 合成応答文メモリ 110 応答メッセージ生成部

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 入力音声を認識する音声認識部と、 応答音声を合成出力する音声合成部と、 前記音声認識部の認識結果に基づいてユーザの意図を判
    断し、ユーザとの対話の流れを管理する対話管理部と、 前記対話管理部の指示情報に基づき応答メッセージを生
    成する応答メッセージ生成部と、 あらかじめあらゆる対話の状況における応答を想定した
    応答文の情報を格納している合成応答文メモリと、 対話履歴を蓄積して管理する対話履歴管理部と、 前記対話履歴に基づいて対話の自然性が損なわれない範
    囲内を一つの対話状態として判定する対話状態判定部
    と、 対話状態間の遷移に対応して最も適切と判断された前記
    合成応答文メモリ内の応答文を指定する情報を、前記対
    話状態遷移のそれぞれについて格納した対話状態遷移表
    とを有し、 前記対話状態遷移があったときに前記対話状態遷移表及
    び前記合成応答文メモリの内容に基づいて当該状態遷移
    に対して最も適切な応答文を生成するようにしたことを
    特徴とする音声対話装置。
  2. 【請求項2】 請求項1記載の音声対話装置における前
    記対話状態判定部は、 ユーザに対して同一の心理作用を及ぼすと考えられる対
    話範囲を同一の話題とすると共に前記同一の話題の範囲
    内でのユーザと当該音声対話装置とのやりとりを同一の
    対話状態とみなし、前記同一の話題の範囲内においてユ
    ーザの音声入力に対して認識誤りがあり、当該認識誤り
    に対して確認を行なった場合には当該確認が一定の回数
    を越えたときをもって対話状態が遷移したものとみなす
    ことにより対話状態を判定することを特徴とする音声対
    話装置。
  3. 【請求項3】 請求項1、2項記載の音声対話装置にお
    いて前記対話状態判定部は、各話題に於ける認識対象語
    を予めグループ分けしておき、各グループ毎の認識対象
    語の発生頻度に基づいて同一話題の判定を行なうことを
    特徴とする音声対話装置。
JP6032254A 1994-03-02 1994-03-02 音声対話装置 Pending JPH07239694A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6032254A JPH07239694A (ja) 1994-03-02 1994-03-02 音声対話装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6032254A JPH07239694A (ja) 1994-03-02 1994-03-02 音声対話装置

Publications (1)

Publication Number Publication Date
JPH07239694A true JPH07239694A (ja) 1995-09-12

Family

ID=12353887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6032254A Pending JPH07239694A (ja) 1994-03-02 1994-03-02 音声対話装置

Country Status (1)

Country Link
JP (1) JPH07239694A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073080A (ja) * 2000-09-01 2002-03-12 Fujitsu Ten Ltd 音声対話システム
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
KR100554397B1 (ko) * 2003-03-25 2006-02-22 조승호 대화형 음성 인식 시스템 및 방법
KR100580619B1 (ko) * 2002-12-11 2006-05-16 삼성전자주식회사 사용자와 에이전트 간의 대화 관리방법 및 장치
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2010282404A (ja) * 2009-06-04 2010-12-16 Toyota Motor Corp 対話処理装置、対話処理方法、及び対話処理プログラム
KR101037247B1 (ko) * 2009-06-18 2011-05-26 포항공과대학교 산학협력단 외국어 회화 연습 방법 및 장치와 이것의 빠른 개발과 검증을 돕는 학습자 시뮬레이션 방법과 장치
WO2011074771A3 (ko) * 2009-12-16 2011-08-25 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법.
JP2015052744A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2015052743A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015052745A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
KR20190054787A (ko) * 2017-11-14 2019-05-22 (주) 엔에이치엔다이퀘스트 음성 대화 제어 방법 및 장치

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002073080A (ja) * 2000-09-01 2002-03-12 Fujitsu Ten Ltd 音声対話システム
JP2002169591A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、及び情報記憶媒体
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2002169804A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
KR100446627B1 (ko) * 2002-03-29 2004-09-04 삼성전자주식회사 음성대화 인터페이스를 이용한 정보제공장치 및 그 방법
KR100580619B1 (ko) * 2002-12-11 2006-05-16 삼성전자주식회사 사용자와 에이전트 간의 대화 관리방법 및 장치
KR100554397B1 (ko) * 2003-03-25 2006-02-22 조승호 대화형 음성 인식 시스템 및 방법
JP2010009484A (ja) * 2008-06-30 2010-01-14 Denso It Laboratory Inc 車載機器制御装置および車載機器制御方法
JP2010282404A (ja) * 2009-06-04 2010-12-16 Toyota Motor Corp 対話処理装置、対話処理方法、及び対話処理プログラム
KR101037247B1 (ko) * 2009-06-18 2011-05-26 포항공과대학교 산학협력단 외국어 회화 연습 방법 및 장치와 이것의 빠른 개발과 검증을 돕는 학습자 시뮬레이션 방법과 장치
WO2011074771A3 (ko) * 2009-12-16 2011-08-25 포항공과대학교 산학협력단 외국어 학습 장치 및 그 제공 방법.
CN102667889A (zh) * 2009-12-16 2012-09-12 浦项工科大学校产学协力团 用于外语学习的设备和方法
US9767710B2 (en) 2009-12-16 2017-09-19 Postech Academy-Industry Foundation Apparatus and system for speech intent recognition
JP2015052744A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2015052743A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理装置の制御方法、及びプログラム
JP2015052745A (ja) * 2013-09-09 2015-03-19 Necパーソナルコンピュータ株式会社 情報処理装置、制御方法、及びプログラム
JP2017516153A (ja) * 2014-05-20 2017-06-15 アマゾン テクノロジーズ インコーポレイテッド 以前の対話行為を使用する自然言語処理における文脈解釈
KR20190054787A (ko) * 2017-11-14 2019-05-22 (주) 엔에이치엔다이퀘스트 음성 대화 제어 방법 및 장치
WO2019098539A1 (ko) * 2017-11-14 2019-05-23 주식회사 다이퀘스트 음성 대화 제어 방법 및 장치

Similar Documents

Publication Publication Date Title
US8180647B2 (en) Automated sentence planning in a task classification system
WO2021160191A1 (zh) 一种实现人机协同的语音通讯系统及方法
US8185401B2 (en) Automated sentence planning in a task classification system
US8209186B2 (en) Method for automated sentence planning in a task classification system
US9558745B2 (en) Service oriented speech recognition for in-vehicle automated interaction and in-vehicle user interfaces requiring minimal cognitive driver processing for same
EP3582119A1 (en) Spoken language understanding system and method using recurrent neural networks
Zue et al. Conversational interfaces: Advances and challenges
US9251142B2 (en) Mobile speech-to-speech interpretation system
US8566098B2 (en) System and method for improving synthesized speech interactions of a spoken dialog system
JPH07239694A (ja) 音声対話装置
Souvignier et al. The thoughtful elephant: Strategies for spoken dialog systems
US20100057461A1 (en) Method and system for creating or updating entries in a speech recognition lexicon
US20030115062A1 (en) Method for automated sentence planning
US20020087317A1 (en) Computer-implemented dynamic pronunciation method and system
CN111128175B (zh) 口语对话管理方法及系统
US10854196B1 (en) Functional prerequisites and acknowledgments
Komatani et al. Flexible spoken dialogue system based on user models and dynamic generation of VoiceXML scripts
CN115552517A (zh) 自动化助理响应呈现的无热词抢占
Hempel Usability of speech dialog systems: listening to the target audience
CN113936660B (zh) 具有多个语音理解引擎的智能语音理解系统和交互方法
JPH07210193A (ja) 音声対話装置
KR20240087228A (ko) 박물관 안내를 위한 메타휴먼의 시나리오 기반 맞춤 대화형 ai 키오스크 시스템 및 이의 제어 방법
Adams CEO et al. Automated Speech Recognition for Captioned Telephone Conversations
JPH0950290A (ja) 音声認識装置および該装置を用いた通信装置