JP2006171399A - データ入力装置 - Google Patents

データ入力装置 Download PDF

Info

Publication number
JP2006171399A
JP2006171399A JP2004364218A JP2004364218A JP2006171399A JP 2006171399 A JP2006171399 A JP 2006171399A JP 2004364218 A JP2004364218 A JP 2004364218A JP 2004364218 A JP2004364218 A JP 2004364218A JP 2006171399 A JP2006171399 A JP 2006171399A
Authority
JP
Japan
Prior art keywords
input
data
progress
sound
sound information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004364218A
Other languages
English (en)
Inventor
Yoshifumi Hirose
良文 廣瀬
Makoto Nishizaki
誠 西崎
Yumiko Kato
弓子 加藤
Katsuyoshi Yamagami
勝義 山上
Takeo Oono
剛男 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2004364218A priority Critical patent/JP2006171399A/ja
Publication of JP2006171399A publication Critical patent/JP2006171399A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 入出力情報が音に限定される場合においても、ユーザに対話を中断させることなく対話の進捗率度を対話を中断することなく提示することができる音声対話装置を提供する。
【解決手段】 複数のスロットから構成されるタスクフレームの各スロットにデータを入力する音声対話装置であって、ユーザからの各スロットへのデータの入力を受け付ける入力部101と、タスクフレームの複数のスロットへのデータの入力の進捗度を算出する対話管理部103と、タスクフレームに対応した音情報を記憶する音情報DB105と、進捗度に基づいて、音情報の変化または選択を行なう出力音生成部106と、ユーザへ各スロットのデータの入力を要求する音声出力部104と、音声出力部104によるデータの入力要求と同時に、変化または選択後の音情報を再生出力する音出力部107とを備える。
【選択図】 図1

Description

本発明は、対話の進捗度をユーザに提示しながらデータを入力するためのデータ入力装置に関するものである。
従来、人間と機械との対話により、ユーザが所望する動作を実現する技術として、スロットフィリングという技術が知られている(例えば特許文献1参照)。図10は特許文献1に記載された従来の対話装置を示す図である。
この対話装置は、発話者1との対話を通じて航空機の予約等を行なうための装置であり、音声処理部3、対話管理部5、スクリプトデータ記憶部7、知識ベース9、スロット11および応答情報記憶部13により構成されている。発話者1は対話形式により情報をシステムに伝える。対話管理部5は、発話内容解析部19、対話処理部21および知識ベース処理部23により構成され、発話内容解析部19は、発話者1より入力された発話情報より航空機の予約のために必要な情報を抽出し、スロット11に記憶させる。また、対話処理部21は、スロット11に記憶された情報に基づいて、未だ取得されていない残余の情報の入力を促す応答情報を応答情報記憶部13から取得し、発話者1に対して発話するため取得した応答情報を音声処理部3に出力する。このような対話装置により、例えば航空機の予約に必要なすべての情報がスロット11に入力されると航空機の予約を行うという技術がある。
特開2002−23783号公報(段落0012から段落0019、第1図)
しかしながら、従来の対話装置を音声ポータルサービスなどの入出力情報が音に限定される場合に適用させるためには、対話の進捗度を視覚的情報により提示することができない。このため、対話の進捗度を言語表現に変換して、対話装置と対話者(以下「ユーザ」という。)との対話を一時的に中断しながら、進捗度を表す言語表現を挿入するなどの必要がある。
そのため、ユーザは対話の進捗度の提示を受けるたびに、対話を中断しなければならないという課題を有している。
本発明は、上述の課題を解決するためになされたもので、音声ポータルサービスなど入出力情報が音に限定される場合においても、ユーザに対話を中断させることなく対話の進捗度を提示することができるデータ入力装置を提供することを目的とする。
本発明に係るデータ入力装置は、ユーザと対話を行いながら、複数の項目から構成される少なくとも1つ以上の入力フレームの各項目にデータを入力するデータ入力装置であって、前記ユーザからの前記各項目へのデータの入力を受け付ける入力受け付け手段と、前記入力フレームの前記複数の項目へのデータの入力の進捗度を算出する進捗度算出手段と、前記入力フレームにそれぞれ対応した少なくとも1つ以上の音情報を記憶する音情報記憶手段と、前記進捗度に基づいて、前記音情報の変化または選択を行なう音情報変化手段と、前記ユーザへ前記各項目へのデータの入力を要求する入力要求手段と、前記入力要求手段によるデータの入力要求と同時に、変化または選択後の音情報を再生出力する音出力手段とを備えることを特徴とする。
この構成によると、入力フレームの複数の項目へのデータ入力の進捗度に応じて変化または選択された音情報がデータの入力要求と同時に再生出力される。このため、ユーザは、データ入力の進捗度を音情報変化等により直感的に知ることができる。このため、ユーザに対話を中断させることなく対話の進捗度をユーザに提示することが可能となる。
好ましくは、前記音情報変化手段は、前記入力フレームごとの前記進捗度に基づいて、前記入力フレームごとの重みを決定する重み決定部と、前記入力フレームごとの重みに基づいて、前記入力フレームに対応する音情報を混合する音混合部とを有することを特徴とする。
入力フレームごとの進捗度に基づいて、音情報が混合され、出力される。このため、音が大きく聞こえる音情報に対応する入力フレームへのデータ入力の進捗度が大きいことを、ユーザは直感的に理解することができる。
また、前記音情報変化手段は、前記入力フレームごとの前記進捗度が最大となる入力フレームを特定する入力フレーム特定部と、特定された前記入力フレームに対応する音情報を選択する音選択部とを有することを特徴としてもよい。
入力フレームごとの進捗度に基づいて、もっとも進捗度の高い入力フレームに対応する音情報が選択され、出力される。このため、現在のデータの入力時点で最も進捗度が大きい入力フレームを、ユーザは直感的に理解することができる。
さらに、前記進捗度算出手段は、所定の入力フレームの前記複数の項目へのデータの入力の進捗度を算出し、前記音情報変化手段は、前記進捗度に基づいて、前記所定の入力フレームに対応する音情報の音量、音源位置および音程のうちの少なくとも1つを変化させる
ことを特徴としてもよい。
進捗度の変化につれて、所定の入力フレームに対する音情報の音量等が変化する。このため、所定の入力フレームに対するデータの入力の進み具合がどの程度であるかを、ユーザは直感的に理解することができる。
なお、本発明は、このような特徴的な手段を備えるデータ入力装置として実現することができるだけでなく、データ入力装置に含まれる特徴的な手段をステップとするデータ入力方法として実現したり、データ入力方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM(Compact Disc-Read Only Memory)等の記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言うまでもない。
本発明の音声対話装置によれば、音声ポータルサービスなど音のモーダルのみの使用しかできない場合においても、ユーザに対話を中断させることなく、音声対話装置とユーザとの対話の進捗度をユーザに提示することが可能となる。
本発明は、ユーザが自分の目的に合う条件を順次入力することにより、多数あるタスクの候補の中から効率的にユーザの目的に合うタスクを検索する対話システムに適用される。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1に係る音声対話装置の構成を示すブロック図である。
音声対話装置100は、スロットフィリングの技術を用い、かつユーザと音声による対話を通じて各種チケット等の予約を行なうためのシステムに用いられる装置であり、入力部101と、タスクフレームDB(データベース)102と、対話管理部103と、音声出力部104と、音情報DB105と、出力音生成部106と、音出力部107とを備えている。
入力部101は、ユーザからの入力を受け付ける処理部である。ユーザからの入力方法は特に限定されるものではなく、例えば、マイクによる音声入力や、キーボードによるテキスト入力であっても構わない。
タスクフレームDB102は対話システムが実行可能なタスクについての情報を保持するデータベースである。図2にタスクフレームDBの一例を示す。本実施の形態では、音声対話装置100は、対話システムの一例であるチケット予約システムに用いられ、実行可能なタスクとしては、新幹線チケット予約、飛行機チケット予約、船チケット予約、バスチケット予約などがある。各フレームには、タスクを実行する為に必要なスロットが定義されている。例えば、新幹線チケット予約フレーム501には、新幹線のチケットを予約する為に必要な情報である「何時発」「何時着」「どこから」「どこまで」「車種」「座席」「喫煙」などがスロットとして定義され、それらの情報がスロットに記憶される。
対話管理部103は、タスクフレームDB102と、入力部101からのユーザの入力とを参照しながら、ユーザとの対話を管理する処理部である。対話管理部103は、ユーザからの入力に基づいて、タスクフレームDB102を参照して、ユーザからの入力中に各タスクフレームのスロットに関する情報が含まれているか否かを判断し、当該情報が含まれている場合には、各タスクフレームのスロットに当該情報を記憶する。例えば、ユーザが「6時発」と発声した場合には、対話管理部103は、各タスクフレームの「何時発」のスロットに「6時」という値を記憶する。また、タスク管理部は、必要に応じてユーザに次の入力を促す応答文を生成し、音声出力部104へ出力する。
音声出力部104は、対話管理部103より出力されるユーザへの応答文に対応する応答音声を生成して出力する処理部である。
音情報DB105は、タスクフレームDB102に保持されているタスクに関連した音情報を格納する音情報DBである。図3にタスクに関連する音情報の一例を示す。図3では、新幹線チケット予約に関連する音として、新幹線に関連する背景音、例えば、新幹線の走行音などの音声波形情報が音情報として保持されている。
出力音生成部106は、対話管理部103により管理されているタスクフレームDB102の状態に基づいて、音情報DB105に保持されている音情報から出力音を生成する処理部である。
音出力部107は、出力音生成部106により生成された出力音を再生する処理部である。
次に、音声対話装置100の実行する処理について図4のフローチャートを用いて説明する。
入力部101は、ユーザからの入力を受け付ける(S01)。
対話管理部103は、対話が完了したか否かを判断し(S02)、完了していれば(S02でYES)、処理を終了する。対話が完了したか否かの判断は、少なくとも1つのフレームの必須のスロットすべてにデータが書き込まれており、かつ、ユーザが入力部101において、処理の終了を宣言した場合か否かにより行なわれる。処理の終了の宣言は、例えば、ユーザが「処理を終了します」との入力をした場合などである。
対話が完了していなければ(S02でNO)、対話管理部103は、タスクフレームDB102に保持されている各タスクのタスクフレームにおいて該当するスロットの値を埋める。例えば、ユーザが「6時発」と発声した場合には、各タスクフレームの「何時発」のスロットに「6時」という値を埋める。次に、対話管理部103は、現時点までにユーザが入力した項目と、各タスクのスロットの状況とに基づいて、スロットの充足度を算出し、その充足度を各タスクの進捗度とする(S03)。スロットの充足度は、タスク適合度またはタスク再現度により算出される。タスク適合度およびタスク再現度は、それぞれ式1および式2により計算される。
Figure 2006171399
Figure 2006171399
対話管理部103は、必要に応じて、ユーザに次の入力を促す応答文を生成する(S04)。例えば、「次の入力をお願いします」などといった応答文を生成する。応答文の生成方法は特に限定されるものではない。
一方、出力音生成部106は、対話管理部103が管理する各タスクの進捗度に基づいて音情報DB105に保持されているタスクに関連した音情報を用いて出力音を生成する(S05)。
出力音生成方法について以下に説明する。図5は、出力音生成部106をより詳細に記述した図である。出力音生成部106は、重み決定部201と、音混合部202とを備えている。重み決定部201は、対話管理部103により管理されている各タスクの進捗度に基づいて、音情報DB105により保持されている各タスクに関連する音情報の混合比度、すなわち各タスクの重みを決定する処理部である。音混合部202は、重み決定部201により決定された重みに基づいて、音情報DB105に保持されている各タスクに関連した音情報を混合し出力音声を生成する処理部である。重み決定部201は、式1により計算されるタスク適合度に基づいて、各タスクの重みを計算する。例えば、対話途中において、ユーザが、「6時発」、「東京から」、「グリーン車で」という情報を入力したものとする。このとき、対話管理部103により管理される各タスクフレームのスロットには、図2に示すような値が埋められている。図6は、この場合に、各タスクの進捗度を式1および式2を用いて計算した結果を示す図である。この時、重み決定部201はタスク適合度に基づき各タスクの重みを決定する。図6に示す例の場合、新幹線のタスクの重みは100÷(100+67+67+67)=0.33となり、飛行機、船およびバスのタスクの重みは、67÷(100+67+67+67)=0.22となる。
重み決定部201は、タスク再現度に基づいて各タスクの重みを決定するようにしても良い。この場合、新幹線のタスクの重みは、43÷(43+40+40+50)=0.34となり、飛行機および船のタスクの重みは、40÷(43+40+40+50)=0.31となり、バスのタスクの重みは、50÷(43+40+40+50)=0.39となる。
次に音混合部202が、音情報DB105により保持されている各タスクに関連した音情報を、重み決定部201により決定された重みに基づいて混合する。
なお、出力音生成部106を図7に示すように構成してもよい。図7において、出力音生成部106は、タスク同定部301と、音選択部302とを備える。タスク同定部301は、対話管理部103により管理されている各タスクの進捗度に基づき、ユーザの目的とするタスクを同定する処理部である。音選択部302は、タスク同定部301により同定されたタスクに関連する音情報を音情報DB105より選択する処理部である。
タスク同定部301によるタスクの同定方法としては、タスク適合度を用いる。図6の例の場合、タスク適合度が最も高い「新幹線チケット予約」がタスク同定部301により同定される。音選択部302は、音情報DB105に保持されている「新幹線チケット予約」に関連する音情報を選択する。
再度図4に示されるフローチャートを用いて音声対話装置100の実行する処理の続きについて説明する。音声出力部104は、対話管理部103により生成された応答文を再生する。また、音出力部107は、音声出力部104による応答文の再生と同じタイミングで、出力音生成部106により生成された各タスクに関連する音情報の混合音または選択された音情報を再生する(S06)。
以上説明した本実施の形態に係る音声対話装置100の構成によれば、対話管理部103が各タスクの進捗度を管理し、出力音生成部106が音情報DB105に保持されている音情報を各タスクの進捗度に基づいて混合または選択する。また、音声出力部104が、対話管理部103により生成されたユーザに対する応答文を音声出力するのに重畳して、音出力部107が、出力音生成部106により生成されたタスクの進捗度に基づく音情報をユーザに提示している。これにより、音声対話装置の内部状態である対話の進捗度(ユーザが所望しているであろうと音声対話装置が同定するタスク)を、音情報として対話のシーケンスと同時にユーザに提示することが可能となる。これにより、ユーザは、現在までの対話内容を、音声対話装置がどのように理解しているのかを確認しながら対話を進めることが可能になる。
また、応答文の音声出力に対話の進捗度等を示す音情報が重畳されて再生される。このため、ユーザに対話を中断させることなく、音声対話装置とユーザとの対話の進捗度をユーザに提示することができる。
(実施の形態2)
次に、本発明の実施の形態2に係る音声対話装置について図面を参照しながら説明する。実施の形態1に係る音声対話装置においては、タスクの進捗度を表現するために音情報を混合または選択し、再生を行なっていたが、実施の形態2に係る音声対話装置においては、タスクの進捗度を表現するために、音情報を加工して再生する点が実施の形態1とは異なる。
図8は、本発明の実施の形態2に係る音声対話装置の構成を示すブロック図である。
音声対話装置200は、図1に示した音声対話装置100の構成において出力音生成部106の代わりに出力音加工部401を用いたものである。その他の構成要素については、その機能および名称も同一であるため、同一の符号を用い、説明を省略する。
出力音加工部401は、対話管理部103により管理されているタスクの進捗度に基づいて、音情報DB105に保持されているタスクに関連した音情報を加工する処理部である。
次に、音声対話装置200の実行する処理について図9のフローチャートを用いて説明する。なお、音声対話装置200では、1つのタスク(例えば、新幹線予約に関するタスク)のみを実行するものとする。
入力部101は、ユーザからの入力を受け付ける(S11)。
対話管理部103は、対話が完了したか否かを判断し(S12)、完了していれば(S12でYES)、処理を終了する。対話が完了したか否かの判断は、実施の形態1に示した判断処理(図4のS02)と同様である。
対話が完了していなければ(S12でNO)、対話管理部103は、タスクフレームDB102に保持されているタスクフレームにおいて該当するスロットの値を埋める。例えば、ユーザが「6時発」と発声した場合には、タスクフレームの「何時発」のスロットに「6時」という値を埋める。次に、対話管理部103は、現時点までにユーザが入力した項目と、タスクのスロットの状況とに基づいて、タスクの進捗度を算出する(S13)。ここでは、上述の式2により計算されるタスク再現度をタスクの進捗度とする。
対話管理部103は、必要に応じて、ユーザに次の入力を促す応答文を生成する(S14)。例えば、「次の入力をお願いします」などといった応答文を生成する。応答文の生成方法は特に限定されるものではない。
一方、出力音加工部401は、対話管理部103が管理するタスクの進捗度に基づいて音情報DB105に保持されているタスクに関連した音情報を加工する(S15)。
ここで、出力音加工部401の動作について以下に説明する。対話システムが実行可能なタスクが「新幹線チケット予約」であった場合について説明する。現在のタスクの状況が、図2に示す新幹線チケット予約フレーム501に示されているような状況の場合、タスクの進捗度は、式2のタスク再現度により計算され、0.43と求められる。
出力音加工部401は、上述のタスク進捗度に基づいて、新幹線に関連する音情報を加工する。例えば、新幹線に関連する音情報が新幹線の走行音である場合、その新幹線の走行音の音量をタスク進捗度に応じて変更する。
または、音場制御技術を用いて新幹線走行音を出力する際の仮想音源位置をタスクの進捗度に応じて変更する。この場合、タスクの進捗度が高い程、仮想音源位置をユーザの近くに設定、すなわちタスク進捗度が1.0の時にはユーザの位置より音が出力されるように構成してもよい。
さらに、新幹線の走行音の高低をタスクの進捗度に応じて変更するようにしてもよい。この場合、タスクの進捗度が高いほど、新幹線の走行音が高い音により再生されるように構成してもよい。
再度図9に示されるフローチャートを用いて音声対話装置100の実行する処理の続きについて説明する。音声出力部104は、対話管理部103により生成された応答文を再生する。また、音出力部107は、音声出力部104による応答文の再生と同じタイミングで、出力音加工部401により加工されたタスクに関連する音情報を出力する(S16)。
以上説明した本実施の形態に係る音声対話装置200の構成によれば、対話管理部103が各タスクの進捗度を管理し、出力音加工部401が音情報DB105に保持されている音情報を各タスクの進捗度に基づいて加工する。また、音声出力部104が、対話管理部103により生成されたユーザに対する応答文を音声出力するのに重畳して、音出力部107が出力音加工部401により加工されたタスクの進捗度に基づく音情報をユーザに提示している。これにより、音声対話装置の内部状態である対話の進捗度(タスクが実行可能状態になるまでの割合)を、音情報として対話のシーケンスと同時にユーザに提示することが可能となる。これにより、ユーザは、現在までの対話により、どの程度、対話システムがタスクを実行可能な状態にあるのかを、対話を中断することなく理解することが可能となる。
以上、本発明の実施の形態に係る音声対話装置について説明したが、本発明は、この実施の形態に限定されるものではない。今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
本発明にかかる音声対話装置は、ユーザとシステムとの対話の進捗度を音情報により提示する手段を有し、音声対話インタフェース等として有用である。またカーナビゲーションシステムやディジタルテレビ等の用途にも適用できる。
本発明の実施の形態1における音声対話装置の構成を示すブロック図である。 タスクフレームDBが保持する各タスクのフレームの例を示す図である。 音情報DBが保持する各タスクに関連する音情報の例を示す図である。 実施の形態1に係る音声対話装置が実行する処理のフローチャートである。 出力音声生成部の構成を示す図である。 対話管理部が管理する各タスクの進捗度の例を示す図である。 出力音声生成部の構成を示す図である。 本発明の実施の形態2における音声対話装置の構成を示すブロック図である。 実施の形態2に係る音声対話装置が実行する処理のフローチャートである。 従来の対話装置の構成を示すブロック図である。
符号の説明
100,200 音声対話装置
101 入力部
102 タスクフレームDB
103 対話管理部
104 音声出力部
105 音情報DB
106 出力音生成部
107 音出力部
201 重み決定部
202 音混合部
301 タスク同定部
302 音選択部
401 出力音加工部

Claims (9)

  1. ユーザと対話を行いながら、複数の項目から構成される少なくとも1つ以上の入力フレームの各項目にデータを入力するデータ入力装置であって、
    前記ユーザからの前記各項目へのデータの入力を受け付ける入力受け付け手段と、
    前記入力フレームの前記複数の項目へのデータの入力の進捗度を算出する進捗度算出手段と、
    前記入力フレームにそれぞれ対応した少なくとも1つ以上の音情報を記憶する音情報記憶手段と、
    前記進捗度に基づいて、前記音情報の変化または選択を行なう音情報変化手段と、
    前記ユーザへ前記各項目へのデータの入力を要求する入力要求手段と、
    前記入力要求手段によるデータの入力要求と同時に、変化または選択後の音情報を再生出力する音出力手段と
    を備えることを特徴とするデータ入力装置。
  2. 前記音情報変化手段は、
    前記入力フレームごとの前記進捗度に基づいて、前記入力フレームごとの重みを決定する重み決定部と、
    前記入力フレームごとの重みに基づいて、前記入力フレームに対応する音情報を混合する音混合部とを有する
    ことを特徴とする請求項1に記載のデータ入力装置。
  3. 前記音情報変化手段は、
    前記入力フレームごとの前記進捗度が最大となる入力フレームを特定する入力フレーム特定部と、
    特定された前記入力フレームに対応する音情報を選択する音選択部とを有する
    ことを特徴とする請求項1に記載のデータ入力装置。
  4. 前記進捗度算出手段は、所定の入力フレームの前記複数の項目へのデータの入力の進捗度を算出し、
    前記音情報変化手段は、前記進捗度に基づいて、前記所定の入力フレームに対応する音情報の音量、音源位置および音程のうちの少なくとも1つを変化させる
    ことを特徴とする請求項1に記載のデータ入力装置。
  5. 前記進捗度算出手段は、前記入力フレームの前記複数の項目のうち、すでにデータが入力されている個数と、前記ユーザによるデータの入力回数との比から前記進捗度を算出する
    ことを特徴とする請求項1〜4のいずれか1項に記載のデータ入力装置。
  6. 前記進捗度算出手段は、前記入力フレームの前記複数の項目のうち、すでにデータが入力されている個数と、当該入力フレームに含まれる前記複数の項目の総数との比から前記進捗度を算出する
    ことを特徴とする請求項1〜4のいずれか1項に記載のデータ入力装置。
  7. ユーザと対話を行いながら、複数の項目から構成される少なくとも1つ以上の入力フレームの各項目にデータを入力するデータ入力方法であって、
    前記ユーザからの前記各項目へのデータの入力を受け付ける入力受け付けステップと、
    前記入力フレームの前記複数の項目へのデータの入力の進捗度を算出する進捗度算出ステップと、
    前記進捗度に基づいて、前記入力フレームにそれぞれ対応した少なくとも1つ以上の前記音情報の変化または選択を行なう音情報変化ステップと、
    前記ユーザへ前記各項目へのデータの入力を要求する入力要求ステップと、
    データの入力要求と同時に、変化または選択後の音情報を再生出力する音出力ステップと
    を含むことを特徴とするデータ入力方法。
  8. ユーザと対話を行いながら、複数の項目から構成される少なくとも1つ以上の入力フレームの各項目にデータを入力するためのプログラムであって、
    前記ユーザからの前記各項目へのデータの入力を受け付ける入力受け付けステップと、
    前記入力フレームの前記複数の項目へのデータの入力の進捗度を算出する進捗度算出ステップと、
    前記進捗度に基づいて、前記入力フレームにそれぞれ対応した少なくとも1つ以上の前記音情報の変化または選択を行なう音情報変化ステップと、
    前記ユーザへ前記各項目へのデータの入力を要求する入力要求ステップと、
    データの入力要求と同時に、変化または選択後の音情報を再生出力する音出力ステップと
    をコンピュータに実行させることを特徴とするプログラム。
  9. ユーザと対話を行いながら、複数の項目から構成される少なくとも1つ以上の入力フレームの各項目にデータを入力するプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
    請求項8に記載のプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
JP2004364218A 2004-12-16 2004-12-16 データ入力装置 Pending JP2006171399A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004364218A JP2006171399A (ja) 2004-12-16 2004-12-16 データ入力装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004364218A JP2006171399A (ja) 2004-12-16 2004-12-16 データ入力装置

Publications (1)

Publication Number Publication Date
JP2006171399A true JP2006171399A (ja) 2006-06-29

Family

ID=36672233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004364218A Pending JP2006171399A (ja) 2004-12-16 2004-12-16 データ入力装置

Country Status (1)

Country Link
JP (1) JP2006171399A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017517776A (ja) * 2014-10-29 2017-06-29 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 対話処理方法、対話管理システム、およびコンピュータ機器
WO2018034168A1 (ja) * 2016-08-17 2018-02-22 ソニー株式会社 音声処理装置および方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017517776A (ja) * 2014-10-29 2017-06-29 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 対話処理方法、対話管理システム、およびコンピュータ機器
WO2018034168A1 (ja) * 2016-08-17 2018-02-22 ソニー株式会社 音声処理装置および方法
JPWO2018034168A1 (ja) * 2016-08-17 2019-06-13 ソニー株式会社 音声処理装置および方法
US11081100B2 (en) 2016-08-17 2021-08-03 Sony Corporation Sound processing device and method
JP7036014B2 (ja) 2016-08-17 2022-03-15 ソニーグループ株式会社 音声処理装置および方法

Similar Documents

Publication Publication Date Title
JP6272901B2 (ja) 発話対象の識別
US8126716B2 (en) Method and system for collecting audio prompts in a dynamically generated voice application
KR101683943B1 (ko) 음성번역 시스템, 제1 단말장치, 음성인식 서버장치, 번역 서버장치, 및 음성합성 서버장치
JP4478939B2 (ja) 音声処理装置およびそのためのコンピュータプログラム
US8229745B2 (en) Creating a mixed-initiative grammar from directed dialog grammars
CN111402843B (zh) 说唱音乐生成方法、装置、可读介质及电子设备
JP6078964B2 (ja) 音声対話システム及びプログラム
WO2009087860A1 (ja) 音声対話装置及び音声対話プログラムを記憶したコンピュータ読み取り可能な媒体
US20060143012A1 (en) Voice synthesizing apparatus, voice synthesizing system, voice synthesizing method and storage medium
CN111899720A (zh) 用于生成音频的方法、装置、设备和介质
CN111402842A (zh) 用于生成音频的方法、装置、设备和介质
KR102429407B1 (ko) 사용자 구성의 맞춤형 인터렉티브 대화 애플리케이션
US7099828B2 (en) Method and apparatus for word pronunciation composition
CN112035699A (zh) 音乐合成方法、装置、设备和计算机可读介质
US8355484B2 (en) Methods and apparatus for masking latency in text-to-speech systems
JP2014219617A (ja) 音声案内システム及び音声案内方法
US20060247921A1 (en) Speech dialog method and system
JP2006171399A (ja) データ入力装置
JP2010183372A (ja) 音声自動応答装置、音声自動応答方法および音声自動応答プログラム
CN111966803B (zh) 对话模拟方法、装置、存储介质及电子设备
JP2019045831A (ja) 音声処理装置、方法およびプログラム
JP4877112B2 (ja) 音声処理装置およびプログラム
JP4042435B2 (ja) 音声自動質問応答装置
JP2004021028A (ja) 音声対話装置及び音声対話プログラム
US20240112689A1 (en) Synthesizing audio for synchronous communication