JP2005332174A - Interaction method, interaction device, voice interaction device, interaction program, voice interaction program and recording medium - Google Patents
Interaction method, interaction device, voice interaction device, interaction program, voice interaction program and recording medium Download PDFInfo
- Publication number
- JP2005332174A JP2005332174A JP2004149485A JP2004149485A JP2005332174A JP 2005332174 A JP2005332174 A JP 2005332174A JP 2004149485 A JP2004149485 A JP 2004149485A JP 2004149485 A JP2004149485 A JP 2004149485A JP 2005332174 A JP2005332174 A JP 2005332174A
- Authority
- JP
- Japan
- Prior art keywords
- response
- wording
- type
- response sentence
- input information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
この発明は、言語や音声による入力を受け付け、言語もしくは音声言語による応答を適切に出力する対話方法、対話装置、音声対話装置,対話プログラム、音声対話プログラム及びこれらを記録した記録媒体に関し、特に、応答の文を生成する言語表現生成技術に関するものである。 The present invention relates to a dialogue method, a dialogue device, a voice dialogue device, a dialogue program, a voice dialogue program, and a recording medium on which these are recorded, which accepts a language or voice input and appropriately outputs a response in a language or a voice language. The present invention relates to a language expression generation technique for generating a response sentence.
対話に関わる言語表現生成技術の分野における従来の技術としては、特許文献1で提案された音声応答装置或は特許文献2で提案されたテキスト変換装置及びテキスト変換プログラムを格納したコンピュータが読み取り可能な記録媒体、特許文献3で提案された対話システム及び対話方法、双方向対話システム及び双方向対話方法並びに記録媒体などがあげられる。
特許文献1においては、入力音声の認識結果に対応した応答を出力する際に、認識結果の一部を連想語に置き換えて出力することにより、単調な応答出力を排除している。
Conventional technologies in the field of language expression generation technology related to dialogue include a voice response device proposed in Patent Document 1 or a text conversion device proposed in Patent Document 2 and a computer storing a text conversion program. Examples thereof include a recording medium, a dialog system and a dialog method proposed in
In Patent Document 1, when outputting a response corresponding to the recognition result of the input speech, a part of the recognition result is replaced with an associative word and output, thereby eliminating a monotonous response output.
また、特許文献2においては、入力音声の認識結果からユーザの会話の特性を把握し、ユーザの特性に合わせて会話パターン、出力単語、応答のタイミングなどを変化させることにより、単調な対話を排除するものであり、出力する単語を入力音声の認識結果に依存して変化させる点が言語表現生成技術として関連がある。
また、現在用いられている一般的な音声対話システムにおいては、入力音声はユーザの要求や対話の状態を表わす内部パラメータにいったん変換し、内部パラメータに応じて応答の言語表現を決定する、という手続きが用いられている(このような手続きを、これ以降従来技術1と呼ぶ)。
In Patent Document 2, monotonous dialogue is eliminated by grasping the characteristics of the user's conversation from the recognition result of the input speech and changing the conversation pattern, output word, response timing, etc. according to the user's characteristics. It is related as a language expression generation technique that the output word is changed depending on the recognition result of the input speech.
In a general spoken dialogue system currently used, the procedure is such that input speech is once converted into an internal parameter representing the user's request or dialogue state, and the linguistic expression of the response is determined according to the internal parameter. (This procedure is hereinafter referred to as prior art 1).
また、特許文献3で提案された音声対話方法は、事前に複数の応答言語表現を生成しておき、応答音声とユーザの入力音声がぶつかった場合には、より短い応答を再度出力するような方法である。また、この特許文献3にはユーザの発話した語句や表現パターンをつかって応答文を生成する方法も含んでいる。
また、特許文献4で提案された音声対話方法は、ユーザがシステムからの出力に対して戸惑っているかどうかや、ユーザが割り込んで発話したかを判定する手段を備えており、それらの状況においては応答出力に含まれる単語を説明するような付加的な出力を加えるなどする手法である。
In addition, the speech dialogue method proposed in Patent Document 4 includes means for determining whether the user is confused about the output from the system or whether the user interrupted and uttered, and in those situations, This is a method of adding an additional output that explains a word included in the response output.
ここで、例えば、会議室の予約を受け付ける音声対話システムとユーザとの対話を行う場面を考える。会議室の予約は、ユーザが日付と時間を入力し、システムからの確認にユーザが了承することによって達成されるものとする。また、日付を内部パラメータとして記憶する際に、月と日に対応するデータをパラメータとして、たとえば「4月3日」ならば月が4で日が3である、といった方式で記憶することを考える。また、この対話が行われた日から起算して、「4月3日」が、「来週の月曜日」であり、且つ、「3日後」であるとする。
ここで、ユーザが「来週の月曜日に予約したいのです」といった入力例11を発話し、これに対しシステム側が更に予約時間の入力を促すような、例えば「来週の月曜日の、何時からでしょうか?」といった応答例11を出力することを考える。また、別のユーザが「4月3日に予約したいのです」といった入力例12を発話し、これに対しシステム側が更に予約時間の入力を促すような、例えば「4月3日の、何時からでしょうか?」といった応答例12を出力することを考える。このように、4月3日という同一の概念を応答において言及する際に、ユーザの用いた言い回しとシステム側の応答の言い回しをそろえると、ユーザに与える機械的な印象を和らげる効果が期待できる。
Here, for example, consider a scene in which a user interacts with a voice interaction system that accepts a conference room reservation. The reservation of the conference room shall be achieved by the user entering the date and time and accepting the confirmation from the system. Further, when storing the date as an internal parameter, it is considered that the data corresponding to the month and day is stored as a parameter, for example, in the case of “April 3”, the month is 4 and the day is 3. . Further, it is assumed that “April 3” is “next Monday” and “after 3 days” from the day when this dialogue is performed.
Here, the user utters an input example 11 such as “I want to make a reservation next Monday”, and the system prompts the user to input a reservation time. For example, “What time is next Monday? It is assumed that the response example 11 such as “is output. Also, another user utters an input example 12 such as “I want to make a reservation on April 3”, and the system side further prompts input of a reservation time. For example, “From what time on April 3 Consider outputting a response example 12 such as "Is it?" In this way, when referring to the same concept of April 3 in the response, if the wording used by the user and the wording of the response on the system side are aligned, an effect of reducing the mechanical impression given to the user can be expected.
また、システム側が、予約時間の入力を促す発話として「来週の月曜日の、何時からでしょうか?」といった応答例21を対話において複数回連続して出力し、数度に一度、「4月3日の、何時からでしょうか?」といった応答例22、もしくは、例えば「3日後の、何時からでしょうか?」といった応答例23を出力することを考える。すなわち、応答に含まれる言い回しに同一のものが所定の回数連続した場合に、該当する言い回し以外の言い回しを応答に用いることを考える。このような応答のしかたは、システムが常に同一の言い回しを用いて応答する場合に比べて、ユーザに与える機械的な印象を和らげる効果が期待できる。
特許文献1や2で提案された技術を用いて応答例11、応答例12、応答例21、応答例22および応答例23を出力するためには、「来週の月曜日」と「4月3日」をそれぞれ一つの単語として扱い、そのような単語の対応表を類似語辞書や連想語辞書として作成する必要がある。
In addition, the system will output a response example 21 such as “What time is next Monday?” As an utterance prompting the user to enter the reservation time. It is considered to output a response example 22 such as “What time is it from?” Or a response example 23 such as “What time is it after 3 days?”. That is, it is considered to use a phrase other than the corresponding phrase for the response when the same phrase included in the response continues for a predetermined number of times. Such a response method can be expected to reduce the mechanical impression given to the user as compared to the case where the system always responds using the same wording.
In order to output the response example 11, the response example 12, the response example 21, the response example 22, and the response example 23 using the technique proposed in Patent Documents 1 and 2, “next Monday” and “April 3” As a single word, and a correspondence table of such words needs to be created as a similar word dictionary or associative word dictionary.
しかし、「来週の月曜日」という表現が「4月3日」と対応するのは、たかだか一週間程度の期間のみであり、次の週になってしまえば類似語辞書や連想語辞書を新たに構築しなくてはならないため、システム運用上の負担が大きく、非効率である。
従来技術1を用いた場合、例えば内部パラメータが“月”、“日”の二つの変数を含み、それら変数の値がそれぞれ“4”と“3”であるような場合、システムからの応答出力は例えば「4月3日」のような定型的な言い回ししかできない。また、従来技術1から容易に拡張できる技術として、システムが内部パラメータから複数のパターン、例えば応答例11と応答例12を生成し、このうち一つを乱数で選択するといった技術も考えられるが、これではユーザ入力の言い回しと同じか、異なるか、という基準で出力を選択することはできない。
However, the expression “next Monday” corresponds to “April 3” only for a period of about one week. When the next week is reached, a similar word dictionary and associative word dictionary will be newly added. Since it must be constructed, the burden on system operation is large and inefficient.
When using the prior art 1, for example, when the internal parameter includes two variables “month” and “day”, and the values of these variables are “4” and “3”, respectively, the response output from the system Can only do a standard phrase like "April 3". In addition, as a technique that can be easily expanded from the conventional technique 1, a technique in which the system generates a plurality of patterns, for example, the response example 11 and the response example 12 from internal parameters, and one of them is selected with a random number is also conceivable. In this case, the output cannot be selected based on whether it is the same as or different from the wording of the user input.
また、特許文献3と4では、ユーザと発話がぶつかった場合やユーザが戸惑ったりしている場合のための対応を実現するものであり、このような場合が起きなければシステムの応答出力は変化することがないため、結果として単調な応答出力となり、機械的な印象を与えるものとなってしまう。特許文献3の請求項7においては、システムがユーザの発話と同じ語句や表現パタンを用いる技術が提案されているが、これではユーザが常に同じ言い回しを用いた場合、システムも常に同じ言い回しを用いることとなってしまい、応答例22および応答例23のようにシステム側の言い回しを能動的に変化させて機械的な印象を和らげることができない。
Further, in
以上のように、従来技術を用いた場合、例えば日付のような、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力に用いられてきた言い回しや、システムの応答に用いられてきた言い回しに応じて、応答文における言い回しを変化させることができなかった。結果として対話システムの応答文における言い回しは単調なものとなってしまい、機械的な印象を与えるものとなってしまっていた。
本発明の目的は、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力に用いられてきた言い回しや、システムの応答に用いられてきた言い回しに応じて、応答文における言い回しを変化させることを可能とし、機械的な印象を減らすことにある。
As described above, when the conventional technology is used, a phrase that has been used for input when referring to a concept that can be expressed by a plurality of phrases, such as a date, in a response sentence of the dialog system, The wording in the response sentence could not be changed according to the wording used for the response. As a result, the wording in the response text of the dialogue system became monotonous and gave a mechanical impression.
It is an object of the present invention to respond to a concept that can be expressed by a plurality of phrases according to a phrase that has been used for input or a phrase that has been used for a system response when referring to a response sentence of a dialog system. It is possible to change the wording in the sentence and reduce the mechanical impression.
本発明の請求項1及び2ではコンピュータに入力情報に含まれるパラメータを抽出する言語理解処理と、入力情報を言い回しパターンデータベースと照合して入力情報の言い回しタイプを抽出する言い回しタイプ抽出処理と、入力情報から抽出したパラメータと、入力情報から抽出した言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文を履歴情報として記憶する履歴情報記憶処理と、履歴情報から応答内容を決定する応答内容決定処理と、履歴情報から応答文の言い回しタイプを決定する応答文の言い回しタイプ決定処理と、応答文の言い回しタイプ決定処理で決定した応答文の言い回しに従って応答文を生成する応答文生成処理と、を実行させることを特徴とする対話方法を提案する。
この請求項1及び2で提案する対話方法によれば入力情報に含まれる言い回しタイプと、応答文の言い回しタイプを履歴情報として記憶し、その記憶を参照して応答内容の言い回しタイプを決定するから、入力および応答で用いられた言い回しによって応答文の言い回しタイプを変化させることができる。
Claims 1 and 2 of the present invention include a language understanding process for extracting parameters included in input information to a computer, a wording type extraction process for extracting the wording type of the input information by collating the input information with the wording pattern database, and an input Parameters extracted from information, wording type extracted from input information, response content, wording type of response sentence, history information storage process for storing response sentence as history information, and response for determining response contents from history information A content determination process, a response sentence wording type determination process for determining a response sentence wording type from history information, and a response sentence generation process for generating a response sentence according to the response sentence wording determined in the response sentence wording type determination process; We propose a dialogue method characterized by executing
According to the dialogue method proposed in claims 1 and 2, the wording type included in the input information and the wording type of the response sentence are stored as history information, and the wording type of the response content is determined by referring to the memory. The wording type of the response sentence can be changed according to the wording used in the input and response.
本発明の請求項3による対話方法は、応答文を生成する際に、履歴情報に含まれている入力の言い回しタイプと同じ言い回しタイプを持つ応答文を優先的に生成する。これにより、本発明は応答文の言い回しを入力の言い回しに揃える機能を持つ。
本発明の請求項4による対話方法は、応答文を生成する際に、履歴情報に含まれている応答文の言い回しタイプが所定の回数以上同一のものが繰り返されている場合に異なる言い回しタイプを用いるため、常に同じ応答文が出力されることを防ぐ機能を持つ。
In the dialogue method according to
In the dialogue method according to claim 4 of the present invention, when generating a response sentence, a different phrase type is used when the response sentence included in the history information is repeated for a predetermined number of times. Because it uses it, it has a function that prevents the same response sentence from being output at all times.
以上のように、本発明を用いれば、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力および応答に用いられた言い回しに応じて、応答文における言い回しを変化させることが可能となる。
これにより、請求項4による発明においては、同一の言い回しが応答において複数回連続した場合、これとは異なる言い回しを優先的に用いることによって、ユーザへ与える機械的な印象を和らげる効果が期待できる。
As described above, according to the present invention, when a concept that can be expressed by a plurality of phrases is referred to in a response sentence of a dialogue system, the wording in the response sentence is changed according to the phrase used for input and response. It becomes possible to make it.
Thus, in the invention according to claim 4, when the same wording is continued a plurality of times in the response, an effect of relieving the mechanical impression given to the user can be expected by preferentially using the wording different from this.
本発明を実施するための最良の形態を、図1を用いて説明する。
図中100は本発明の請求項5乃至8で提案する対話装置、200は本発明の請求項9で提案する音声対話装置を示す。
対話装置100は言語理解処理手段101と、内部パラメータ記憶部102と、言い回しパターンデータベース103と、言い回しタイプ抽出手段104と、応答内容決定手段105と、言い回しタイプ決定手段106と、応答文生成手段107と、履歴情報書込手段108とによって構成される。
The best mode for carrying out the present invention will be described with reference to FIG.
In the figure, reference numeral 100 denotes an interactive apparatus proposed in claims 5 to 8 of the present invention, and 200 denotes a voice interactive apparatus proposed in claim 9 of the present invention.
The dialogue apparatus 100 includes a language
音声対話装置200は音声認識装置201と、対話装置100と、音声合成装置202とによって構成され、音声認識装置201へ音声が入力されることにより、音声認識装置201は入力された音声を音声認識し、音声認識結果を例えばテキストデータ等の形態で入力情報として対話装置100へ入力する。
対話装置100は入力された入力情報を理解し、入力情報に適合した応答文を生成し、その応答文を例えばテキストデータの形態で音声合成装置202に入力する。音声合成装置202は入力された応答文を音声に合成し、音声対話装置200の応答出力として応答音声を出力する。応答音声の出力により利用者が再度音声で発話すると、その発話が再び音声認識され、発話内容が対話装置100で処理され、その発話内容に適合した応答文を生成し、その応答文を音声合成装置202に入力し、音声合成装置202から音声で応答する。この繰返しにより対話が実現される。
The voice interaction device 200 is composed of a
The dialogue apparatus 100 understands the input information that has been input, generates a response sentence suitable for the input information, and inputs the response sentence to the
本発明による対話装置100は、言語理解処理手段101で入力情報に含まれるパラメータを抽出する。ここでパラメータとは、この対話装置100を例えば会議室の予約受付用として利用する場合には予約に必要な日時に関する値がパラメータとなり得る。つまり、年、月、日、時刻に係わる値をパラメータとして抽出する。例えば「来週の月曜日」とする入力情報に対し、カレンダ機能を利用して来週の月曜日を「4月3日」と特定し、月パラメータとして「4」、日パラメータとして「3」をそれぞれ抽出する。この抽出処理は内部パラメータ記憶部102に用意している内部パラメータを参照して実行される。図2に内部パラメータ記憶部102に用意されるパラメータの一例を示す。各パラメータには属性(値の型)が対応付けして付与される。図2に示す「日時言い回しタイプ」、「時刻言い回しタイプ」、「確認フラグ」、「応答文履歴」は後に説明する各処理で抽出した各パラメータであり、これらは言語理解結果として内部パラメータ記憶部102に書き込まれる。
In the dialogue apparatus 100 according to the present invention, the language understanding processing means 101 extracts parameters included in the input information. Here, the parameter may be a value related to the date and time required for the reservation when the interactive apparatus 100 is used for accepting a reservation in a conference room, for example. That is, values related to year, month, day, and time are extracted as parameters. For example, for the input information “next Monday”, using the calendar function, next Monday is identified as “April 3”, and “4” is extracted as the month parameter and “3” is extracted as the day parameter. . This extraction process is executed with reference to the internal parameters prepared in the internal
また入力情報は言い回しタイプ抽出手段104に引き渡され、語の並びから言い回しタイプを抽出する。この抽出処理は言い回しパターンデータベース103に格納されている言い回しパターンデータを参照して行われる。図3に言い回しパターンデータの一例を示す。図3に示す言い回しデータは日付言い回しデータベースを例示している。図3において、%y、%m、%dはそれぞれ西暦年、月、日を表し、%wは曜日の名を表している。また、この例では「〜年〜月〜日」といったパターンの言い回しは「年月日タイプ」というタイプ名が対応付けされる。また、「今週の木曜日」といったパターンの言い回しは「週曜タイプ」というタイプ名が対応付けされ、更に、「今週の20日」といったパターンの言い回しは「週日タイプ」というタイプ名が対応付けられる。
また、図4は時刻に関する言い回しパターンデータベースの例を示している。%Hは時、%Mは分を表わす数字を表現している。
The input information is transferred to the wording
FIG. 4 shows an example of a word pattern database relating to time. % H represents hours and% M represents minutes.
図5に言語理解処理手段101と言い回しタイプ抽出手段104の動作状況を示す。ステップSP1で入力情報からパラメータの抽出処理を実行し、ステップSP2で言い回しタイプを抽出する。ステップSP3では入力情報から抽出したパラメータと言い回しタイプを言語理解結果として内部パラメータ記憶部102への書込を行なう。
内部パラメータ記憶部102への書き込みが完了すると、応答内容決定手段105が起動され応答内容の決定処理が開始される。応答内容決定手段105は履歴情報参照手段105Aを備え、この履歴情報参照手段105Aが内部パラメータ記憶部102に書き込んだ内部パラメータを読み込む。読み込んだ内部パラメータを参照し、応答内容を決定する。応答内容の決定は以下の如くして行われる。
FIG. 5 shows the operation status of the language understanding processing means 101 and the wording type extraction means 104. In step SP1, parameter extraction processing is executed from the input information, and in step SP2, the wording type is extracted. In step SP3, the parameters extracted from the input information and the wording type are written in the internal
When the writing to the internal
内部パラメータ記憶部102から読み込んだ内部パラメータに、例えば予約に必要なパラメータが全て揃っているか否かをチェックする。不足するパラメータが存在している場合は、その不足しているパラメータの補充を促す「情報要求型」の内容に決定する。一方、予約に必要な全てのパラメータが揃っているが確認フラグの値が「未」である場合は、この内容で良いか否かを確認する「確認型」の内容に決定する。
応答内容を決定すると、応答内容決定手段105は、応答文に用いるテンプレートを決定する。テンプレートとしては情報の入力を促す例えば、「%dateの何時からでしょうか?」或は「何日の%timeからでしょう?」等とするテンプレート群が用意されており、このテンプレート群の中から、必要なパラメータの入力を促す内容に該当するテンプレートを選択して決定する。
For example, it is checked whether the internal parameters read from the internal
When the response content is determined, the response content determination means 105 determines a template to be used for the response sentence. For example, a template group that prompts the user to input information, such as “From what time in% date?” Or “From what day% time?” Is prepared. Then, the template corresponding to the content prompting the input of necessary parameters is selected and determined.
応答内容決定手段105で応答文のテンプレートが決定されると、そのテンプレートが言い回しタイプ決定手段106に引き渡され、応答文の言い回しタイプを決定する。言い回しタイプの決定は内部パラメータ記憶部102から読み込んだ内部パラメータに付加されている履歴情報を参照し、決定する。つまり、ユーザの入力に用いられていた言い回しタイプと同一タイプの応答文の言い回しタイプを選択するなどの処理を行う。
応答文の言い回しタイプが決定すると、応答文生成手段107はテンプレートの例えば前記した「%date」の部分に決定した言い回しタイプの単語列を代入し、応答文を生成し、その応答文を音声合成装置202に出力する。これと共に、履歴情報書込手段108は応答内容決定手段105で決定した応答内容、言い回しタイプ決定手段106で決定した言い回しタイプ、及び応答文生成手段107で生成した応答文を対話履歴として内部パラメータ記憶部102に書き込む。この書き込みにより対話の1回目が完了する。応答文が音声として放音され、この放音された応答文に対してユーザが発話すると、その発話が音声認識され、二回目の対話状態となる。対話の回毎に予約に不足するパラメータが補充される、全てのパラメータが備わった時点で確認型の応答文が生成され、その応答音声に対してユーザが確認の返事を入力した時点で確認フラグの値が「1」に転換し、これにより予約が完了したこととなり、対話は終了する。
When the response content template is determined by the response content determination means 105, the template is handed over to the wording type determination means 106 to determine the wording type of the response text. The wording type is determined by referring to the history information added to the internal parameter read from the internal
When the wording type of the response sentence is determined, the response
図6は以上説明した応答内容決定手段105と、言い回しタイプ決定手段106と、応答文生成手段107と、履歴情報書込手段108の動作を説明するためのフローチャートを示す。
ステップSP11では履歴情報参照手段105Aにより内部パラメータ記憶部102に書き込んだ内部パラメータを読み込む。
ステップSP12では応答内容を決定し、ステップSP13でテンプレートを決定する。テンプレートが決定されると、ステップSP14で言い回しタイプを決定し、ステップSP15でテンプレートの該当部分に、言い回しタイプ決定ステップSP14で決定した言い回しの単語列を代入し、応答文を生成する。ステップSP16で履歴情報を内部パターン記憶部102に書き込みを行い、ステップSP11に戻り、次の対話の待ち状態に入る。
以下に具体的な実施例を説明する。
FIG. 6 shows a flowchart for explaining the operations of the response content determination means 105, the phrase type determination means 106, the response sentence generation means 107, and the history information writing means 108 described above.
In step SP11, the history
In step SP12, the response content is determined, and in step SP13, a template is determined. When the template is determined, the wording type is determined in step SP14, and the word string of the wording determined in the wording type determination step SP14 is substituted for the corresponding part of the template in step SP15 to generate a response sentence. In step SP16, history information is written in the internal
Specific examples will be described below.
図7に本発明の請求項7で提案する対話装置の要部の構成を示す。請求項7で提案する対話装置の特徴は言い回しタイプ決定手段106に同一タイプ決定手段106Aを備えている構成とした点にある。
同一タイプ決定手段106Aは応答内容決定手段105に設けた履歴情報参照手段105Aが読み込んだ履歴情報の中の入力情報から抽出した言い回しタイプを参照し、応答文に適用する言い回しタイプを、入力情報から抽出した言い回しタイプと同一の言い回しタイプを優先的に決定する。
FIG. 7 shows the configuration of the main part of the dialogue apparatus proposed in claim 7 of the present invention. The feature of the dialogue apparatus proposed in claim 7 is that the phrase
The same
つまり、入力情報から抽出した言い回しタイプが図3に示した「年月日タイプ」である場合は、上述した例に当てはめるとテンプレートの「%date」の部分に「年月日タイプ」の単語列を代入する。また、入力情報から抽出した言い回しタイプが図3に示した「週曜タイプ」の場合はテンプレートの「%date」の部分に「週曜」タイプの単語列を代入する。 In other words, if the wording type extracted from the input information is the “year / month / day type” shown in FIG. 3, the word string “year / month / day type” is added to the “% date” portion of the template when applied to the above example. Is assigned. If the wording type extracted from the input information is the “weekday type” shown in FIG. 3, a “weekday” type word string is substituted for the “% date” portion of the template.
図8にその様子を示す。左欄は各部の処理ステップ名、右欄は処理結果を表わす。この例では入力情報として「来週の月曜日に予約をお願いします」と入力された場合を例示して説明する。
パラメータ抽出ステップではカレンダ機能を利用して「来週の月曜日を」「4月3日」と特定し、パラメータとして月パラメータが「4」、日パラメータが「3」として抽出される。
言い回しタイプ抽出ステップでは言い回しパターンデータベース103を参照し、「日付言い回しタイプ」が「週曜」タイプとして抽出される。
内部パラメータ書き込みステップではこれら抽出したパラメータを内部パラメータ記憶部102に書き込む。内部パラメータ記憶部102へ書き込みを行う際に書き込みフォーマットに予約に必要なパラメータのテンプレートが用意されており、この書き込みの際に予約に必要なパラメータの不足が検出される。図8に示す例では時刻に係わるパラメータと、時刻言い回しタイプが不足している例を示す。
This is shown in FIG. The left column represents the processing step name of each part, and the right column represents the processing result. In this example, a case where “please make a reservation next Monday” is input as input information will be described as an example.
In the parameter extraction step, the calendar function is used to identify “next Monday” and “April 3”, and the month parameter is extracted as “4” and the day parameter is extracted as “3”.
In the wording type extraction step, the
In the internal parameter writing step, these extracted parameters are written in the internal
パラメータの不足が存在することから、応答内容決定ステップでは応答内容として「情報要求型」と決定する。
テンプレート決定ステップではテンプレートとして「%dateの何時からでしょうか?」を選択し、決定する。
言い回しタイプ決定ステップでは履歴情報の中の入力情報から抽出した言い回しタイプを参照し、応答文に適用する言い回しタイプを入力情報と同じ「週曜」タイプと決定する。
Since there is a lack of parameters, the response content determination step determines “information request type” as the response content.
In the template determination step, “from what time in% date?” Is selected and determined as a template.
In the wording type determination step, the wording type extracted from the input information in the history information is referred to, and the wording type applied to the response sentence is determined to be the same “weekday” type as the input information.
応答文生成ステップでは「週曜」タイプの言語表現である「来週の月曜日」をテンプレートの「%date」の部分に代入し、「来週の月曜日の何時からでしょうか?」とする応答文を生成する。
応答文が生成された時点で履歴情報記録ステップで入力情報から抽出したパラメータと、日付言い回しタイプ、応答文、応答内容を書き込む。
In the response sentence generation step, "Wednesday" type language expression "Next Monday" is substituted into the "% date" part of the template to generate a response sentence "What time is next Monday?" To do.
When the response text is generated, the parameters extracted from the input information in the history information recording step, the date wording type, the response text, and the response content are written.
図9に本発明の請求項8で提案する対話装置の実施例を示す。この実施例では応答文に用いられる言い回しタイプに同一のものが所定回を超えて連続して出現した場合に生成する応答文を、該当する言い回しとは異なる言い回しに変更し、ユーザへ与える機械的な印象を和らげようとする実施例を示す。このために、言い回しタイプ決定手段106に図7に示した同一タイプ決定手段106Aに加えて、異タイプ決定手段106Bを付加した構成とした点を特徴とするものである。
この構成によれば対話回数が所定回以内の場合は、応答文に適用する言い回しを上述したように入力情報と同じ言い回しタイプに揃え、利用者との対話を円滑に進めると共に、応答文において用いられる言い回しタイプに同一のものが所定回数、例えば4回を越えて出現した場合に、応答文に適用する言い回しタイプを異ならせることができる。
FIG. 9 shows an embodiment of an interactive apparatus proposed in claim 8 of the present invention. In this embodiment, the response sentence generated when the same phrase type used in the response sentence appears more than a predetermined number of times is changed to a different phrase from the corresponding phrase, and given to the user. The example which tries to relieve a good impression is shown. For this purpose, the wording type determination means 106 is characterized in that a different type determination means 106B is added to the same type determination means 106A shown in FIG.
According to this configuration, when the number of dialogues is within a predetermined number of times, the wording applied to the response sentence is aligned with the same wording type as the input information as described above, and the conversation with the user is facilitated and used in the response sentence. When the same wording type appears more than a predetermined number of times, for example, four times, the wording type applied to the response sentence can be made different.
図10と図11を用いて異タイプ決定手段106Bの動作状況を説明する。図10では図8に示したパラメータ抽出ステップと、言い回しタイプ抽出ステップを省略して示し、既に対話が4回行われ、5回目の応答文を生成する過程にある状況を示している。
4回目までの応答文には「日付言い回しタイプ」を入力情報から抽出した「週曜」タイプと同じ「週曜」タイプを適用している(図10に示す内部パラメータ記憶部への書き込みデータの中の応答文1〜4を参照)。
これに対し、5回目の応答文では異タイプ決定手段106Bが動作し、図11に示す応答文5に示すようにテンプレートの「%date」の言い回しタイプを「年月日」タイプに変更している。「%date」の部分の言い回しを「年月日」タイプに変更することにより、過去4回の応答文では「来週の月曜日」を代入していたが「年月日」タイプでは月パラメータで抽出した「4」と日パラメータで抽出した「3」を用いて、「4月3日」を代入し、「4月3日の3時からですね?」と確認をとる応答文を生成する。これにより、常に同じ言い回しが応答文に用いられることが避けられ、機械的な印象を和らげることが期待できる。
The operation status of the different
The same “weekday” type as the “weekday” type extracted from the input information is applied to the response sentences up to the fourth time (the data written to the internal parameter storage unit shown in FIG. 10). (See response sentences 1 to 4).
On the other hand, the different type determination means 106B operates in the fifth response sentence, and the wording type “% date” of the template is changed to the “year / month / day” type as shown in the response sentence 5 shown in FIG. Yes. By changing the wording of the “% date” part to the “year / month / day” type, “next Monday” was substituted in the past four response sentences, but for the “year / month / day” type, it was extracted with the month parameter. Using “4” and “3” extracted by the day parameter, “April 3” is substituted, and a response sentence that confirms “From 3 o'clock on April 3?” Is generated. As a result, it can be expected that the same wording is always used in the response sentence, and the mechanical impression is eased.
以上説明した本発明対話装置及び音声対話装置は主にコンピュータによって構成することができる。コンピュータに、コンピュータが解読可能なプログラム言語によって記述された対話プログラム及び音声対話プログラムを解読させ、実行させることによって対話装置及び音声対話装置として機能させることができる。対話プログラム及び音声対話プログラムは磁気ディスク或はCD−ROMのようなコンピュータが読取り可能な記録媒体に記録され、これらの記録媒体からコンピュータにインストールするか又は通信回線を通じてコンピュータにインストールされ、コンピュータに備えられた中央演算処理装置(CPU)に解読されて実行される。 The dialog apparatus and the voice dialog apparatus of the present invention described above can be mainly configured by a computer. It is possible to cause a computer to function as a dialog device and a voice dialog device by causing a computer to decode and execute a dialog program and a voice dialog program written in a program language that can be decoded. The dialogue program and the voice dialogue program are recorded on a computer-readable recording medium such as a magnetic disk or a CD-ROM, and installed in the computer from these recording media or installed in the computer through a communication line, and are provided in the computer. It is decoded and executed by the central processing unit (CPU).
本発明による対話方法、対話装置、音声対話装置、対話プログラム、音声対話プログラムは自動予約システム、自動案内システム等の分野で活用される。 The dialogue method, dialogue device, voice dialogue device, dialogue program, and voice dialogue program according to the present invention are utilized in the fields of an automatic reservation system, an automatic guidance system, and the like.
100 対話装置 106 言い回しタイプ決定手段
101 言語理解処理手段 106A 同一タイプ決定手段
102 内部パラメータ記憶部 106B 異タイプ決定手段
103 言い回しパターンデータベース 107 応答文生成手段
104 言い回しタイプ抽出手段 108 履歴情報書込手段
105 応答内容決定手段 200 音声対話装置
105A 履歴情報参照手段 201 音声認識装置
202 音声合成装置
DESCRIPTION OF SYMBOLS 100
104 wording type extraction means 108 history information writing means 105 response content determination means 200
202 Speech synthesizer
Claims (12)
入力情報に含まれるパラメータを抽出する言語理解処理と、
入力情報を言い回しパターンデータベースと照合して入力情報の言い回しタイプを抽出する言い回しタイプ抽出処理と、
応答内容を決定する応答内容決定処理と、
応答文の言い回しタイプを決定する応答文の言い回しタイプ決定処理と、
前記応答内容と、前記応答文の言い回しタイプを参照して応答文を生成する応答文生成処理と、
前記入力情報から抽出したパラメータと、入力情報から抽出された言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文とを履歴情報として記憶する履歴情報記憶処理と、
を実行させることを特徴とする対話方法。 On the computer,
Language understanding process to extract parameters included in input information;
A wording type extraction process that extracts the wording type of the input information by comparing the input information with the wording pattern database,
Response content determination processing for determining the response content;
A response sentence wording type determination process for determining a response sentence wording type;
A response sentence generation process for generating a response sentence with reference to the response content and the phrase type of the response sentence;
A history information storage process for storing the parameters extracted from the input information, the wording type extracted from the input information, the response content, the wording type of the response text, and the response text as history information;
An interactive method characterized by causing the system to execute.
前記応答内容決定処理は、前記履歴情報記憶処理で記憶した履歴情報を参照し、対話の履歴に応じて応答内容の決定処理を実行し、
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報を参照し、対話の履歴に応じて応答文の言い回しタイプ決定処理を実行することを特徴とする、
対話方法。 The dialogue method according to claim 1,
The response content determination process refers to the history information stored in the history information storage process, executes a response content determination process according to the history of the conversation,
The response sentence wording type determination process refers to the history information stored in the history information storage process, and executes a response sentence wording type determination process according to a history of dialogue,
How to interact.
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報に含まれる入力情報から抽出された入力情報の言い回しタイプを参照し、応答文の言い回しタイプを入力情報の言い回しタイプと同一タイプに優先的に決定することを特徴とする対話方法。 Either of the dialogue methods according to claim 1 or 2,
The response sentence wording type determination process refers to the wording type of the input information extracted from the input information included in the history information stored in the history information storage process, and the wording type of the response sentence is the wording type of the input information. An interactive method characterized by preferentially determining the same type.
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報に含まれる応答文の言い回しタイプの履歴を参照し、所定の回数以上の回数で応答文の言い回しタイプに同一のものが連続している場合は、当該言い回しタイプ以外の言い回しタイプを優先的に決定することを特徴とする対話方法。 Either of the dialogue methods according to claim 1 or 2,
The response sentence wording type determination process refers to the response sentence wording type history included in the history information stored in the history information storage process, and is the same as the response sentence wording type more than a predetermined number of times. If the phrase is continuous, a dialogue type other than the phrase type is preferentially determined.
入力情報を参照し、入力情報に含まれるパラメータを抽出する言語理解処理手段と、
入力情報と前記言い回しデータベースを参照し、入力情報の言い回しタイプを抽出する言い回しタイプ抽出手段と、
応答内容を決定する応答内容決定手段と、
応答文の言い回しタイプを決定する応答文の言い回しタイプ決定手段と、
前記応答文の言い回しタイプと、前期応答内容を参照して、応答文を生成する応答文生成手段と、
前記入力情報で与えられるパラメータと各パラメータの属性とを対応付けしたものと、入力情報で与えられる言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文の履歴を内部パラメータとして記憶した内部パラメータ記憶部と、
を備えることを特徴とする対話装置。 A wording database that maps wording patterns given in input information to wording types;
Language understanding processing means for referring to input information and extracting parameters included in the input information;
Referring to the input information and the wording database, wording type extracting means for extracting the wording type of the input information;
Response content determination means for determining the response content;
A response sentence wording type determining means for determining a response sentence wording type;
A response sentence generation means for generating a response sentence with reference to the phrase type of the response sentence and the previous response content;
The parameters given by the input information are associated with the attributes of the parameters, the wording type given by the input information, the response contents, the wording type of the response text, and the history of the response text are stored as internal parameters. An internal parameter storage unit;
An interactive apparatus comprising:
前記応答内容決定手段は、前記内部パラメータ記憶部において記憶された内部パラメータを参照する手段を備え、対話の履歴に応じて応答内容を決定し、
前記応答文の言い回しタイプ決定手段は、前記内部パラメータ記憶部において記憶された内部パラメータを参照する手段を備え、対話の履歴に応じて応答文の言い回しタイプを決定することを特徴とする対話装置。 The interactive apparatus according to claim 5, wherein
The response content determination means includes means for referring to the internal parameter stored in the internal parameter storage unit, and determines the response content according to the history of dialogue,
The response sentence wording type determining means includes means for referring to the internal parameter stored in the internal parameter storage unit, and determines the wording type of the response sentence according to the history of the dialog.
前記応答文の言い回しタイプを決定する言い回しタイプ決定手段は、対話毎に応答文の言い回しタイプを入力情報の言い回しタイプと同一タイプの言い回しタイプに優先的に決定することを特徴とする対話装置。 Either of the interactive devices according to claim 5 or 6,
The wording type determining means for determining the wording type of the response sentence preferentially decides the wording type of the response sentence to the wording type of the same type as the wording type of the input information for each dialogue.
前記応答文の言い回しタイプを決定する言い回しタイプ決定手段は、内部パラメータに記憶された応答文の言い回しタイプが所定の回数以上の回数で同一の言い回しタイプが連続している場合は、当該言い回しタイプ以外の言い回しタイプを優先的に決定することを特徴とする対話装置。 Either of the interactive devices according to claim 5 or 6,
The wording type determining means for determining the wording type of the response sentence is a word type other than the wording type when the wording type of the response sentence stored in the internal parameter is equal to or more than a predetermined number of times. An interactive apparatus characterized by preferentially determining the wording type.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004149485A JP4095577B2 (en) | 2004-05-19 | 2004-05-19 | Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004149485A JP4095577B2 (en) | 2004-05-19 | 2004-05-19 | Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005332174A true JP2005332174A (en) | 2005-12-02 |
JP4095577B2 JP4095577B2 (en) | 2008-06-04 |
Family
ID=35486799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004149485A Expired - Fee Related JP4095577B2 (en) | 2004-05-19 | 2004-05-19 | Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4095577B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175717A (en) * | 2009-01-28 | 2010-08-12 | Mitsubishi Electric Corp | Speech synthesizer |
WO2021054613A1 (en) * | 2019-09-19 | 2021-03-25 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device thereof |
JP7441583B2 (en) | 2019-08-01 | 2024-03-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Conversation flow adaptation methods, systems, and programs in cognitive dialogue |
-
2004
- 2004-05-19 JP JP2004149485A patent/JP4095577B2/en not_active Expired - Fee Related
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010175717A (en) * | 2009-01-28 | 2010-08-12 | Mitsubishi Electric Corp | Speech synthesizer |
JP7441583B2 (en) | 2019-08-01 | 2024-03-01 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Conversation flow adaptation methods, systems, and programs in cognitive dialogue |
WO2021054613A1 (en) * | 2019-09-19 | 2021-03-25 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device thereof |
US11538474B2 (en) * | 2019-09-19 | 2022-12-27 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device thereof |
Also Published As
Publication number | Publication date |
---|---|
JP4095577B2 (en) | 2008-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4267385B2 (en) | Statistical language model generation device, speech recognition device, statistical language model generation method, speech recognition method, and program | |
US6801897B2 (en) | Method of providing concise forms of natural commands | |
US8214213B1 (en) | Speech recognition based on pronunciation modeling | |
JP5327054B2 (en) | Pronunciation variation rule extraction device, pronunciation variation rule extraction method, and pronunciation variation rule extraction program | |
KR20210146368A (en) | End-to-end automatic speech recognition for digit sequences | |
US6535849B1 (en) | Method and system for generating semi-literal transcripts for speech recognition systems | |
JP3542026B2 (en) | Speech recognition system, speech recognition method, and computer-readable recording medium | |
WO2007055233A1 (en) | Speech-to-text system, speech-to-text method, and speech-to-text program | |
JP3459712B2 (en) | Speech recognition method and device and computer control device | |
JPWO2007097176A1 (en) | Speech recognition dictionary creation support system, speech recognition dictionary creation support method, and speech recognition dictionary creation support program | |
JP4729902B2 (en) | Spoken dialogue system | |
US8015008B2 (en) | System and method of using acoustic models for automatic speech recognition which distinguish pre- and post-vocalic consonants | |
JP6552999B2 (en) | Text correction device, text correction method, and program | |
US6546369B1 (en) | Text-based speech synthesis method containing synthetic speech comparisons and updates | |
JP7007617B2 (en) | End-of-speech judgment device, end-of-speech judgment method and program | |
US20170270923A1 (en) | Voice processing device and voice processing method | |
Marasek et al. | System for automatic transcription of sessions of the Polish senate | |
JP4095577B2 (en) | Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium | |
Darjaa et al. | Rule-based triphone mapping for acoustic modeling in automatic speech recognition | |
JP2006018028A (en) | Voice interactive method, voice interactive device, voice interactive device, dialog program, voice interactive program, and recording medium | |
JPH10260976A (en) | Voice interaction method | |
US8260614B1 (en) | Method and system for expanding a word graph to a phone graph based on a cross-word acoustical model to improve continuous speech recognition | |
JP2000330588A (en) | Method and system for processing speech dialogue and storage medium where program is stored | |
JP2001013992A (en) | Voice understanding device | |
JPH11102196A (en) | Speech interactive system, method of speech interaction, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060725 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060725 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071016 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071122 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20071211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080204 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080218 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080304 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080307 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4095577 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110314 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120314 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130314 Year of fee payment: 5 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |