JP2005332174A - Interaction method, interaction device, voice interaction device, interaction program, voice interaction program and recording medium - Google Patents

Interaction method, interaction device, voice interaction device, interaction program, voice interaction program and recording medium Download PDF

Info

Publication number
JP2005332174A
JP2005332174A JP2004149485A JP2004149485A JP2005332174A JP 2005332174 A JP2005332174 A JP 2005332174A JP 2004149485 A JP2004149485 A JP 2004149485A JP 2004149485 A JP2004149485 A JP 2004149485A JP 2005332174 A JP2005332174 A JP 2005332174A
Authority
JP
Japan
Prior art keywords
response
wording
type
response sentence
input information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004149485A
Other languages
Japanese (ja)
Other versions
JP4095577B2 (en
Inventor
Noboru Miyazaki
昇 宮崎
Junichi Hirasawa
純一 平澤
Tetsuo Amakasu
哲郎 甘粕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004149485A priority Critical patent/JP4095577B2/en
Publication of JP2005332174A publication Critical patent/JP2005332174A/en
Application granted granted Critical
Publication of JP4095577B2 publication Critical patent/JP4095577B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To naturalize a response language expression in an interaction device in a language expression generating technique for generating a response sentence. <P>SOLUTION: The interaction method comprises executing language understanding processing for extracting a parameter contained in input information; phrase type extraction processing for collating the input information with a phrase pattern database to extract the phrase type of the input information; response content determination processing for determining a response content; response sentence phrase type determination processing for determining a response sentence phrase type; response sentence generation processing for generating a response sentence in reference to the response content and the response sentence phrase type; and history information storage processing for storing, the parameter extracted from the input information, the phrase type extracted from the input information, the response content, the response sentence phrase type, and the response sentence as history information. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、言語や音声による入力を受け付け、言語もしくは音声言語による応答を適切に出力する対話方法、対話装置、音声対話装置,対話プログラム、音声対話プログラム及びこれらを記録した記録媒体に関し、特に、応答の文を生成する言語表現生成技術に関するものである。   The present invention relates to a dialogue method, a dialogue device, a voice dialogue device, a dialogue program, a voice dialogue program, and a recording medium on which these are recorded, which accepts a language or voice input and appropriately outputs a response in a language or a voice language. The present invention relates to a language expression generation technique for generating a response sentence.

対話に関わる言語表現生成技術の分野における従来の技術としては、特許文献1で提案された音声応答装置或は特許文献2で提案されたテキスト変換装置及びテキスト変換プログラムを格納したコンピュータが読み取り可能な記録媒体、特許文献3で提案された対話システム及び対話方法、双方向対話システム及び双方向対話方法並びに記録媒体などがあげられる。
特許文献1においては、入力音声の認識結果に対応した応答を出力する際に、認識結果の一部を連想語に置き換えて出力することにより、単調な応答出力を排除している。
Conventional technologies in the field of language expression generation technology related to dialogue include a voice response device proposed in Patent Document 1 or a text conversion device proposed in Patent Document 2 and a computer storing a text conversion program. Examples thereof include a recording medium, a dialog system and a dialog method proposed in Patent Document 3, a two-way dialog system and a two-way dialog method, and a recording medium.
In Patent Document 1, when outputting a response corresponding to the recognition result of the input speech, a part of the recognition result is replaced with an associative word and output, thereby eliminating a monotonous response output.

また、特許文献2においては、入力音声の認識結果からユーザの会話の特性を把握し、ユーザの特性に合わせて会話パターン、出力単語、応答のタイミングなどを変化させることにより、単調な対話を排除するものであり、出力する単語を入力音声の認識結果に依存して変化させる点が言語表現生成技術として関連がある。
また、現在用いられている一般的な音声対話システムにおいては、入力音声はユーザの要求や対話の状態を表わす内部パラメータにいったん変換し、内部パラメータに応じて応答の言語表現を決定する、という手続きが用いられている(このような手続きを、これ以降従来技術1と呼ぶ)。
In Patent Document 2, monotonous dialogue is eliminated by grasping the characteristics of the user's conversation from the recognition result of the input speech and changing the conversation pattern, output word, response timing, etc. according to the user's characteristics. It is related as a language expression generation technique that the output word is changed depending on the recognition result of the input speech.
In a general spoken dialogue system currently used, the procedure is such that input speech is once converted into an internal parameter representing the user's request or dialogue state, and the linguistic expression of the response is determined according to the internal parameter. (This procedure is hereinafter referred to as prior art 1).

また、特許文献3で提案された音声対話方法は、事前に複数の応答言語表現を生成しておき、応答音声とユーザの入力音声がぶつかった場合には、より短い応答を再度出力するような方法である。また、この特許文献3にはユーザの発話した語句や表現パターンをつかって応答文を生成する方法も含んでいる。
また、特許文献4で提案された音声対話方法は、ユーザがシステムからの出力に対して戸惑っているかどうかや、ユーザが割り込んで発話したかを判定する手段を備えており、それらの状況においては応答出力に含まれる単語を説明するような付加的な出力を加えるなどする手法である。
特開平11−52975号 特開2001−125900号公報 特開平10−260976号公報 特開2000−259177号公報
Also, the voice interaction method proposed in Patent Document 3 generates a plurality of response language expressions in advance, and outputs a shorter response again when the response voice and the user's input voice collide with each other. Is the method. Further, Patent Document 3 includes a method of generating a response sentence using a phrase or expression pattern spoken by the user.
In addition, the speech dialogue method proposed in Patent Document 4 includes means for determining whether the user is confused about the output from the system or whether the user interrupted and uttered, and in those situations, This is a method of adding an additional output that explains a word included in the response output.
JP-A-11-52975 JP 2001-125900 A JP-A-10-260976 JP 2000-259177 A

ここで、例えば、会議室の予約を受け付ける音声対話システムとユーザとの対話を行う場面を考える。会議室の予約は、ユーザが日付と時間を入力し、システムからの確認にユーザが了承することによって達成されるものとする。また、日付を内部パラメータとして記憶する際に、月と日に対応するデータをパラメータとして、たとえば「4月3日」ならば月が4で日が3である、といった方式で記憶することを考える。また、この対話が行われた日から起算して、「4月3日」が、「来週の月曜日」であり、且つ、「3日後」であるとする。
ここで、ユーザが「来週の月曜日に予約したいのです」といった入力例11を発話し、これに対しシステム側が更に予約時間の入力を促すような、例えば「来週の月曜日の、何時からでしょうか?」といった応答例11を出力することを考える。また、別のユーザが「4月3日に予約したいのです」といった入力例12を発話し、これに対しシステム側が更に予約時間の入力を促すような、例えば「4月3日の、何時からでしょうか?」といった応答例12を出力することを考える。このように、4月3日という同一の概念を応答において言及する際に、ユーザの用いた言い回しとシステム側の応答の言い回しをそろえると、ユーザに与える機械的な印象を和らげる効果が期待できる。
Here, for example, consider a scene in which a user interacts with a voice interaction system that accepts a conference room reservation. The reservation of the conference room shall be achieved by the user entering the date and time and accepting the confirmation from the system. Further, when storing the date as an internal parameter, it is considered that the data corresponding to the month and day is stored as a parameter, for example, in the case of “April 3”, the month is 4 and the day is 3. . Further, it is assumed that “April 3” is “next Monday” and “after 3 days” from the day when this dialogue is performed.
Here, the user utters an input example 11 such as “I want to make a reservation next Monday”, and the system prompts the user to input a reservation time. For example, “What time is next Monday? It is assumed that the response example 11 such as “is output. Also, another user utters an input example 12 such as “I want to make a reservation on April 3”, and the system side further prompts input of a reservation time. For example, “From what time on April 3 Consider outputting a response example 12 such as "Is it?" In this way, when referring to the same concept of April 3 in the response, if the wording used by the user and the wording of the response on the system side are aligned, an effect of reducing the mechanical impression given to the user can be expected.

また、システム側が、予約時間の入力を促す発話として「来週の月曜日の、何時からでしょうか?」といった応答例21を対話において複数回連続して出力し、数度に一度、「4月3日の、何時からでしょうか?」といった応答例22、もしくは、例えば「3日後の、何時からでしょうか?」といった応答例23を出力することを考える。すなわち、応答に含まれる言い回しに同一のものが所定の回数連続した場合に、該当する言い回し以外の言い回しを応答に用いることを考える。このような応答のしかたは、システムが常に同一の言い回しを用いて応答する場合に比べて、ユーザに与える機械的な印象を和らげる効果が期待できる。
特許文献1や2で提案された技術を用いて応答例11、応答例12、応答例21、応答例22および応答例23を出力するためには、「来週の月曜日」と「4月3日」をそれぞれ一つの単語として扱い、そのような単語の対応表を類似語辞書や連想語辞書として作成する必要がある。
In addition, the system will output a response example 21 such as “What time is next Monday?” As an utterance prompting the user to enter the reservation time. It is considered to output a response example 22 such as “What time is it from?” Or a response example 23 such as “What time is it after 3 days?”. That is, it is considered to use a phrase other than the corresponding phrase for the response when the same phrase included in the response continues for a predetermined number of times. Such a response method can be expected to reduce the mechanical impression given to the user as compared to the case where the system always responds using the same wording.
In order to output the response example 11, the response example 12, the response example 21, the response example 22, and the response example 23 using the technique proposed in Patent Documents 1 and 2, “next Monday” and “April 3” As a single word, and a correspondence table of such words needs to be created as a similar word dictionary or associative word dictionary.

しかし、「来週の月曜日」という表現が「4月3日」と対応するのは、たかだか一週間程度の期間のみであり、次の週になってしまえば類似語辞書や連想語辞書を新たに構築しなくてはならないため、システム運用上の負担が大きく、非効率である。
従来技術1を用いた場合、例えば内部パラメータが“月”、“日”の二つの変数を含み、それら変数の値がそれぞれ“4”と“3”であるような場合、システムからの応答出力は例えば「4月3日」のような定型的な言い回ししかできない。また、従来技術1から容易に拡張できる技術として、システムが内部パラメータから複数のパターン、例えば応答例11と応答例12を生成し、このうち一つを乱数で選択するといった技術も考えられるが、これではユーザ入力の言い回しと同じか、異なるか、という基準で出力を選択することはできない。
However, the expression “next Monday” corresponds to “April 3” only for a period of about one week. When the next week is reached, a similar word dictionary and associative word dictionary will be newly added. Since it must be constructed, the burden on system operation is large and inefficient.
When using the prior art 1, for example, when the internal parameter includes two variables “month” and “day”, and the values of these variables are “4” and “3”, respectively, the response output from the system Can only do a standard phrase like "April 3". In addition, as a technique that can be easily expanded from the conventional technique 1, a technique in which the system generates a plurality of patterns, for example, the response example 11 and the response example 12 from internal parameters, and one of them is selected with a random number is also conceivable. In this case, the output cannot be selected based on whether it is the same as or different from the wording of the user input.

また、特許文献3と4では、ユーザと発話がぶつかった場合やユーザが戸惑ったりしている場合のための対応を実現するものであり、このような場合が起きなければシステムの応答出力は変化することがないため、結果として単調な応答出力となり、機械的な印象を与えるものとなってしまう。特許文献3の請求項7においては、システムがユーザの発話と同じ語句や表現パタンを用いる技術が提案されているが、これではユーザが常に同じ言い回しを用いた場合、システムも常に同じ言い回しを用いることとなってしまい、応答例22および応答例23のようにシステム側の言い回しを能動的に変化させて機械的な印象を和らげることができない。   Further, in Patent Documents 3 and 4, a response to a case where the user collides with an utterance or a case where the user is confused is realized. If such a case does not occur, the response output of the system changes. As a result, a monotonous response output results, giving a mechanical impression. In claim 7 of Patent Document 3, a technique is proposed in which the system uses the same phrase or expression pattern as the user's utterance. However, when the user always uses the same wording, the system always uses the same wording. Therefore, unlike the response example 22 and the response example 23, it is not possible to soften the mechanical impression by actively changing the wording on the system side.

以上のように、従来技術を用いた場合、例えば日付のような、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力に用いられてきた言い回しや、システムの応答に用いられてきた言い回しに応じて、応答文における言い回しを変化させることができなかった。結果として対話システムの応答文における言い回しは単調なものとなってしまい、機械的な印象を与えるものとなってしまっていた。
本発明の目的は、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力に用いられてきた言い回しや、システムの応答に用いられてきた言い回しに応じて、応答文における言い回しを変化させることを可能とし、機械的な印象を減らすことにある。
As described above, when the conventional technology is used, a phrase that has been used for input when referring to a concept that can be expressed by a plurality of phrases, such as a date, in a response sentence of the dialog system, The wording in the response sentence could not be changed according to the wording used for the response. As a result, the wording in the response text of the dialogue system became monotonous and gave a mechanical impression.
It is an object of the present invention to respond to a concept that can be expressed by a plurality of phrases according to a phrase that has been used for input or a phrase that has been used for a system response when referring to a response sentence of a dialog system. It is possible to change the wording in the sentence and reduce the mechanical impression.

本発明の請求項1及び2ではコンピュータに入力情報に含まれるパラメータを抽出する言語理解処理と、入力情報を言い回しパターンデータベースと照合して入力情報の言い回しタイプを抽出する言い回しタイプ抽出処理と、入力情報から抽出したパラメータと、入力情報から抽出した言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文を履歴情報として記憶する履歴情報記憶処理と、履歴情報から応答内容を決定する応答内容決定処理と、履歴情報から応答文の言い回しタイプを決定する応答文の言い回しタイプ決定処理と、応答文の言い回しタイプ決定処理で決定した応答文の言い回しに従って応答文を生成する応答文生成処理と、を実行させることを特徴とする対話方法を提案する。
この請求項1及び2で提案する対話方法によれば入力情報に含まれる言い回しタイプと、応答文の言い回しタイプを履歴情報として記憶し、その記憶を参照して応答内容の言い回しタイプを決定するから、入力および応答で用いられた言い回しによって応答文の言い回しタイプを変化させることができる。
Claims 1 and 2 of the present invention include a language understanding process for extracting parameters included in input information to a computer, a wording type extraction process for extracting the wording type of the input information by collating the input information with the wording pattern database, and an input Parameters extracted from information, wording type extracted from input information, response content, wording type of response sentence, history information storage process for storing response sentence as history information, and response for determining response contents from history information A content determination process, a response sentence wording type determination process for determining a response sentence wording type from history information, and a response sentence generation process for generating a response sentence according to the response sentence wording determined in the response sentence wording type determination process; We propose a dialogue method characterized by executing
According to the dialogue method proposed in claims 1 and 2, the wording type included in the input information and the wording type of the response sentence are stored as history information, and the wording type of the response content is determined by referring to the memory. The wording type of the response sentence can be changed according to the wording used in the input and response.

本発明の請求項3による対話方法は、応答文を生成する際に、履歴情報に含まれている入力の言い回しタイプと同じ言い回しタイプを持つ応答文を優先的に生成する。これにより、本発明は応答文の言い回しを入力の言い回しに揃える機能を持つ。
本発明の請求項4による対話方法は、応答文を生成する際に、履歴情報に含まれている応答文の言い回しタイプが所定の回数以上同一のものが繰り返されている場合に異なる言い回しタイプを用いるため、常に同じ応答文が出力されることを防ぐ機能を持つ。
In the dialogue method according to claim 3 of the present invention, when generating a response sentence, a response sentence having the same phrase type as the input phrase type included in the history information is preferentially generated. As a result, the present invention has a function of aligning the phrase of the response sentence with the phrase of the input.
In the dialogue method according to claim 4 of the present invention, when generating a response sentence, a different phrase type is used when the response sentence included in the history information is repeated for a predetermined number of times. Because it uses it, it has a function that prevents the same response sentence from being output at all times.

以上のように、本発明を用いれば、複数の言い回しによって表現されうる概念を、対話システムの応答文において言及する際に、入力および応答に用いられた言い回しに応じて、応答文における言い回しを変化させることが可能となる。
これにより、請求項4による発明においては、同一の言い回しが応答において複数回連続した場合、これとは異なる言い回しを優先的に用いることによって、ユーザへ与える機械的な印象を和らげる効果が期待できる。
As described above, according to the present invention, when a concept that can be expressed by a plurality of phrases is referred to in a response sentence of a dialogue system, the wording in the response sentence is changed according to the phrase used for input and response. It becomes possible to make it.
Thus, in the invention according to claim 4, when the same wording is continued a plurality of times in the response, an effect of relieving the mechanical impression given to the user can be expected by preferentially using the wording different from this.

本発明を実施するための最良の形態を、図1を用いて説明する。
図中100は本発明の請求項5乃至8で提案する対話装置、200は本発明の請求項9で提案する音声対話装置を示す。
対話装置100は言語理解処理手段101と、内部パラメータ記憶部102と、言い回しパターンデータベース103と、言い回しタイプ抽出手段104と、応答内容決定手段105と、言い回しタイプ決定手段106と、応答文生成手段107と、履歴情報書込手段108とによって構成される。
The best mode for carrying out the present invention will be described with reference to FIG.
In the figure, reference numeral 100 denotes an interactive apparatus proposed in claims 5 to 8 of the present invention, and 200 denotes a voice interactive apparatus proposed in claim 9 of the present invention.
The dialogue apparatus 100 includes a language understanding processing unit 101, an internal parameter storage unit 102, a phrase pattern database 103, a phrase type extraction unit 104, a response content determination unit 105, a phrase type determination unit 106, and a response sentence generation unit 107. And history information writing means 108.

音声対話装置200は音声認識装置201と、対話装置100と、音声合成装置202とによって構成され、音声認識装置201へ音声が入力されることにより、音声認識装置201は入力された音声を音声認識し、音声認識結果を例えばテキストデータ等の形態で入力情報として対話装置100へ入力する。
対話装置100は入力された入力情報を理解し、入力情報に適合した応答文を生成し、その応答文を例えばテキストデータの形態で音声合成装置202に入力する。音声合成装置202は入力された応答文を音声に合成し、音声対話装置200の応答出力として応答音声を出力する。応答音声の出力により利用者が再度音声で発話すると、その発話が再び音声認識され、発話内容が対話装置100で処理され、その発話内容に適合した応答文を生成し、その応答文を音声合成装置202に入力し、音声合成装置202から音声で応答する。この繰返しにより対話が実現される。
The voice interaction device 200 is composed of a voice recognition device 201, a dialogue device 100, and a voice synthesis device 202. When voice is input to the voice recognition device 201, the voice recognition device 201 recognizes the input voice. Then, the voice recognition result is input to the interactive apparatus 100 as input information in the form of text data, for example.
The dialogue apparatus 100 understands the input information that has been input, generates a response sentence suitable for the input information, and inputs the response sentence to the speech synthesizer 202 in the form of text data, for example. The speech synthesizer 202 synthesizes the input response sentence with speech and outputs a response speech as a response output of the speech interaction device 200. When the user utters the voice again by outputting the response voice, the utterance is recognized again, the utterance content is processed by the dialog device 100, a response sentence suitable for the utterance content is generated, and the response sentence is synthesized by speech synthesis. It inputs into the apparatus 202 and responds with a voice from the speech synthesizer 202. Dialogue is realized by this repetition.

本発明による対話装置100は、言語理解処理手段101で入力情報に含まれるパラメータを抽出する。ここでパラメータとは、この対話装置100を例えば会議室の予約受付用として利用する場合には予約に必要な日時に関する値がパラメータとなり得る。つまり、年、月、日、時刻に係わる値をパラメータとして抽出する。例えば「来週の月曜日」とする入力情報に対し、カレンダ機能を利用して来週の月曜日を「4月3日」と特定し、月パラメータとして「4」、日パラメータとして「3」をそれぞれ抽出する。この抽出処理は内部パラメータ記憶部102に用意している内部パラメータを参照して実行される。図2に内部パラメータ記憶部102に用意されるパラメータの一例を示す。各パラメータには属性(値の型)が対応付けして付与される。図2に示す「日時言い回しタイプ」、「時刻言い回しタイプ」、「確認フラグ」、「応答文履歴」は後に説明する各処理で抽出した各パラメータであり、これらは言語理解結果として内部パラメータ記憶部102に書き込まれる。   In the dialogue apparatus 100 according to the present invention, the language understanding processing means 101 extracts parameters included in the input information. Here, the parameter may be a value related to the date and time required for the reservation when the interactive apparatus 100 is used for accepting a reservation in a conference room, for example. That is, values related to year, month, day, and time are extracted as parameters. For example, for the input information “next Monday”, using the calendar function, next Monday is identified as “April 3”, and “4” is extracted as the month parameter and “3” is extracted as the day parameter. . This extraction process is executed with reference to the internal parameters prepared in the internal parameter storage unit 102. FIG. 2 shows an example of parameters prepared in the internal parameter storage unit 102. Each parameter is given an attribute (value type) in association with it. The “date and time wording type”, “time wording type”, “confirmation flag”, and “response sentence history” shown in FIG. 2 are parameters extracted in each process described later, and these are internal parameter storage units as language understanding results. 102 is written.

また入力情報は言い回しタイプ抽出手段104に引き渡され、語の並びから言い回しタイプを抽出する。この抽出処理は言い回しパターンデータベース103に格納されている言い回しパターンデータを参照して行われる。図3に言い回しパターンデータの一例を示す。図3に示す言い回しデータは日付言い回しデータベースを例示している。図3において、%y、%m、%dはそれぞれ西暦年、月、日を表し、%wは曜日の名を表している。また、この例では「〜年〜月〜日」といったパターンの言い回しは「年月日タイプ」というタイプ名が対応付けされる。また、「今週の木曜日」といったパターンの言い回しは「週曜タイプ」というタイプ名が対応付けされ、更に、「今週の20日」といったパターンの言い回しは「週日タイプ」というタイプ名が対応付けられる。
また、図4は時刻に関する言い回しパターンデータベースの例を示している。%Hは時、%Mは分を表わす数字を表現している。
The input information is transferred to the wording type extracting means 104, and the wording type is extracted from the word sequence. This extraction process is performed with reference to the wording pattern data stored in the wording pattern database 103. FIG. 3 shows an example of wording pattern data. The wording data shown in FIG. 3 illustrates a date wording database. In FIG. 3,% y,% m, and% d represent the year, month, and day, respectively, and% w represents the name of the day of the week. In this example, the pattern name “-year-month-day” is associated with the type name “year-month-day type”. In addition, the wording of a pattern such as “Thursday of the week” is associated with a type name “Weekday type”, and the wording of a pattern such as “20 days of this week” is associated with a type name of “Weekday type”.
FIG. 4 shows an example of a word pattern database relating to time. % H represents hours and% M represents minutes.

図5に言語理解処理手段101と言い回しタイプ抽出手段104の動作状況を示す。ステップSP1で入力情報からパラメータの抽出処理を実行し、ステップSP2で言い回しタイプを抽出する。ステップSP3では入力情報から抽出したパラメータと言い回しタイプを言語理解結果として内部パラメータ記憶部102への書込を行なう。
内部パラメータ記憶部102への書き込みが完了すると、応答内容決定手段105が起動され応答内容の決定処理が開始される。応答内容決定手段105は履歴情報参照手段105Aを備え、この履歴情報参照手段105Aが内部パラメータ記憶部102に書き込んだ内部パラメータを読み込む。読み込んだ内部パラメータを参照し、応答内容を決定する。応答内容の決定は以下の如くして行われる。
FIG. 5 shows the operation status of the language understanding processing means 101 and the wording type extraction means 104. In step SP1, parameter extraction processing is executed from the input information, and in step SP2, the wording type is extracted. In step SP3, the parameters extracted from the input information and the wording type are written in the internal parameter storage unit 102 as a language understanding result.
When the writing to the internal parameter storage unit 102 is completed, the response content determination unit 105 is activated and the response content determination process is started. The response content determination unit 105 includes a history information reference unit 105 </ b> A, and reads the internal parameter written by the history information reference unit 105 </ b> A into the internal parameter storage unit 102. Refer to the read internal parameters to determine the response contents. The response content is determined as follows.

内部パラメータ記憶部102から読み込んだ内部パラメータに、例えば予約に必要なパラメータが全て揃っているか否かをチェックする。不足するパラメータが存在している場合は、その不足しているパラメータの補充を促す「情報要求型」の内容に決定する。一方、予約に必要な全てのパラメータが揃っているが確認フラグの値が「未」である場合は、この内容で良いか否かを確認する「確認型」の内容に決定する。
応答内容を決定すると、応答内容決定手段105は、応答文に用いるテンプレートを決定する。テンプレートとしては情報の入力を促す例えば、「%dateの何時からでしょうか?」或は「何日の%timeからでしょう?」等とするテンプレート群が用意されており、このテンプレート群の中から、必要なパラメータの入力を促す内容に該当するテンプレートを選択して決定する。
For example, it is checked whether the internal parameters read from the internal parameter storage unit 102 include all parameters necessary for the reservation. If there is an insufficient parameter, the content is determined as “information request type” that prompts the user to supplement the insufficient parameter. On the other hand, if all the parameters necessary for the reservation are available but the value of the confirmation flag is “not yet”, the content is determined as “confirmation type” for confirming whether or not this content is acceptable.
When the response content is determined, the response content determination means 105 determines a template to be used for the response sentence. For example, a template group that prompts the user to input information, such as “From what time in% date?” Or “From what day% time?” Is prepared. Then, the template corresponding to the content prompting the input of necessary parameters is selected and determined.

応答内容決定手段105で応答文のテンプレートが決定されると、そのテンプレートが言い回しタイプ決定手段106に引き渡され、応答文の言い回しタイプを決定する。言い回しタイプの決定は内部パラメータ記憶部102から読み込んだ内部パラメータに付加されている履歴情報を参照し、決定する。つまり、ユーザの入力に用いられていた言い回しタイプと同一タイプの応答文の言い回しタイプを選択するなどの処理を行う。
応答文の言い回しタイプが決定すると、応答文生成手段107はテンプレートの例えば前記した「%date」の部分に決定した言い回しタイプの単語列を代入し、応答文を生成し、その応答文を音声合成装置202に出力する。これと共に、履歴情報書込手段108は応答内容決定手段105で決定した応答内容、言い回しタイプ決定手段106で決定した言い回しタイプ、及び応答文生成手段107で生成した応答文を対話履歴として内部パラメータ記憶部102に書き込む。この書き込みにより対話の1回目が完了する。応答文が音声として放音され、この放音された応答文に対してユーザが発話すると、その発話が音声認識され、二回目の対話状態となる。対話の回毎に予約に不足するパラメータが補充される、全てのパラメータが備わった時点で確認型の応答文が生成され、その応答音声に対してユーザが確認の返事を入力した時点で確認フラグの値が「1」に転換し、これにより予約が完了したこととなり、対話は終了する。
When the response content template is determined by the response content determination means 105, the template is handed over to the wording type determination means 106 to determine the wording type of the response text. The wording type is determined by referring to the history information added to the internal parameter read from the internal parameter storage unit 102. That is, processing such as selecting a wording type of a response sentence of the same type as the wording type used for the user's input is performed.
When the wording type of the response sentence is determined, the response sentence generating unit 107 substitutes the determined wording type word string in the “% date” portion of the template, for example, generates a response sentence, and synthesizes the response sentence by speech synthesis Output to the device 202. At the same time, the history information writing means 108 stores the response content determined by the response content determination means 105, the wording type determined by the wording type determination means 106, and the response text generated by the response text generation means 107 as an internal history. Write to part 102. This writing completes the first dialogue. When the response sentence is emitted as a voice and the user utters the uttered response sentence, the utterance is recognized as a voice and a second dialogue state is entered. A parameter that is insufficient for reservation is replenished every time the dialogue is made. When all parameters are provided, a confirmation-type response is generated. The value of is changed to “1”, which means that the reservation is completed, and the dialogue is terminated.

図6は以上説明した応答内容決定手段105と、言い回しタイプ決定手段106と、応答文生成手段107と、履歴情報書込手段108の動作を説明するためのフローチャートを示す。
ステップSP11では履歴情報参照手段105Aにより内部パラメータ記憶部102に書き込んだ内部パラメータを読み込む。
ステップSP12では応答内容を決定し、ステップSP13でテンプレートを決定する。テンプレートが決定されると、ステップSP14で言い回しタイプを決定し、ステップSP15でテンプレートの該当部分に、言い回しタイプ決定ステップSP14で決定した言い回しの単語列を代入し、応答文を生成する。ステップSP16で履歴情報を内部パターン記憶部102に書き込みを行い、ステップSP11に戻り、次の対話の待ち状態に入る。
以下に具体的な実施例を説明する。
FIG. 6 shows a flowchart for explaining the operations of the response content determination means 105, the phrase type determination means 106, the response sentence generation means 107, and the history information writing means 108 described above.
In step SP11, the history information reference unit 105A reads the internal parameter written in the internal parameter storage unit 102.
In step SP12, the response content is determined, and in step SP13, a template is determined. When the template is determined, the wording type is determined in step SP14, and the word string of the wording determined in the wording type determination step SP14 is substituted for the corresponding part of the template in step SP15 to generate a response sentence. In step SP16, history information is written in the internal pattern storage unit 102, and the process returns to step SP11 to enter a waiting state for the next dialog.
Specific examples will be described below.

図7に本発明の請求項7で提案する対話装置の要部の構成を示す。請求項7で提案する対話装置の特徴は言い回しタイプ決定手段106に同一タイプ決定手段106Aを備えている構成とした点にある。
同一タイプ決定手段106Aは応答内容決定手段105に設けた履歴情報参照手段105Aが読み込んだ履歴情報の中の入力情報から抽出した言い回しタイプを参照し、応答文に適用する言い回しタイプを、入力情報から抽出した言い回しタイプと同一の言い回しタイプを優先的に決定する。
FIG. 7 shows the configuration of the main part of the dialogue apparatus proposed in claim 7 of the present invention. The feature of the dialogue apparatus proposed in claim 7 is that the phrase type determining means 106 is provided with the same type determining means 106A.
The same type determination unit 106A refers to the phrase type extracted from the input information in the history information read by the history information reference unit 105A provided in the response content determination unit 105, and determines the phrase type to be applied to the response sentence from the input information. The same wording type as the extracted wording type is preferentially determined.

つまり、入力情報から抽出した言い回しタイプが図3に示した「年月日タイプ」である場合は、上述した例に当てはめるとテンプレートの「%date」の部分に「年月日タイプ」の単語列を代入する。また、入力情報から抽出した言い回しタイプが図3に示した「週曜タイプ」の場合はテンプレートの「%date」の部分に「週曜」タイプの単語列を代入する。   In other words, if the wording type extracted from the input information is the “year / month / day type” shown in FIG. 3, the word string “year / month / day type” is added to the “% date” portion of the template when applied to the above example. Is assigned. If the wording type extracted from the input information is the “weekday type” shown in FIG. 3, a “weekday” type word string is substituted for the “% date” portion of the template.

図8にその様子を示す。左欄は各部の処理ステップ名、右欄は処理結果を表わす。この例では入力情報として「来週の月曜日に予約をお願いします」と入力された場合を例示して説明する。
パラメータ抽出ステップではカレンダ機能を利用して「来週の月曜日を」「4月3日」と特定し、パラメータとして月パラメータが「4」、日パラメータが「3」として抽出される。
言い回しタイプ抽出ステップでは言い回しパターンデータベース103を参照し、「日付言い回しタイプ」が「週曜」タイプとして抽出される。
内部パラメータ書き込みステップではこれら抽出したパラメータを内部パラメータ記憶部102に書き込む。内部パラメータ記憶部102へ書き込みを行う際に書き込みフォーマットに予約に必要なパラメータのテンプレートが用意されており、この書き込みの際に予約に必要なパラメータの不足が検出される。図8に示す例では時刻に係わるパラメータと、時刻言い回しタイプが不足している例を示す。
This is shown in FIG. The left column represents the processing step name of each part, and the right column represents the processing result. In this example, a case where “please make a reservation next Monday” is input as input information will be described as an example.
In the parameter extraction step, the calendar function is used to identify “next Monday” and “April 3”, and the month parameter is extracted as “4” and the day parameter is extracted as “3”.
In the wording type extraction step, the wording pattern database 103 is referred to, and “date wording type” is extracted as “weekday” type.
In the internal parameter writing step, these extracted parameters are written in the internal parameter storage unit 102. When writing to the internal parameter storage unit 102, a template of parameters necessary for reservation is prepared in the writing format, and the lack of parameters necessary for reservation is detected at the time of writing. The example shown in FIG. 8 shows an example in which the parameters related to time and the time phrase type are insufficient.

パラメータの不足が存在することから、応答内容決定ステップでは応答内容として「情報要求型」と決定する。
テンプレート決定ステップではテンプレートとして「%dateの何時からでしょうか?」を選択し、決定する。
言い回しタイプ決定ステップでは履歴情報の中の入力情報から抽出した言い回しタイプを参照し、応答文に適用する言い回しタイプを入力情報と同じ「週曜」タイプと決定する。
Since there is a lack of parameters, the response content determination step determines “information request type” as the response content.
In the template determination step, “from what time in% date?” Is selected and determined as a template.
In the wording type determination step, the wording type extracted from the input information in the history information is referred to, and the wording type applied to the response sentence is determined to be the same “weekday” type as the input information.

応答文生成ステップでは「週曜」タイプの言語表現である「来週の月曜日」をテンプレートの「%date」の部分に代入し、「来週の月曜日の何時からでしょうか?」とする応答文を生成する。
応答文が生成された時点で履歴情報記録ステップで入力情報から抽出したパラメータと、日付言い回しタイプ、応答文、応答内容を書き込む。
In the response sentence generation step, "Wednesday" type language expression "Next Monday" is substituted into the "% date" part of the template to generate a response sentence "What time is next Monday?" To do.
When the response text is generated, the parameters extracted from the input information in the history information recording step, the date wording type, the response text, and the response content are written.

図9に本発明の請求項8で提案する対話装置の実施例を示す。この実施例では応答文に用いられる言い回しタイプに同一のものが所定回を超えて連続して出現した場合に生成する応答文を、該当する言い回しとは異なる言い回しに変更し、ユーザへ与える機械的な印象を和らげようとする実施例を示す。このために、言い回しタイプ決定手段106に図7に示した同一タイプ決定手段106Aに加えて、異タイプ決定手段106Bを付加した構成とした点を特徴とするものである。
この構成によれば対話回数が所定回以内の場合は、応答文に適用する言い回しを上述したように入力情報と同じ言い回しタイプに揃え、利用者との対話を円滑に進めると共に、応答文において用いられる言い回しタイプに同一のものが所定回数、例えば4回を越えて出現した場合に、応答文に適用する言い回しタイプを異ならせることができる。
FIG. 9 shows an embodiment of an interactive apparatus proposed in claim 8 of the present invention. In this embodiment, the response sentence generated when the same phrase type used in the response sentence appears more than a predetermined number of times is changed to a different phrase from the corresponding phrase, and given to the user. The example which tries to relieve a good impression is shown. For this purpose, the wording type determination means 106 is characterized in that a different type determination means 106B is added to the same type determination means 106A shown in FIG.
According to this configuration, when the number of dialogues is within a predetermined number of times, the wording applied to the response sentence is aligned with the same wording type as the input information as described above, and the conversation with the user is facilitated and used in the response sentence. When the same wording type appears more than a predetermined number of times, for example, four times, the wording type applied to the response sentence can be made different.

図10と図11を用いて異タイプ決定手段106Bの動作状況を説明する。図10では図8に示したパラメータ抽出ステップと、言い回しタイプ抽出ステップを省略して示し、既に対話が4回行われ、5回目の応答文を生成する過程にある状況を示している。
4回目までの応答文には「日付言い回しタイプ」を入力情報から抽出した「週曜」タイプと同じ「週曜」タイプを適用している(図10に示す内部パラメータ記憶部への書き込みデータの中の応答文1〜4を参照)。
これに対し、5回目の応答文では異タイプ決定手段106Bが動作し、図11に示す応答文5に示すようにテンプレートの「%date」の言い回しタイプを「年月日」タイプに変更している。「%date」の部分の言い回しを「年月日」タイプに変更することにより、過去4回の応答文では「来週の月曜日」を代入していたが「年月日」タイプでは月パラメータで抽出した「4」と日パラメータで抽出した「3」を用いて、「4月3日」を代入し、「4月3日の3時からですね?」と確認をとる応答文を生成する。これにより、常に同じ言い回しが応答文に用いられることが避けられ、機械的な印象を和らげることが期待できる。
The operation status of the different type determining means 106B will be described with reference to FIGS. In FIG. 10, the parameter extraction step and the wording type extraction step shown in FIG. 8 are omitted, and a situation in which a dialogue has already been performed four times and a fifth response sentence is being generated is shown.
The same “weekday” type as the “weekday” type extracted from the input information is applied to the response sentences up to the fourth time (the data written to the internal parameter storage unit shown in FIG. 10). (See response sentences 1 to 4).
On the other hand, the different type determination means 106B operates in the fifth response sentence, and the wording type “% date” of the template is changed to the “year / month / day” type as shown in the response sentence 5 shown in FIG. Yes. By changing the wording of the “% date” part to the “year / month / day” type, “next Monday” was substituted in the past four response sentences, but for the “year / month / day” type, it was extracted with the month parameter. Using “4” and “3” extracted by the day parameter, “April 3” is substituted, and a response sentence that confirms “From 3 o'clock on April 3?” Is generated. As a result, it can be expected that the same wording is always used in the response sentence, and the mechanical impression is eased.

以上説明した本発明対話装置及び音声対話装置は主にコンピュータによって構成することができる。コンピュータに、コンピュータが解読可能なプログラム言語によって記述された対話プログラム及び音声対話プログラムを解読させ、実行させることによって対話装置及び音声対話装置として機能させることができる。対話プログラム及び音声対話プログラムは磁気ディスク或はCD−ROMのようなコンピュータが読取り可能な記録媒体に記録され、これらの記録媒体からコンピュータにインストールするか又は通信回線を通じてコンピュータにインストールされ、コンピュータに備えられた中央演算処理装置(CPU)に解読されて実行される。   The dialog apparatus and the voice dialog apparatus of the present invention described above can be mainly configured by a computer. It is possible to cause a computer to function as a dialog device and a voice dialog device by causing a computer to decode and execute a dialog program and a voice dialog program written in a program language that can be decoded. The dialogue program and the voice dialogue program are recorded on a computer-readable recording medium such as a magnetic disk or a CD-ROM, and installed in the computer from these recording media or installed in the computer through a communication line, and are provided in the computer. It is decoded and executed by the central processing unit (CPU).

本発明による対話方法、対話装置、音声対話装置、対話プログラム、音声対話プログラムは自動予約システム、自動案内システム等の分野で活用される。   The dialogue method, dialogue device, voice dialogue device, dialogue program, and voice dialogue program according to the present invention are utilized in the fields of an automatic reservation system, an automatic guidance system, and the like.

この発明の全体の構成を説明するためのブロック図。The block diagram for demonstrating the whole structure of this invention. 本発明に用いる内部パラメータ記憶部の内部の様子を説明するための図。The figure for demonstrating the internal condition of the internal parameter memory | storage part used for this invention. 本発明に用いる言い回しパターンデータベースの内部の様子を説明するための図。The figure for demonstrating the mode of the inside of the wording pattern database used for this invention. 図3と同様に言い回しパターンデータベースの内部の様子を説明するための図。The figure for demonstrating the mode inside the wording pattern database similarly to FIG. 図1に示した言語理解処理手段と、言い回しタイプ抽出手段の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the language understanding process means and phrase type extraction means shown in FIG. 図1に示した応答内容決定手段と、言い回しタイプ決定手段、応答文生成手段の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the response content determination means shown in FIG. 1, a phrase type determination means, and a response sentence production | generation means. 本発明の請求項7で提案する対話装置の要部の構成を説明するためのブロック図。The block diagram for demonstrating the structure of the principal part of the dialogue apparatus proposed by Claim 7 of this invention. 図7に示した実施例の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the Example shown in FIG. 本発明の請求項8で提案する対話装置の要部の構成を説明するためのブロック図。The block diagram for demonstrating the structure of the principal part of the dialogue apparatus proposed by Claim 8 of this invention. 図9に示した実施例の動作を説明するためのフローチャート。The flowchart for demonstrating operation | movement of the Example shown in FIG. 図10の続きを説明するためのフローチャート。11 is a flowchart for explaining the continuation of FIG.

符号の説明Explanation of symbols

100 対話装置 106 言い回しタイプ決定手段
101 言語理解処理手段 106A 同一タイプ決定手段
102 内部パラメータ記憶部 106B 異タイプ決定手段
103 言い回しパターンデータベース 107 応答文生成手段
104 言い回しタイプ抽出手段 108 履歴情報書込手段
105 応答内容決定手段 200 音声対話装置
105A 履歴情報参照手段 201 音声認識装置
202 音声合成装置

DESCRIPTION OF SYMBOLS 100 Dialogue device 106 Wording type determination means 101 Language understanding processing means 106A Same type determination means 102 Internal parameter memory | storage part 106B Different type determination means 103 Wording pattern database 107 Response sentence generation means
104 wording type extraction means 108 history information writing means 105 response content determination means 200 voice dialogue apparatus 105A history information reference means 201 voice recognition apparatus
202 Speech synthesizer

Claims (12)

コンピュータに、
入力情報に含まれるパラメータを抽出する言語理解処理と、
入力情報を言い回しパターンデータベースと照合して入力情報の言い回しタイプを抽出する言い回しタイプ抽出処理と、
応答内容を決定する応答内容決定処理と、
応答文の言い回しタイプを決定する応答文の言い回しタイプ決定処理と、
前記応答内容と、前記応答文の言い回しタイプを参照して応答文を生成する応答文生成処理と、
前記入力情報から抽出したパラメータと、入力情報から抽出された言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文とを履歴情報として記憶する履歴情報記憶処理と、
を実行させることを特徴とする対話方法。
On the computer,
Language understanding process to extract parameters included in input information;
A wording type extraction process that extracts the wording type of the input information by comparing the input information with the wording pattern database,
Response content determination processing for determining the response content;
A response sentence wording type determination process for determining a response sentence wording type;
A response sentence generation process for generating a response sentence with reference to the response content and the phrase type of the response sentence;
A history information storage process for storing the parameters extracted from the input information, the wording type extracted from the input information, the response content, the wording type of the response text, and the response text as history information;
An interactive method characterized by causing the system to execute.
請求項1記載の対話方法において、
前記応答内容決定処理は、前記履歴情報記憶処理で記憶した履歴情報を参照し、対話の履歴に応じて応答内容の決定処理を実行し、
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報を参照し、対話の履歴に応じて応答文の言い回しタイプ決定処理を実行することを特徴とする、
対話方法。
The dialogue method according to claim 1,
The response content determination process refers to the history information stored in the history information storage process, executes a response content determination process according to the history of the conversation,
The response sentence wording type determination process refers to the history information stored in the history information storage process, and executes a response sentence wording type determination process according to a history of dialogue,
How to interact.
請求項1又は2記載の対話方法の何れかにおいて、
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報に含まれる入力情報から抽出された入力情報の言い回しタイプを参照し、応答文の言い回しタイプを入力情報の言い回しタイプと同一タイプに優先的に決定することを特徴とする対話方法。
Either of the dialogue methods according to claim 1 or 2,
The response sentence wording type determination process refers to the wording type of the input information extracted from the input information included in the history information stored in the history information storage process, and the wording type of the response sentence is the wording type of the input information. An interactive method characterized by preferentially determining the same type.
請求項1又は2記載の対話方法の何れかにおいて、
前記応答文の言い回しタイプ決定処理は、前記履歴情報記憶処理で記憶した履歴情報に含まれる応答文の言い回しタイプの履歴を参照し、所定の回数以上の回数で応答文の言い回しタイプに同一のものが連続している場合は、当該言い回しタイプ以外の言い回しタイプを優先的に決定することを特徴とする対話方法。
Either of the dialogue methods according to claim 1 or 2,
The response sentence wording type determination process refers to the response sentence wording type history included in the history information stored in the history information storage process, and is the same as the response sentence wording type more than a predetermined number of times. If the phrase is continuous, a dialogue type other than the phrase type is preferentially determined.
入力情報で与えられる言い回しパターンを言い回しタイプに対応付けする言い回しデータベースと、
入力情報を参照し、入力情報に含まれるパラメータを抽出する言語理解処理手段と、
入力情報と前記言い回しデータベースを参照し、入力情報の言い回しタイプを抽出する言い回しタイプ抽出手段と、
応答内容を決定する応答内容決定手段と、
応答文の言い回しタイプを決定する応答文の言い回しタイプ決定手段と、
前記応答文の言い回しタイプと、前期応答内容を参照して、応答文を生成する応答文生成手段と、
前記入力情報で与えられるパラメータと各パラメータの属性とを対応付けしたものと、入力情報で与えられる言い回しタイプと、応答内容と、応答文の言い回しタイプと、応答文の履歴を内部パラメータとして記憶した内部パラメータ記憶部と、
を備えることを特徴とする対話装置。
A wording database that maps wording patterns given in input information to wording types;
Language understanding processing means for referring to input information and extracting parameters included in the input information;
Referring to the input information and the wording database, wording type extracting means for extracting the wording type of the input information;
Response content determination means for determining the response content;
A response sentence wording type determining means for determining a response sentence wording type;
A response sentence generation means for generating a response sentence with reference to the phrase type of the response sentence and the previous response content;
The parameters given by the input information are associated with the attributes of the parameters, the wording type given by the input information, the response contents, the wording type of the response text, and the history of the response text are stored as internal parameters. An internal parameter storage unit;
An interactive apparatus comprising:
請求項5記載の対話装置において、
前記応答内容決定手段は、前記内部パラメータ記憶部において記憶された内部パラメータを参照する手段を備え、対話の履歴に応じて応答内容を決定し、
前記応答文の言い回しタイプ決定手段は、前記内部パラメータ記憶部において記憶された内部パラメータを参照する手段を備え、対話の履歴に応じて応答文の言い回しタイプを決定することを特徴とする対話装置。
The interactive apparatus according to claim 5, wherein
The response content determination means includes means for referring to the internal parameter stored in the internal parameter storage unit, and determines the response content according to the history of dialogue,
The response sentence wording type determining means includes means for referring to the internal parameter stored in the internal parameter storage unit, and determines the wording type of the response sentence according to the history of the dialog.
請求項5又は6記載の対話装置の何れかにおいて、
前記応答文の言い回しタイプを決定する言い回しタイプ決定手段は、対話毎に応答文の言い回しタイプを入力情報の言い回しタイプと同一タイプの言い回しタイプに優先的に決定することを特徴とする対話装置。
Either of the interactive devices according to claim 5 or 6,
The wording type determining means for determining the wording type of the response sentence preferentially decides the wording type of the response sentence to the wording type of the same type as the wording type of the input information for each dialogue.
請求項5又は6記載の対話装置の何れかにおいて、
前記応答文の言い回しタイプを決定する言い回しタイプ決定手段は、内部パラメータに記憶された応答文の言い回しタイプが所定の回数以上の回数で同一の言い回しタイプが連続している場合は、当該言い回しタイプ以外の言い回しタイプを優先的に決定することを特徴とする対話装置。
Either of the interactive devices according to claim 5 or 6,
The wording type determining means for determining the wording type of the response sentence is a word type other than the wording type when the wording type of the response sentence stored in the internal parameter is equal to or more than a predetermined number of times. An interactive apparatus characterized by preferentially determining the wording type.
入力音声を音声認識し音声認識結果を請求項5乃至8記載の対話装置に入力情報として出力する音声認識装置と、前記対話装置が生成した応答文を音声信号に変換する音声合成装置を付加したことを特徴とする音声対話装置。   A speech recognition device for recognizing input speech and outputting the speech recognition result as input information to the interactive device according to claim 5 and a speech synthesizer for converting a response sentence generated by the interactive device into a speech signal are added. A voice interactive apparatus characterized by the above. コンピュータが解読可能なプログラム言語によって記述され、コンピュータに少なくとも請求項5乃至8の何れかに記載の対話装置として機能させる対話プログラム。   An interactive program that is described in a program language that can be read by a computer, and that causes the computer to function as an interactive device according to any one of claims 5 to 8. コンピュータが解読可能なプログラム言語によって記述され、コンピュータに請求項9記載の音声対話装置として機能させる音声対話プログラム。   10. A spoken dialogue program that is written in a computer-readable program language and causes the computer to function as the spoken dialogue device according to claim 9. コンピュータが読み取り可能な記録媒体で構成され、請求項10及び11記載の対話プログラム、音声対話プログラムの少なくとも一方を記録した記録媒体。   12. A recording medium comprising a computer-readable recording medium and recording at least one of the interactive program and the voice interactive program according to claim 10 and 11.
JP2004149485A 2004-05-19 2004-05-19 Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium Expired - Fee Related JP4095577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004149485A JP4095577B2 (en) 2004-05-19 2004-05-19 Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004149485A JP4095577B2 (en) 2004-05-19 2004-05-19 Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005332174A true JP2005332174A (en) 2005-12-02
JP4095577B2 JP4095577B2 (en) 2008-06-04

Family

ID=35486799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004149485A Expired - Fee Related JP4095577B2 (en) 2004-05-19 2004-05-19 Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium

Country Status (1)

Country Link
JP (1) JP4095577B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175717A (en) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp Speech synthesizer
WO2021054613A1 (en) * 2019-09-19 2021-03-25 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof
JP7441583B2 (en) 2019-08-01 2024-03-01 インターナショナル・ビジネス・マシーンズ・コーポレーション Conversation flow adaptation methods, systems, and programs in cognitive dialogue

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010175717A (en) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp Speech synthesizer
JP7441583B2 (en) 2019-08-01 2024-03-01 インターナショナル・ビジネス・マシーンズ・コーポレーション Conversation flow adaptation methods, systems, and programs in cognitive dialogue
WO2021054613A1 (en) * 2019-09-19 2021-03-25 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof
US11538474B2 (en) * 2019-09-19 2022-12-27 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device thereof

Also Published As

Publication number Publication date
JP4095577B2 (en) 2008-06-04

Similar Documents

Publication Publication Date Title
JP4267385B2 (en) Statistical language model generation device, speech recognition device, statistical language model generation method, speech recognition method, and program
US6801897B2 (en) Method of providing concise forms of natural commands
US8214213B1 (en) Speech recognition based on pronunciation modeling
JP5327054B2 (en) Pronunciation variation rule extraction device, pronunciation variation rule extraction method, and pronunciation variation rule extraction program
KR20210146368A (en) End-to-end automatic speech recognition for digit sequences
US6535849B1 (en) Method and system for generating semi-literal transcripts for speech recognition systems
JP3542026B2 (en) Speech recognition system, speech recognition method, and computer-readable recording medium
WO2007055233A1 (en) Speech-to-text system, speech-to-text method, and speech-to-text program
JP3459712B2 (en) Speech recognition method and device and computer control device
JPWO2007097176A1 (en) Speech recognition dictionary creation support system, speech recognition dictionary creation support method, and speech recognition dictionary creation support program
JP4729902B2 (en) Spoken dialogue system
US8015008B2 (en) System and method of using acoustic models for automatic speech recognition which distinguish pre- and post-vocalic consonants
JP6552999B2 (en) Text correction device, text correction method, and program
US6546369B1 (en) Text-based speech synthesis method containing synthetic speech comparisons and updates
JP7007617B2 (en) End-of-speech judgment device, end-of-speech judgment method and program
US20170270923A1 (en) Voice processing device and voice processing method
Marasek et al. System for automatic transcription of sessions of the Polish senate
JP4095577B2 (en) Dialogue device, voice dialogue device, dialogue program, voice dialogue program, and recording medium
Darjaa et al. Rule-based triphone mapping for acoustic modeling in automatic speech recognition
JP2006018028A (en) Voice interactive method, voice interactive device, voice interactive device, dialog program, voice interactive program, and recording medium
JPH10260976A (en) Voice interaction method
US8260614B1 (en) Method and system for expanding a word graph to a phone graph based on a cross-word acoustical model to improve continuous speech recognition
JP2000330588A (en) Method and system for processing speech dialogue and storage medium where program is stored
JP2001013992A (en) Voice understanding device
JPH11102196A (en) Speech interactive system, method of speech interaction, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20060725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080204

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4095577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110314

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120314

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130314

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees