JP2008003517A - Speech interaction system, speech interaction method, and program - Google Patents
Speech interaction system, speech interaction method, and program Download PDFInfo
- Publication number
- JP2008003517A JP2008003517A JP2006175877A JP2006175877A JP2008003517A JP 2008003517 A JP2008003517 A JP 2008003517A JP 2006175877 A JP2006175877 A JP 2006175877A JP 2006175877 A JP2006175877 A JP 2006175877A JP 2008003517 A JP2008003517 A JP 2008003517A
- Authority
- JP
- Japan
- Prior art keywords
- voice response
- output
- input
- voice
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ユーザとの間で音声を用いて対話を行う音声対話装置、音声対話方法、およびその方法をコンピュータに実行させるためのプログラムに関する。 The present invention relates to a voice dialogue apparatus that performs dialogue with a user using voice, a voice dialogue method, and a program for causing a computer to execute the method.
従来の音声対話装置は、マイクロホンからユーザ(話者)の入力音声を認識した情報に応じてスピーカから音声応答を出力することで、ユーザとの対話を実現している。音声対話装置には、自装置から出力中の音声応答をマイクロホンで受け付けないようにするためのパージイン機能が設けられているものがある。パージイン機能は、装置が音声を認識するときに自ら出力中である音声応答をユーザからの入力音声として認識しないようにするため、ユーザの声による音声信号と出力中の音声応答による音声応答信号とがマイクロホンから入力されて重畳されている音声応答部分について、音声応答信号を入力音声から除去するものである。 A conventional voice interaction device realizes a dialogue with a user by outputting a voice response from a speaker in accordance with information recognizing a user (speaker) input voice from a microphone. Some voice interactive apparatuses are provided with a purge-in function for preventing a voice response being output from the own apparatus from being received by a microphone. In order for the purge-in function not to recognize the voice response that is being output when the apparatus recognizes the voice as the input voice from the user, the voice response by the voice of the user and the voice response signal by the voice response being output The voice response signal is removed from the input voice for the voice response portion that is input from the microphone and superimposed.
また、従来の音声対話装置は、音声応答の出力の途中にユーザの入力音声を受け付けると、音声応答の出力を中断する装置と、入力音声を記録しながら音声応答の出力を優先する装置とに大別される。 In addition, the conventional voice interaction device is divided into a device that interrupts the output of the voice response when a user input voice is received during the output of the voice response, and a device that prioritizes the output of the voice response while recording the input voice. Broadly divided.
音声応答の出力を中断する音声対話装置は、様々なエコーや雑音を起因とする不測の入力音声によりユーザの意図に反して音声応答の出力が中断するという問題があった。 The voice interactive apparatus that interrupts the output of the voice response has a problem that the output of the voice response is interrupted against the user's intention due to unexpected input voice caused by various echoes and noises.
一方、音声応答の出力を優先する音声対話装置は、音声応答が非常に長い場合にユーザの入力音声を受け付けた後も音声応答を出力し続け、ユーザに対して長い待ち時間を生じさせてしまうという問題があった。 On the other hand, a voice interactive apparatus that prioritizes output of a voice response continues to output a voice response even after receiving a user's input voice when the voice response is very long, causing a long waiting time for the user. There was a problem.
このような問題に対し、ユーザにとっての利便性を向上させる目的で、様々な工夫がなされている。例えば、音声応答の内容をユーザの音声対話装置の使用の習熟度に応じて、自動的に変更する音声対話システムが開示されている(特許文献1参照)。また、入力側で発生する様々なエコーや雑音を起因とする不測の入力音声に伴い、システムが誤認識により音声応答の出力を中断することやシステムの音声認識が誤動作することを抑止するために、入力音声をフィルタリングする音声対話システムが開示されている(特許文献2参照)。
従来の音声対話装置のうち音声応答の出力を優先する装置は、パージイン機能を利用することにより音声応答の出力中であってもユーザが発話した音声を受け付けることが可能である。特許文献1に開示された音声対応装置には、つぎのような問題が起こり得る。特許文献1の音声対話装置は、対応中のユーザのシステムに対する使用の習熟度が低いと判断すると、ユーザへの音声応答を詳細な内容で、ゆっくりとした速度で出力する。このユーザのシステムに対する習熟度が高ければ、ユーザは出力中の音声応答の内容を予測できるため、出力を中断して欲しいと感じるが、音声応答の出力が終了するまで待たなければならないという問題がある。
また、音声応答の出力を中断することが可能な音声対話装置は、入力音声を受け付けると音声応答の重要性を考慮することなく出力を中断する。したがって、そのシステムを初めて使用するユーザのための音声ガイド、ならびにシステムの習熟度を問わずユーザ全員への注意喚起および警告などの重要な音声応答がユーザに対し十分に伝えられないという問題がある。
本発明は、上述した問題点を解決するためになされたものであり、音声応答の出力中にユーザからの音声入力があると、出力中の音声応答がユーザにとって重要であるか否かをより的確に判断可能にした音声応対話装置、音声対話方法、およびその方法をコンピュータに実行させるためのプログラムを提供することを目的とする。
A device that prioritizes output of a voice response among conventional voice interaction devices can accept a voice spoken by a user even during output of a voice response by using a purge-in function. The following problems may occur in the voice-compatible device disclosed in
In addition, when a voice interactive apparatus capable of interrupting the output of a voice response receives an input voice, the voice dialog device interrupts the output without considering the importance of the voice response. Therefore, there is a problem that voice guidance for users who use the system for the first time and important voice responses such as alerts and warnings to all users regardless of their proficiency level are not sufficiently communicated to users. .
The present invention has been made to solve the above-described problems, and if there is a voice input from the user during the output of the voice response, it is more determined whether the voice response being output is important for the user. An object of the present invention is to provide a voice response dialogue apparatus, a voice dialogue method, and a program for causing a computer to execute the method.
上記目的を達成するための本発明の音声対話装置は、
入力音声として認識される単語である認識語、該入力音声に対応して出力するための音声応答の情報、該認識語および該音声応答の優先度の情報、前記認識語の入力回数の情報を含む入力履歴、ならびに前記音声応答の出力回数および出力が完了する前に中断した回数の情報を含む出力履歴が格納された記憶部と、
前記音声応答の出力中に前記入力音声を受け付けると、該入力音声に重畳する該音声応答を除去して前記認識語を特定し、該音声応答および該認識語の前記記憶部に格納された優先度を前記入力履歴および前記出力履歴の情報を用いて補正し、該音声応答と該認識語の補正後の優先度を比較し、該音声応答の方の優先度が高ければ出力を維持し、該認識語の方の優先度が高ければ、該音声応答の出力を中断する制御部とを有する構成である。
In order to achieve the above object, a speech dialogue apparatus of the present invention is provided.
A recognition word that is a word recognized as an input voice, voice response information to be output corresponding to the input voice, priority information of the recognition word and the voice response, and information on the number of times the recognition word is input A storage unit storing an input history including, and an output history including information on the number of output times of the voice response and the number of times of interruption before the output is completed;
When the input voice is received during the output of the voice response, the voice response superimposed on the input voice is removed to identify the recognized word, and the priority stored in the storage unit of the voice response and the recognized word Is corrected using the information of the input history and the output history, the priority of the voice response and the recognition word after correction is compared, and if the priority of the voice response is higher, the output is maintained, A control unit that interrupts the output of the voice response if the recognition word has a higher priority.
本発明によれば、音声応答の出力中に入力音声を受け付けると、音声応答の出力履歴および入力音声の認識語の入力履歴を考慮した上で優先度が補正され音声応答の出力を中断するか否かが判定される。音声応答出力の維持または中断が履歴を考慮して決定されるため、実際の状況により適した応答を人に対してすることが可能となる。 According to the present invention, when an input voice is received during output of a voice response, the priority is corrected in consideration of the output history of the voice response and the input history of the recognition word of the input voice, and the output of the voice response is interrupted. It is determined whether or not. Since the maintenance or interruption of the voice response output is determined in consideration of the history, it becomes possible to make a response more suitable for the actual situation to the person.
また、上記本発明の音声対話装置において、
前記入力履歴には、前記認識語に対応して該認識語の入力された時刻の履歴の情報である時系列情報が含まれ、
前記制御部は、
受け付け中の認識語の優先度を補正する際、前記時系列情報を参照し、該認識語の入力が最後に記録された時刻からの経過時間が短いほど該認識語の優先度を高い値に補正することとしてもよい。
Moreover, in the above-described speech dialogue apparatus of the present invention,
The input history includes time-series information that is information on the history of the input time of the recognized word corresponding to the recognized word,
The controller is
When correcting the priority of the recognized word being accepted, the time series information is referred to, and the priority of the recognized word is increased as the elapsed time from the time when the input of the recognized word was last recorded is shorter. It is good also as correcting.
この場合、入力中の認識語が前回入力されてからの経過時間が短いほどユーザにとって重要であると考えられ、認識語が現在出力中の音声応答よりも優先される可能性が高くなるため、ユーザが必要とする音声応答をより早く出力することが可能となる。 In this case, the shorter the elapsed time since the last input of the recognized word being input, the more important to the user, the higher the possibility that the recognized word is given priority over the voice response currently being output. The voice response required by the user can be output more quickly.
また、上記本発明の音声対話装置において、
前記出力履歴には、前記音声応答に対応して該音声応答の出力された時刻の履歴の情報である時系列情報が含まれ、
前記制御部は、
出力中の音声応答の優先度を補正する際、前記時系列情報を参照し、該音声応答の出力が最後に記録された時刻からの経過時間が短いほど該音声応答の優先度を低い値に補正することとしてもよい。
Moreover, in the above-described speech dialogue apparatus of the present invention,
The output history includes time-series information that is information on the history of the time at which the voice response was output corresponding to the voice response,
The controller is
When correcting the priority of the voice response being output, the time series information is referred to, and the priority of the voice response is set to a lower value as the elapsed time from the time when the output of the voice response was last recorded is shorter. It is good also as correcting.
この場合、出力中の音声応答が前回出力されてからの経過時間が短いほどユーザはその内容を覚えているものと考えられ、音声応答が現在入力中の認識語よりも優先されない可能性が高くなるため、ユーザにとって不要な音声応答を中断することが可能となる。 In this case, it is considered that the shorter the elapsed time since the voice response being output last time, the more the user remembers the content, and there is a high possibility that the voice response is not prioritized over the currently input recognition word. Therefore, it becomes possible to interrupt the voice response unnecessary for the user.
また、上記本発明の音声対話装置において、
前記記憶部には、ユーザ毎に異なる識別子、ユーザにより入力された認識語、および該認識語に対応して出力された音声応答の情報を含むユーザ固有履歴情報が格納され、
前記制御部は、
前記識別子が入力されると、入力された識別子に一致する識別子を前記ユーザ固有履歴情報で特定し、特定したユーザ固有履歴情報にしたがって、受け付け中の認識語と出力中の音声応答の優先度を補正してもよい。
Moreover, in the above-described speech dialogue apparatus of the present invention,
The storage unit stores user-specific history information including a different identifier for each user, a recognized word input by the user, and voice response information output corresponding to the recognized word,
The controller is
When the identifier is input, an identifier that matches the input identifier is specified by the user-specific history information, and the received recognition word and the priority of the voice response being output are determined according to the specified user-specific history information. It may be corrected.
この場合、ユーザ毎に音声応答の内容や音声応答を中断するか否かの判断が異なるため、ユーザ毎により適した対応することが可能となる。 In this case, since the contents of the voice response and the determination of whether or not to interrupt the voice response are different for each user, it is possible to take a more appropriate action for each user.
本発明では、音声応答の出力中に入力音声を受け付けると、音声応答の出力履歴および入力音声の入力履歴を考慮した上で優先度を決定しているため、音声応答の出力を中断するか否かについて、入力音声を受け付けたときの状況により適した判断をすることが可能となる。その結果、従来よりも、人と対話しているのと近い感覚を得ることができる。 In the present invention, when the input voice is received during the output of the voice response, the priority is determined in consideration of the output history of the voice response and the input history of the input voice. This makes it possible to make a more suitable determination according to the situation when the input voice is received. As a result, it is possible to obtain a sensation closer to that of a conversation with a person than before.
本実施形態の音声対話装置の構成について、図面を参照しながら説明する。 The configuration of the voice interactive apparatus according to the present embodiment will be described with reference to the drawings.
図1は本実施形態の音声対話装置の一構成例を示すブロック図である。 FIG. 1 is a block diagram showing an example of the configuration of the voice interaction apparatus of this embodiment.
図1に示すように、本実施形態の音声対話装置は、入力手段5から入力される音声を認識するための用語およびそれに対する音声応答を含む情報を格納するための対話記憶部3と、入力音声の入力履歴および音声応答の出力履歴を格納するための対話履歴記憶部4と、入力音声に対応して音声応答を出力手段6に出力させる制御部7とを有する。なお、図には示さないが、制御部7は、プログラムにしたがって所定の処理を実行するCPU(Central Processing Unit)と、プログラムを格納するためのメモリとを有する。
As shown in FIG. 1, the speech dialogue apparatus according to the present embodiment includes a
図1に示すように、制御部7は、音声応答除去手段11および音声認識手段12を含む音声入力手段1と、割り込み判定手段21、優先度決定手段23および対話制御手段22を含む音声対話手段2とを有する。これらの手段は、CPUがプログラムを実行することで、音声対話装置内に仮想的に構成される。
As shown in FIG. 1, the
次に、対話記憶部3について説明する。対話記憶部3には、音声認識手段12で入力音声から認識される言葉である認識語およびそれに付随する情報が記述された認識語リストと、音声応答するための単語が記述された音声応答リストとが格納されている。
Next, the
図2は認識語リストの一例を示す表である。図2に示すように、認識語リストには、認識語の識別子である認識語ID、その認識語の優先度、およびその認識語に対応する音声応答の情報が認識語ごとに記述されている。 FIG. 2 is a table showing an example of the recognized word list. As shown in FIG. 2, in the recognized word list, a recognized word ID that is an identifier of the recognized word, a priority of the recognized word, and voice response information corresponding to the recognized word are described for each recognized word. .
図3は音声応答リストの一例を示す表である。図3に示すように、音声応答リストには、音声応答の識別子である音声応答ID、音声応答の内容、および音声応答の優先度が音声応答の内容ごとに記述されている。例えば、図2および図3から、認識語「おはよう」に対応する音声応答に「おはよう」および「おはようございます」があることがわかる。それぞれの優先度は、認識語「おはよう」が3であり、音声応答「おはよう」および「おはようございます」は2であることがわかる。 FIG. 3 is a table showing an example of the voice response list. As shown in FIG. 3, in the voice response list, a voice response ID that is an identifier of the voice response, a voice response content, and a priority of the voice response are described for each voice response content. For example, it can be seen from FIGS. 2 and 3 that the voice response corresponding to the recognition word “good morning” includes “good morning” and “good morning”. As for each priority, it is understood that the recognition word “good morning” is 3, and the voice responses “good morning” and “good morning” are 2.
次に、対話履歴記憶部4について説明する。対話履歴記憶部4には、入力された認識語の履歴および出力された音声応答の履歴が格納される。
Next, the dialogue
図4は認識語の入力履歴の一例を示す表である。図4に示すように、認識語IDごとに認識語の総入力回数を保存する。 FIG. 4 is a table showing an example of recognition word input history. As shown in FIG. 4, the total number of input recognition words is stored for each recognition word ID.
図5は音声応答の出力履歴の一例を示す表である。図5に示すように、音声応答IDごとに総出力回数および音声応答の出力が完了する前に中断された回数である総中断回数を保存する。例えば、図2および図4において、認識語「おはよう」の総入力回数は98回である。また図3および図5において、音声応答「おはようございます」の総出力回数は43回であり、総中断回数は11回である。 FIG. 5 is a table showing an example of a voice response output history. As shown in FIG. 5, the total number of outputs and the total number of interruptions, which is the number of interruptions before the completion of the output of the voice response, are stored for each voice response ID. For example, in FIGS. 2 and 4, the total number of input of the recognition word “Good morning” is 98 times. 3 and 5, the total number of outputs of the voice response “Good morning” is 43 times, and the total number of interruptions is 11 times.
次に、制御部7の音声入力手段1について説明する。
Next, the
音声応答除去手段11は、入力手段5から音声信号の入力があったときに音声対話手段2から出力される音声応答信号を除去するパージイン機能を有する。パージイン機能により音声応答信号を除去した音声信号を音声認識手段12に出力する。なお、音声応答除去手段11で用いるパージイン機能の実施形態は、特に限定されるものでなく従来と同様でよい。ただし、音声認識率を向上させるために、音声応答信号の除去だけでなく様々な雑音も除去できることが望ましい。
The voice
音声認識手段12は、音声応答除去手段11から入力される音声信号を認識し、認識した処理の結果を音声対話手段2に出力する。また、音声認識手段12は、ユーザからの発話を認識する度に、対話履歴記憶部4に認識語および認識語に付随する情報を記録する。なお、音声認識手段12で用いる音声を認識する方法は、特に限定されるものでなく従来と同様であればよい。
The
次に、音声対話手段2について説明する。 Next, the voice interaction means 2 will be described.
割込み判定手段21は、対話制御手段22が音声応答を出力中に音声認識手段12から認識語の入力を受け付けると、その認識語と出力中の音声応答とについて優先度の比較を行う。このとき、音声応答の出力中に複数の認識語を受け付けると、その度に優先度の比較を行う。優先度の比較を行った結果、認識語の優先度が高いときに、対話制御手段22にその認識語を出力する。反対に出力中の音声応答の優先度が高かったときは、その音声応答の出力が完了したことを対話制御手段22から入力し、その後音声応答が出力中に受け付けた認識語の中で最も優先度の高い認識語を対話制御手段22に出力する。また、判定する認識語と音声応答を優先度決定手段23に対して出力し、それぞれの優先度を優先度決定手段23から受け付ける。なお、対話制御手段22が音声応答を出力していないときに音声認識手段12から認識語の入力があると、入力された認識語そのものを対話制御手段22に出力する。
When the
優先度決定手段23は、割込み判定手段21から認識語および出力中の音声応答を受け付け、それぞれの優先度を決定し、割込み判定手段21に出力する。認識語の優先度および出力中の音声応答の優先度を決定する際に、優先度決定手段23は、対話履歴記憶部4に格納される履歴情報を利用して、基準となる優先度について次のような補正を実施する。ここでいう基準となる優先度とは、対話記憶部3に格納されている認識語および音声応答の優先度のことである。
The
図4に示した認識語ID「300」のように総入力回数が多い場合、その認識語はユーザが好んでいる、あるいはユーザにとって必要性が高いと考えられる。したがって、優先度決定手段23は、優先度をその基準より高くなるようにする。 When the total number of times of input is large like the recognized word ID “300” shown in FIG. 4, the recognized word is considered to be preferred by the user or highly necessary for the user. Therefore, the priority determination means 23 makes the priority higher than the reference.
音声応答出力中にユーザから音声が複数回入力された場合、ユーザが早く次の応答が開始することを期待していると考えられる。したがって、優先度決定手段23は、音声応答出力に音声認識された認識語の優先度をその基準より高くなるようにする。 When voice is input from the user a plurality of times during voice response output, it is considered that the user expects the next response to start soon. Therefore, the priority determination means 23 makes the priority of the recognized word recognized by the voice response output higher than the reference.
同一の認識語が複数回入力される場合、最後に記録された時刻からの経過時間が短いほどその認識語は、ユーザが好んでいる、あるいはユーザにとって必要性が高いと考えられる。したがって、優先度決定手段23は、最後に記録された時刻からの経過時間が所定の時間よりも短い場合、優先度をその基準より高くなるようにする。この場合、図6に示すような認識語の入力された時刻の履歴である時系列情報が対話履歴記憶部4に格納されるものとする。さらに、格納された時系列情報を分析して、複数ある発話パターンからユーザの発話パターンを抽出し、優先度を補正してもよい。
When the same recognition word is input a plurality of times, the shorter the elapsed time from the last recorded time, the more the recognition word is considered to be preferred by the user or to the user. Therefore, the priority determination means 23 makes the priority higher than the reference when the elapsed time from the last recorded time is shorter than the predetermined time. In this case, it is assumed that time series information that is a history of the time when a recognition word is input as shown in FIG. 6 is stored in the dialogue
図5に示した音声応答ID「101」のように総出力回数が多い場合、その音声応答は、ユーザの記憶に残っている可能性が高い。そのため、音声応答の冒頭を聞くだけで、その後に続く内容が容易に類推可能である。したがって、優先度決定手段23は、その音声応答の優先度をその基準より低くなるようにする。 When the total number of outputs is large like the voice response ID “101” shown in FIG. 5, the voice response is likely to remain in the user's memory. Therefore, it is possible to easily infer the content that follows after just listening to the beginning of the voice response. Therefore, the priority determination means 23 makes the priority of the voice response lower than the reference.
図5に示した音声応答ID「301」のように総出力回数に対する中断回数の割合が高い場合、その音声応答は、ユーザが応答音声の全てを聞く必要がないと判断しているものである。したがって、優先度決定手段23は、優先度をその基準より低くなるようにする。 When the ratio of the number of interruptions to the total number of outputs is high as in the voice response ID “301” illustrated in FIG. 5, the voice response determines that the user does not need to listen to all of the response voices. . Therefore, the priority determination means 23 makes the priority lower than the reference.
図5に示した音声応答ID「203」のように総出力回数が0回である場合、その音声応答は、ユーザにとって未知のものである。そのため、確実に最後まで出力することが望ましい。したがって、優先度決定手段23は、優先度をその基準より高くなるようにする。 When the total number of outputs is 0 as in the voice response ID “203” illustrated in FIG. 5, the voice response is unknown to the user. Therefore, it is desirable to output to the end reliably. Therefore, the priority determination means 23 makes the priority higher than the reference.
これから出力しようとする音声応答について前回出力された時刻と現在時刻との間が所定の時間よりも短い場合、その音声応答は総出力回数が少なかったとしてもユーザの記憶に残っている可能性は高い。そのため、優先度決定手段23は、優先度をその基準よりも低くなるようにする。反対に前回出力された時刻と現在時刻との間が所定の時間よりも長い場合、優先度をその基準よりも高くなるようにする。いずれの場合も、図7に示すような音声応答が出力された時刻の履歴である時系列情報が対話履歴記憶部4に格納されるものとする。
If the time between the last output time and the current time is shorter than the predetermined time for the voice response to be output, the voice response may remain in the user's memory even if the total number of output times is small. high. Therefore, the
ユーザのシステムに対する習熟度が異なる場合、習熟度に対応して認識語と音声応答の優先度を補正してもよい。この場合、習熟度の判定については、従来と同様の方法でよい。 When the proficiency level of the user with respect to the system is different, the priority of the recognized word and the voice response may be corrected according to the proficiency level. In this case, the proficiency level may be determined by a method similar to the conventional method.
対話制御手段22は、割込み判定手段21から認識語が入力されると、その認識語に対する音声応答を出力手段6を介して出力する。このとき、その認識語を対話記憶部3内で検索し、その認識語に対応する音声応答を見つけて読み出す。対話制御手段22は、音声応答を出力中に割込み判定手段認識語21から認識語が入力されると出力中の音声応答を中断するという制御を行う。そして、その認識語に対応する音声応答を前述した方法で出力する。このとき、後から出力した音声応答の信号を音声応答除去手段11へ出力する。対話制御手段22は、音声応答を出力するたびに、対話履歴記憶部4に音声応答および音声応答に付随した情報を記録する。
When a recognized word is input from the interrupt
さらに、対話制御手段22は、音声応答の出力だけでなく、コマンドの出力およびタスクを実行してもよい。ここでいうコマンドの出力とは、例えばカーナビゲーションシステムなどの音声をインターフェースとして利用できるシステムにおいて、その構成に含まれるリモートコントロールやボタン操作の入力に対応した機能を出力することである。一方、タスクを実行するというのは、同じくカーナビゲーションシステムなどの音声をインターフェースとして利用できるシステムにおいて、音声入力に対して前述したコマンドだけでなく、認識したことを示す効果音などを含めた音声応答も出力することである。なお、コマンドおよび複数のコマンドを組み合わせたタスクは、それぞれ優先度を付与された状態で図1に示した対話記憶部3に記憶されているものとする。これにより、コマンドの出力中やタスクを実行中に音声入力があった場合、優先度に対応した出力が可能となりユーザの利便性が向上する。
Furthermore, the dialogue control means 22 may execute not only a voice response output but also a command output and a task. The command output here refers to outputting a function corresponding to an input of a remote control or button operation included in the configuration in a system that can use voice as an interface, such as a car navigation system. On the other hand, a task is executed by a voice response including not only the above-mentioned command but also a sound effect indicating that it is recognized in a system that can use voice as an interface, such as a car navigation system. Is also output. It is assumed that a command and a task combining a plurality of commands are stored in the
なお、複数のユーザが本発明の音声対話装置を利用する場合、ユーザ毎に認識語および音声応答の優先度を補正してもよい。例えば、ユーザ毎に異なる識別子、ユーザにより入力された認識語、および該認識語に対応して出力された音声応答の情報であるユーザ固有履歴情報を利用すると、ユーザから前記識別子が入力され、入力された識別子に一致する識別子を前記ユーザ固有情報で特定し、該ユーザ固有履歴情報にしたがって、受け付け中の認識語と出力中の音声応答の優先度を補正する。 When a plurality of users use the voice interactive apparatus of the present invention, the recognition word and the priority of the voice response may be corrected for each user. For example, when using an identifier that is different for each user, a recognition word input by the user, and user-specific history information that is voice response information output corresponding to the recognition word, the identifier is input from the user and input. An identifier that matches the identified identifier is specified by the user-specific information, and the recognition word being accepted and the priority of the voice response being output are corrected according to the user-specific history information.
この場合、ユーザ毎に音声応答の内容や音声応答を中断するか否かの判断が異なるため、ユーザ毎により適した対応することが可能となる。この場合、前記ユーザ固有履歴情報は、対話履歴記憶部4に格納されるものとする。さらに、ユーザを識別する手段は、ユーザ自身による識別子の入力以外の方法であってもよい。次に、本実施形態の音声対話装置の動作について、図1および図8を参照して説明する。以下に説明する動作が、ユーザから入力された音声を認識するたびに行われる。
In this case, since the contents of the voice response and the determination of whether or not to interrupt the voice response are different for each user, it is possible to take a more appropriate action for each user. In this case, the user specific history information is stored in the dialogue
図8は本実施形態の音声対話装置の動作手順を示すフローチャートである。 FIG. 8 is a flowchart showing the operation procedure of the voice interaction apparatus of this embodiment.
音声入力手段1は、ユーザから入力された音声を認識すると(ステップ101)、対話履歴記憶部4に認識語を格納する(ステップ102)。この動作により認識語が入力履歴として格納される。続いて、音声対話手段2はユーザへの音声応答が出力中かどうか確認する(ステップ103)。音声応答が出力中でない場合、認識語に対応する音声応答を出力した後(ステップ104)、対話履歴記憶部4に応答音声を格納し(ステップ105)、動作を終了する。これにより、音声応答が出力履歴として格納される。 When the voice input means 1 recognizes the voice inputted by the user (step 101), the voice input means 1 stores the recognized word in the dialogue history storage unit 4 (step 102). With this operation, the recognized word is stored as an input history. Subsequently, the voice interaction means 2 checks whether a voice response to the user is being output (step 103). When the voice response is not being output, after outputting the voice response corresponding to the recognized word (step 104), the response voice is stored in the dialogue history storage unit 4 (step 105), and the operation is terminated. Thereby, the voice response is stored as an output history.
反対に、音声応答が出力中である場合、音声対話手段2は出力中の音声応答の優先度と入力された認識語の優先度について、どちらが高いか比較をする(ステップ106)。 On the other hand, when the voice response is being output, the voice interaction means 2 compares which of the priority of the voice response being output and the priority of the input recognition word is higher (step 106).
認識語の優先度が出力中の音声応答の優先度より高い場合、出力中の音声応答を中断し(ステップ107)、ステップ104において認識語に対応する音声応答を出力する。その後、ステップ107において中断した音声応答と認識語に対応した音声応答を対話履歴部4に格納し(ステップ105)、動作を終了する。これにより、中断した音声応答の中断履歴および認識語に対応した音声応答の出力履歴として格納される。
If the priority of the recognized word is higher than the priority of the voice response being output, the voice response being output is interrupted (step 107), and in
ステップ106で、認識語の優先度が出力中の音声応答の優先度より低い場合、音声対話手段2は、認識語を保持した状態で、出力中の音声応答が終了するまで、その認識語に対応する動作を待機する(ステップ108)。ただし、待機中に音声対話手段2は、新たな認識語の入力を受け付けることができる。
In
新たな認識語の入力がある場合(ステップ109)、対話履歴記憶部4にその認識語の入力履歴を格納した後(ステップ110)、その認識語の優先度と出力中の音声応答の優先度について、ステップ106に戻ってどちらが高いか比較する。認識語の優先度が出力中の音声応答の優先度より高い場合、上述のステップ107、ステップ104およびステップ105の処理を行った後、動作を終了する。認識語の優先度が出力中の音声応答の優先度より低い場合、音声対話手段2は、認識語を受け付ける度に上述のステップ109、ステップ110、ステップ106およびステップ108の一連の動作を繰り返す。そして、出力中の音声応答が終了した後に、音声対話手段2は、ステップ108で待機していた動作であるステップ109で入力された認識語について上述のステップ104、ステップ105の処理を行う。このとき、ステップ109において複数の認識語が入力されている場合、その認識語の中から最も優先度の高い認識語について前述と同じ処理を行う。
When there is an input of a new recognized word (step 109), the input history of the recognized word is stored in the dialogue history storage unit 4 (step 110), and then the priority of the recognized word and the priority of the voice response being output. , Return to step 106 to compare which is higher. If the priority of the recognized word is higher than the priority of the voice response being output, the operation is terminated after performing the above-described
次に、図8で説明した動作手順のうち優先度決定手段23の動作を抜き出して、詳しく説明する。 Next, the operation of the priority determination means 23 is extracted from the operation procedure described with reference to FIG. 8 and will be described in detail.
図9は、ステップ106において認識語の優先度を出力する動作を示すフローチャートである。
FIG. 9 is a flowchart showing the operation of outputting the priority of the recognized word in
優先度決定手段23は、対話記憶部3に格納されている認識語についての基準となる優先度を読み込む(ステップ201)。続いて、対話履歴記憶部4に格納された認識語の入力履歴を読み込む(ステップ202)。このとき、認識語の入力履歴があるか否かを判定し(ステップ203)、認識語の入力履歴がない場合、優先度決定手段23は優先度を補正しない。反対に、認識語の入力履歴がある場合、優先度決定手段23は、入力履歴に応じて優先度を補正する(ステップ204)。最後に認識語の優先度を決定して(ステップ205)動作を終了する。
The priority determination means 23 reads the priority as a reference for the recognized word stored in the dialogue storage unit 3 (step 201). Subsequently, the recognition history input history stored in the dialogue
図10は、ステップ106において音声応答の優先度を出力する動作を示すフローチャートである。
FIG. 10 is a flowchart showing the operation of outputting the priority of the voice response in
優先度決定手段23は、対話記憶部3に格納されている音声応答についての基準となる優先度を読み込む(ステップ301)。続いて、対話履歴記憶部4に格納された音声応答の出力履歴を読み込む(ステップ302)。このとき、音声応答の出力履歴があるか否かを判定し(ステップ303)、音声応答の出力履歴がない場合、優先度決定手段23は、優先度を補正しない。反対に音声応答の出力履歴がある場合、優先度決定手段23は、出力履歴に応じて優先度を補正する(ステップ304)。最後に音声応答の優先度を決定して(ステップ305)動作を終了する。
The priority determination means 23 reads the priority as a reference for the voice response stored in the dialogue storage unit 3 (step 301). Subsequently, the output history of the voice response stored in the dialogue
次に、図9で説明したステップ204において、優先度決定手段23が実行する優先度の補正動作を説明する。
Next, the priority correction operation performed by the
図11は、ステップ204における認識語の優先度を補正する動作を示すフローチャートである。
FIG. 11 is a flowchart showing the operation for correcting the priority of the recognized word in
優先度決定手段23は、認識語の総入力回数について、平均入力回数より多いか否か判定する(ステップ401)。ここでいう平均入力回数とは、認識語全てについて入力回数の合計値を認識語の全数で割った数値のことである。そして、ステップ401で総入力回数が平均入力数より多い場合、基準となる優先度に対し+1を加えるように補正する(ステップ402)。一方、ステップ401で総入力回数が平均入力数以下の場合、基準となる優先度に対し−1を加えるように補正する(ステップ403)。以上で認識語の優先度を補正する動作を終了する。
The priority determination means 23 determines whether or not the total number of input recognition words is greater than the average number of inputs (step 401). The average number of times of input here is a numerical value obtained by dividing the total number of times of input for all recognized words by the total number of recognized words. If the total number of inputs is greater than the average number of inputs in
次に、図8で説明したステップ304において、優先度決定手段23が実行する優先度の補正動作を説明する。
Next, the priority correction operation performed by the
図12は、ステップ304における音声応答の優先度を補正する動作を示すフローチャートである。
FIG. 12 is a flowchart showing the operation for correcting the priority of the voice response in
優先度決定手段23は、音声応答について、中断確率を読み込む(ステップ501)。ここでいう中断確率とは、総出力回数を総中断回数で割った数値のことである。 The priority determination means 23 reads the interruption probability for the voice response (step 501). The interruption probability referred to here is a numerical value obtained by dividing the total number of outputs by the total number of interruptions.
次に、中断確率が50%以下であるか否か判定する(ステップ502)。中断確率が50%以下の場合、基準となる優先度に対して+1を加えるように補正する(ステップ503)。反対に中断確率が50%より大きい場合、基準となる優先度に対して−1を加えるように補正する(ステップ504)。以上で音声応答の優先度を補正する動作を終了する。 Next, it is determined whether or not the interruption probability is 50% or less (step 502). When the interruption probability is 50% or less, correction is performed so that +1 is added to the priority as a reference (step 503). On the other hand, if the interruption probability is greater than 50%, correction is made to add −1 to the reference priority (step 504). This completes the operation for correcting the priority of the voice response.
本実施形態の音声対話装置は、上述したように音声応答の出力中に入力音声を受け付けると、音声応答の出力履歴および入力音声の認識語の入力履歴を考慮した上で優先度を補正し、音声応答の出力を中断するか否か判定する。音声応答出力の維持または中断について履歴を考慮して決定するため、実際の状況により適した応答を人に対してすることが可能となる。その結果、従来よりも、人と対話しているのと近い感覚を得ることができる。 When the voice interaction apparatus of the present embodiment receives the input voice during the output of the voice response as described above, the priority is corrected in consideration of the output history of the voice response and the input history of the recognition word of the input voice, It is determined whether to interrupt the output of the voice response. Since it is determined in consideration of the history about the maintenance or interruption of the voice response output, it becomes possible to give a response more suitable for the actual situation to the person. As a result, it is possible to obtain a sensation closer to that of a conversation with a person than before.
なお、本実施形態として、コンピュータに実行させるためのプログラムに本発明の音声対話装置の入出力制御方法を適用してもよい。 In this embodiment, the input / output control method of the voice interactive apparatus of the present invention may be applied to a program to be executed by a computer.
また、本実施形態として、上記コマンドの出力や上記タスクの実行を行うカーナビゲーションシステム、およびコミュニケーション型ロボットに上述した音声対話装置の入出力制御を実行するためのプログラムを適用してもよい。このプログラムを適用したコミュニケーション型ロボットの一例について、実施例1で説明する。 Further, as the present embodiment, a program for executing input / output control of the above-described voice interactive apparatus may be applied to a car navigation system that performs the output of the command and the execution of the task, and a communication robot. An example of a communication robot to which this program is applied will be described in a first embodiment.
本実施例は、上述した本実施形態の音声対話装置を、人間と対話するためのロボットに適用した場合である。本実施例の音声対話装置の構成は図1から図5に示した構成と同様であるため、その詳細な説明を省略する。なお、全認識語の平均入力回数は、50回である。 In this example, the above-described voice interaction apparatus of the present embodiment is applied to a robot for interacting with a human. Since the configuration of the voice interactive apparatus of the present embodiment is the same as the configuration shown in FIGS. 1 to 5, the detailed description thereof is omitted. The average number of times of input for all recognized words is 50 times.
次に、本実施例のロボットの動作を説明する。 Next, the operation of the robot of this embodiment will be described.
ロボットが音声応答を出力していない状態において、認識語「こんにちは」を認識すると、対話制御部22は対話記憶部3の認識語リストおよび音声応答リストを参照し、認識語「こんにちは」に対応する音声応答「ハロー」「こんにちは」「久しぶり元気だった?」の中から一つランダムで選択して出力する。
In a state where the robot does not output the audio response, recognizes the recognition word "Hello", the
ロボットが図3に示す音声応答「ダンスをすることが出来ます。ダンスしてといってみて」を出力中において、認識語「おはよう」を受け付けると、割り込みの可否を判定するため、認識語および音声応答の優先度を演算して、どちらの優先度が高いか比較を行う。認識語「おはよう」の優先度は、対話記憶部3の認識語リストから基準優先度が「3」であり、対話履歴記憶部4の入力履歴から入力回数が50回以上であることから、基準値に補正値「+1」を加えた『4』になる。音声応答「ダンスをすることができます。ダンスしてといってみて」の優先度は、対話記憶部3の音声応答リストから基準優先度が「4」であり、対話履歴記憶部3の出力履歴から中断確率が50%を超えていることから、基準値に補正値「−1」を加えた『3』になる。この場合、認識語の優先度が音声応答の優先度を上回るため、音声応答「ダンスをすることができます。ダンスしてといってみて」の発話を中断し、認識語「おはよう」に対応する応答音声を出力する。
When the robot receives the recognition word “good morning” while outputting the voice response “Dance is possible. Try dancing,” shown in FIG. The priority of the voice response is calculated to compare which priority is higher. The priority of the recognition word “good morning” is the reference priority “3” from the recognition word list of the
このようにして、ロボットは、音声応答出力中に人から挨拶を受けると、音声応答の出力を中断し、人からの挨拶に応じて人に挨拶を返す。その結果、このロボットと対話する人は、実際に人と会話したときと同じような感覚を得ることができる。 In this way, when the robot receives a greeting from a person while outputting a voice response, the robot stops outputting the voice response and returns a greeting to the person in response to the greeting from the person. As a result, the person who interacts with the robot can obtain the same feeling as when he / she actually talks with the person.
1 音声入力手段
2 音声対話手段
3 対話記憶部
4 対話履歴記憶部
5 入力手段
6 出力手段
7 制御部
11 音声応答除去手段
12 音声認識手段
21 割込み判定手段
22 対話制御手段
23 優先度決定手段
DESCRIPTION OF
Claims (9)
前記音声応答の出力中に前記入力音声を受け付けると、該入力音声に重畳する該音声応答を除去して前記認識語を特定し、該音声応答および該認識語の前記記憶部に格納された優先度を前記入力履歴および前記出力履歴の情報を用いて補正し、該音声応答と該認識語の補正後の優先度を比較し、該音声応答の方の優先度が高ければ出力を維持し、該認識語の方の優先度が高ければ、該音声応答の出力を中断する制御部と、
を有する音声対話装置。 A recognition word that is a word recognized as an input voice, voice response information to be output corresponding to the input voice, priority information of the recognition word and the voice response, and information on the number of times the recognition word is input A storage unit storing an input history including, and an output history including information on the number of output times of the voice response and the number of times of interruption before the output is completed;
When the input voice is received during the output of the voice response, the voice response superimposed on the input voice is removed to identify the recognized word, and the priority stored in the storage unit of the voice response and the recognized word Is corrected using the information of the input history and the output history, the priority of the voice response and the recognition word after correction is compared, and if the priority of the voice response is higher, the output is maintained, If the recognition word has a higher priority, a control unit that interrupts the output of the voice response;
Spoken dialogue apparatus having
前記制御部は、
受け付け中の認識語の優先度を補正する際、前記時系列情報を参照し、該認識語の入力が最後に記録された時刻からの経過時間が短いほど該認識語の優先度を高い値に補正する請求項1記載の音声対話装置。 The input history includes time-series information that is information on the history of the input time of the recognized word corresponding to the recognized word,
The controller is
When correcting the priority of the recognized word being accepted, the time series information is referred to, and the priority of the recognized word is increased as the elapsed time from the time when the input of the recognized word was last recorded is shorter. The voice interactive apparatus according to claim 1, wherein correction is performed.
前記制御部は、
出力中の音声応答の優先度を補正する際、前記時系列情報を参照し、該音声応答の出力が最後に記録された時刻からの経過時間が短いほど該音声応答の優先度を低い値に補正する請求項1または2記載の音声対話装置。 The output history includes time-series information that is information on the history of the time at which the voice response was output corresponding to the voice response,
The controller is
When correcting the priority of the voice response being output, the time series information is referred to, and the priority of the voice response is set to a lower value as the elapsed time from the time when the output of the voice response was last recorded is shorter. The voice interactive apparatus according to claim 1 or 2, wherein correction is performed.
前記制御部は、
前記識別子が入力されると、入力された識別子に一致する識別子を前記ユーザ固有履歴情報で特定し、特定したユーザ固有履歴情報にしたがって、受け付け中の認識語と出力中の音声応答の優先度を補正する請求項1から3のいずれか1項記載の音声対話装置。 The storage unit stores user-specific history information including a different identifier for each user, a recognized word input by the user, and voice response information output corresponding to the recognized word,
The controller is
When the identifier is input, an identifier that matches the input identifier is specified by the user-specific history information, and the received recognition word and the priority of the voice response being output are determined according to the specified user-specific history information. The voice interactive apparatus according to claim 1, wherein correction is performed.
入力音声として認識される単語である認識語、該入力音声に対応して出力するための音声応答の情報、該認識語および該音声応答の優先度の情報、前記認識語の入力回数の情報を含む入力履歴、ならびに前記音声応答の出力回数および出力が完了する前に中断した回数の情報を含む出力履歴を格納し、
前記音声応答の出力中に前記入力音声を受け付けると、該入力音声に重畳する該音声応答を除去して前記認識語を特定し、
出力中の音声応答および特定した認識語の前記記憶部に格納された優先度を前記入力履歴および前記出力履歴の情報を用いて補正し、
前記音声応答と前記認識語の補正後の優先度を比較し、
比較の結果、前記音声応答の方の優先度が高ければ出力を維持し、前記認識語の方の優先度が高ければ、該音声応答の出力を中断する音声対話方法。 A voice interaction method by an information processing apparatus that outputs a voice response to an input voice,
A recognition word that is a word recognized as an input voice, voice response information to be output corresponding to the input voice, priority information of the recognition word and the voice response, and information on the number of times the recognition word is input Including an input history including, and an output history including information on the number of outputs of the voice response and the number of times the voice response was interrupted before the output was completed,
When the input speech is received during the output of the speech response, the speech response superimposed on the input speech is removed to identify the recognition word,
Correct the voice response being output and the priority stored in the storage unit of the identified recognition word using the information of the input history and the output history,
Compare the priority of the voice response and the recognition word after correction,
As a result of the comparison, the voice interaction method of maintaining the output if the priority of the voice response is higher, and interrupting the output of the voice response if the priority of the recognized word is higher.
受け付け中の認識語の優先度を補正する際、前記時系列情報を参照し、
受け付け中の認識語が最後に入力された時刻からの経過時間が短いほど該認識語の優先度を高い値に補正する請求項5記載の音声対話方法。 The input history includes time-series information that is history information of the input time of the recognized word corresponding to the recognized word,
When correcting the priority of the recognition word being accepted, referring to the time series information,
6. The spoken dialogue method according to claim 5, wherein the priority of the recognized word is corrected to a higher value as the elapsed time from the last input of the recognized word being accepted is shorter.
出力中の音声応答の優先度を補正する際、前記時系列情報を参照し、
出力中の音声応答について最後に出力した時刻からの経過時間が短いほど該音声応答の優先度を低い値に補正する請求項5または6記載の音声対話方法。 The output history includes time-series information that is information of a history of the time at which the voice response was output corresponding to the voice response,
When correcting the priority of the voice response being output, refer to the time series information,
7. The voice interaction method according to claim 5, wherein the priority of the voice response is corrected to a lower value as the elapsed time from the last output time of the voice response being output is shorter.
前記識別子が入力されると、入力された識別子に一致する識別子を前記ユーザ固有履歴情報で特定し、
特定したユーザ固有履歴情報にしたがって、受け付け中の認識語と出力中の音声応答の優先度を補正する請求項5から7のいずれか1項記載の音声対話方法。 User specific history information including an identifier different for each user, a recognition word input by the user, and voice response information output corresponding to the recognition word is stored in the storage unit,
When the identifier is input, an identifier that matches the input identifier is specified in the user-specific history information,
8. The voice interaction method according to any one of claims 5 to 7, wherein the recognition word being accepted and the priority of the voice response being outputted are corrected according to the specified user-specific history information.
入力音声として認識される単語である認識語、該入力音声に対応して出力するための音声応答の情報、該認識語および該音声応答の優先度の情報、前記認識語の入力回数の情報を含む入力履歴、ならびに前記音声応答の出力回数および出力が完了する前に中断した回数の情報を含む出力履歴を格納し、
前記音声応答の出力中に前記入力音声を受け付けると、該入力音声に重畳する該音声応答を除去して前記認識語を特定し、
出力中の音声応答および特定した認識語の前記記憶部に格納された優先度を前記入力履歴および前記出力履歴の情報を用いて補正し、
前記音声応答と前記認識語の補正後の優先度を比較し、
比較の結果、前記音声応答の方の優先度が高ければ出力を維持し、前記認識語の方の優先度が高ければ、該音声応答の出力を中断する処理を前記コンピュータに実行させるためのプログラム。 A program for causing a computer to output a voice response to an input voice,
A recognition word that is a word recognized as an input voice, voice response information to be output corresponding to the input voice, priority information of the recognition word and the voice response, and information on the number of times the recognition word is input Including an input history including, and an output history including information on the number of outputs of the voice response and the number of times the voice response was interrupted before the output was completed,
When the input speech is received during the output of the speech response, the speech response superimposed on the input speech is removed to identify the recognition word,
Correct the voice response being output and the priority stored in the storage unit of the identified recognition word using the information of the input history and the output history,
Compare the priority of the voice response and the recognition word after correction,
As a result of comparison, if the priority of the voice response is higher, the output is maintained, and if the priority of the recognition word is higher, the program for causing the computer to execute a process of interrupting the output of the voice response .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006175877A JP4491438B2 (en) | 2006-06-26 | 2006-06-26 | Voice dialogue apparatus, voice dialogue method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006175877A JP4491438B2 (en) | 2006-06-26 | 2006-06-26 | Voice dialogue apparatus, voice dialogue method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008003517A true JP2008003517A (en) | 2008-01-10 |
JP4491438B2 JP4491438B2 (en) | 2010-06-30 |
Family
ID=39007920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006175877A Active JP4491438B2 (en) | 2006-06-26 | 2006-06-26 | Voice dialogue apparatus, voice dialogue method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4491438B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107614A (en) * | 2008-10-29 | 2010-05-13 | Mitsubishi Motors Corp | Voice guidance and response method |
JP2012232352A (en) * | 2011-04-28 | 2012-11-29 | Advanced Telecommunication Research Institute International | Communication robot |
JP6070809B1 (en) * | 2015-12-03 | 2017-02-01 | 国立大学法人静岡大学 | Natural language processing apparatus and natural language processing method |
JP2020008876A (en) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | System and program |
JP2020144260A (en) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | Vehicle agent system, control method of vehicle agent system, and program |
JP2022033841A (en) * | 2020-06-23 | 2022-03-02 | 株式会社ユピテル | System and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05323993A (en) * | 1992-03-16 | 1993-12-07 | Toshiba Corp | Speech interactive system |
JP2002099404A (en) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | Conversation controlling method and its equipment |
JP2002169804A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | System and method for simulated conversation, and information storage medium |
JP2003233393A (en) * | 2002-02-13 | 2003-08-22 | Mitsubishi Electric Corp | Voice processing device and voice processing method |
JP2006127148A (en) * | 2004-10-28 | 2006-05-18 | Fujitsu Ltd | Information processing method for automatic voice interaction system |
-
2006
- 2006-06-26 JP JP2006175877A patent/JP4491438B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05323993A (en) * | 1992-03-16 | 1993-12-07 | Toshiba Corp | Speech interactive system |
JP2002099404A (en) * | 2000-07-21 | 2002-04-05 | Matsushita Electric Ind Co Ltd | Conversation controlling method and its equipment |
JP2002169804A (en) * | 2000-12-01 | 2002-06-14 | Namco Ltd | System and method for simulated conversation, and information storage medium |
JP2003233393A (en) * | 2002-02-13 | 2003-08-22 | Mitsubishi Electric Corp | Voice processing device and voice processing method |
JP2006127148A (en) * | 2004-10-28 | 2006-05-18 | Fujitsu Ltd | Information processing method for automatic voice interaction system |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010107614A (en) * | 2008-10-29 | 2010-05-13 | Mitsubishi Motors Corp | Voice guidance and response method |
JP2012232352A (en) * | 2011-04-28 | 2012-11-29 | Advanced Telecommunication Research Institute International | Communication robot |
JP6070809B1 (en) * | 2015-12-03 | 2017-02-01 | 国立大学法人静岡大学 | Natural language processing apparatus and natural language processing method |
WO2017094913A1 (en) * | 2015-12-03 | 2017-06-08 | 国立大学法人静岡大学 | Natural language processing device and natural language processing method |
JP2017102771A (en) * | 2015-12-03 | 2017-06-08 | 国立大学法人静岡大学 | Natural language processor and natural language processing method |
US10248649B2 (en) | 2015-12-03 | 2019-04-02 | Kai Inc. | Natural language processing apparatus and a natural language processing method |
JP2020144260A (en) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | Vehicle agent system, control method of vehicle agent system, and program |
US11508370B2 (en) | 2019-03-07 | 2022-11-22 | Honda Motor Co., Ltd. | On-board agent system, on-board agent system control method, and storage medium |
JP7198122B2 (en) | 2019-03-07 | 2022-12-28 | 本田技研工業株式会社 | AGENT DEVICE, CONTROL METHOD OF AGENT DEVICE, AND PROGRAM |
JP2020008876A (en) * | 2019-09-24 | 2020-01-16 | 株式会社ユピテル | System and program |
JP2022033841A (en) * | 2020-06-23 | 2022-03-02 | 株式会社ユピテル | System and program |
JP7403171B2 (en) | 2020-06-23 | 2023-12-22 | 株式会社ユピテル | System and program |
Also Published As
Publication number | Publication date |
---|---|
JP4491438B2 (en) | 2010-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5281659B2 (en) | Spoken dialogue apparatus, dialogue control method, and dialogue control program | |
US20160266910A1 (en) | Methods And Apparatus For Unsupervised Wakeup With Time-Correlated Acoustic Events | |
JP4491438B2 (en) | Voice dialogue apparatus, voice dialogue method, and program | |
CN111540349B (en) | Voice breaking method and device | |
US8532995B2 (en) | System and method for isolating and processing common dialog cues | |
JP5431282B2 (en) | Spoken dialogue apparatus, method and program | |
JP2010152119A (en) | Response generation device and program | |
JP2014191029A (en) | Voice recognition system and method for controlling voice recognition system | |
US9330676B2 (en) | Determining whether speech interference occurs based on time interval between speech instructions and status of the speech instructions | |
CN109955270B (en) | Voice option selection system and method and intelligent robot using same | |
JP2006505002A5 (en) | ||
JP2006251545A (en) | Speech interaction system and computer program | |
JP2009175179A (en) | Speech recognition device, program and utterance signal extraction method | |
JP2007508590A (en) | User adaptive dialogue support for spoken dialogue systems | |
JP2011039222A (en) | Speech recognition system, speech recognition method and speech recognition program | |
JP2019132997A (en) | Voice processing device, method and program | |
JP6736225B2 (en) | Interactive device, interactive device control method, and program | |
JP2008157987A (en) | Interaction control device, interaction control method and interaction control program | |
JP6966374B2 (en) | Speech recognition system and computer program | |
JP6748565B2 (en) | Voice dialogue system and voice dialogue method | |
JP2015215503A (en) | Voice recognition method, voice recognition device and voice recognition program | |
JP2015087718A (en) | Voice interaction system and voice interaction method | |
JP2019020475A (en) | Voice recognition device and voice recognition method | |
JP2006209077A (en) | Voice interactive device and method | |
JP7007616B2 (en) | Training data generator, training data generation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100308 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100324 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100405 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4491438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130409 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140409 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |