JP2018017776A - Voice interactive device - Google Patents
Voice interactive device Download PDFInfo
- Publication number
- JP2018017776A JP2018017776A JP2016145635A JP2016145635A JP2018017776A JP 2018017776 A JP2018017776 A JP 2018017776A JP 2016145635 A JP2016145635 A JP 2016145635A JP 2016145635 A JP2016145635 A JP 2016145635A JP 2018017776 A JP2018017776 A JP 2018017776A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- time
- unit
- speech
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、人と対話を行う音声対話装置に関する。 The present invention relates to a voice interaction apparatus that performs a conversation with a person.
近年、人と対話を行う対話ロボット等の音声対話装置が実用化されている。しかし、音声対話装置が人と対話する場面では、人及び音声対話装置の双方が沈黙することがあり、こうした沈黙が頻繁に起きると、対話が中断し、気まずい雰囲気になってしまう。
そこで、最近は、無音時間が予め定められた待ち時間を超えた場合に、音声対話装置側から発話する技術も提案されている(例えば、特許文献1)。
In recent years, a speech dialogue apparatus such as a dialogue robot for carrying out a dialogue with a person has been put into practical use. However, in a situation where the voice interaction device interacts with a person, both the person and the voice interaction device may be silent, and if such a silence occurs frequently, the conversation is interrupted and an awkward atmosphere is created.
Therefore, recently, a technique has also been proposed in which speech is spoken from the voice interaction device side when the silent time exceeds a predetermined waiting time (for example, Patent Document 1).
しかし、特許文献1のように、無音時間が予め定められた待ち時間を超えた場合に、音声対話装置側から発話する技術では、待ち時間は予め定めた時間となり、個人差を考慮して待ち時間を変更することができないという問題があった。
また、時間経過と共に人の発話傾向が変化した場合に(例えば、音声対話装置に慣れてきて応答時間が短くなる等)、発話傾向の変化に対応して待ち時間を変更することができないという問題もあった。
However, as in
In addition, when a person's utterance tendency changes with the passage of time (for example, getting used to a voice interaction device to shorten the response time), the waiting time cannot be changed in response to the change in the utterance tendency. There was also.
本発明は、上記を鑑みなされたものであって、リアルタイムで人の個人差を考慮した発話が可能な音声対話装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide a voice interactive apparatus capable of uttering in consideration of individual differences in real time.
本発明の一態様に係る音声対話装置は、
人の発話を認識する発話受付部と、発話する発話部と、を備え、前記発話部は前記発話部が発話してから前記発話受付部が発話を受け付けなかった時間である無音時間が予め定められた待ち時間を超えた場合に発話する音声対話装置であって、
前記発話部が発話してから人が応答して前記発話受付部が発話を受け付けるまでの応答時間を記憶する記憶部と、
前記記憶部にて記憶された応答時間の平均及び分散を算出し、算出した平均及び分散を用いて応答時間及び発話確率に関するガンマ分布を作成し、作成したガンマ分布を用いて人が発話する気がないと判断できる無音時間を推定する推定部と、
前記推定部にて推定された無音時間を新たな待ち時間として、前記発話部における前記待ち時間を更新する発話制御部と、を備える。
A spoken dialogue apparatus according to one aspect of the present invention includes:
An utterance receiving unit for recognizing a person's utterance, and an uttering unit for uttering, wherein the utterance unit determines a silent time which is a time when the utterance receiving unit does not accept an utterance after the utterance unit utters A spoken dialogue device that utters when a specified waiting time is exceeded,
A storage unit that stores a response time from when the utterance unit utters until a person responds and the utterance reception unit receives the utterance;
The average and variance of the response times stored in the storage unit are calculated, a gamma distribution relating to the response time and the utterance probability is created using the calculated average and variance, and a person speaks using the created gamma distribution. An estimation unit for estimating a silent time that can be determined to be absent,
An utterance control unit that updates the waiting time in the utterance unit with the silent time estimated by the estimation unit as a new waiting time.
上述した本発明の態様によれば、リアルタイムで人の個人差を考慮した発話が可能な音声対話装置を提供することができるという効果が得られる。 According to the aspect of the present invention described above, there is an effect that it is possible to provide a voice interactive apparatus capable of speaking in real time in consideration of individual differences.
以下、本発明の実施の形態について説明する。
<実施の形態の概要>
まず、本実施の形態に係る音声対話装置の概要について説明する。
対話ロボット等である音声対話装置は、人が発話した場合には、その発話に音声対話装置側で応答して発話する設計になっていることが多い。そのため、人が発話した場合には、無音時間は発生しないか、発生したとしても非常に短い時間になるため、対話が中断する可能性は低いと考えられる。
Embodiments of the present invention will be described below.
<Outline of the embodiment>
First, an outline of the voice interactive apparatus according to the present embodiment will be described.
In many cases, a speech dialogue apparatus, such as a dialogue robot, is designed so that when a person speaks, the voice dialogue apparatus responds to the utterance and speaks. Therefore, when a person speaks, the silent time does not occur, or even if it occurs, it is very short time, so it is considered that the possibility that the dialogue is interrupted is low.
その一方、音声対話装置が発話した場合には、続いて、その発話に人側で応答して発話することになるため、無音時間(すなわち、音声対話装置が発話してから人の発話を音声対話装置にて受け付けなかった時間)が長くなる可能性がある。そのため、音声対話装置が発話してから経過した無音時間が待ち時間を超えた場合には、人に発話する気がないと判断し、音声対話装置側から発話することにより、対話が中断することを回避することができる。 On the other hand, when a voice dialogue device utters, the person speaks in response to the utterance, so the silent time (that is, after the voice dialogue device utters, the person's utterance is spoken) There is a possibility that the time (which was not accepted by the interactive device) will be longer. Therefore, if the silent time that has elapsed since the voice dialogue device uttered exceeds the waiting time, it is determined that there is no intention to speak to the person, and the dialogue is interrupted by speaking from the voice dialogue device side. Can be avoided.
しかし、人に発話する気がないと判断できる無音時間には、個人差があり、また、発話傾向の変化(例えば、音声対話装置に慣れてきて応答時間が短くなる等)に応じてリアルタイムに変化すると考えられる。 However, there is an individual difference in the silent time when it can be determined that a person is not willing to speak, and in real time according to changes in the utterance tendency (for example, the response time is shortened after becoming accustomed to a voice interaction device). It will change.
そこで、本実施の形態に係る音声対話装置は、音声対話装置が発話してから経過した無音時間が待ち時間を超えた場合に発話する構成において、その待ち時間を、リアルタイムで人の個人差を考慮して、変更することとする。 Therefore, in the configuration in which the voice interaction device according to the present embodiment utters when the silent time that has elapsed since the voice interaction device uttered exceeds the waiting time, the waiting time is calculated in real time with the individual difference of the person. It will be changed in consideration.
<実施の形態の構成>
続いて、図1を参照して、本実施の形態に係る音声対話装置1の構成について説明する。図1に示されるように、音声対話装置1は、人であるユーザ2と対話を行う装置であり、例えば、対話ロボット等である。また、音声対話装置1は、発話部11と、発話受付部12と、計測部13と、フィルタ部14と、推定部15と、発話制御部16と、を備えている。なお、フィルタ部14は、記憶部の一例である。また、図1は、本発明の本質的な構成要素のみを抜粋して示したものであり、その他の構成要素は省略されている。
<Configuration of the embodiment>
Next, with reference to FIG. 1, the configuration of the voice
発話部11は、スピーカ(不図示)を介して音声を出力することで、ユーザ2に対して発話する。
発話受付部12は、ユーザ2が発話した音声を、マイク(不図示)を介して入力することで、ユーザ2の発話を認識する。
The utterance unit 11 utters the
The
計測部13は、発話部11が発話してから、ユーザ2が応答して発話受付部12が発話を受け付けるまでの時間である応答時間を計測する。詳細には、ユーザ2の応答時間は、発話部11が発話を終えてから、この発話に対してユーザ2が応答して発話した音声を発話受付部12にて受け付けるまでの時間である。例えば、図2の例では、発話部11が「確かに」という音声の発話を終えたタイミングが時刻t1、この発話に対してユーザ2が応答して発話した「体調も良いです」という音声を発話受付部12にて受け付けたタイミングが時刻t2である。そのため、ユーザ2の応答時間は、時刻t1と時刻t2との差分である1秒となる。
The
フィルタ部14は、計測部13が計測したユーザ2の応答時間のデータである応答時間データをフィルタリングして、外れ値の応答時間データを除去し、残りの応答時間データを記憶する。例えば、音声対話装置1が放置されていた場合や、ユーザ2が熟考して応答した場合には、ユーザ2の応答時間は非常に長くなる。フィルタ部14は、このような応答時間データを外れ値の応答時間データとして除去する。
The
フィルタ部14は、過去N回分のN個の応答時間データを記憶し、N個を超えた場合は、最も古い応答時間データを破棄するものとする。後述のように、推定部15は、応答時間データを用いて、ユーザ2の応答時間の分散及び平均を算出し、ユーザ2が発話する気がないと判断できる無音時間(ユーザ2が発話してから発話受付部12が発話を受け付けなかった時間)を推定する。一般的に、分散及び平均を算出するためのデータは最低でも3個必要となる。そのため、上記のNは3以上の整数とする。また、上記のNは、大きければ推定精度は上がるが古いデータが残ってしまい、小さければ現状に対応しやすくなるが推定精度が下がってしまう。そのため、上記のNは、現状及び推定精度の優先度等を考慮して、3以上の適正な数値に決定すれば良い。
The
フィルタ部14が外れ値の応答時間データを除去する方法としては、任意の方法を利用可能である。例えば、フィルタ部14は、メディアンフィルタを使用し、中央値付近から外れた応答時間データを除去しても良い。又は、フィルタ部14は、IQR(四分位範囲:interquartile range)を利用するフィルタを使用し、IQRから外れた箱ひげ図のひげ部分の応答時間データを除去しても良い。IQRを利用するフィルタは、正規分布でない場合にも使用可能であり、また、計算量が少なく、高速レスポンスが可能である等の利点がある。又は、計測部13は、応答時間の計測時に、応答時間データにラベルを付与し、フィルタ部14は、特定のラベルが付与された応答時間データを除去しても良い。例えば、計測部13は、カメラ(不図示)で撮影された画像から、ユーザ2が熟考して応答したと判断できる応答時間データに特定のラベルを付与することが考えられる。また、計測部13は、ユーザ2の音声を認識し、自立語が含まれていない音声の応答時間データに特定のラベルを付与することが考えられる。また、計測部13は、音声対話装置1の動作終了待ちであった場合の応答時間データに特定のラベルを付与することが考えられる。
Any method can be used as a method for the
推定部15は、まず、フィルタ部14にて記憶されたN個の応答時間データを用いてユーザ2の応答時間の平均及び分散を算出する。続いて、推定部15は、算出したユーザ2の応答時間の平均及び分散を用いて、ユーザ2の応答時間及びその応答時間で発話する確率である発話確率に関するガンマ分布を作成する。ガンマ分布は、パラメトリックモデルの一例である。続いて、推定部15は、作成したガンマ分布を用いて、ユーザ2が発話する気がないと判断できる無音時間を推定する。
The
例えば、推定部15は、図3のようなガンマ分布を作成したとする。図3は、応答時間データの個数が15個、発話確率の閾値が95%となっている例である。図3の例では、応答時間2.4秒以下でユーザ2が発話する発話確率が、閾値となる95%になっている。言い換えれば、発話部11が発話してから経過した無音時間が2.4秒以上であれば、ユーザ2は95%の確率で発話する気がないと判断することができる。そこで、推定部15は、ユーザ2が発話する気がないと判断できる無音時間を、2.4秒と推定する。なお、応答時間データの個数及び発話確率の閾値は、図3の数値に限定されず、その他の数値でも良い。
For example, it is assumed that the
発話制御部16は、発話部11の発話タイミングを制御する。具体的には、発話制御部16は、ユーザ2が発話した場合には、その発話に応答して発話するよう発話部11を制御する。また、発話制御部16は、発話部11が発話した場合には、発話部11が発話してから経過した現在の無音時間が待ち時間を超えた場合に発話するよう発話部11を制御する。
The
ここで、ユーザ2との対話開始時には、フィルタ部14には何らの応答時間データも記憶されていないため、推定部15は無音時間を推定することができない。そのため、発話制御部16は、ユーザ2との対話開始時には、発話部11における待ち時間として、予め定められた待ち時間を使用する。その後、ユーザ2との対話が進んで、フィルタ部14に3個以上の応答時間データが記憶されると、推定部15で無音時間の推定が可能になる。そのため、以降、発話制御部16は、推定部15で無音時間が推定される度に、推定された無音時間を新たな待ち時間として、発話部11における待ち時間を更新する。
Here, since no response time data is stored in the
また、発話制御部16は、発話部11の発話内容も制御する。例えば、発話制御部16は、現在の無音時間が待ち時間を超えた場合に発話させる時には、「ところで、この前の連休は遊びに行ったりした?」等と発話させ、新たな話題を提供するように制御する。ただし、発話内容をどのような内容に決定するかは本発明の本質的な部分ではなく、発話内容は公知の方法を適用して決定することができるため、詳細な説明は省略する。
The
なお、音声対話装置1が備える各構成要素は、例えば、コンピュータである音声対話装置1が備えるプロセッサ(不図示)及びメモリ(不図示)によって実現することができる。具体的には、プロセッサが、メモリからソフトウェア(プログラム)を読み出して実行することで、各構成要素を実現することができる。また、各構成要素は、プログラムによるソフトウェアで実現することに限定されることなく、ハードウェア、ファームウェア及びソフトウェアのうちのいずれかの組み合わせなどにより実現しても良い
In addition, each component with which the voice
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。 The above-described program can be stored using various types of non-transitory computer readable media and supplied to a computer. Non-transitory computer readable media include various types of tangible storage media. Examples of non-transitory computer-readable media include magnetic recording media (for example, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (for example, magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W and semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (random access memory)) are included.
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されても良い。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバなどの有線通信路、または無線通信路を介して、プログラムをコンピュータに供給できる。 Further, the program may be supplied to the computer by various types of temporary computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The transitory computer readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
<実施の形態の動作>
続いて、図4を参照して、本実施の形態に係る音声対話装置1において、発話部11が発話した後の動作について説明する。
図4に示されるように、まず、発話制御部16は、発話部11が発話したか否かを判断する(ステップS1)。ステップS1の発話部11の発話は、対話開始時の発話、ユーザ2の発話に対する発話、発話部11の発話から経過した無音時間が待ち時間を超えた場合の発話が含まれる。
<Operation of the embodiment>
Then, with reference to FIG. 4, the operation | movement after the utterance part 11 utters is demonstrated in the voice
As shown in FIG. 4, first, the
ステップS1において、発話部11が発話した場合(ステップS1のYes)、発話制御部16は、発話部11の発話に対してユーザ2が応答したか判断し(ステップS2)、ユーザ2の応答がない場合(ステップS2のNo)、続いて、発話部11の発話から経過した現在の無音時間が待ち時間を超えたか否かを判断する(ステップS3)。ここでの待ち時間は、ユーザ2との対話開始時には、予め定められた待ち時間となり、ユーザ2との対話が進んで推定部15で無音時間が推定可能になると、推定部15で推定された無音時間で更新された新たな待ち時間となる。ステップS3において、現在の無音時間が待ち時間を超えていない場合(ステップS3のNo)、ステップS2に戻る。すなわち、ステップS2,S3は、現在の無音時間が待ち時間を超えるか、待ち時間の間にユーザ2が応答するまで繰り返されることになる。
In step S1, when the utterance unit 11 speaks (Yes in step S1), the
ステップS3において、現在の無音時間が待ち時間を超えた場合(ステップS3のYes)、発話制御部16は、ユーザ2に発話する気がないと判断し、発話するよう発話部11を制御する(ステップS4)。ステップS4の後は、ステップS1に戻る。
In step S3, when the current silent time exceeds the waiting time (Yes in step S3), the
また、ステップS2において、発話部11の発話に対してユーザ2が応答した場合(ステップS2のYes)、計測部13は、発話部11が発話してから、ユーザ2が応答して発話受付部12が発話を受け付けるまでの応答時間を計測する(ステップS5)。続いて、フィルタ部14は、計測部13が計測したユーザ2の応答時間データをフィルタリングして、外れ値の応答時間データを除去し、残りの応答時間データを記憶する(ステップS6)。続いて、推定部15は、フィルタ部14にて記憶された応答時間データを用いてユーザ2の応答時間の平均及び分散を算出し、算出した平均及び分散を用いて、ユーザ2の応答時間及び発話確率に関するガンマ分布を作成し、作成したガンマ分布を用いて、ユーザ2が発話する気がないと判断できる無音時間を推定する。続いて、発話制御部16は、推定部15にて推定された無音時間を新たな待ち時間として、発話部11における待ち時間を更新する(ステップS7)。なお、ステップS7において、フィルタ部14に3個以上の応答時間データが記憶されていない場合には、推定部15で無音時間を推定することができない。そのため、その場合は、発話制御部16は、発話部11における待ち時間を更新せず、現在の待ち時間のままとする。ステップS7の後は、ステップS1に戻る。
In step S2, when the
以上が、音声対話装置1において、発話部11が発話した後の動作となる。なお、音声対話装置1においては、ユーザ2が発話した場合には、その発話に応答して発話するという動作を行う。ただし、ユーザ2が発話した後の動作は、本発明の本質的な部分ではなく、公知の動作を適用することができるため、詳細な説明は省略する。
The above is the operation after the utterance unit 11 utters in the
<実施の形態の効果>
上述したように、本実施の形態に係る音声対話装置1によれば、発話部11が発話してからユーザ2が応答して発話を受け付けるまでの応答時間を記憶し、ユーザ2の応答時間の平均及び分散を用いて応答時間及び発話確率に関するガンマ分布を作成し、作成したガンマ分布を用いて人が発話する気がないと判断できる無音時間を推定し、推定した無音時間を新たな待ち時間として、発話部11における待ち時間を更新する。
<Effect of Embodiment>
As described above, according to the
このように、ユーザ2の応答時間に応じて、発話部11における待ち時間を更新するため、リアルタイムで人の個人差を考慮して、待ち時間を変更することができる。それにより、リアルタイムで人の個人差を考慮した発話が可能な音声対話装置1を提供することができる。
Thus, since the waiting time in the utterance part 11 is updated according to the response time of the
また、リアルタイムで人の個人差を考慮した発話が可能となるため、ユーザ2との対話が中断することを回避し、対話を長続きさせることができる。
また、人が発話する気がないと判断できる無音時間の推定にパラメトリックモデルであるガンマ分布を使用するため、少ない応答時間データ(応答時間データは最低で3個あれば良い)で無音時間を推定することができる。それにより、対話開始から無音時間が推定となるまでの時間を短縮することができる。
Moreover, since it is possible to utter in consideration of individual differences in real time, it is possible to avoid interruption of the dialogue with the
Also, since the gamma distribution, which is a parametric model, is used to estimate the silent time when it is determined that a person is not willing to speak, the silent time is estimated with a small amount of response time data (minimum of three response time data is sufficient). can do. Thereby, it is possible to shorten the time from the start of dialogue until the silent time is estimated.
また、外れ値の応答時間データをフィルタリングして除去するため、ユーザ2が熟考した等の要因で応答時間がたまたま長くなったとしても、そのような応答時間データを除外して、無音時間を推定することができる。それにより、無音時間の推定精度が低くなることを回避することができる。
Also, since outlier response time data is filtered out, even if the response time happens to be long due to factors such as the
<実施の形態の変形例>
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
例えば、上記実施の形態においては、ユーザ2との対話開始時には、発話部11における待ち時間を予め設定された待ち時間としたが、これには限定されない。例えば、ユーザ2と前回対話した時のユーザ2の応答時間データをフィルタ部14に記憶させた状態でユーザ2との対話を開始すれば、対話開始時から、推定部15が無音時間を推定することができる。その結果、対話開始時から、推定部15が推定した無音時間を待ち時間とすることができる。
<Modification of Embodiment>
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention.
For example, in the above-described embodiment, the waiting time in the utterance unit 11 is set as a waiting time set in advance at the start of the conversation with the
また、上記実施の形態においては、推定部15は、ユーザ2が発話する気がないと判断できる無音時間を推定するために、パラメトリックモデルの一例であるガンマ分布を使用したが、これには限定されない。推定部15は、パラメトリックモデルの代わりに、歪度(skewness)を持つモデルを使用しても良い。なお、歪度とは、分布の非対称を示す指標である。
In the above embodiment, the
1 音声対話装置
11 発話部
12 発話受付部
13 計測部
14 フィルタ部
15 推定部
16 発話制御部
2 ユーザ
DESCRIPTION OF
Claims (1)
前記発話部が発話してから人が応答して前記発話受付部が発話を受け付けるまでの応答時間を記憶する記憶部と、
前記記憶部にて記憶された応答時間の平均及び分散を算出し、算出した平均及び分散を用いて応答時間及び発話確率に関するガンマ分布を作成し、作成したガンマ分布を用いて人が発話する気がないと判断できる無音時間を推定する推定部と、
前記推定部にて推定された無音時間を新たな待ち時間として、前記発話部における前記待ち時間を更新する発話制御部と、を備える音声対話装置。 An utterance receiving unit for recognizing a person's utterance, and an uttering unit for uttering, wherein the utterance unit determines a silent time which is a time when the utterance receiving unit does not accept an utterance after the utterance unit utters A spoken dialogue device that utters when a specified waiting time is exceeded,
A storage unit that stores a response time from when the utterance unit utters until a person responds and the utterance reception unit receives the utterance;
The average and variance of the response times stored in the storage unit are calculated, a gamma distribution relating to the response time and the utterance probability is created using the calculated average and variance, and a person speaks using the created gamma distribution. An estimation unit for estimating a silent time that can be determined to be absent,
A speech dialogue apparatus comprising: an utterance control unit that updates the waiting time in the utterance unit using the silent time estimated by the estimation unit as a new waiting time.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016145635A JP2018017776A (en) | 2016-07-25 | 2016-07-25 | Voice interactive device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016145635A JP2018017776A (en) | 2016-07-25 | 2016-07-25 | Voice interactive device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018017776A true JP2018017776A (en) | 2018-02-01 |
Family
ID=61081759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016145635A Pending JP2018017776A (en) | 2016-07-25 | 2016-07-25 | Voice interactive device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018017776A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021009962A1 (en) * | 2019-07-12 | 2021-01-21 | 株式会社Nttドコモ | Interaction device |
WO2023182718A1 (en) * | 2022-03-24 | 2023-09-28 | Samsung Electronics Co., Ltd. | Systems and methods for dynamically adjusting a listening time of a voice assistant device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086590A (en) * | 1994-06-16 | 1996-01-12 | Kokusai Denshin Denwa Co Ltd <Kdd> | Voice recognition method and device for voice conversation |
JP2005101286A (en) * | 2003-09-25 | 2005-04-14 | Toshiba Corp | Method and apparatus for manufacturing semiconductor |
JP2010152119A (en) * | 2008-12-25 | 2010-07-08 | Toyota Central R&D Labs Inc | Response generation device and program |
JP2011170605A (en) * | 2010-02-18 | 2011-09-01 | Nec Corp | Apparatus and method for setting of timeout time, and program |
JP2013174537A (en) * | 2012-02-27 | 2013-09-05 | Kddi Corp | Mobile follow-up system, follow-up terminal therefor, and mobile terminal |
JP2014199323A (en) * | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Voice interactive device and interaction control method |
-
2016
- 2016-07-25 JP JP2016145635A patent/JP2018017776A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH086590A (en) * | 1994-06-16 | 1996-01-12 | Kokusai Denshin Denwa Co Ltd <Kdd> | Voice recognition method and device for voice conversation |
JP2005101286A (en) * | 2003-09-25 | 2005-04-14 | Toshiba Corp | Method and apparatus for manufacturing semiconductor |
JP2010152119A (en) * | 2008-12-25 | 2010-07-08 | Toyota Central R&D Labs Inc | Response generation device and program |
JP2011170605A (en) * | 2010-02-18 | 2011-09-01 | Nec Corp | Apparatus and method for setting of timeout time, and program |
JP2013174537A (en) * | 2012-02-27 | 2013-09-05 | Kddi Corp | Mobile follow-up system, follow-up terminal therefor, and mobile terminal |
JP2014199323A (en) * | 2013-03-29 | 2014-10-23 | 富士通株式会社 | Voice interactive device and interaction control method |
Non-Patent Citations (1)
Title |
---|
大久保 街亜: "反応時間分析における外れ値の処理", 専修人間科学論集 心理学篇, vol. 1, no. 1, JPN6020017682, 2011, pages 81 - 89, ISSN: 0004277747 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021009962A1 (en) * | 2019-07-12 | 2021-01-21 | 株式会社Nttドコモ | Interaction device |
JP7512281B2 (en) | 2019-07-12 | 2024-07-08 | 株式会社Nttドコモ | Interactive Device |
WO2023182718A1 (en) * | 2022-03-24 | 2023-09-28 | Samsung Electronics Co., Ltd. | Systems and methods for dynamically adjusting a listening time of a voice assistant device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9536525B2 (en) | Speaker indexing device and speaker indexing method | |
JP6420306B2 (en) | Speech end pointing | |
JP5883014B2 (en) | Method and system for automatic detection of end of recording | |
JP2012037619A (en) | Speaker-adaptation device, speaker-adaptation method and program for speaker-adaptation | |
JP6464005B2 (en) | Noise suppression speech recognition apparatus and program thereof | |
JP5431282B2 (en) | Spoken dialogue apparatus, method and program | |
CN107871503A (en) | Speech dialogue system and sounding are intended to understanding method | |
JP6967966B2 (en) | Methods and devices for separating voice data in audio communication from background data | |
CN110473533B (en) | Voice conversation system, voice conversation method, and program | |
US20050182621A1 (en) | Automatic speech recognition channel normalization | |
KR20200025226A (en) | Electronic apparatus and thereof control method | |
JP6766675B2 (en) | Voice dialogue device | |
JP2018017776A (en) | Voice interactive device | |
JP6270661B2 (en) | Spoken dialogue method and spoken dialogue system | |
JP2018124432A (en) | Dialog device | |
JP2018021953A (en) | Voice interactive device and voice interactive method | |
JP2008003517A (en) | Speech interaction system, speech interaction method, and program | |
JP6772881B2 (en) | Voice dialogue device | |
JP2005345772A (en) | Voice recognition method, device carrying out the method, program, and its recording medium | |
KR20210010133A (en) | Speech recognition method, learning method for speech recognition and apparatus thereof | |
JP6645995B2 (en) | Voiced pause detection device, its method, and program | |
US11922927B2 (en) | Learning data generation device, learning data generation method and non-transitory computer readable recording medium | |
JP7162783B2 (en) | Information processing device, estimation method, and estimation program | |
JP2017201348A (en) | Voice interactive device, method for controlling voice interactive device, and control program | |
JP2024148421A (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191218 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200609 |