JP2016076007A - Interactive apparatus and interactive method - Google Patents
Interactive apparatus and interactive method Download PDFInfo
- Publication number
- JP2016076007A JP2016076007A JP2014204520A JP2014204520A JP2016076007A JP 2016076007 A JP2016076007 A JP 2016076007A JP 2014204520 A JP2014204520 A JP 2014204520A JP 2014204520 A JP2014204520 A JP 2014204520A JP 2016076007 A JP2016076007 A JP 2016076007A
- Authority
- JP
- Japan
- Prior art keywords
- user
- interactive
- state
- dialogue
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ユーザとの対話を行うための対話装置、およびユーザと対話装置との間で対話を行うための対話方法に関する。 The present invention relates to a dialog device for performing a dialog with a user and a dialog method for performing a dialog between the user and the dialog device.
近年、音声認識並びにユーザの自然な発話内容を理解して受け答えを行う対話技術が進化している(たとえば特許文献1参照)。スマートフォン、ロボットデバイスなどに様々なセンサを備えることによって、ユーザの存在を知覚し、あたかも人間と対話するように対話を行うことができる対話エージェント型の対話装置が実現されつつある。 In recent years, dialogue technology has been evolving to recognize voice and to understand and answer the user's natural utterance content (see, for example, Patent Document 1). By providing various sensors in a smartphone, a robot device, and the like, a dialog agent type dialog device capable of perceiving the presence of a user and performing a dialog as if interacting with a human being is being realized.
対話は、ユーザが、対話装置への発話のタイミングを伝えるためのボタン操作などを行わない状態(以下「ハンズフリー状態」という。)で開始される場合がある。この場合、対話装置は、たとえばマイク入力を監視し、ユーザの発話を検出することによって、非対話状態から対話状態に切り替わることができる。 The dialogue may be started in a state where the user does not perform a button operation or the like for transmitting the timing of utterance to the dialogue device (hereinafter referred to as “hands-free state”). In this case, the interactive device can switch from the non-interactive state to the interactive state, for example, by monitoring the microphone input and detecting the user's utterance.
しかしながら、ユーザの発話が検出されたからといって、ユーザが対話装置へ語りかけようとする意思(語りかけ意思)を有しているとは限らない。そのため、ユーザが語りかけ意思を有していないにもかかわらず、ユーザの発話を検出した対話装置が、誤ったタイミングで対話を開始して対話状態に切り替わってしまうおそれがある。 However, just because a user's utterance is detected does not necessarily mean that the user has an intention to talk to the dialogue device (speaking intention). Therefore, even though the user does not have the intention to talk, there is a possibility that the dialogue apparatus that detects the user's utterance starts the dialogue at an incorrect timing and switches to the dialogue state.
本発明は、上記問題点に鑑みてなされたものであり、適切なタイミングでユーザとの対話状態に切り替わることが可能な対話装置および対話方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an interactive apparatus and an interactive method capable of switching to an interactive state with a user at an appropriate timing.
本発明の一態様に係る対話装置は、ユーザとの対話を行うための対話装置であって、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出する検出手段と、検出手段の検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定手段と、判定手段の判定結果に基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置の状態を制御する対話状態制御手段と、を備える。 An interactive apparatus according to an aspect of the present invention is an interactive apparatus for performing a dialog with a user, the detecting means for detecting the distance between the user and the interactive apparatus and the presence of the user in the camera image, and the detecting means Based on the detection result, the user intention determination means for determining whether or not the user in the hands-free state has an intention to talk to the dialog apparatus, and the dialog apparatus is in the dialog state based on the determination result of the determination means And dialogue state control means for controlling the state of the dialogue device so as to switch to any one of the non-dialogue states.
本発明の一態様に係る対話方法は、ユーザと対話装置との間で対話を行うための対話方法であって、対話装置が、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出するステップと、対話装置が、検出するステップの検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するステップと、対話装置が、判定するステップの判定結果に基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置の状態を制御するステップと、を含む。 An interactive method according to an aspect of the present invention is an interactive method for performing a dialog between a user and an interactive device, wherein the interactive device has a distance between the user and the interactive device, and the presence of the user in a camera image. Detecting, based on a detection result of the detecting step, determining whether or not a user in a hands-free state has an intention to talk to the interactive device; and And controlling the state of the interactive device so that the interactive device switches to either the interactive state or the non-interactive state based on the determination result of the determining step.
上記の対話装置または対話方法では、ユーザが対話装置への語りかけ意思を有しているか否かに基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように制御される。これにより、対話装置は、ユーザの意思に応じた適切なタイミングで、対話状態に切り替わることができる。 In the above interactive device or interactive method, the interactive device is controlled to switch to either the interactive state or the non-interactive state based on whether or not the user has an intention to talk to the interactive device. Thereby, the dialogue apparatus can be switched to the dialogue state at an appropriate timing according to the user's intention.
また、対話装置は、検出手段の検出結果に基づいて、ユーザが対話装置からの情報を視認できる状態にあるか否かを判定するユーザ状態判定手段と、ユーザ状態判定手段の判定結果に基づいて、ユーザへの出力を制御する出力制御手段と、をさらに備えてもよい。これにより、ユーザが対話装置からの視覚的な出力(情報)を視認(閲覧など)できないときは、たとえば音声のみでユーザへ情報を伝達することができる。また、ユーザが対話装置からの視覚的な出力を視認できるときは、視覚的な出力と音声出力とを併用することよって、たとえば音声出力を短縮することができる。 Further, the interactive device is based on the determination result of the user state determining unit and the user state determining unit that determines whether or not the user can visually recognize the information from the interactive device based on the detection result of the detecting unit. And output control means for controlling output to the user. Thereby, when the user cannot visually recognize (view, etc.) the visual output (information) from the interactive device, the information can be transmitted to the user only by voice, for example. Further, when the user can visually recognize the visual output from the interactive device, for example, the audio output can be shortened by using both the visual output and the audio output.
また、対話装置は、対話状態においてはユーザの音声に含まれる語彙を連続して認識する第1の認識モードを実行し、非対話状態においてはユーザの音声に含まれる所定の語彙のみを認識する第2の認識モードとを実行する音声認識手段、をさらに備えてもよく、ユーザ意思判定手段は、非対話状態において、第2の認識モードを実行する音声認識手段によってユーザの音声に含まれる所定の語彙が認識された場合に、ユーザが対話装置への語りかけ意思を有していると判定してもよい。これにより、対話装置は、ユーザが所定の語彙(キーワード)を発話したことを契機として、ユーザの意思に応じた適切なタイミングで、非対話状態から対話状態に切り替わることができる。 The interactive device executes a first recognition mode for continuously recognizing vocabulary contained in the user's voice in the conversation state, and recognizes only a predetermined vocabulary contained in the user's speech in the non-interactive state. Voice recognition means for executing the second recognition mode may be further included, and the user intention determination means is a predetermined voice included in the user's voice by the voice recognition means for executing the second recognition mode in the non-interactive state. When the vocabulary is recognized, it may be determined that the user has an intention to talk to the dialogue apparatus. Thereby, the dialogue apparatus can switch from the non-dialogue state to the dialogue state at an appropriate timing according to the user's intention, when the user speaks a predetermined vocabulary (keyword).
また、第1の認識モードでは、音声認識手段が、対話装置の外部との通信を行いサーバのデータ処理を利用することによって、ユーザの音声に含まれる語彙を連続して認識し、第2の認識モードでは、音声認識手段が、対話装置の外部との通信を行わずに、ユーザの音声に含まれる所定の語彙のみを認識してもよい。これにより、第1の認識モードでは、サーバのデータ処理を利用した大語彙が認識可能な音声認識(サーバ型音声認識)を行うことができる。また、第2の認識モードでは、たとえば通信を行わない分だけ第1の認識モードより消費電力を低減させつつ音声認識を行うことができる。 In the first recognition mode, the voice recognition means continuously recognizes the vocabulary included in the user's voice by communicating with the outside of the dialogue apparatus and using the data processing of the server, and the second recognition mode. In the recognition mode, the voice recognition unit may recognize only a predetermined vocabulary included in the user's voice without performing communication with the outside of the dialogue apparatus. Thereby, in the first recognition mode, it is possible to perform voice recognition (server type voice recognition) capable of recognizing a large vocabulary using server data processing. Also, in the second recognition mode, for example, voice recognition can be performed while reducing power consumption compared to the first recognition mode by the amount that communication is not performed.
また、検出手段は、カメラ画像におけるユーザの顔を検出することによって、ユーザの存在を検出してもよい。これにより、たとえば、対話装置とユーザの顔との位置関係や、対話装置に対するユーザの顔の角度などに基づいて、ユーザが対話装置への語りかけ意思を有しているか否か判定することができる。 The detecting unit may detect the presence of the user by detecting the user's face in the camera image. Thereby, for example, based on the positional relationship between the interactive device and the user's face, the angle of the user's face with respect to the interactive device, etc., it can be determined whether or not the user has an intention to talk to the interactive device. .
本発明によれば、適切なタイミングでユーザとの対話状態に切り替わることが可能になる。 According to the present invention, it is possible to switch to a dialog state with the user at an appropriate timing.
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant descriptions are omitted.
図1は、実施形態に係る対話装置および対話方法が適用される対話システムの概要を示す図である。図1に示すように、対話システム1においては、ユーザ10と、対話装置100との対話が行われる。
FIG. 1 is a diagram illustrating an outline of a dialogue system to which a dialogue apparatus and a dialogue method according to an embodiment are applied. As shown in FIG. 1, in the
対話装置100は、インタフェース部110を含む。図1に示す例では、インタフェース部110の一部(後述の図2のディスプレイ113)に、ヒト型のキャラクタ11が表示されている。このようなヒト型のキャラクタ11の表示によって、ユーザ10は、あたかも人間と対話するように、対話装置100と対話することができる。
The
対話装置100は、通信ネットワーク50を介して、サーバ200と接続可能とされている。これにより、対話装置100は、ユーザ10との対話に用いるための多くの情報を、サーバ200から取得することができる。
The
対話装置100は、ユーザ10との対話を行うことが可能であればよく、その外観や大きさなどは図1に示す例に限定されるものではない。たとえば、対話装置100は、スマートフォンのような端末装置を用いて好適に実現される。そのような端末装置は、ユーザ10との対話に必要なスピーカ、マイク、各種センサなどの様々なデバイス、およびユーザ10との接点となるディスプレイを備えており、また、通信ネットワーク50を介してサーバ200と通信することができるからである。また、対話装置100として、人間の形状を模した物理的なロボットなどを用いてもよい。
The
ユーザ10は、ハンズフリー状態で、対話装置100と対話することができる。本明細書におけるハンズフリー状態とは、ユーザ10が対話装置100に接触して行う操作(たとえば対話装置100のボタン操作など)を行わない状態を意味する。なお、ユーザ10が対話装置100以外のものに触れている場合でも、対話装置100に接触していなければ、ハンズフリー状態とされる。
The
ユーザ10と対話装置100との対話は、ユーザ10が対話装置100の近くにいる状態で行われることが好ましい。図1において、対話に好ましいユーザ10と対話装置100との位置関係が、領域Rとして破線で例示される。領域Rの範囲は、ユーザ10が対話装置100に表示されているキャラクタ11を良好に視認することができ、また、対話装置100からの音声を良好に認識できるような範囲とすることができる。そのような領域Rの範囲は、たとえば対話装置100から数十センチ〜数メートル程度の範囲である。図1に示す例では、領域Rは、対話装置100の正面側(インタフェース部110が設けられている側)に広く設定され、対話装置100の側面および背面には狭く設定されている。すなわち、領域Rは、対話装置100の正面側に長く設定され、対話装置100の側面および背面に短く設定される。このような領域R内にユーザ10が位置するときには、ユーザ10は対話装置100の正面と向かいあって対話できる可能性が高まるので、対話をスムーズに(ユーザ10にとって快適に)行うことができる。
The dialogue between the
図2は、対話装置100の詳細構成を示す図である。図2に示すように、対話装置100は、インタフェース部110と、データ処理部120と、制御部130と、記憶部140と、通信部150とを含む。
FIG. 2 is a diagram illustrating a detailed configuration of the
インタフェース部110は、対話装置100の外部(主に図1のユーザ10)と情報をやり取りするための部分である。インタフェース部110は、カメラ111と、近接センサ112と、ディスプレイ113と、マイク114と、スピーカ115と、操作パネル116とを含む。
The
データ処理部120は、インタフェース部110に入力された情報の解析などに必要なデータ処理を行い、また、インタフェース部110が出力する種々の情報の生成などに必要なデータ処理を行う部分である。データ処理部120は、画像処理部121と、センサデータ処理部122と、出力処理部123と、音声認識部124と、音声合成部125と、入力処理部126とを含む。
The
以下、インタフェース部110およびデータ処理部120に含まれる各部について説明する。
Hereinafter, each unit included in the
カメラ111は、たとえばユーザ10を撮像する。たとえば、画像処理部121は、カメラ画像におけるユーザ10の顔の位置(または領域)を検出する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google(登録商標)社によって提供されるスマートフォン用OSとして知られているアンドロイド(登録商標)に提供される種々のAPI(Application Program Interface)に関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/media/FaceDetector.html
The
http://developer.android.com/reference/android/media/FaceDetector.html
カメラ111は、対話システム1において、ユーザ10が語りかける対象となるマイク114、ユーザ10への応答を出力するディスプレイ113およびスピーカ115のいずれかに対して、ユーザ10が向けられている事を検出できる位置に設置される。
In the
カメラ111を用いて、対話装置100とユーザ10との距離を検出することもできる。この場合には、カメラ111は、対話装置100において、マイク114、ディスプレイ113およびスピーカ115のいずれかとユーザ10との距離を検出(測定)できる位置に設置される。カメラ111によって対話装置100とユーザ10との距離を検出する場合は、上述のデータ処理によって、ユーザ10の顔領域を検出し、検出した顔領域の大きさから、ユーザ10との距離を測定することができる。また、対話装置100が2つ以上のカメラを搭載することによって、上記顔領域の検出と、2つ以上のカメラによって撮像された画像の視差とによって得られる1つ以上の情報から、ユーザ10との距離を推定することも可能である。
The distance between the
近接センサ112は、一定距離内への物体の近接を検出する。近接センサ112として、たとえば、赤外光(あるいは音波)を発して、物体からの反射光(あるいは反射波)を検出するタイプのセンサを用いることができる。センサデータ処理部122は、近接センサ112の検出結果に基づいて、対話装置100とユーザ10との距離を測定することができ、またユーザ10が対話装置100の近くにいるか否かを判断することもできる。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/hardware/SensorManager.html
The
http://developer.android.com/reference/android/hardware/SensorManager.html
ディスプレイ113は、ユーザ10が視認可能な情報を表示する。出力処理部123は、ディスプレイ113の表示に必要なデータ処理を行う。データ処理には、ディスプレイ113におけるキャラクタ11の動作を表すのに必要なデータ処理も含まれる。
The
マイク114は、ユーザ10の音声を検出する。音声認識部124は、マイク114の検出結果に基づいて、ユーザ10の音声を認識する音声認識手段として機能する。また、音声認識部124は、認識した音声を所定のフォーマット(たとえばテキストの形式)に変換する。音声を認識するためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/RecognizerIntent.html
The
http://developer.android.com/reference/android/speech/RecognizerIntent.html
スピーカ115は、ユーザ10が聴認可能な音声を発する。音声合成部125は、スピーカ115が発する音声を生成するための種々のデータ処理を行う。たとえば、音声合成部125は、各種の音データを合成することによって、テキストの形式で指定された内容(情報)を音声に変換する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/tts/TextToSpeech.html
The
http://developer.android.com/reference/android/speech/tts/TextToSpeech.html
本実施形態において、音声入力の方式は、連続的な対話を想定したものだけでなく、キーワード型の音声入力に特化した方式も採用される。連続的な対話において大規模な語彙が必要な場合は、対話装置100の記憶領域や計算能力に限りがあるので、音声対話時はサーバとの通信によるサーバ接続型の音声認識を利用する。一方で、キーワード型音声入力では、対話装置100の内部で完結可能な音声認識エンジンを利用することができ、この場合、サーバとの通信処理を行わない分、バッテリ消費の効率等の面で有効である。たとえば、市販の音声認識エンジンでも、同事業者がサーバ型、ローカル型の複数の方式によるエンジンを販売していることが一般的であり、それらに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://www.fuetrek.co.jp/product/vgate/asr.html
In the present embodiment, the voice input method is not limited to a method that assumes continuous dialogue, but a method specialized for keyword-type voice input is also employed. When a large-scale vocabulary is required for continuous dialogue, the storage area and calculation capability of the
http://www.fuetrek.co.jp/product/vgate/asr.html
操作パネル116は、ユーザ10の操作(ユーザ操作)を検出する。入力処理部126は、操作パネル116の検出結果に基づいて、ユーザ操作に応じた必要なデータ処理を行う。
The
以上の構成によって、対話装置100は、たとえば、インタフェース部110を介して、外部(ユーザ10を含む)から種々の情報を取得し、また、外部(ユーザ10を含む)に種々の情報を伝達することができる。そして、本実施形態においては、さらに、後述する制御部130、記憶部140、通信部150などの各要素が協働することによって、ユーザ10との対話が実現される。
With the above configuration, the
制御部130は、対話装置100の各要素を制御する部分であり、後述の検出部131、ユーザ意思判定部132、情報閲覧可否判定部133、対話制御部134、応答内容決定部135、出力制御部136、状態制御部137、音声認識制御部138を含んで構成される。ただし、制御部130の機能は、それらの機能に限定されるものではない。
The
記憶部140は、対話装置100とユーザ10との対話などに必要な種々の情報を記憶する部分である。記憶部140は、たとえば、後述する種々のデータテーブルを記憶する。
The
通信部150は、対話装置100の外部(たとえば図1のサーバ200)と通信を行う部分である。通信の手法は特に限定されないが、たとえば通信部150と基地局(図示しない)との無線通信、および、基地局とサーバ200との有線通信などを用いることができる。
The
以下、制御部130に含まれる各部について説明する。
Hereinafter, each unit included in the
検出部131は、ユーザ10と対話装置100との距離と、カメラ画像におけるユーザ10の存在とを検出する部分(検出手段)である。ユーザ10と対話装置100との距離は、カメラ111および画像処理部121、あるいは近接センサ112およびセンサデータ処理部122などを用いて行われる。カメラ画像におけるユーザ10の存在の検出は、カメラ111および画像処理部121などを用いて行われる。検出部131は、カメラ画像におけるユーザ10の顔を検出することによって、ユーザ10の存在を検出することが好ましい。
The
ユーザ意思判定部132は、検出部131の検出結果に基づいて、ハンズフリー状態にあるユーザ10が対話装置100への語りかけ意思を有しているか否かを判定する部分(ユーザ意思判定手段)である。たとえば、ユーザ10と対話装置との距離が所定距離以下であって(たとえばユーザ10が図1の領域Rの内側に位置する)且つカメラ画像におけるユーザ10の存在が検出された場合には、ユーザ意思判定部132は、ユーザ10は語りかけ意思を有していると判定することができる。
The user
情報閲覧可否判定部133は、検出部131の検出結果に基づいて、ユーザ10が対話装置100からの情報を視認できる状態にあるか否かを判定する部分(ユーザ状態判定手段)である。たとえば、ユーザ10の顔がディスプレイ113の方向に向いており且つユーザ10とディスプレイ113の距離が、ユーザ10がディスプレイ113に表示された情報を閲覧可能な範囲内である(たとえばユーザ10が図1の領域Rの内側に位置する)ときには、情報閲覧可否判定部133は、ユーザ10が対話装置100からの情報を視認できる状態にあると判定することができる。
The information browsing
対話制御部134は、ユーザ10との対話を制御する。たとえば、対話制御部134は、音声認識部124の認識結果を後述の応答内容決定部135へ送信する。また、対話制御部134は、応答内容決定部135によって決定された応答内容を出力処理部123に送信することによって、スピーカ115やディスプレイ113などを介して当該応答内容をユーザ10に伝達する。
The dialogue control unit 134 controls the dialogue with the
応答内容決定部135は、ユーザ10の発話に対する対話装置100の応答内容を決定する部分である。応答内容決定部135による応答内容の決定には種々の方法が考えられるが、たとえば特定の語彙(キーワード)に対する対話装置100の応答を図4の応答データテーブル141に記憶しておき、その応答データテーブル141にしたがって応答内容を決定することができる。応答データテーブル141は、たとえば記憶部140に記憶される。
The response
図4は、応答データテーブル141の一例を示す図である。図4に示すように、応答データテーブル161は、ユーザ発話と応答情報とを対応づけて記述している。図4に示す例では、ユーザ発話「こんにちは」、「おはよう」、「行ってきます」、「ただいま」に対して、システム発話「こんにちは。アナタの名前は?」、「お早うございます!」、「行ってらっしゃい!」、「お帰りなさーい」がそれぞれ対応する。 FIG. 4 is a diagram illustrating an example of the response data table 141. As shown in FIG. 4, the response data table 161 describes user utterances and response information in association with each other. In the example shown in FIG. 4, the user utterance "Hello", "Good morning", "we're going", for the "I'm home", the system utterance "Hello. The name of you?", "Good morning!", " Come on! ”And“ Return home ”correspond respectively.
このようにユーザ10の発話などに対して対話装置100が応答することで、対話装置100はユーザ10と対話することができる。
Thus, the
図2に戻って、出力制御部136は、情報閲覧可否判定部133の判定結果に基づいて、ユーザ10への出力を制御する部分(出力制御手段)である。具体的に、出力制御部136は、情報閲覧可否判定部133の判定結果に応じて、対話制御部134から伝達された応答内容を適切な態様によってユーザ10に伝達する。具体的に、応答内容は、音声出力情報と、視覚情報とを適宜組み合わせることによってユーザ10に伝達され、音声出力情報と視覚情報との割合が調節される。対話制御部134による応答内容の態様の決定には種々の方法が考えられるが、たとえばキーワードに対する対話装置100の応答と情報閲覧可否判定部133の判定結果とをキーとして、音声出力情報と視覚出力情報とをバリューとした図5の応答データテーブル142に記憶しておき、その応答データテーブル142にしたがって応答内容を決定することができる。応答データテーブル142は、たとえば記憶部140に記憶される。
Returning to FIG. 2, the
図5は、応答データテーブル142の一例を示す図である。図5に示すように、応答データテーブル142は、応答内容と情報閲覧可否判定結果とをキーとし、音声出力情報と視覚出力情報とをバリューとして記述している。 FIG. 5 is a diagram illustrating an example of the response data table 142. As shown in FIG. 5, the response data table 142 describes the audio output information and the visual output information as values using the response contents and the information browsing availability determination result as keys.
応答内容は、対話装置100からユーザ10に伝達すべき情報の内容を示す。図5に示す例では、応答内容として「明日東京晴れ30,18」が示される。この応答内容は、天気に関する情報であり、明日の東京は晴れであって、最高気温が30度、最低気温が18度となることが予想されていることを意味している。
The response content indicates the content of information to be transmitted from the
情報閲覧可否判定結果は、ユーザ10が、対話装置100に出力される情報を閲覧可能な状態であるか否かを示すフラグである。閲覧可能な状態であるか否かは、先に説明した情報閲覧可否判定部133によって判断される。図5に示す例では、情報閲覧可否判定結果は、「TRUE」と「FALSE」との2通りで表される。情報閲覧可否判定結果が「TRUE」の場合、ユーザ10は、対話装置100のディスプレイ113に表示される情報を視認できる状態にある。情報閲覧可否判定結果が「FALSE」の場合、ユーザ10は、対話装置100のディスプレイ113に表示される情報を視認できない状態にある。
The information browsing availability determination result is a flag indicating whether or not the
音声出力情報は、応答内容のうち、音声によってユーザに伝達すべき情報を示す。音声出力情報は、同じ応答内容であっても、情報閲覧可否判定結果に応じて、異なる内容とされる。情報閲覧結果判定が「TRUE」の場合、情報閲覧可否判定結果が「FALSE」の場合よりも、音声出力情報は少ない。図5に示す例では、情報閲覧可否判定結果が「TRUE」の場合には音声出力情報は「明日は晴れらしいよ」とされ、情報閲覧判定結果が「FALSE」の場合には、音声出力情報は「明日の東京とは晴れで、最高気温は30度、最低気温は18度らしいよ」とされる。 The voice output information indicates information to be transmitted to the user by voice among the response contents. Even if the audio output information has the same response content, the audio output information has different contents depending on the information browsing availability determination result. When the information browsing result determination is “TRUE”, there is less audio output information than when the information browsing availability determination result is “FALSE”. In the example illustrated in FIG. 5, when the information browsing availability determination result is “TRUE”, the voice output information is “Tomorrow is sunny”, and when the information browsing determination result is “FALSE”, the voice output information is displayed. Is said to be clear tomorrow in Tokyo, with a maximum temperature of 30 degrees and a minimum temperature of 18 degrees.
視覚出力情報は、応答内容のうち、視覚によってユーザに伝達すべき情報を示す。視覚出力情報は、情報閲覧可否判定結果が「FALSE」の場合には存在せず、情報閲覧可否結果判定が「TRUE」の場合にのみ存在する。図5に示す例では、情報閲覧可否判定結果が「TRUE」の場合に、視覚出力情報が「東京都 晴れ 最高気温 30度 最低気温 18度」とされる。 The visual output information indicates information to be transmitted to the user by visual sense among the response contents. The visual output information does not exist when the information browsing availability determination result is “FALSE”, and exists only when the information browsing availability determination is “TRUE”. In the example illustrated in FIG. 5, when the information browsing availability determination result is “TRUE”, the visual output information is “Tokyo clear, highest temperature 30 degrees, lowest temperature 18 degrees”.
図2に戻って、状態制御部137は、対話装置100の状態を対話状態と非対話状態とで切り替える部分(対話状態制御手段)である。たとえば、ユーザ意思判定部132によってユーザ10に対話意思が有ると判定された場合には、状態制御部137は、対話装置100の状態を非対話状態から対話状態に切り替える。対話装置100の状態の切り替えについては、後に図6および図7を参照して詳述する。
Returning to FIG. 2, the
音声認識制御部138は、ユーザ10の音声に含まれる語彙を連続して認識する第1の認識モードと、ユーザ10の音声に含まれる所定の語彙(キーワード)のみを認識する第2の認識モードとを切り替えて実行する部分(音声認識手段)である。第2の検出モードおよび第2の検出モードの詳細については後述する。
The voice
ここで、図3を参照して、対話装置100のハードウェア構成について説明する。図3は、対話装置100のハードウェア構成図である。図3に示されるように、対話装置100は、物理的には、1または複数のCPU(Central Processing unit)21、主記憶装置であるRAM(Random Access Memory)22およびROM(Read Only Memory)23、データ送受信デバイスである通信モジュール26、半導体メモリなどの補助記憶装置27、操作盤(操作ボタンを含む)やタッチパネルなどのユーザの入力を受け付ける入力装置28、ディスプレイなどの出力装置29、カメラなどの撮像装置24、ならびに赤外線センサなどのセンサ25のハードウェアを備えるコンピュータとして構成され得る。図2における対話装置100の各機能は、たとえば、CPU21、RAM22などのハードウェア上に1または複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール26、入力装置28、出力装置29、撮像装置24およびセンサ25を動作させるとともに、RAM22および補助記憶装置27におけるデータの読み出しおよび書き込みを行うことで実現することができる。
Here, the hardware configuration of the
再び図2を参照して、音声認識制御部138が実行する第1の認識モードおよび第2の認識モードの詳細について説明する。
With reference to FIG. 2 again, details of the first recognition mode and the second recognition mode executed by the speech
第1の認識モードは、対話状態において実行される。第1の認識モードでは、音声認識制御部138は、ユーザ10の音声に含まれる語彙を連続して認識する。語彙を連続して認識するとは、対話における一連のユーザの音声に含まれる語彙を可能な限り解析して認識することを意図している。理想的にはすべての語彙、すなわちユーザ10の音声がすべて認識される。
The first recognition mode is executed in the interactive state. In the first recognition mode, the voice
実施形態において、第1の認識モードでは、音声認識制御部138は、対話装置100の外部との通信を行いサーバ200のデータ処理を利用することによって、ユーザ10の音声に含まれる語彙を連続して認識する。
In the embodiment, in the first recognition mode, the voice
第2の認識モードは、非対話状態において実行される。第2の認識モードでは、音声認識制御部138は、ユーザの音声に含まれるキーワードのみを認識する。また、ユーザ意思判定部132は、音声認識制御部138によってユーザ10の音声に含まれるキーワードが認識された場合に、ユーザ10が対話装置100への語りかけ意思を有していると判定する。キーワードは、たとえば先に説明した図4のユーザ発話「こんにちは」、「おはよう」などである。
The second recognition mode is executed in a non-interactive state. In the second recognition mode, the voice
実施形態において、第2の認識モードでは、音声認識制御部138は、対話装置100の外部との通信を行わずに、ユーザ10の音声に含まれるキーワードのみを認識する。
In the embodiment, in the second recognition mode, the voice
図6は、対話装置100の状態遷移図である。図6に示すように、対話装置100は、対話状態および非対話状態のいずれかの状態に置かれる。
FIG. 6 is a state transition diagram of the
非対話状態は、対話装置100がユーザ10と対話を行っていない状態である。この非対話状態では、第1の認識モードが実行される。この状態では、対話装置100(の音声認識部124)とサーバ200との通信は行われない。そして、ユーザの音声中にキーワードが検出されたことを契機として対話が開始され、対話装置100は、対話状態に移行する(AR1)。
The non-interactive state is a state where the
対話状態は、対話装置100がユーザ10と対話している状態である。対話状態では、第2の認識モードが実行される。この状態では、対話装置100とサーバ200との通信が行われる。このため、サーバ200の音声認識エンジンを用いた大語彙の認識によるスムーズな対話が行われる。対話が終了すると、対話装置100は、非対話状態に移行する(AR2)。
The dialog state is a state in which the
図7は、対話装置100(図2)の状態遷移を説明するためのフローチャートである。このフローチャートの処理は、とくに記載がない場合は、対話装置100の制御部130によって実行され得る。
FIG. 7 is a flowchart for explaining the state transition of the interactive apparatus 100 (FIG. 2). The processing of this flowchart can be executed by the
はじめに、対話装置100は、対話状態であるか否かを判断する(ステップS1)。対話状態の場合(ステップS1:YES)、対話装置100は、ステップS2に処理を進める。そうでない場合(ステップS1:NO)、対話装置100はステップS8に処理を進める。
First, the
ステップS1において対話状態の場合(ステップS1:YES)、対話装置100の音声認識制御部138は、第1の認識モードを実行する(ステップS2)。
If the conversation state is set in step S1 (step S1: YES), the speech
次に、対話装置100は、一定時間ユーザ10からの話しかけが無かったか否か判断する(ステップS3)。この判断は、たとえば対話制御部134によって実行される。一定時間ユーザからの話かけが無かった場合(ステップS3:YES)、対話装置100は、ステップS4に処理を進める。そうでない場合(ステップS3):NO)、対話装置100は、ステップS6に処理を進める。
Next, the
ステップS3において一定時間ユーザ10からの話しかけが無かった場合(ステップS3:YES)、対話装置100は、カメラ111でユーザ10を検出できるか否か判断する(ステップS4)。この判断は、たとえば検出部131によって行われる。カメラ111でユーザ10を検出できる場合(ステップS4:YES)、対話装置100は、ステップS5に処理を進める。そうでない場合(ステップS4:NO)、対話装置100は、ステップS7に処理を進める。
If there is no talk from the
ステップS4においてカメラ111でユーザ10を検出できる場合(ステップS4:YES)、対話装置100は、ユーザ10との距離が所定範囲内である(たとえばユーザ10が図1の領域Rの内側に位置している)か否か判断する(ステップS5)。ユーザ10との距離が所定範囲内の場合(ステップS5:YES)、対話装置100は、ステップS6に処理を進める。そうでない場合(ステップS5:NO)、対話装置100は、ステップS7に処理を進める。
When the
ステップS3において一定時間の間にユーザ10からの話しかけがあった場合(ステップS3:NO)、またはステップS5においてユーザとの距離が所定範囲内の場合(ステップS5:YES)、対話装置100は、ユーザ10に語りかけ意思があると判定し、対話状態を維持する(ステップS6)。ユーザ10に語りかけ意思があるとの判定は、たとえばユーザ意思判定部132によって行われる。対話状態を維持する処理は、たとえば対話制御部134によって行われる。
When there is a talk from the
ステップS4においてカメラ111でユーザ10を検出できない場合(ステップS4:NO)、またはステップS5においてユーザとの距離が所定範囲内にない場合(ステップS5:NO)、対話装置100は、ユーザ10に語りかけ意思が無いと判定し、非対話状態へ移行する(ステップS7)。
When the
一方、ステップS1において非対話状態の場合(ステップS1:NO)、対話装置100の音声認識制御部138は、第2の認識モードを実行する(ステップS8)。
On the other hand, in the non-interactive state in step S1 (step S1: NO), the voice
次に、対話装置100の音声認識制御部138は、キーワードを検出したか否か判断する(ステップS9)。キーワードを検出した場合(ステップS9:YES)、対話装置100は、ステップS12に処理を進める。そうでない場合(ステップS9:NO)、対話装置100は、ステップS10に処理を進める。
Next, the voice
ステップS9においてキーワードを検出しなかった場合(ステップS9:NO)、対話装置100は、カメラ111でユーザ10を検出できるか否か判断する(ステップS10)。カメラ111でユーザ10を検出できる場合(ステップS10:YES)、対話装置100は、ステップS11に処理を進める。そうでない場合(ステップS10:NO)、対話装置100は、ステップS13に処理を進める。
When no keyword is detected in step S9 (step S9: NO), the
ステップS10においてカメラ111でユーザ10を検出できる場合(ステップS10:YES)、対話装置100は、ユーザ10との距離が所定範囲内であるか否か判断する(ステップS11)。ユーザ10との距離が所定範囲内の場合(ステップS11:YES)、対話装置100は、ステップS12に処理を進める。そうでない場合(ステップS11:NO)、対話装置100は、ステップS13に処理を進める。
When the
ステップS9においてキーワードを検出した場合(ステップS9:YES)、またはステップS11においてユーザ10との距離が所定範囲内の場合(ステップS11:YES)、対話装置100は、ユーザ10に語りかけ意思があると判定し、対話状態へ移行する(ステップS12)。
When the keyword is detected in step S9 (step S9: YES), or when the distance to the
ステップS10においてカメラ111でユーザ10を検出できない場合(ステップS10:NO)、またはステップS11においてユーザ10との距離が所定範囲内でない場合(ステップS11:NO)、対話装置100は、ユーザ10に語りかけ意思が無いと判定し、非対話状態を維持する(ステップS13)。
When the
ステップS6,S7,S12またはS13の処理が完了した後、対話装置100は、ステップS1に再び処理を戻す。
After the process of step S6, S7, S12 or S13 is completed, the
図7に示すフローチャートによれば、対話装置100がユーザ10と対話装置100との距離とカメラ画像におけるユーザ10の存在とを検出するステップ(ステップS4,S5,S10,S11)と、対話装置100が上記検出するステップの検出結果に基づいてハンズフリー状態にあるユーザ10が対話装置100への語りかけ意思を有しているか否かを判定するステップ(ステップS6,S7,S12,S13)と、対話装置100が上記判定するステップの判定結果に基づいて対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置100の状態を制御するステップ(ステップS7,S12)と、が実行される。
According to the flowchart shown in FIG. 7, the
次に、対話装置100の作用効果について説明する。対話装置100は、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出する検出部131と、検出部131の検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定部132と、判定手段の判定結果に基づいて、対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置100の状態を制御する状態制御部137と、を備える。対話装置100によれば、ユーザ10が対話装置100への語りかけ意思を有しているか否かに基づいて、対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように制御される。これにより、対話装置100は、ユーザ10の意思に応じた適切なタイミングで、対話状態に切り替わることができる。
Next, the function and effect of the
また、対話装置100は、検出部131の検出結果に基づいて、ユーザ10が対話装置100からの情報を視認できる状態にあるか否かを判定する情報閲覧可否判定部133と、情報閲覧可否判定部133の判定結果に基づいて、ユーザ10への出力を制御する出力制御部136と、をさらに備える。これにより、ユーザ10が対話装置100からの視覚的な出力(情報)を視認(閲覧など)できないときは、たとえば音声のみでユーザ10へ情報を伝達することができる。また、ユーザ10が対話装置100からの視覚的な出力を視認できるときは、視覚的な出力と音声出力とを併用することよって、たとえば音声出力を短縮することができる。
In addition, the
また、対話装置100は、対話状態においてはユーザ10の音声に含まれる語彙を連続して認識する第1の認識モードを実行し、非対話状態においてはユーザ10の音声に含まれる所定の語彙のみを認識する第2の認識モードとを実行する音声認識制御部138、をさらに備える。その場合、ユーザ意思判定部132は、非対話状態において、第2の認識モードを実行する音声認識制御部138によってユーザ10の音声に含まれる所定の語彙(キーワード)が認識された場合に、ユーザ10が対話装置100への語りかけ意思を有していると判定する。これにより、対話装置100は、ユーザ10がキーワードを発話したことを契機として、ユーザ10の意思に応じた適切なタイミングで、非対話状態から対話状態に切り替わることができる。
Further, the
また、第1の認識モードでは、音声認識制御部138が、対話装置100の外部との通信を行いサーバ200のデータ処理を利用することによって、ユーザ10の音声に含まれる語彙を連続して認識し、第2の認識モードでは、音声認識制御部138が、対話装置100の外部との通信を行わずに、ユーザ10の音声に含まれるキーワードのみを認識する。これにより、第1の認識モードでは、サーバ200のデータ処理を利用した大語彙が認識可能な音声認識(サーバ型音声認識)を行うことができる。また、第2の認識モードでは、たとえば通信を行わない分だけ第1の認識モードより消費電力を低減させつつ音声認識を行うことができる。
In the first recognition mode, the speech
また、検出部131は、カメラ画像におけるユーザ10の顔を検出することによって、ユーザ10の存在を検出してもよい。これにより、たとえば、対話装置100とユーザ10の顔との位置関係、対話装置100に対するユーザ10の顔の角度などに基づいて、ユーザ10が対話装置100への語りかけ意思を有しているか否か判定することができる。
Further, the
1…対話システム、10…ユーザ、11…キャラクタ、50…通信ネットワーク、100…対話装置、110…インタフェース部、111…カメラ、112…近接センサ、113…ディスプレイ、114…マイク、115…スピーカ、116…操作パネル、120…データ処理部、121…画像処理部、122…センサデータ処理部、123…出力処理部、124…音声認識部、…音声合成部125、入力処理部126、130…制御部、131…検出部、132…ユーザ意思判定部、133…情報閲覧可否判定部、134…対話制御部、135…応答内容決定部、136…出力制御部、137…状態制御部、138…音声認識制御部、140…記憶部、150…通信部、200…サーバ、R…領域。
DESCRIPTION OF
Claims (6)
前記ユーザと前記対話装置との距離と、カメラ画像における前記ユーザの存在とを検出する検出手段と、
前記検出手段の検出結果に基づいて、ハンズフリー状態にある前記ユーザが前記対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定手段と、
前記判定手段の判定結果に基づいて、前記対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように前記対話装置の状態を制御する対話状態制御手段と、
を備える、対話装置。 An interactive device for interacting with a user,
Detecting means for detecting a distance between the user and the interactive device and presence of the user in a camera image;
User intention determination means for determining whether or not the user in a hands-free state has an intention to talk to the interactive device based on the detection result of the detection means;
Dialog state control means for controlling the state of the dialog device so that the dialog device is switched to either a dialog state or a non-dialogue state based on the determination result of the determination means;
An interactive apparatus comprising:
前記ユーザ状態判定手段の判定結果に基づいて、前記ユーザへの出力を制御する出力制御手段と、
をさらに備える、請求項1に記載の対話装置。 User state determination means for determining whether or not the user can visually recognize information from the interactive device based on a detection result of the detection means;
Output control means for controlling output to the user based on a determination result of the user state determination means;
The interactive apparatus according to claim 1, further comprising:
をさらに備え、
前記ユーザ意思判定手段は、前記非対話状態において、前記第2の認識モードを実行する音声認識手段によって前記ユーザの音声に含まれる所定の語彙が認識された場合に、前記ユーザが前記対話装置への語りかけ意思を有していると判定する、請求項1または2に記載の対話装置。 In the interactive state, a first recognition mode for continuously recognizing the vocabulary included in the user's voice is executed, and in the non-interactive state, only a predetermined vocabulary included in the user's voice is recognized. Voice recognition means for executing a recognition mode of
Further comprising
In the non-dialogue state, the user intention determination unit is configured such that when a predetermined vocabulary included in the user's voice is recognized by the voice recognition unit that executes the second recognition mode, the user transmits to the dialogue apparatus. The interactive apparatus according to claim 1, wherein the interactive apparatus determines that the person has an intention to speak.
前記第2の認識モードでは、前記音声認識手段が、前記対話装置の外部との通信を行わずに、前記ユーザの音声に含まれる所定の語彙のみを認識する、請求項3に記載の対話装置。 In the first recognition mode, the voice recognition means continuously recognizes a vocabulary included in the user's voice by communicating with the outside of the interactive device and using server data processing,
4. The dialogue apparatus according to claim 3, wherein in the second recognition mode, the voice recognition unit recognizes only a predetermined vocabulary included in the voice of the user without performing communication with the outside of the dialogue apparatus. .
前記対話装置が、前記ユーザと前記対話装置との距離と、カメラ画像における前記ユーザの存在とを検出するステップと、
前記対話装置が、前記検出するステップの検出結果に基づいて、ハンズフリー状態にある前記ユーザが前記対話装置への語りかけ意思を有しているか否かを判定するステップと、
前記対話装置が、前記判定するステップの判定結果に基づいて、前記対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように前記対話装置の状態を制御するステップと、
を含む、対話方法。 A dialogue method for carrying out a dialogue between a user and a dialogue device,
The interactive device detecting the distance between the user and the interactive device and the presence of the user in a camera image;
A step of determining whether or not the user in a hands-free state has an intention to talk to the interactive device based on a detection result of the detecting step;
The interactive device controlling the state of the interactive device so that the interactive device is switched to either the interactive state or the non-interactive state based on the determination result of the determining step;
Including interactive methods.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014204520A JP6514475B2 (en) | 2014-10-03 | 2014-10-03 | Dialogue device and dialogue method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014204520A JP6514475B2 (en) | 2014-10-03 | 2014-10-03 | Dialogue device and dialogue method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016076007A true JP2016076007A (en) | 2016-05-12 |
JP6514475B2 JP6514475B2 (en) | 2019-05-15 |
Family
ID=55949917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014204520A Active JP6514475B2 (en) | 2014-10-03 | 2014-10-03 | Dialogue device and dialogue method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6514475B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019015773A (en) * | 2017-07-04 | 2019-01-31 | 富士ゼロックス株式会社 | Information processor and program |
KR20200083155A (en) * | 2018-12-28 | 2020-07-08 | 바이두 유에스에이 엘엘씨 | Activating Voice Commands of a Smart Display Device based on a Vision-based Mechanism |
CN111540383A (en) * | 2019-02-06 | 2020-08-14 | 丰田自动车株式会社 | Voice conversation device, control program, and control method thereof |
JP2021532394A (en) * | 2018-08-21 | 2021-11-25 | グーグル エルエルシーGoogle LLC | Dynamic and / or context-specific hotwords for calling automation assistants |
US11211067B2 (en) | 2018-09-20 | 2021-12-28 | Dynabook Inc. | Electronic device and control method |
US11423890B2 (en) | 2018-08-21 | 2022-08-23 | Google Llc | Dynamic and/or context-specific hot words to invoke automated assistant |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322078A (en) * | 1999-05-14 | 2000-11-24 | Sumitomo Electric Ind Ltd | On-vehicle voice recognition device |
JP2006181651A (en) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot |
WO2008001549A1 (en) * | 2006-06-26 | 2008-01-03 | Murata Kikai Kabushiki Kaisha | Audio interaction device, audio interaction method and its program |
JP2008309864A (en) * | 2007-06-12 | 2008-12-25 | Fujitsu Ten Ltd | Voice recognition device and voice recognition method |
JP2009192942A (en) * | 2008-02-15 | 2009-08-27 | Toshiba Corp | Voice interaction apparatus and support method |
JP2011215900A (en) * | 2010-03-31 | 2011-10-27 | Kddi Corp | Device for multimodal conversation |
JP2012181374A (en) * | 2011-03-01 | 2012-09-20 | Toshiba Corp | Television device and remote controller |
-
2014
- 2014-10-03 JP JP2014204520A patent/JP6514475B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000322078A (en) * | 1999-05-14 | 2000-11-24 | Sumitomo Electric Ind Ltd | On-vehicle voice recognition device |
JP2006181651A (en) * | 2004-12-24 | 2006-07-13 | Toshiba Corp | Interactive robot, voice recognition method of interactive robot and voice recognition program of interactive robot |
WO2008001549A1 (en) * | 2006-06-26 | 2008-01-03 | Murata Kikai Kabushiki Kaisha | Audio interaction device, audio interaction method and its program |
JP2008309864A (en) * | 2007-06-12 | 2008-12-25 | Fujitsu Ten Ltd | Voice recognition device and voice recognition method |
JP2009192942A (en) * | 2008-02-15 | 2009-08-27 | Toshiba Corp | Voice interaction apparatus and support method |
JP2011215900A (en) * | 2010-03-31 | 2011-10-27 | Kddi Corp | Device for multimodal conversation |
JP2012181374A (en) * | 2011-03-01 | 2012-09-20 | Toshiba Corp | Television device and remote controller |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7056020B2 (en) | 2017-07-04 | 2022-04-19 | 富士フイルムビジネスイノベーション株式会社 | Information processing equipment and programs |
JP2019015773A (en) * | 2017-07-04 | 2019-01-31 | 富士ゼロックス株式会社 | Information processor and program |
JP2021532394A (en) * | 2018-08-21 | 2021-11-25 | グーグル エルエルシーGoogle LLC | Dynamic and / or context-specific hotwords for calling automation assistants |
US11810557B2 (en) | 2018-08-21 | 2023-11-07 | Google Llc | Dynamic and/or context-specific hot words to invoke automated assistant |
JP7341171B2 (en) | 2018-08-21 | 2023-09-08 | グーグル エルエルシー | Dynamic and/or context-specific hotwords to invoke automated assistants |
US11423890B2 (en) | 2018-08-21 | 2022-08-23 | Google Llc | Dynamic and/or context-specific hot words to invoke automated assistant |
US11211067B2 (en) | 2018-09-20 | 2021-12-28 | Dynabook Inc. | Electronic device and control method |
KR102323232B1 (en) | 2018-12-28 | 2021-11-05 | 바이두 유에스에이 엘엘씨 | Method and System for Activating Voice Commands of a Smart Display Device based on a Vision-based Mechanism |
US11151993B2 (en) | 2018-12-28 | 2021-10-19 | Baidu Usa Llc | Activating voice commands of a smart display device based on a vision-based mechanism |
JP2020109463A (en) * | 2018-12-28 | 2020-07-16 | バイドゥ ユーエスエー エルエルシーBaidu USA LLC | Method and system for activation of smart display device by voice command based on vision-based mechanism |
KR20200083155A (en) * | 2018-12-28 | 2020-07-08 | 바이두 유에스에이 엘엘씨 | Activating Voice Commands of a Smart Display Device based on a Vision-based Mechanism |
JP2020126195A (en) * | 2019-02-06 | 2020-08-20 | トヨタ自動車株式会社 | Voice interactive device, control device for voice interactive device and control program |
JP7120060B2 (en) | 2019-02-06 | 2022-08-17 | トヨタ自動車株式会社 | VOICE DIALOGUE DEVICE, CONTROL DEVICE AND CONTROL PROGRAM FOR VOICE DIALOGUE DEVICE |
CN111540383A (en) * | 2019-02-06 | 2020-08-14 | 丰田自动车株式会社 | Voice conversation device, control program, and control method thereof |
US11682389B2 (en) | 2019-02-06 | 2023-06-20 | Toyota Jidosha Kabushiki Kaisha | Voice conversation system, control system for voice conversation system, and control program, and control method |
Also Published As
Publication number | Publication date |
---|---|
JP6514475B2 (en) | 2019-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6514475B2 (en) | Dialogue device and dialogue method | |
US10176810B2 (en) | Using voice information to influence importance of search result categories | |
US9992642B1 (en) | Automated messaging | |
EP3179474A1 (en) | User focus activated voice recognition | |
JP4839838B2 (en) | Information processing system, information processing method, and information processing program | |
WO2019018061A1 (en) | Automatic integration of image capture and recognition in a voice-based query to understand intent | |
WO2019013849A1 (en) | Providing an ambient assist mode for computing devices | |
US20140129207A1 (en) | Augmented Reality Language Translation | |
JP2017211608A (en) | Voice interactive device and voice interactive method | |
KR102193029B1 (en) | Display apparatus and method for performing videotelephony using the same | |
JP2015521404A (en) | Instant translation system | |
WO2021008538A1 (en) | Voice interaction method and related device | |
WO2017200074A1 (en) | Dialog method, dialog system, dialog device, and program | |
CN112840396A (en) | Electronic device for processing user words and control method thereof | |
JP2019533181A (en) | Interpretation device and method (DEVICE AND METHOD OF TRANSLATING A LANGUAGE) | |
WO2021244056A1 (en) | Data processing method and apparatus, and readable medium | |
CN112513984A (en) | Electronic device and control method thereof | |
CN112739507B (en) | Interactive communication realization method, device and storage medium | |
JP6359935B2 (en) | Dialogue device and dialogue method | |
JP7330066B2 (en) | Speech recognition device, speech recognition method and its program | |
JP2021177418A (en) | Method of providing electronic device with interpretation function and ear set device | |
KR102629796B1 (en) | An electronic device supporting improved speech recognition | |
WO2016206646A1 (en) | Method and system for urging machine device to generate action | |
JP2010078763A (en) | Voice processing device, voice processing program, and intercom system | |
JP2018075657A (en) | Generating program, generation device, control program, control method, robot device and telephone call system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170818 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180314 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180523 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180814 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190412 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6514475 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |