JP6514475B2 - 対話装置および対話方法 - Google Patents

対話装置および対話方法 Download PDF

Info

Publication number
JP6514475B2
JP6514475B2 JP2014204520A JP2014204520A JP6514475B2 JP 6514475 B2 JP6514475 B2 JP 6514475B2 JP 2014204520 A JP2014204520 A JP 2014204520A JP 2014204520 A JP2014204520 A JP 2014204520A JP 6514475 B2 JP6514475 B2 JP 6514475B2
Authority
JP
Japan
Prior art keywords
user
interactive
state
dialogue
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014204520A
Other languages
English (en)
Other versions
JP2016076007A (ja
Inventor
公亮 角野
公亮 角野
渉 内田
渉 内田
孝輔 辻野
孝輔 辻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2014204520A priority Critical patent/JP6514475B2/ja
Publication of JP2016076007A publication Critical patent/JP2016076007A/ja
Application granted granted Critical
Publication of JP6514475B2 publication Critical patent/JP6514475B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Description

本発明は、ユーザとの対話を行うための対話装置、およびユーザと対話装置との間で対話を行うための対話方法に関する。
近年、音声認識並びにユーザの自然な発話内容を理解して受け答えを行う対話技術が進化している(たとえば特許文献1参照)。スマートフォン、ロボットデバイスなどに様々なセンサを備えることによって、ユーザの存在を知覚し、あたかも人間と対話するように対話を行うことができる対話エージェント型の対話装置が実現されつつある。
対話は、ユーザが、対話装置への発話のタイミングを伝えるためのボタン操作などを行わない状態(以下「ハンズフリー状態」という。)で開始される場合がある。この場合、対話装置は、たとえばマイク入力を監視し、ユーザの発話を検出することによって、非対話状態から対話状態に切り替わることができる。
特開2002−182896号公報
しかしながら、ユーザの発話が検出されたからといって、ユーザが対話装置へ語りかけようとする意思(語りかけ意思)を有しているとは限らない。そのため、ユーザが語りかけ意思を有していないにもかかわらず、ユーザの発話を検出した対話装置が、誤ったタイミングで対話を開始して対話状態に切り替わってしまうおそれがある。
本発明は、上記問題点に鑑みてなされたものであり、適切なタイミングでユーザとの対話状態に切り替わることが可能な対話装置および対話方法を提供することを目的とする。
本発明の一態様に係る対話装置は、ユーザとの対話を行うための対話装置であって、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出する検出手段と、検出手段の検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定手段と、判定手段の判定結果に基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置の状態を制御する対話状態制御手段と、を備える。
本発明の一態様に係る対話方法は、ユーザと対話装置との間で対話を行うための対話方法であって、対話装置が、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出するステップと、対話装置が、検出するステップの検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するステップと、対話装置が、判定するステップの判定結果に基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置の状態を制御するステップと、を含む。
上記の対話装置または対話方法では、ユーザが対話装置への語りかけ意思を有しているか否かに基づいて、対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように制御される。これにより、対話装置は、ユーザの意思に応じた適切なタイミングで、対話状態に切り替わることができる。
また、対話装置は、検出手段の検出結果に基づいて、ユーザが対話装置からの情報を視認できる状態にあるか否かを判定するユーザ状態判定手段と、ユーザ状態判定手段の判定結果に基づいて、ユーザへの出力を制御する出力制御手段と、をさらに備えてもよい。これにより、ユーザが対話装置からの視覚的な出力(情報)を視認(閲覧など)できないときは、たとえば音声のみでユーザへ情報を伝達することができる。また、ユーザが対話装置からの視覚的な出力を視認できるときは、視覚的な出力と音声出力とを併用することよって、たとえば音声出力を短縮することができる。
また、対話装置は、対話状態においてはユーザの音声に含まれる語彙を連続して認識する第1の認識モードを実行し、非対話状態においてはユーザの音声に含まれる所定の語彙のみを認識する第2の認識モードとを実行する音声認識手段、をさらに備えてもよく、ユーザ意思判定手段は、非対話状態において、第2の認識モードを実行する音声認識手段によってユーザの音声に含まれる所定の語彙が認識された場合に、ユーザが対話装置への語りかけ意思を有していると判定してもよい。これにより、対話装置は、ユーザが所定の語彙(キーワード)を発話したことを契機として、ユーザの意思に応じた適切なタイミングで、非対話状態から対話状態に切り替わることができる。
また、第1の認識モードでは、音声認識手段が、対話装置の外部との通信を行いサーバのデータ処理を利用することによって、ユーザの音声に含まれる語彙を連続して認識し、第2の認識モードでは、音声認識手段が、対話装置の外部との通信を行わずに、ユーザの音声に含まれる所定の語彙のみを認識してもよい。これにより、第1の認識モードでは、サーバのデータ処理を利用した大語彙が認識可能な音声認識(サーバ型音声認識)を行うことができる。また、第2の認識モードでは、たとえば通信を行わない分だけ第1の認識モードより消費電力を低減させつつ音声認識を行うことができる。
また、検出手段は、カメラ画像におけるユーザの顔を検出することによって、ユーザの存在を検出してもよい。これにより、たとえば、対話装置とユーザの顔との位置関係や、対話装置に対するユーザの顔の角度などに基づいて、ユーザが対話装置への語りかけ意思を有しているか否か判定することができる。
本発明によれば、適切なタイミングでユーザとの対話状態に切り替わることが可能になる。
対話システムの概略構成を示す図である。 対話装置の詳細構成を示す図である。 対話装置のハードウェア構成を示す図である。 応答データテーブルの一例を示す図である。 応答データテーブルの別の例を示す図である。 対話装置の状態遷移図である。 対話装置の状態遷移を説明するためのフローチャートの一例である。
以下、本発明の実施形態について、図面を参照しながら説明する。なお、図面の説明において同一要素には同一符号を付し、重複する説明は省略する。
図1は、実施形態に係る対話装置および対話方法が適用される対話システムの概要を示す図である。図1に示すように、対話システム1においては、ユーザ10と、対話装置100との対話が行われる。
対話装置100は、インタフェース部110を含む。図1に示す例では、インタフェース部110の一部(後述の図2のディスプレイ113)に、ヒト型のキャラクタ11が表示されている。このようなヒト型のキャラクタ11の表示によって、ユーザ10は、あたかも人間と対話するように、対話装置100と対話することができる。
対話装置100は、通信ネットワーク50を介して、サーバ200と接続可能とされている。これにより、対話装置100は、ユーザ10との対話に用いるための多くの情報を、サーバ200から取得することができる。
対話装置100は、ユーザ10との対話を行うことが可能であればよく、その外観や大きさなどは図1に示す例に限定されるものではない。たとえば、対話装置100は、スマートフォンのような端末装置を用いて好適に実現される。そのような端末装置は、ユーザ10との対話に必要なスピーカ、マイク、各種センサなどの様々なデバイス、およびユーザ10との接点となるディスプレイを備えており、また、通信ネットワーク50を介してサーバ200と通信することができるからである。また、対話装置100として、人間の形状を模した物理的なロボットなどを用いてもよい。
ユーザ10は、ハンズフリー状態で、対話装置100と対話することができる。本明細書におけるハンズフリー状態とは、ユーザ10が対話装置100に接触して行う操作(たとえば対話装置100のボタン操作など)を行わない状態を意味する。なお、ユーザ10が対話装置100以外のものに触れている場合でも、対話装置100に接触していなければ、ハンズフリー状態とされる。
ユーザ10と対話装置100との対話は、ユーザ10が対話装置100の近くにいる状態で行われることが好ましい。図1において、対話に好ましいユーザ10と対話装置100との位置関係が、領域Rとして破線で例示される。領域Rの範囲は、ユーザ10が対話装置100に表示されているキャラクタ11を良好に視認することができ、また、対話装置100からの音声を良好に認識できるような範囲とすることができる。そのような領域Rの範囲は、たとえば対話装置100から数十センチ〜数メートル程度の範囲である。図1に示す例では、領域Rは、対話装置100の正面側(インタフェース部110が設けられている側)に広く設定され、対話装置100の側面および背面には狭く設定されている。すなわち、領域Rは、対話装置100の正面側に長く設定され、対話装置100の側面および背面に短く設定される。このような領域R内にユーザ10が位置するときには、ユーザ10は対話装置100の正面と向かいあって対話できる可能性が高まるので、対話をスムーズに(ユーザ10にとって快適に)行うことができる。
図2は、対話装置100の詳細構成を示す図である。図2に示すように、対話装置100は、インタフェース部110と、データ処理部120と、制御部130と、記憶部140と、通信部150とを含む。
インタフェース部110は、対話装置100の外部(主に図1のユーザ10)と情報をやり取りするための部分である。インタフェース部110は、カメラ111と、近接センサ112と、ディスプレイ113と、マイク114と、スピーカ115と、操作パネル116とを含む。
データ処理部120は、インタフェース部110に入力された情報の解析などに必要なデータ処理を行い、また、インタフェース部110が出力する種々の情報の生成などに必要なデータ処理を行う部分である。データ処理部120は、画像処理部121と、センサデータ処理部122と、出力処理部123と、音声認識部124と、音声合成部125と、入力処理部126とを含む。
以下、インタフェース部110およびデータ処理部120に含まれる各部について説明する。
カメラ111は、たとえばユーザ10を撮像する。たとえば、画像処理部121は、カメラ画像におけるユーザ10の顔の位置(または領域)を検出する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google(登録商標)社によって提供されるスマートフォン用OSとして知られているアンドロイド(登録商標)に提供される種々のAPI(Application Program Interface)に関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/media/FaceDetector.html
カメラ111は、対話システム1において、ユーザ10が語りかける対象となるマイク114、ユーザ10への応答を出力するディスプレイ113およびスピーカ115のいずれかに対して、ユーザ10が向けられている事を検出できる位置に設置される。
カメラ111を用いて、対話装置100とユーザ10との距離を検出することもできる。この場合には、カメラ111は、対話装置100において、マイク114、ディスプレイ113およびスピーカ115のいずれかとユーザ10との距離を検出(測定)できる位置に設置される。カメラ111によって対話装置100とユーザ10との距離を検出する場合は、上述のデータ処理によって、ユーザ10の顔領域を検出し、検出した顔領域の大きさから、ユーザ10との距離を測定することができる。また、対話装置100が2つ以上のカメラを搭載することによって、上記顔領域の検出と、2つ以上のカメラによって撮像された画像の視差とによって得られる1つ以上の情報から、ユーザ10との距離を推定することも可能である。
近接センサ112は、一定距離内への物体の近接を検出する。近接センサ112として、たとえば、赤外光(あるいは音波)を発して、物体からの反射光(あるいは反射波)を検出するタイプのセンサを用いることができる。センサデータ処理部122は、近接センサ112の検出結果に基づいて、対話装置100とユーザ10との距離を測定することができ、またユーザ10が対話装置100の近くにいるか否かを判断することもできる。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/hardware/SensorManager.html
ディスプレイ113は、ユーザ10が視認可能な情報を表示する。出力処理部123は、ディスプレイ113の表示に必要なデータ処理を行う。データ処理には、ディスプレイ113におけるキャラクタ11の動作を表すのに必要なデータ処理も含まれる。
マイク114は、ユーザ10の音声を検出する。音声認識部124は、マイク114の検出結果に基づいて、ユーザ10の音声を認識する音声認識手段として機能する。また、音声認識部124は、認識した音声を所定のフォーマット(たとえばテキストの形式)に変換する。音声を認識するためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/RecognizerIntent.html
スピーカ115は、ユーザ10が聴認可能な音声を発する。音声合成部125は、スピーカ115が発する音声を生成するための種々のデータ処理を行う。たとえば、音声合成部125は、各種の音データを合成することによって、テキストの形式で指定された内容(情報)を音声に変換する。そのためのデータ処理には、種々の公知の技術を用いることができる。たとえば、google社によって提供されるスマートフォン用OSとして知られているアンドロイドに提供される種々のAPIに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://developer.android.com/reference/android/speech/tts/TextToSpeech.html
本実施形態において、音声入力の方式は、連続的な対話を想定したものだけでなく、キーワード型の音声入力に特化した方式も採用される。連続的な対話において大規模な語彙が必要な場合は、対話装置100の記憶領域や計算能力に限りがあるので、音声対話時はサーバとの通信によるサーバ接続型の音声認識を利用する。一方で、キーワード型音声入力では、対話装置100の内部で完結可能な音声認識エンジンを利用することができ、この場合、サーバとの通信処理を行わない分、バッテリ消費の効率等の面で有効である。たとえば、市販の音声認識エンジンでも、同事業者がサーバ型、ローカル型の複数の方式によるエンジンを販売していることが一般的であり、それらに関する情報(たとえば、入手のための情報、使い方の情報など)が、下記のサイトに記載されている。
http://www.fuetrek.co.jp/product/vgate/asr.html
操作パネル116は、ユーザ10の操作(ユーザ操作)を検出する。入力処理部126は、操作パネル116の検出結果に基づいて、ユーザ操作に応じた必要なデータ処理を行う。
以上の構成によって、対話装置100は、たとえば、インタフェース部110を介して、外部(ユーザ10を含む)から種々の情報を取得し、また、外部(ユーザ10を含む)に種々の情報を伝達することができる。そして、本実施形態においては、さらに、後述する制御部130、記憶部140、通信部150などの各要素が協働することによって、ユーザ10との対話が実現される。
制御部130は、対話装置100の各要素を制御する部分であり、後述の検出部131、ユーザ意思判定部132、情報閲覧可否判定部133、対話制御部134、応答内容決定部135、出力制御部136、状態制御部137、音声認識制御部138を含んで構成される。ただし、制御部130の機能は、それらの機能に限定されるものではない。
記憶部140は、対話装置100とユーザ10との対話などに必要な種々の情報を記憶する部分である。記憶部140は、たとえば、後述する種々のデータテーブルを記憶する。
通信部150は、対話装置100の外部(たとえば図1のサーバ200)と通信を行う部分である。通信の手法は特に限定されないが、たとえば通信部150と基地局(図示しない)との無線通信、および、基地局とサーバ200との有線通信などを用いることができる。
以下、制御部130に含まれる各部について説明する。
検出部131は、ユーザ10と対話装置100との距離と、カメラ画像におけるユーザ10の存在とを検出する部分(検出手段)である。ユーザ10と対話装置100との距離は、カメラ111および画像処理部121、あるいは近接センサ112およびセンサデータ処理部122などを用いて行われる。カメラ画像におけるユーザ10の存在の検出は、カメラ111および画像処理部121などを用いて行われる。検出部131は、カメラ画像におけるユーザ10の顔を検出することによって、ユーザ10の存在を検出することが好ましい。
ユーザ意思判定部132は、検出部131の検出結果に基づいて、ハンズフリー状態にあるユーザ10が対話装置100への語りかけ意思を有しているか否かを判定する部分(ユーザ意思判定手段)である。たとえば、ユーザ10と対話装置との距離が所定距離以下であって(たとえばユーザ10が図1の領域Rの内側に位置する)且つカメラ画像におけるユーザ10の存在が検出された場合には、ユーザ意思判定部132は、ユーザ10は語りかけ意思を有していると判定することができる。
情報閲覧可否判定部133は、検出部131の検出結果に基づいて、ユーザ10が対話装置100からの情報を視認できる状態にあるか否かを判定する部分(ユーザ状態判定手段)である。たとえば、ユーザ10の顔がディスプレイ113の方向に向いており且つユーザ10とディスプレイ113の距離が、ユーザ10がディスプレイ113に表示された情報を閲覧可能な範囲内である(たとえばユーザ10が図1の領域Rの内側に位置する)ときには、情報閲覧可否判定部133は、ユーザ10が対話装置100からの情報を視認できる状態にあると判定することができる。
対話制御部134は、ユーザ10との対話を制御する。たとえば、対話制御部134は、音声認識部124の認識結果を後述の応答内容決定部135へ送信する。また、対話制御部134は、応答内容決定部135によって決定された応答内容を出力処理部123に送信することによって、スピーカ115やディスプレイ113などを介して当該応答内容をユーザ10に伝達する。
応答内容決定部135は、ユーザ10の発話に対する対話装置100の応答内容を決定する部分である。応答内容決定部135による応答内容の決定には種々の方法が考えられるが、たとえば特定の語彙(キーワード)に対する対話装置100の応答を図4の応答データテーブル141に記憶しておき、その応答データテーブル141にしたがって応答内容を決定することができる。応答データテーブル141は、たとえば記憶部140に記憶される。
図4は、応答データテーブル141の一例を示す図である。図4に示すように、応答データテーブル161は、ユーザ発話と応答情報とを対応づけて記述している。図4に示す例では、ユーザ発話「こんにちは」、「おはよう」、「行ってきます」、「ただいま」に対して、システム発話「こんにちは。アナタの名前は?」、「お早うございます!」、「行ってらっしゃい!」、「お帰りなさーい」がそれぞれ対応する。
このようにユーザ10の発話などに対して対話装置100が応答することで、対話装置100はユーザ10と対話することができる。
図2に戻って、出力制御部136は、情報閲覧可否判定部133の判定結果に基づいて、ユーザ10への出力を制御する部分(出力制御手段)である。具体的に、出力制御部136は、情報閲覧可否判定部133の判定結果に応じて、対話制御部134から伝達された応答内容を適切な態様によってユーザ10に伝達する。具体的に、応答内容は、音声出力情報と、視覚情報とを適宜組み合わせることによってユーザ10に伝達され、音声出力情報と視覚情報との割合が調節される。対話制御部134による応答内容の態様の決定には種々の方法が考えられるが、たとえばキーワードに対する対話装置100の応答と情報閲覧可否判定部133の判定結果とをキーとして、音声出力情報と視覚出力情報とをバリューとした図5の応答データテーブル142に記憶しておき、その応答データテーブル142にしたがって応答内容を決定することができる。応答データテーブル142は、たとえば記憶部140に記憶される。
図5は、応答データテーブル142の一例を示す図である。図5に示すように、応答データテーブル142は、応答内容と情報閲覧可否判定結果とをキーとし、音声出力情報と視覚出力情報とをバリューとして記述している。
応答内容は、対話装置100からユーザ10に伝達すべき情報の内容を示す。図5に示す例では、応答内容として「明日東京晴れ30,18」が示される。この応答内容は、天気に関する情報であり、明日の東京は晴れであって、最高気温が30度、最低気温が18度となることが予想されていることを意味している。
情報閲覧可否判定結果は、ユーザ10が、対話装置100に出力される情報を閲覧可能な状態であるか否かを示すフラグである。閲覧可能な状態であるか否かは、先に説明した情報閲覧可否判定部133によって判断される。図5に示す例では、情報閲覧可否判定結果は、「TRUE」と「FALSE」との2通りで表される。情報閲覧可否判定結果が「TRUE」の場合、ユーザ10は、対話装置100のディスプレイ113に表示される情報を視認できる状態にある。情報閲覧可否判定結果が「FALSE」の場合、ユーザ10は、対話装置100のディスプレイ113に表示される情報を視認できない状態にある。
音声出力情報は、応答内容のうち、音声によってユーザに伝達すべき情報を示す。音声出力情報は、同じ応答内容であっても、情報閲覧可否判定結果に応じて、異なる内容とされる。情報閲覧結果判定が「TRUE」の場合、情報閲覧可否判定結果が「FALSE」の場合よりも、音声出力情報は少ない。図5に示す例では、情報閲覧可否判定結果が「TRUE」の場合には音声出力情報は「明日は晴れらしいよ」とされ、情報閲覧判定結果が「FALSE」の場合には、音声出力情報は「明日の東京とは晴れで、最高気温は30度、最低気温は18度らしいよ」とされる。
視覚出力情報は、応答内容のうち、視覚によってユーザに伝達すべき情報を示す。視覚出力情報は、情報閲覧可否判定結果が「FALSE」の場合には存在せず、情報閲覧可否結果判定が「TRUE」の場合にのみ存在する。図5に示す例では、情報閲覧可否判定結果が「TRUE」の場合に、視覚出力情報が「東京都 晴れ 最高気温 30度 最低気温 18度」とされる。
図2に戻って、状態制御部137は、対話装置100の状態を対話状態と非対話状態とで切り替える部分(対話状態制御手段)である。たとえば、ユーザ意思判定部132によってユーザ10に対話意思が有ると判定された場合には、状態制御部137は、対話装置100の状態を非対話状態から対話状態に切り替える。対話装置100の状態の切り替えについては、後に図6および図7を参照して詳述する。
音声認識制御部138は、ユーザ10の音声に含まれる語彙を連続して認識する第1の認識モードと、ユーザ10の音声に含まれる所定の語彙(キーワード)のみを認識する第2の認識モードとを切り替えて実行する部分(音声認識手段)である。第2の検出モードおよび第2の検出モードの詳細については後述する。
ここで、図3を参照して、対話装置100のハードウェア構成について説明する。図3は、対話装置100のハードウェア構成図である。図3に示されるように、対話装置100は、物理的には、1または複数のCPU(Central Processing unit)21、主記憶装置であるRAM(Random Access Memory)22およびROM(Read Only Memory)23、データ送受信デバイスである通信モジュール26、半導体メモリなどの補助記憶装置27、操作盤(操作ボタンを含む)やタッチパネルなどのユーザの入力を受け付ける入力装置28、ディスプレイなどの出力装置29、カメラなどの撮像装置24、ならびに赤外線センサなどのセンサ25のハードウェアを備えるコンピュータとして構成され得る。図2における対話装置100の各機能は、たとえば、CPU21、RAM22などのハードウェア上に1または複数の所定のコンピュータソフトウェアを読み込ませることにより、CPU101の制御のもとで通信モジュール26、入力装置28、出力装置29、撮像装置24およびセンサ25を動作させるとともに、RAM22および補助記憶装置27におけるデータの読み出しおよび書き込みを行うことで実現することができる。
再び図2を参照して、音声認識制御部138が実行する第1の認識モードおよび第2の認識モードの詳細について説明する。
第1の認識モードは、対話状態において実行される。第1の認識モードでは、音声認識制御部138は、ユーザ10の音声に含まれる語彙を連続して認識する。語彙を連続して認識するとは、対話における一連のユーザの音声に含まれる語彙を可能な限り解析して認識することを意図している。理想的にはすべての語彙、すなわちユーザ10の音声がすべて認識される。
実施形態において、第1の認識モードでは、音声認識制御部138は、対話装置100の外部との通信を行いサーバ200のデータ処理を利用することによって、ユーザ10の音声に含まれる語彙を連続して認識する。
第2の認識モードは、非対話状態において実行される。第2の認識モードでは、音声認識制御部138は、ユーザの音声に含まれるキーワードのみを認識する。また、ユーザ意思判定部132は、音声認識制御部138によってユーザ10の音声に含まれるキーワードが認識された場合に、ユーザ10が対話装置100への語りかけ意思を有していると判定する。キーワードは、たとえば先に説明した図4のユーザ発話「こんにちは」、「おはよう」などである。
実施形態において、第2の認識モードでは、音声認識制御部138は、対話装置100の外部との通信を行わずに、ユーザ10の音声に含まれるキーワードのみを認識する。
図6は、対話装置100の状態遷移図である。図6に示すように、対話装置100は、対話状態および非対話状態のいずれかの状態に置かれる。
非対話状態は、対話装置100がユーザ10と対話を行っていない状態である。この非対話状態では、第1の認識モードが実行される。この状態では、対話装置100(の音声認識部124)とサーバ200との通信は行われない。そして、ユーザの音声中にキーワードが検出されたことを契機として対話が開始され、対話装置100は、対話状態に移行する(AR1)。
対話状態は、対話装置100がユーザ10と対話している状態である。対話状態では、第2の認識モードが実行される。この状態では、対話装置100とサーバ200との通信が行われる。このため、サーバ200の音声認識エンジンを用いた大語彙の認識によるスムーズな対話が行われる。対話が終了すると、対話装置100は、非対話状態に移行する(AR2)。
図7は、対話装置100(図2)の状態遷移を説明するためのフローチャートである。このフローチャートの処理は、とくに記載がない場合は、対話装置100の制御部130によって実行され得る。
はじめに、対話装置100は、対話状態であるか否かを判断する(ステップS1)。対話状態の場合(ステップS1:YES)、対話装置100は、ステップS2に処理を進める。そうでない場合(ステップS1:NO)、対話装置100はステップS8に処理を進める。
ステップS1において対話状態の場合(ステップS1:YES)、対話装置100の音声認識制御部138は、第1の認識モードを実行する(ステップS2)。
次に、対話装置100は、一定時間ユーザ10からの話しかけが無かったか否か判断する(ステップS3)。この判断は、たとえば対話制御部134によって実行される。一定時間ユーザからの話かけが無かった場合(ステップS3:YES)、対話装置100は、ステップS4に処理を進める。そうでない場合(ステップS3):NO)、対話装置100は、ステップS6に処理を進める。
ステップS3において一定時間ユーザ10からの話しかけが無かった場合(ステップS3:YES)、対話装置100は、カメラ111でユーザ10を検出できるか否か判断する(ステップS4)。この判断は、たとえば検出部131によって行われる。カメラ111でユーザ10を検出できる場合(ステップS4:YES)、対話装置100は、ステップS5に処理を進める。そうでない場合(ステップS4:NO)、対話装置100は、ステップS7に処理を進める。
ステップS4においてカメラ111でユーザ10を検出できる場合(ステップS4:YES)、対話装置100は、ユーザ10との距離が所定範囲内である(たとえばユーザ10が図1の領域Rの内側に位置している)か否か判断する(ステップS5)。ユーザ10との距離が所定範囲内の場合(ステップS5:YES)、対話装置100は、ステップS6に処理を進める。そうでない場合(ステップS5:NO)、対話装置100は、ステップS7に処理を進める。
ステップS3において一定時間の間にユーザ10からの話しかけがあった場合(ステップS3:NO)、またはステップS5においてユーザとの距離が所定範囲内の場合(ステップS5:YES)、対話装置100は、ユーザ10に語りかけ意思があると判定し、対話状態を維持する(ステップS6)。ユーザ10に語りかけ意思があるとの判定は、たとえばユーザ意思判定部132によって行われる。対話状態を維持する処理は、たとえば対話制御部134によって行われる。
ステップS4においてカメラ111でユーザ10を検出できない場合(ステップS4:NO)、またはステップS5においてユーザとの距離が所定範囲内にない場合(ステップS5:NO)、対話装置100は、ユーザ10に語りかけ意思が無いと判定し、非対話状態へ移行する(ステップS7)。
一方、ステップS1において非対話状態の場合(ステップS1:NO)、対話装置100の音声認識制御部138は、第2の認識モードを実行する(ステップS8)。
次に、対話装置100の音声認識制御部138は、キーワードを検出したか否か判断する(ステップS9)。キーワードを検出した場合(ステップS9:YES)、対話装置100は、ステップS12に処理を進める。そうでない場合(ステップS9:NO)、対話装置100は、ステップS10に処理を進める。
ステップS9においてキーワードを検出しなかった場合(ステップS9:NO)、対話装置100は、カメラ111でユーザ10を検出できるか否か判断する(ステップS10)。カメラ111でユーザ10を検出できる場合(ステップS10:YES)、対話装置100は、ステップS11に処理を進める。そうでない場合(ステップS10:NO)、対話装置100は、ステップS13に処理を進める。
ステップS10においてカメラ111でユーザ10を検出できる場合(ステップS10:YES)、対話装置100は、ユーザ10との距離が所定範囲内であるか否か判断する(ステップS11)。ユーザ10との距離が所定範囲内の場合(ステップS11:YES)、対話装置100は、ステップS12に処理を進める。そうでない場合(ステップS11:NO)、対話装置100は、ステップS13に処理を進める。
ステップS9においてキーワードを検出した場合(ステップS9:YES)、またはステップS11においてユーザ10との距離が所定範囲内の場合(ステップS11:YES)、対話装置100は、ユーザ10に語りかけ意思があると判定し、対話状態へ移行する(ステップS12)。
ステップS10においてカメラ111でユーザ10を検出できない場合(ステップS10:NO)、またはステップS11においてユーザ10との距離が所定範囲内でない場合(ステップS11:NO)、対話装置100は、ユーザ10に語りかけ意思が無いと判定し、非対話状態を維持する(ステップS13)。
ステップS6,S7,S12またはS13の処理が完了した後、対話装置100は、ステップS1に再び処理を戻す。
図7に示すフローチャートによれば、対話装置100がユーザ10と対話装置100との距離とカメラ画像におけるユーザ10の存在とを検出するステップ(ステップS4,S5,S10,S11)と、対話装置100が上記検出するステップの検出結果に基づいてハンズフリー状態にあるユーザ10が対話装置100への語りかけ意思を有しているか否かを判定するステップ(ステップS6,S7,S12,S13)と、対話装置100が上記判定するステップの判定結果に基づいて対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置100の状態を制御するステップ(ステップS7,S12)と、が実行される。
次に、対話装置100の作用効果について説明する。対話装置100は、ユーザと対話装置との距離と、カメラ画像におけるユーザの存在とを検出する検出部131と、検出部131の検出結果に基づいて、ハンズフリー状態にあるユーザが対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定部132と、判定手段の判定結果に基づいて、対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように対話装置100の状態を制御する状態制御部137と、を備える。対話装置100によれば、ユーザ10が対話装置100への語りかけ意思を有しているか否かに基づいて、対話装置100が対話状態および非対話状態のいずれかの状態に切り替わるように制御される。これにより、対話装置100は、ユーザ10の意思に応じた適切なタイミングで、対話状態に切り替わることができる。
また、対話装置100は、検出部131の検出結果に基づいて、ユーザ10が対話装置100からの情報を視認できる状態にあるか否かを判定する情報閲覧可否判定部133と、情報閲覧可否判定部133の判定結果に基づいて、ユーザ10への出力を制御する出力制御部136と、をさらに備える。これにより、ユーザ10が対話装置100からの視覚的な出力(情報)を視認(閲覧など)できないときは、たとえば音声のみでユーザ10へ情報を伝達することができる。また、ユーザ10が対話装置100からの視覚的な出力を視認できるときは、視覚的な出力と音声出力とを併用することよって、たとえば音声出力を短縮することができる。
また、対話装置100は、対話状態においてはユーザ10の音声に含まれる語彙を連続して認識する第1の認識モードを実行し、非対話状態においてはユーザ10の音声に含まれる所定の語彙のみを認識する第2の認識モードとを実行する音声認識制御部138、をさらに備える。その場合、ユーザ意思判定部132は、非対話状態において、第2の認識モードを実行する音声認識制御部138によってユーザ10の音声に含まれる所定の語彙(キーワード)が認識された場合に、ユーザ10が対話装置100への語りかけ意思を有していると判定する。これにより、対話装置100は、ユーザ10がキーワードを発話したことを契機として、ユーザ10の意思に応じた適切なタイミングで、非対話状態から対話状態に切り替わることができる。
また、第1の認識モードでは、音声認識制御部138が、対話装置100の外部との通信を行いサーバ200のデータ処理を利用することによって、ユーザ10の音声に含まれる語彙を連続して認識し、第2の認識モードでは、音声認識制御部138が、対話装置100の外部との通信を行わずに、ユーザ10の音声に含まれるキーワードのみを認識する。これにより、第1の認識モードでは、サーバ200のデータ処理を利用した大語彙が認識可能な音声認識(サーバ型音声認識)を行うことができる。また、第2の認識モードでは、たとえば通信を行わない分だけ第1の認識モードより消費電力を低減させつつ音声認識を行うことができる。
また、検出部131は、カメラ画像におけるユーザ10の顔を検出することによって、ユーザ10の存在を検出してもよい。これにより、たとえば、対話装置100とユーザ10の顔との位置関係、対話装置100に対するユーザ10の顔の角度などに基づいて、ユーザ10が対話装置100への語りかけ意思を有しているか否か判定することができる。
1…対話システム、10…ユーザ、11…キャラクタ、50…通信ネットワーク、100…対話装置、110…インタフェース部、111…カメラ、112…近接センサ、113…ディスプレイ、114…マイク、115…スピーカ、116…操作パネル、120…データ処理部、121…画像処理部、122…センサデータ処理部、123…出力処理部、124…音声認識部、…音声合成部125、入力処理部126、130…制御部、131…検出部、132…ユーザ意思判定部、133…情報閲覧可否判定部、134…対話制御部、135…応答内容決定部、136…出力制御部、137…状態制御部、138…音声認識制御部、140…記憶部、150…通信部、200…サーバ、R…領域。

Claims (4)

  1. ユーザとの対話を行うための対話装置であって、
    前記ユーザと前記対話装置との距離と、カメラ画像における前記ユーザの存在とを検出する検出手段と、
    前記検出手段の検出結果に基づいて、ハンズフリー状態にある前記ユーザが前記対話装置への語りかけ意思を有しているか否かを判定するユーザ意思判定手段と、
    前記判定手段の判定結果に基づいて、前記対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように前記対話装置の状態を制御する対話状態制御手段と、
    前記対話状態においては前記ユーザの音声に含まれる語彙を連続して認識する第1の認識モードを実行し、前記非対話状態においては前記ユーザの音声に含まれる所定の語彙のみを認識する第2の認識モードを実行する音声認識手段と、
    を備え、
    前記ユーザ意思判定手段は、前記非対話状態において、前記第2の認識モードを実行する音声認識手段によって前記ユーザの音声に含まれる所定の語彙が認識された場合に、前記ユーザが前記対話装置への語りかけ意思を有していると判定し、
    前記対話装置は、
    前記検出手段の検出結果に基づいて、前記ユーザが前記対話装置からの情報を視認できる状態にあるか否かを判定するユーザ状態判定手段と、
    前記ユーザ状態判定手段の判定結果に基づいて、前記ユーザへの出力を制御する出力制御手段と、
    をさらに備え、
    前記出力制御手段が制御する前記ユーザへの出力は、音声出力情報と視覚情報とを組合せた情報を前記ユーザへ伝達することを含む、対話装置。
  2. 前記第1の認識モードでは、前記音声認識手段が、前記対話装置の外部との通信を行いサーバのデータ処理を利用することによって、前記ユーザの音声に含まれる語彙を連続して認識し、
    前記第2の認識モードでは、前記音声認識手段が、前記対話装置の外部との通信を行わずに、前記ユーザの音声に含まれる所定の語彙のみを認識する、請求項1に記載の対話装置。
  3. 前記検出手段は、カメラ画像における前記ユーザの顔を検出することによって、前記ユーザの存在を検出する、請求項1または2に記載の対話装置。
  4. ユーザと対話装置との間で対話を行うための対話方法であって、
    前記対話装置が、前記ユーザと前記対話装置との距離と、カメラ画像における前記ユーザの存在とを検出するステップと、
    前記対話装置が、前記検出するステップの検出結果に基づいて、ハンズフリー状態にある前記ユーザが前記対話装置への語りかけ意思を有しているか否かを判定するステップと、
    前記対話装置が、前記判定するステップの判定結果に基づいて、前記対話装置が対話状態および非対話状態のいずれかの状態に切り替わるように前記対話装置の状態を制御するステップと、
    を含み、
    前記対話状態においては前記ユーザの音声に含まれる語彙を連続して認識する第1の認識モードが実行され、前記非対話状態においては前記ユーザの音声に含まれる所定の語彙のみを認識する第2の認識モードが実行され、
    前記語りかけ意思を有しているか否かを判定するステップでは、前記非対話状態において、前記第2の認識モードが実行されることによって前記ユーザの音声に含まれる所定の語彙が認識された場合に、前記ユーザが前記対話装置への語りかけ意思を有していると判定され
    前記対話方法は、
    前記検出するステップの検出結果に基づいて、前記ユーザが前記対話装置からの情報を視認できる状態にあるか否かを判定するステップと、
    前記視認できる状態にあるか否かを判定するステップの判定結果に基づいて、前記ユーザへの出力を制御するステップと、
    をさらに備え、
    前記制御するステップが制御する前記ユーザへの出力は、音声出力情報と視覚情報とを組合せた情報を前記ユーザへ伝達することを含む、対話方法。
JP2014204520A 2014-10-03 2014-10-03 対話装置および対話方法 Active JP6514475B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014204520A JP6514475B2 (ja) 2014-10-03 2014-10-03 対話装置および対話方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014204520A JP6514475B2 (ja) 2014-10-03 2014-10-03 対話装置および対話方法

Publications (2)

Publication Number Publication Date
JP2016076007A JP2016076007A (ja) 2016-05-12
JP6514475B2 true JP6514475B2 (ja) 2019-05-15

Family

ID=55949917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014204520A Active JP6514475B2 (ja) 2014-10-03 2014-10-03 対話装置および対話方法

Country Status (1)

Country Link
JP (1) JP6514475B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7056020B2 (ja) * 2017-07-04 2022-04-19 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム
JP7341171B2 (ja) * 2018-08-21 2023-09-08 グーグル エルエルシー 自動化アシスタントを呼び出すための動的および/またはコンテキスト固有のホットワード
WO2020040744A1 (en) 2018-08-21 2020-02-27 Google Llc Dynamic and/or context-specific hot words to invoke automated assistant
JP2020047061A (ja) 2018-09-20 2020-03-26 Dynabook株式会社 電子機器および制御方法
US11151993B2 (en) 2018-12-28 2021-10-19 Baidu Usa Llc Activating voice commands of a smart display device based on a vision-based mechanism
JP7120060B2 (ja) * 2019-02-06 2022-08-17 トヨタ自動車株式会社 音声対話装置、音声対話装置の制御装置及び制御プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322078A (ja) * 1999-05-14 2000-11-24 Sumitomo Electric Ind Ltd 車載型音声認識装置
JP4204541B2 (ja) * 2004-12-24 2009-01-07 株式会社東芝 対話型ロボット、対話型ロボットの音声認識方法および対話型ロボットの音声認識プログラム
JP4505862B2 (ja) * 2006-06-26 2010-07-21 村田機械株式会社 音声対話装置と音声対話方法及びそのプログラム
JP2008309864A (ja) * 2007-06-12 2008-12-25 Fujitsu Ten Ltd 音声認識装置および音声認識方法
JP5075664B2 (ja) * 2008-02-15 2012-11-21 株式会社東芝 音声対話装置及び支援方法
JP5309070B2 (ja) * 2010-03-31 2013-10-09 Kddi株式会社 マルチモーダル対話装置
JP5695447B2 (ja) * 2011-03-01 2015-04-08 株式会社東芝 テレビジョン装置及び遠隔操作装置

Also Published As

Publication number Publication date
JP2016076007A (ja) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6514475B2 (ja) 対話装置および対話方法
EP3179474B1 (en) User focus activated voice recognition
US10366699B1 (en) Multi-path calculations for device energy levels
KR102098136B1 (ko) 응답을 제공하기 위한 디바이스 선택
KR102069237B1 (ko) 핸즈프리 자동 통역 서비스를 위한 단말 장치 및 핸즈프리 장치와, 핸즈프리 자동 통역 서비스 방법
US9992642B1 (en) Automated messaging
US9891719B2 (en) Impact and contactless gesture inputs for electronic devices
US20160019886A1 (en) Method and apparatus for recognizing whisper
JP6289448B2 (ja) 即時翻訳システム
WO2019013849A1 (en) PROVIDING AMBIENT ASSISTANCE MODE FOR COMPUTER DEVICES
JP2017211608A (ja) 音声対話装置および音声対話方法
WO2005057549A1 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
KR102193029B1 (ko) 디스플레이 장치 및 그의 화상 통화 수행 방법
JP5628749B2 (ja) 通訳端末及び通訳端末間の相互通信を用いた通訳方法
KR102629796B1 (ko) 음성 인식의 향상을 지원하는 전자 장치
CN112739507B (zh) 一种交互沟通实现方法、设备和存储介质
WO2021244056A1 (zh) 一种数据处理方法、装置和可读介质
KR20200025226A (ko) 전자 장치 및 그 제어 방법
JP7330066B2 (ja) 音声認識装置、音声認識方法及びそのプログラム
KR20200101221A (ko) 사용자 입력 처리 방법 및 이를 지원하는 전자 장치
JP6359935B2 (ja) 対話装置および対話方法
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
KR20140117771A (ko) 움직임 센서 기반의 휴대용 자동 통역 장치 및 그의 제어방법
KR20220111574A (ko) 전자 장치 및 그 제어 방법
JP2018075657A (ja) 生成プログラム、生成装置、制御プログラム、制御方法、ロボット装置及び通話システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170818

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190412

R150 Certificate of patent or registration of utility model

Ref document number: 6514475

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250