JP2017204231A - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP2017204231A
JP2017204231A JP2016097081A JP2016097081A JP2017204231A JP 2017204231 A JP2017204231 A JP 2017204231A JP 2016097081 A JP2016097081 A JP 2016097081A JP 2016097081 A JP2016097081 A JP 2016097081A JP 2017204231 A JP2017204231 A JP 2017204231A
Authority
JP
Japan
Prior art keywords
input device
user
control unit
input
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016097081A
Other languages
English (en)
Inventor
金岡 利知
Toshitomo Kaneoka
利知 金岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016097081A priority Critical patent/JP2017204231A/ja
Publication of JP2017204231A publication Critical patent/JP2017204231A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】利用者に対して人型ロボットと対話している感覚を与えること。【解決手段】出力部111は、自装置がアクセス可能な入力装置101によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話する。制御部112は、出力部111による発話期間でない場合に、入力装置101に対する操作が有効となるように入力装置101を制御する。制御部112は、出力部111による発話期間である場合に、入力装置101を入力装置101に対する操作が無効となるように入力装置101を制御する。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法、および情報処理プログラムに関する。
従来、腕、頭部、足などのように人間の身体のような体を有する人型ロボットが開発される。人型ロボットは、人間と人型ロボットの間でコミュニケーションを行う。
近年、音声対話技術の向上により人型ロボットと人間との間での音声対話によるコミュニケーションが実現されつつある。音声対話では、人型ロボットが利用者に視線を送るなどにより利用者と人型ロボットとの間でアイコンタクトを行うことができる。これにより、利用者に対して人型ロボットが利用者の話を傾聴しているという印象を与えることができる。
また、先行技術としては、ロボットおよびコミュニケーションの相手の動作に関するデータに基づいて検出した相手の状態に応じた行動プログラムに従って、動作を実現する制御データを生成し、該制御データに基づいてロボットのアクチュエータを制御する技術がある(例えば、以下特許文献1参照。)。また、先行技術としては、ウェブページにおいて、キャラクタに人間を模した動作や会話をさせる技術がある(例えば、以下特許文献2参照。)。また、先行技術としては、対話システムにおいて音声入力やうなずき、目配せなどの非言語メッセージの抽出によって利用者からの相槌表現を抽出して利用者との対話を制御する技術がある(例えば、以下特許文献3参照。)。
特開2006−88276号公報 特開2015−204006号公報 特開平9−218770号公報
しかしながら、利用者が入力装置に対して文字入力を行い、人型ロボットが入力文字に対して音声で応答するという対話形式の場合、利用者は、文字入力に集中するために、人型ロボットと対話しているという感覚が薄れるという問題点がある。例えば、利用者が、文字入力に集中すると、文字入力中以外にも人型ロボットの眼球部でなく入力装置を注視してしまう場合がある。入力装置を注視してしまうと、人型ロボットが利用者の話を傾聴しているという印象を利用者に与えにくい。
1つの側面では、本発明は、利用者に対して人型ロボットと対話している感覚を与えることができる情報処理装置、情報処理方法、および情報処理プログラムを提供することを目的とする。
本発明の一側面によれば、自装置がアクセス可能な入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話する出力部と、前記出力部による発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、前記出力部による発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する制御部と、を有する情報処理装置、情報処理方法、および情報処理プログラムが提案される。
本発明の一態様によれば、利用者に対して人型ロボットと対話している感覚を与えることができる。
図1は、情報処理装置による一動作例を示す説明図である。 図2は、音声対話例を示す説明図である。 図3は、文字と音声対話例を示す説明図である。 図4は、システムの例1を示す説明図である。 図5は、人型ロボット401のハードウェア構成例を示す説明図である。 図6は、携帯端末装置402のハードウェア構成例を示す説明図である。 図7は、システム400の機能的構成例を示すブロック図である。 図8は、相互凝視と共同注視とを示す説明図である。 図9は、インタラクション例を示す説明図である。 図10は、インタラクションに応じた各制御例を示す説明図である。 図11は、文字入力例を示す説明図である。 図12は、項目の選択例を示す説明図である。 図13は、視線位置および視線誘導例を示す説明図である。 図14は、対話制御部701が行う処理手順例を示すフローチャートである。 図15は、ロボット発話処理手順例を示すフローチャートである。 図16は、利用者発話処理手順例を示すフローチャートである。 図17は、対話処理手順例を示す説明図である。 図18は、システムの例2を示す説明図である。 図19は、人型ロボット1801のハードウェア構成例を示す説明図である。 図20は、システム1800の機能的構成例を示すブロック図である。
以下に添付図面を参照して、本発明にかかる情報処理装置、情報処理方法、および情報処理プログラムの実施の形態を詳細に説明する。
図1は、情報処理装置による一動作例を示す説明図である。情報処理装置100は、利用者usによる入力装置101に対する文字入力または項目選択に基づいて、発話内容を発話するコンピュータである。情報処理装置100は、図1に示すように人型ロボットに含まれてもよい。人型ロボットは、人間とコミュニケーションをとりながらつぎの動作が行われるサービスロボットである。
近年、後述する図2に示すように、人型ロボットと人間との間での音声対話によるコミュニケーションが実現されつつある。音声対話では、人型ロボットが利用者usに視線を送るなどにより利用者usと人型ロボットとの間でアイコンタクトを行うことにより、利用者usに対して人型ロボットが利用者usの話を傾聴しているという印象を与えることができる。このため、利用者usも人型ロボットに対して信頼感を持って話をすることができる。
しかし、音声対話では、周囲雑音の影響を受けやすく、家の中のような静かな場所でなければ実用的でない。また、利用者usによっては、会話内容を声に出したくない場合などがある。例えば、公共の場における音声対話では、他人に会話内容が聞かれてしまうというようなプライバシー問題が発生する場合がある。
そこで、後述する図3に示すように利用者usが入力装置101に対して文字入力を行い、人型ロボットが入力文字に対して音声で応答するという対話形式が考えられる。文字入力・音声対話では、利用者usは、会話内容を声に出すことなく、人型ロボットと対話を行うことができる。
しかしながら、文字入力・音声対話では、利用者usは、文字入力に集中するために、人型ロボットと対話しているという感覚が薄れるという問題点がある。例えば、利用者usが、文字入力に集中すると、文字入力中以外にも人型ロボットの眼球部でなく入力装置101を注視してしまう場合がある。利用者usが入力装置101を注視してしまうと、人型ロボットが利用者usの話を傾聴しているという印象を利用者usに与えにくい。
そこで、本実施の形態では、情報処理装置100は、利用者usとロボットで文字入力・発話対話を行う際、話者がロボットの場合に、文字入力を無効にし、話者が利用者の場合に、文字入力を有効にする。これにより、利用者usに対してロボットと対話している感覚を与えることができる。
情報処理装置100は、出力部111と、制御部112と、を有する。出力部111は、自装置がアクセス可能な入力装置101によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話する。入力装置101としては、タッチパネルディスプレイ、キーボード、マウス、ボタンなどが挙げられる。図1の例では、入力装置101は、タッチパネルディスプレイである。また、図1の例では、情報処理装置100は入力装置101とネットワークを介してアクセス可能であるが、これに限らず、情報処理装置100が入力装置101を有していてもよい。
制御部112は、出力部111による発話期間でない場合に、入力装置101に対する操作が有効となるように入力装置101を制御する。入力装置101が、図1の例のようにタッチパネルディスプレイの場合、制御部112は、出力部111による発話期間でない場合に、入力装置101に対する操作および画面表示が有効となるように入力装置101を制御する。
また、制御部112は、出力部111による発話期間である場合に、入力装置101を入力装置101に対する操作が無効となるように入力装置101を制御する。入力装置101が、図1の例のようにタッチパネルディスプレイの場合、制御部112は、出力部111による発話期間である場合に、入力装置101に対する操作および画面表示が無効となるように入力装置101を制御する。
これにより、ロボットが発話中に利用者usが文字入力に集中して入力装置101を注視することを抑制できる。したがって、利用者usに対してロボットと対話している感覚を与えることができる。
図2は、音声対話例を示す説明図である。図2の例では、人型ロボットと利用者とが音声で対話する。音声で対話することにより、利用者と人型ロボットとの間でアイコンタクトなどを行うことができる。このため、利用者が発話中に人型ロボットが利用者とアイコンタクトを行うことにより利用者に対してロボットが傾聴していることを示すことができる。このため、利用者に人型ロボットへ信頼感を持たせることが可能となる。
音声対話では、周囲の雑音などの影響を受けやすいため、家の中のような静かな場所以外での利用が難しい。また、音声対話では、利用者は他人に聞かれたくない内容などであっても人型ロボットに対して口頭で回答しなければならない。このように、プライバシーの問題なども発生する恐れがある。
図3は、文字と音声対話例を示す説明図である。そこで、図3に示すように、利用者が文字入力を行うのに対して、人型ロボットが音声で応答する文字入力・音声発話による文字・音声対話がある。
図3の例のように、利用者は、タッチパネルを有する携帯端末装置などに対する文字入力によって人型ロボットからの発話での質問に対する回答を行う。そして、人型ロボットは、文字入力に対して発話を行う。
(システムの例1)
図4は、システムの例1を示す説明図である。システム400は、例えば、人型ロボット401と、携帯端末装置402と、を有する。人型ロボット401と携帯端末装置402とは、ネットワーク403を介して接続される。利用者usと人型ロボット401との対話は、人型ロボット401による発話と携帯端末装置402に対する文字入力とによって行われる。
人型ロボット401は、利用者usによる入力装置に対する文字入力または項目選択に基づいて、発話内容を発話するコンピュータである情報処理装置である。携帯端末装置402は、利用者usが操作可能な入力装置である。携帯端末装置402としては、例えばスマートフォンやタブレット型の携帯端末などが挙げられる。
人型ロボット401は、例えば、人間とコミュニケーションをとりながらつぎの動作が行われるサービスロボットである。人型ロボット401は、人間のような体を有する。人型ロボット401は、例えば、ボディ411と、アーム部413と、頭部412と、を有する。ボディ411の両肩には、アーム部413が取り付けられる。人型ロボット401は、右側のアーム部413−rと、左側のアーム部413−lと、を有する。アーム部413は、複数の関節を有する。そして、アーム部413は、関節ごとに複数の軸の自由度を有する。関節の数については、人型ロボット401の用途に応じて異なる。これにより、アーム部413は、関節で部分的に曲げたり、上下方向に可動できる。ボディ411の前面の中央部分には、スピーカ415が設けられる。人型ロボット401は、スピーカ415によって発話を行う。
また、ボディ411の前面の中央部分やボディ411の前面の中央下方などには、距離センサ417,418,419を有する。距離センサ417,418,419は、それぞれ赤外線通信によって利用者usと人型ロボット401との距離を計測する。
また、ボディ411の中央上方には、頭部412が取り付けられる。頭部412は、例えば、首関節としてモータを有する。頭部412は、例えば、モータによって複数の軸の自由度を有する。これにより、頭部412は、例えば、左右方向や上下方向に可動することができる。したがって、頭部412が左右方向に動作したり、上下方向に動作することにより首をかしげたり、視線を制御することができる。
また、頭部412には、人間の目に相当する位置に眼球部416が設けられる。眼球部416は、例えば、カメラ421と、赤外線通信回路422と、を有する。人型ロボット401は、人間の目と同様に右側の眼球部416−rと、左側の眼球部416−lと、を有する。ここで、眼球部416は、カメラ421のモータによって複数の軸の自由度を有する。これにより、眼球部416は、例えば、左右方向や上下方向に可動することができる。したがって、眼球部416が左右方向に動作したり、上下方向に動作することにより眼球部416の視線を制御することができる。
また、眼球部416と頭部412とは、カメラ421と赤外線通信回路422とによって得られる利用者usの顔の位置情報などに基づいて利用者usの顔を追従するように可動させることができる。これにより、人型ロボット401が、携帯端末装置402を注視しているように見せることができる。また、眼球部416と頭部412とは、カメラ421と、赤外線通信回路422とによって得られる携帯端末装置402の位置情報に基づいて携帯端末装置402を追従するように可動させることができる。これにより、人型ロボット401が、携帯端末装置402を注視しているように見せることができる。
また、図4に示す人型ロボット401は、位置が固定されているが、これに限らず、車輪移動型や二足歩行型のように移動可能であってもよい。
携帯端末装置402は、例えば、タッチパネル431と、カメラ432と、赤外線通信回路433と、を有する。カメラ432と赤外線通信回路433は、例えば、タッチパネル431の表示面側に設けられる。携帯端末装置402は、カメラ432と、赤外線通信回路433と、によって利用者usの顔や利用者usの視線を認識することにより、利用者usが携帯端末装置402を注視しているか否かを判定することができる。
(人型ロボット401のハードウェア構成例)
図5は、人型ロボット401のハードウェア構成例を示す説明図である。人型ロボット401は、CPU(Central Processing Unit)501と、ROM(Read Only Memory)502と、RAM(Random Access Memory)503と、不揮発メモリ504と、を有する。人型ロボット401は、無線通信回路506と、カメラ421と、赤外線通信回路422と、スピーカ415と、ロボットI/F507と、距離センサ417,418,419と、を有する。また、各構成部は、バス500によってそれぞれ接続される。
ここで、CPU501は、人型ロボット401の全体の制御を司る。ROM502は、ブートプログラムなどのプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。不揮発メモリ504は、書き込み可能なメモリであって、所定のデータを保持する。例えば、書き込み可能な不揮発メモリ504としては、フラッシュメモリが挙げられる。不揮発メモリ504は、例えば、USB(Universal Serial Bus)フラッシュメモリなどの取り外し可能な外部ストレージであってもよい。
無線通信回路506は、受信した無線電波を受信信号として出力する。また、無線通信回路506は、送信信号を無線電波として送信する。無線通信回路506は、無線通信によってネットワーク403などに接続され、ネットワーク403を介して携帯端末装置402などに接続される。
また、カメラ421は、画像や動画を撮影可能な入力装置である。カメラ421は、例えば、眼球部416に含まれる。眼球部416の視線方向に利用者usの顔があれば、カメラ421は、利用者usの顔を撮影可能である。利用者usと人型ロボット401との間でアイコンタクトが行われていることはカメラ421を用いて検知することができる。カメラ421が、例えば、利用者usの両目の位置を検出する。そして、CPU501が、検出された利用者usの目の位置と利用者usの目の視線方向とに基づいて、アイコンタクトを検知する。
また、利用者usと人型ロボット401との間の距離は、カメラ421を用いて測定することが可能である。これにより、人型ロボット401は、測定された距離に基づいて利用者usの位置を表す位置情報が得られる。カメラ421は、例えば、利用者usの顔を撮影する。そして、CPU501が、撮影された画像内の顔のサイズに基づいて利用者usと人型ロボット401との間の距離を測定する。例えば、人型ロボット401に、顔を近づけると、顔のサイズが大きく写り、顔を遠ざけると、顔のサイズが小さく写る。このため、例えば予め基準となる距離における顔のサイズなどを登録しておき、CPU501は、基準となる顔のサイズと、カメラ421が撮影した画像内の顔のサイズとに基づいて利用者usと人型ロボット401との間の距離を測定する。
また、カメラ421が、例えば、利用者usの両目の位置を検出する。そして、CPU501が、検出された目の位置から得られる目と目の間の距離に基づいて利用者と人型ロボット401との間の距離を測定する。例えば、人型ロボット401に、顔を近づけると、右目と左目との間の距離が大きくなり、顔を遠ざけると右目と左目との間の距離が小さくなる。このため、例えば、予め基準となる距離における顔のサイズなどを登録しておく。そして、基準となる目と目の間の距離と、カメラ421が測定した両目の位置に基づく目と目の間の距離に基づいて、利用者usと人型ロボット401との間の距離を測定する。
また、赤外線通信回路422は、赤外線の送受信部である。赤外線通信回路422は、カメラ421と同様に、眼球部416に含まれる。赤外線通信回路422は、例えば、虹彩の認証によりアイコンタクトの検知を行うことができる。赤外線通信回路422は、利用者usの目に向けて赤外線を照射し、虹彩のパターンを読み取る。CPU501は、赤外線通信回路422によって虹彩のパターンが読み取れた場合、利用者usとアイコンタクトできていると判断する。一方、CPU501は、赤外線通信回路422によって虹彩のパターンが読み取れない場合、利用者usとアイコンタクトできていないと判断する。また、赤外線通信回路422は、例えば、利用者usに向けて赤外線を照射し、反射して戻ってくる赤外線を受信することにより、照射開始から受信までの時間差から利用者usと人型ロボット401との間の距離を測定する。
また、スピーカ415は、電気信号を物理振動に変えて、音楽や音声などの音を生み出す機能を有する。スピーカ415は、図4に示したように、ボディ411の前面の中央部分に設けられる。スピーカ415は、CPU501などによって生成された音声内容などに基づいて音声を出力する。
ロボットI/F507は、例えば、頭部412と、アーム部413と、ボディ411と、の各々についてCPU501からの指示に応じて制御を行う。ロボットI/F507は、CPU501からの指示に応じて頭部412のモータを制御する。これにより、頭部412を上下方向や左右方向に動かすことができる。また、ロボットI/F507は、CPU501からの指示に応じて眼球部416のモータを制御する。
距離センサ417,418,419は、図4で示したように、ボディ411の中央部分やボディ411の中央下方に設けられる。距離センサ417,418,419は、赤外線通信回路422と同様に、利用者usに向けて赤外線を照射し、反射して戻ってくる赤外線を受信することにより、照射開始から受信までの時間差から利用者usと人型ロボット401との間の距離を測定する。
また、図示を省略するが、人型ロボット401には、赤外線によって人体を検出するなどに用いる焦電センサが設けられていてもよい。図示を省略するが、人型ロボット401には、マイクから音声を取り込む入力装置が設けられていてもよい。また、図示を省略するが、人型ロボット401には、プリンタなどの出力装置が設けられていてもよい。人型ロボット401は、上述した構成部のほか、例えば、ディスクおよびディスクドライブ、SSD(Solid State Drive)、半導体メモリ、キーボード、マウスなどを有することにしてもよい。
(携帯端末装置402のハードウェア構成例)
図6は、携帯端末装置402のハードウェア構成例を示す説明図である。図6において、携帯端末装置402は、CPU601と、ROM602と、RAM603と、不揮発メモリ604と、タッチパネル431と、無線通信回路605と、カメラ432と、赤外線通信回路433と、を有する。また、各部はバス600によってそれぞれ接続されている。
ここで、CPU601は、携帯端末装置402の全体の制御を司る。ROM602は、ブートプログラムなどのプログラムを記憶している。RAM603は、CPU601のワークエリアとして使用される。不揮発メモリ604は、書き込み可能なメモリであって、所定のデータを保持する。例えば、書き込み可能な不揮発メモリ604としては、フラッシュメモリが挙げられる。不揮発メモリ604は、例えば、USBフラッシュメモリなどの取り外し可能な外部ストレージであってもよい。
タッチパネル431は、表示の機能と操作入力を受け付ける機能との2つの機能を有するタッチパネル型のディスプレイである。タッチパネル431は、コンピュータなどの外部から受けた画像情報をディスプレイなどで表示する。ディスプレイとしては、例えば、TFT(Thin Film Transistor)液晶ディスプレイなどを採用することができる。
タッチパネル431は、ディスプレイなどの画面に表示された絵やピクトグラムなどの点または領域に使用者usが手や指で触れることによって、触れられた画面位置の情報を感知してCPU601などへ情報信号として出力する。タッチパネル431は、タッチパネル431の画面を複数に区切った領域ごとに接触を検出し、検出結果として接触情報を出力する。
無線通信回路605は、受信した無線電波を受信信号として出力する。また、無線通信回路605は、送信信号を無線電波として送信する。無線通信回路605は、無線通信によってネットワーク403などに接続され、ネットワーク403を介して人型ロボット401などに接続される。
また、カメラ432は、画像や動画を撮影可能な入力装置であり、照度を検出可能である。例えば、カメラ432は、例えば、タッチパネル431の表示方向に設けられる。タッチパネル431の表示方向に利用者usの顔があれば、カメラ432は、利用者usの顔を撮影可能である。利用者usが携帯端末装置402を注視していることはカメラ432を用いて検知することができる。カメラ432が、例えば、利用者usの顔を撮影することにより両目の位置を検出する。そして、CPU601が、検出された目の位置と目の視線方向とに基づいて、利用者usが携帯端末装置402を注視しているか否かを判断する。
また、利用者usと携帯端末装置402との間の距離は、カメラ432を用いて測定することが可能である。カメラ432が、例えば、利用者usの顔を撮影する。そして、CPU601が、撮影された画像内の顔のサイズに基づいて利用者usと携帯端末装置402との間の距離を測定する。例えば、携帯端末装置402に、顔を近づけると、顔のサイズが大きく写り、顔を遠ざけると、顔のサイズが小さく写る。このため、例えば予め基準となる距離における顔のサイズなどを登録しておき、CPU601は、基準となる顔のサイズと、カメラ432が撮影した画像内の顔のサイズとに基づいて利用者usと携帯端末装置402との間の距離を測定する。
また、カメラ432が、例えば、利用者usの両目の位置を検出する。そして、CPU601が、検出された目の位置から得られる目と目の間の距離に基づいて利用者と人型ロボット401との間の距離を測定する。例えば、携帯端末装置402に、顔を近づけると、右目と左目との間の距離が大きくなり、顔を遠ざけると右目と左目との間の距離が小さくなる。このため、例えば、予め基準となる距離における顔のサイズなどを登録しておく。そして、基準となる目と目の間の距離と、カメラ432が測定した両目の位置に基づく目と目の間の距離に基づいて、利用者usと携帯端末装置402との間の距離を測定する。
また、赤外線通信回路433は、赤外線の送受信部である。赤外線通信回路433は、カメラ432と同様に、タッチパネル431の表示方向に設けられる。赤外線通信回路433は、例えば、虹彩の認証により利用者usが携帯端末装置402を注視しているか否かを検知することができる。赤外線通信回路433は、利用者usの目に向けて赤外線を照射し、虹彩のパターンを読み取る。CPU601は、赤外線通信回路433によって虹彩のパターンが読み取れた場合、利用者usが携帯端末装置402を注視していると判断する。一方、CPU601は、赤外線通信回路433によって虹彩のパターンが読み取れない場合、利用者usが携帯端末装置402を注視していないと判断する。また、赤外線通信回路433は、例えば、利用者usに向けて赤外線を照射し、反射して戻ってくる赤外線を受信することにより、照射開始から受信までの時間差から利用者usと携帯端末装置402との間の距離を測定する。
(システム400例1における各装置の機能的構成例)
図7は、システム400の機能的構成例を示すブロック図である。システム400は、人型ロボット401と、携帯端末装置402と、を有する。人型ロボット401は、対話制御部701と、アイコンタクト検知部705と、発話制御部702と、視線制御部703と、バックチャネル制御部704と、出力部706と、可動部707と、記憶部708と、を有する。
可動部707は、眼球部416のカメラ421のモータや頭部412に含まれるモータによって実現される。記憶部708は、例えば、図5に示すROM502、RAM503、不揮発メモリ504などによって実現される。出力部706は、スピーカ415によって実現される。
アイコンタクト検知部705から対話制御部701までの処理は、例えば、図5に示すCPU501がアクセス可能な記憶部708に記憶されたプログラムにコーディングされている。そして、CPU501が記憶装置から該プログラムを読み出して、プログラムにコーディングされている処理を実行する。これにより、制御部の処理が実現される。また、制御部の処理結果は、例えば、記憶部708に記憶される。
そして、CPU501が記憶部708から該プログラムを読み出して、プログラムにコーディングされている処理を実行する。これにより、制御部の処理が実現される。また、制御部の処理結果は、例えば、記憶部708に記憶される。
また、携帯端末装置402は、表示制御部711と、入力検知部712と、注視検知部713と、を有する。表示制御部711と入力検知部712との処理は、例えば、タッチパネル431によって実現される。
記憶部708は、発話内容を記憶する。発話内容は、例えば、広告、ニュース、天気予報、緊急速報、メール、チャット、スケジュールなどに関する内容である。また、記憶部708は、例えば、「えぇっと」や「う〜んと」などのフィラーと呼ばれる所定の発話内容を記憶する。記憶部708は、利用者の入力内容や選択項目を記憶してもよい。
対話制御部701は、利用者usと人型ロボット401とから話者を決定して利用者usと人型ロボット401との対話を制御する。対話制御部701は、話者が利用者usであるか人型ロボット401であるかに応じて、表示制御部711と入力検知部712と発話制御部702と視線制御部703とバックチャネル制御部704とを制御する。
アイコンタクト検知部705は、利用者の視線が人型ロボット401に向けられていることを検知する検知部である。特に、アイコンタクト検知部705は、利用者の視線が眼球部416に向けられていることを検知する。アイコンタクト検知部705は、例えば、人型ロボット401が発話中に、カメラ421や赤外線通信回路422によって利用者usの視線が人型ロボット401の眼球部416に向いていることを検知する。利用者usの視線が人型ロボット401の眼球部416に向いているとは、カメラ421や赤外線通信回路422によって利用者usの目を認識可能である状態である。
アイコンタクト検知部705は、例えば、利用者の視線が人型ロボット401に向けられていることを検知したと判断した場合に「True」を対話制御部701へ出力する。アイコンタクト検知部705は、利用者の視線が人型ロボット401に向けられていることを検知していないと判断した場合に「False」を対話制御部701へ出力する。
発話制御部702は、対話制御部701に応じて発話内容を発話するように出力部706へ発話内容を出力させる。
出力部706は、タッチパネル431によって受け付けた入力文字または選択項目に基づいて、記憶部708から取得した発話内容を発話する。
対話制御部701は、出力部706による発話期間でない場合に、タッチパネル431に対する操作が有効となるように表示制御部711を制御する。また、対話制御部701は、出力部706による発話期間でない場合に、タッチパネル431による画面表示が有効となり、かつタッチパネル431に対するタッチ操作に応じた処理が有効となるように表示制御部711を制御する。
対話制御部701は、出力部706による発話期間である場合に、タッチパネル431に対する操作が有効となるように表示制御部711を制御する。また、対話制御部701は、出力部706による発話期間である場合に、タッチパネル431による画面表示が無効となり、かつタッチパネル431に対するタッチ操作に応じた処理が無効となるように表示制御部711を制御する。
また、対話制御部701は、出力部706による発話期間でない場合に、眼球部416の視線をタッチパネル431に向けるように視線制御部703によって可動部707を制御する。対話制御部701は、出力部706による発話期間である場合に、タッチパネル431を操作可能な利用者usに眼球部416の視線を向けるように可動部707を制御する。視線制御部703による制御例については、図8を用いて後述する。
また、対話制御部701は、操作が無効な状態から有効な状態に切り替わってから所定時間経過までの間に、入力検知部712によって入力文字および選択項目を受け付けなかった場合に、出力部706に特定の発話内容を発話させる制御を行う。特定の発話内容とは、タッチパネル431による操作が有効な状態に切り替わる前に、出力部706によって発話された発話内容である。特定の発話内容とは、直前の発話内容である。
対話制御部701は、話者が人型ロボット401でない場合において、操作が無効な状態から有効な状態に切り替わってから、所定時間経過までの間に入力文字および選択項目を受け付けなかった場合に、眼球部416の視線を利用者usに向けるように制御する。ここでは、対話制御部701は、可動部707を制御して眼球部416の視線を利用者usに向ける。対話制御部701は、出力部706に特定の発話内容を発話させるように制御した後に、眼球部416の視線をタッチパネル431に向けるように可動部707を制御する。
また、対話制御部701は、出力部706による発話期間中に、アイコンタクト検知部705によって利用者usの視線を検知できなかった場合に、出力部706に所定の発話内容を発話させた後に、出力部706に発話内容を発話させる制御を行う。また、対話制御部701は、話者が人型ロボット401の場合において、アイコンタクト検知部705および注視検知部713により利用者usの視線が検出されなかった場合に、所定の発話内容を発話させた後に、発話内容を発話させる制御を行う。所定の発話内容は、例えば、フィラーである。
視線制御部703は、相互凝視と共同注視とを切り替えるように可動部707を制御する。視線制御部703は、ロボットI/F507を介して、頭部412のモータや眼球部416のカメラ421のモータを制御する。
対話制御部701は、話者を切り替える制御を行う。対話制御部701は、話者が利用者usである場合に、入力検知部712による入力を受け付けるように制御する。
また、対話制御部701は、話者が利用者usである場合に、表示制御部711によって画面表示が有効となるように制御する。入力検知部712は、文字入力を検知して対話制御部701へ出力する。ここでは、ネットワーク403を介して文字入力内容が送信される。ここで、文字入力を検知するとは、例えば、利用者usの入力においてエンタキーによって入力が確定したことを検知する。
また、対話制御部701は、話者が利用者usである場合に、文字入力を検知すると、入力文字を解釈する。対話制御部701は、有効な文字である場合、バックチャネル制御部704によってあいづちやおうむ返しを行う。
以上を踏まえて、視線の制御例や対話の詳細例について説明する。
図8は、相互凝視と共同注視とを示す説明図である。図8<相互凝視>に示すように、視線制御部703は、話者が人型ロボット401である場合に、眼球部416の視線を利用者usの顔または利用者の目に向ける制御を行う。眼球部416の視線が利用者usの顔や利用者usの目を追従するように眼球部416のカメラ421のモータや頭部412のモータを制御する方法については、特に限定しないため、簡単な例で説明する。
ここで、利用者usの顔や利用者usの目の位置については、カメラ421や赤外線通信回路422によって検出可能である。視線制御部703は、利用者usの顔の位置や利用者usの目の位置と、人型ロボット401との位置関係に基づいて、眼球部416の視線が利用者usの顔または利用者の目に向くことができる頭部412の傾きと眼球部416の傾きとを算出する。そして、視線制御部703は、算出した頭部412の傾きと眼球部416の傾きになるように、頭部412のモータやカメラ421のモータを上下方向または/および左右方向に可動させる制御を行う。
また、利用者usの身長などによる利用者usの顔の位置は誤差範囲とし、利用者usの顔の位置や目の位置を予め所定の位置としてもよい。このため、眼球部416が所定の位置を向くような頭部412のモータの各方向の自由度の度合いや眼球部416のカメラ421のモータの各方向の自由度の度合いを予め定めていてもよい。そして、視線制御部703は、話者が利用者usから人型ロボット401に切り替わった際に、予め定められたカメラ421のモータの各方向の自由度の度合い、頭部412のモータの各方向の自由度の度合いにする。これにより、相互凝視させるように頭部412を制御できる。
人型ロボット401が利用者usを向きながら話すため、利用者usに対して人型ロボット401と対話している感覚を与えることができる。また、表示制御部711は、話者が人型ロボット401の場合に、タッチパネル431の画面点灯を無効にし、タッチパネル431に対するタッチ操作を無効にする。
また、図8<共同注視>に示すように、視線制御部703は、話者が利用者usである場合に、ロボットI/F507を介して、携帯端末装置402に視線を向ける制御を行う。これにより、利用者usと人型ロボット401とで携帯端末装置402に対して共同で注視するように誘導できる。表示制御部711は、話者が利用者usである場合に、タッチパネル431の画面点灯を有効にし、タッチパネル431のタッチ操作を有効にする。これにより、話者が切り替わると、タッチ操作が有効となり、タッチパネル431の画面が点灯するため、利用者usが携帯端末装置402を注視するように誘導できる。
図9は、インタラクション例を示す説明図である。Rが人型ロボット401の発話内容を示す。図9の(1)〜(6)がRの発話内容である。Uが利用者usの入力文字または選択項目を示す。図9の(a)〜(c)がUの入力内容または選択項目である。
図10は、インタラクションに応じた各制御例を示す説明図である。まず、対話制御部701は、人型ロボット401が発話する番とする。発話制御部702は、出力部706に図9(1)「こんにちは。」を発話させる。
また、視線制御部703は、利用者usとアイコンタクトを行うために頭部412のモータや眼球部416のカメラ421のモータを制御して眼球部416の視線を利用者usに向けるように制御する。また、表示制御部711は、タッチパネル431を消灯してタッチパネル431に対するタッチ操作を無効とする。そして、アイコンタクト検知部705は、アイコンタクトを検知して「True」を対話制御部701へ出力する。
つぎに、発話制御部702は、スピーカ415に図9(2)「今日はどちらへお出かけでしたか?」を発話させる。
対話制御部701は、図9(2)の発話後に、図9(2)の発話内容に基づいて、話者を人型ロボット401から利用者usに切り替える。
つぎに、表示制御部711は、話者が利用者usに切り替わったため、タッチパネル431のタッチ操作を有効にし、タッチパネル431の画面表示を有効にする。視線制御部703は、話者が利用者usに切り替わったため、共同注視となるように頭部412のモータや眼球部416のカメラ421のモータを制御して眼球部416が携帯端末装置402に向くように制御する。
そして、入力検知部712は、タッチパネル431のタッチ操作が有効となったため、タッチ操作を受け付ける。
図11は、文字入力例を示す説明図である。タッチパネル431には、図9(2)の発話内容と、入力内容と、キーボードと、を含む画面が表示される。利用者usは、タッチパネル431に表示されたキーボードへのタッチ操作によって図9(a)「アメリカ」を入力する。そして、入力検知部712は、タッチパネル431へのタッチ操作による図9(a)「アメリカ」の入力を受け付ける。
図10の説明に戻って、バックチャネル制御部704は、入力検知部712によって受け付けた入力内容に基づいて、非言語動作を行う。図10の「NV(Non Verval)」は非言語動作を表す。対話制御部701は、文字入力を検知すると、入力文字を解釈する。対話制御部701は、入力内容が入力検知部712によって受け付けた入力内容が有効な文字ならば、あいづち、うなずき、おうむ返しを行うようにバックチャネル制御部704に指示する。例えば、うなずきの場合、バックチャネル制御部704は、例えば、入力内容「アメリカ」に対して、頭部412のモータを上下方向に動くように制御する。
つぎに、入力検知部712は、入力が終了してから所定時間経過した場合、発話制御部702にタイムアウトしたことを通知する。対話制御部701は、タイムアウトしたことの通知を受け付けると、対話内容を解釈する。そして、対話制御部701は、文脈を解釈する。対話制御部701は、文脈解釈結果に基づいて、話者交代の有無を決定する。ここでは、対話制御部701は、話者を利用者usから人型ロボット401に切り替える。
そして、対話制御部701は、話者が人型ロボット401に切り替わったため、文脈を制御して発話内容を生成して記憶部708に格納する。ここでは、図9(3)「え〜と、」と、図9(4)「何日間行かれるんですか?」とが生成される。
発話制御部702は、話者が人型ロボット401に切り替わったため、記憶部708に格納された図9(3)の発話内容を出力部706によって発話させる。つづけて、発話制御部702は、記憶部708に格納された図9(4)の発話内容を出力部706によって発話させる。
また、視線制御部703は、話者が人型ロボット401に切り替わったため、利用者usとアイコンタクトを行うために頭部412のモータや眼球部416のカメラ421のモータを制御して眼球部416の視線を利用者usに向けるように制御する。また、表示制御部711は、話者が人型ロボット401に切り替わったため、タッチパネル431を消灯してタッチパネル431に対するタッチ操作を無効とする。そして、アイコンタクト検知部705は、人型ロボット401が発話中に、アイコンタクトを検知して「True」を対話制御部701へ出力する。
つぎに、対話制御部701は、音声発話後に、話者を人型ロボット401から利用者usに切り替える。視線制御部703は、話者が利用者usに切り替わったため、共同注視となるように頭部412のモータや眼球部416のカメラ421のモータを制御して眼球部416が携帯端末装置402に向くように制御する。表示制御部711は、タッチパネル431を点灯してタッチパネル431に対するタッチ操作を有効とする。例えば、対話制御部701は、図9(4)に対する回答の候補として複数の項目をタッチパネル431に表示させる。そして、利用者usに複数の項目から回答を選択してもらうようにしてもよい。
図12は、項目の選択例を示す説明図である。タッチパネル431に表示される画面は、図9(4)の発話内容と、図9(4)の発話内容に対する回答の候補となる複数の項目と、を含む。例えば、画面には、項目「1か月」、項目「2週間」、項目「1週間」、項目「6日間」、項目「5日間」、項目「4日間」、項目「3日間」、項目「2日間」、項目「1日間」がタッチ操作によって選択可能な項目として含まれる。
入力検知部712は、タッチパネル431に対するタッチ操作によって複数の項目からいずれかの項目が選択されたことを受け付ける。図12の例では、項目「1週間」の選択を受け付ける。
図10の説明に戻って、バックチャネル制御部704は、入力検知部712によって受け付けた入力内容に基づいて、非言語動作を行う。例えば、対話制御部701は、文字入力を検知すると、入力文字を解釈する。対話制御部701は、入力検知部712によって受け付けた入力内容が有効な文字ならば、あいづち、うなずき、おうむ返しを行うようにバックチャネル制御部704に指示する。例えば、おうむ返しの場合、バックチャネル制御部704は、例えば、選択項目「1週間」に対して、おうむ返しを行うために、図9(5)の発話内容「1週間もですか?」を生成する。そして、バックチャネル制御部704は、出力部706によって、図9(5)の発話内容を発話させる。
入力検知部712は、上述したように、入力が終了してから所定時間経過した場合、発話制御部702にタイムアウトしたことを通知する。対話制御部701は、上述したように、話者交代の有無を決定する。対話制御部701は、話者を利用者usから人型ロボット401に切り替える。
対話制御部701は、話者が人型ロボット401に切り替わったため、文脈を制御して発話内容を生成して記憶部708に格納する。ここでは、図9(6)「お仕事だけですか?」が生成される。
発話制御部702は、話者が人型ロボット401に切り替わったため、記憶部708に格納された図9(6)の発話内容を出力部706によって発話させる。
また、視線制御部703は、話者が人型ロボット401に切り替わったため、眼球部416の視線を利用者usに向けるように制御する。また、表示制御部711は、話者が人型ロボット401に切り替わったため、タッチパネル431を消灯してタッチパネル431に対するタッチ操作を無効とする。そして、アイコンタクト検知部705は、人型ロボット401が発話中に、アイコンタクトを検知して「True」を対話制御部701へ出力する。
つぎに、対話制御部701は、音声発話後に、話者を人型ロボット401から利用者usに切り替える。視線制御部703は、話者が利用者usに切り替わったため、共同注視となるように、眼球部416が携帯端末装置402に向くように制御する。表示制御部711は、タッチパネル431を点灯してタッチパネル431に対するタッチ操作を有効とする。例えば、対話制御部701は、図9(6)に対する回答の候補として複数の項目をタッチパネル431に表示させる。そして、利用者usに複数の項目から回答を選択してもらうようにしてもよい。
対話制御部701は、例えば、項目「はい」と項目「いいえ」を含む画面がタッチパネル431に表示される。入力検知部712は、複数の項目からいずれかの項目が選択されたことを受け付ける。図9(c)のように項目「はい」が選択される。
図10の説明に戻って、バックチャネル制御部704は、入力検知部712によって受け付けた入力内容に基づいて、非言語動作を行う。
ここで、図10の例では、話者が利用者usとなった場合には、利用者usが、タッチ操作によって、文字入力や項目の選択を行う。しかし、利用者usによっては、話者の切り替えに応じてすぐに文字入力や項目の選択を行うとは限らない。
注視検知部713は、例えば、携帯端末装置402の赤外線通信回路433や携帯端末装置402のカメラ432によって、利用者usの目を検出することにより利用者usがタッチパネル431を注視しているか否かを検知する。
話者が利用者usの場合に、対話制御部701は、入力検知部712によって利用者usによるタッチ操作が検知されず、かつ注視検知部713によって利用者usがタッチパネル431を注視していることが検知されないかを判断する。対話制御部701は、タッチ操作が検知されず、かつタッチパネル431を注視していない場合に、入力を促進させる処理を行う。入力を促進させる処理としては、視線制御部703が、共同注視中であるが、眼球部416の視線を利用者usに向けるように制御する。そして、発話制御部702は、記憶部708に記憶された前回の発話内容を出力部706に発話させる。視線制御部703は、入力促進指示が終了すると、眼球部416の視線を携帯端末装置402に向けるように制御する。
また、対話制御部701は、タッチ操作が検知されず、かつタッチパネル431を注視していると判断された場合、所定時間待機する。そして、対話制御部701は、所定時間待機してもタッチ操作が行われない場合には、入力促進させる処理を行う。ここでの入力促進させる処理は上述の処理と同様である。
また、図10の例では、話者が人型ロボット401となった場合には、アイコンタクト検知部705によって「True」が検知される。しかし、利用者usが、話者の切り替えに応じて都合よく人型ロボット401の眼球部416を見るとは限らない。
そこで、話者が人型ロボット401に切り替わることによりタッチパネル431に対するタッチ操作が無効となった後に、対話制御部701は、アイコンタクト検知部705が「False」を出力する場合、眼球部416への注視を誘導させる処理を行う。注視を誘導させる処理としては、発話制御部702は、記憶部708に記憶されたフィラーを発話させる。ここでフィラーとは、例えば、「ええと」、「あの」、「まあ」など、発話の合間にはさみこむような言葉である。
図13は、視線位置および視線誘導例を示す説明図である。ここでは、以上の内容を踏まえて、各話者状態において利用者usに期待する視線位置および利用者usへの視線誘導について簡単に説明する。
図13(1)に示すように、話者が人型ロボット401の場合、利用者usには文字入力を行わないことが期待される。また、図13(1)に示すように、画面説明がありの場合、利用者usに期待する視線位置は、画面またはロボットである。例えば、画面説明がありの場合、利用者usには、人型ロボット401が話していても携帯端末装置402を見ることが記載される。または、例えば、画面説明がありの場合に、利用者usには、人型ロボット401が話しているときだけ、人型ロボット401を見ることが期待される。このように、画面説明がありの場合、利用者の視線については、人型ロボット401の利用用途に依存して期待される位置が異なる。
つぎに、話者が人型ロボット401であり、画面説明がない場合、利用者usには、人型ロボット401を見てほしい。また、話者が利用者usである場合、利用者usから人型ロボット401へは文字入力によって対話するため、利用者usには、画面説明の有無に関係なく、携帯端末装置402のタッチパネル431を見ることが期待される。
図13(2)に示すように、利用者usに期待する視線位置が、画面または人型ロボット401の場合に、人型ロボット401は、頭部412を左右のいずれかに傾けたり、腕を曲げるなどの非言語動作を行う。これにより、利用者usの視線を人型ロボット401に向けさせることができる。
また、利用者usに期待する利用者usの視線が画面またはロボットである場合に、人型ロボット401は、ヘッドを傾けたり、腕を曲げるなどの非言語動作を行うことにより、利用者usの視線を人型ロボット401に向けさせることができる。
また、利用者usに期待する利用者usの視線がロボットである場合に、人型ロボット401は、画面表示を変更したり、言語または非言語によって利用者usの視線を人型ロボット401の眼球部416に誘導する。人型ロボット401が話者である場合に、利用者usには視線を人型ロボット401の眼球部416に向けてほしいため、例えば、対話制御部701は、表示制御部711によって画面表示および文字入力を無効となるように制御する。これにより、携帯端末装置402を見ないようにさせることができ、利用者usが人型ロボット401を見るように誘導できる。また、視線制御部703は、話者が利用者usから人型ロボット401に切り替わった場合に、人型ロボット401の視線を利用者usに向ける。これにより、利用者usが人型ロボット401を見るように人型ロボット401が誘導することができる。
また、利用者usに期待する利用者usの視線が画面である場合に、人型ロボット401は、画面表示を変更したり、言語または非言語によって利用者usの視線を携帯端末装置402のタッチパネル431に誘導する。利用者usが話者となる場合に、利用者usには視線を携帯端末装置402のタッチパネル431に向けてほしいため、例えば、対話制御部701は、表示制御部711によって画面点灯および文字入力を有効となるように制御する。これにより、画面点灯および文字入力が有効となることにより携帯端末装置402を見るようにさせることができ、利用者usが携帯端末装置402のタッチパネル431を見るように誘導できる。また、視線制御部703は、話者が人型ロボット401から利用者usに切り替わった場合に、人型ロボット401の視線を携帯端末装置402に向ける。これにより、利用者usが人型ロボット401を見るように人型ロボット401が誘導することができる。
(対話制御部701が行う処理手順例)
図14は、対話制御部701が行う処理手順例を示すフローチャートである。対話制御部701は、対話管理を行う(ステップS1401)。つぎに、対話制御部701は、ロボット発話と利用者発話のうちのいずれの発話ターンか否かを判断する(ステップS1402)。
ロボット発話であると判断された場合(ステップS1402:ロボット発話)、対話制御部701は、ロボット発話処理を行い(ステップS1403)、ステップS1401へ戻る。利用者発話であると判断された場合(ステップS1402:利用者us発話)、対話制御部701は、利用者発話処理を行い(ステップS1404)、ステップS1401へ戻る。
図15は、ロボット発話処理手順例を示すフローチャートである。対話制御部701は、相互凝視するように視線制御する(ステップS1501)。つぎに、対話制御部701は、入力不可となるように携帯端末装置402へ表示制御指示を行う(ステップS1502)。
対話制御部701は、画面説明ありか否かを判断する(ステップS1503)。画面説明ありと判断された場合(ステップS1503:Yes)、対話制御部701は、画面点灯状態となるように携帯端末装置402へ表示制御指示を行い(ステップS1504)、ステップS1506へ移行する。画面説明なしと判断された場合(ステップS1503:No)、対話制御部701は、画面消灯状態となるように携帯端末装置402へ表示制御指示を行い(ステップS1505)、ステップS1506へ移行する。
対話制御部701は、アイコンタクト検知部705によってアイコンタクトを検知したか否かを判断する(ステップS1506)。アイコンタクトを検知していないと判断された場合(ステップS1506:No)、対話制御部701は、画面説明あり、かつ画面注視か否かを判断する(ステップS1507)。画面説明あり、かつ画面注視であると判断された場合(ステップS1507:Yes)、対話制御部701は、ステップS1508へ移行する。画面説明でない、または画面注視でないと判断された場合(ステップS1507:No)、対話制御部701は、注視誘導発話を指示し(ステップS1509)、ステップS1501へ戻る。
ステップS1506において、アイコンタクトを検知したと判断された場合(ステップS1506:Yes)、対話制御部701は、発話制御部702へ発話を指示する(ステップS1508)。対話制御部701は、発話を終了し(ステップS1510)、一連の処理を終了する。
図16は、利用者発話処理手順例を示すフローチャートである。対話制御部701は、視線制御部703によって共同注視するように視線制御する(ステップS1601)。対話制御部701は、画面点灯かつ入力可能となるように表示制御を携帯端末装置402へ指示する(ステップS1602)。
対話制御部701は、利用者usの入力中か否かを判断する(ステップS1603)。入力ありと判断された場合(ステップS1603:入力あり)、対話制御部701は、ステップS1603へ戻る。未入力と判断された場合(ステップS1603:未入力)、対話制御部701は、入力済みの情報ありか否かを判断する(ステップS1604)。
入力済みの情報なしと判断された場合(ステップS1604:No)、対話制御部701は、画面注視ありか否かを判断する(ステップS1605)。画面注視ありと判断された場合(ステップS1605:Yes)、対話制御部701は、タイマ計測を行う(ステップS1606)。対話制御部701は、所定時間経過したか否かを判断する(ステップS1607)。所定時間経過していないと判断された場合(ステップS1607:No)、対話制御部701は、利用者usの入力中か否かを判断する(ステップS1608)。入力ありと判断された場合(ステップS1608:入力あり)、対話制御部701は、ステップS1603へ戻る。未入力と判断された場合(ステップS1608:未入力)、対話制御部701は、ステップS1607へ戻る。
ステップS1607において、所定時間経過していると判断された場合(ステップS1607:Yes)、対話制御部701は、視線制御部703によって相互凝視するように視線を制御する(ステップS1609)。そして、対話制御部701は、発話制御部702によって入力促進指示の発話制御を行い(ステップS1610)、ステップS1601へ戻る。
また、ステップS1605において、画面注視なしと判断された場合(ステップS1605:No)、対話制御部701は、ステップS1609へ移行する。
また、ステップS1604において、入力済みの情報ありと判断された場合(ステップS1604:Yes)、対話制御部701は、バックチャネル制御部704によってバックチャネル制御を行い(ステップS1611)、一連の処理を終了する。
図17は、対話処理手順例を示す説明図である。対話制御部701は、文字入力を待つ(ステップS1701)。そして、対話制御部701は、文字入力を検知する(ステップS1702)。対話制御部701は、入力文字を解釈する(ステップS1703)。そして、対話制御部701は、あいづち応答を行う(ステップS1704)。
対話制御部701は、文字入力が終了したか否かを判断する(ステップS1705)。文字入力が終了していないと判断された場合(ステップS1705:No)、対話制御部701は、ステップS1702へ戻る。文字入力が終了したと判断された場合(ステップS1705:Yes)、対話制御部701は、対話内容を解釈する(ステップS1706)。
そして、対話制御部701は、文脈を解釈する(ステップS1707)。つぎに、対話制御部701は、話者交替ありか否かを判断する(ステップS1708)。話者交替ありと判断された場合(ステップS1708:Yes)、対話制御部701は、話者を人型ロボット401に切り替える(ステップS1709)。
つぎに、対話制御部701は、文脈を制御する(ステップS1710)。対話制御部701は、発話内容を生成する(ステップS1711)。対話制御部701は、発話制御部702によって音声発話を行う(ステップS1712)。そして、対話制御部701は、話者を利用者usに切り替え(ステップS1713)、ステップS1701へ戻る。
話者交替なしと判断された場合(ステップS1708:No)、対話制御部701は、応答内容を生成する(ステップS1714)。対話制御部701は、発話制御部702によって音声発話を行い(ステップS1715)、ステップS1701へ戻る。
ここで、文脈解釈を行うためには、予め人型ロボット401が利用者に対して対話したい内容を設定する。例えば、スロット対話型であれば、人型ロボット401が利用者usに対して質問する(例えば、「“Designing a Motivational Agent fоr Behavior Change in Physical Activity”,CHI 2015 prоceedings,Apr.18−23,2015」参照。)。そして、人型ロボット401が質問に対する利用者usからの回答の有無を判断して、対話を進める。対話内容解釈では、利用者の回答文章を解析し、質問に対する回答となる場所を特定する。
例えば、人型ロボット401が「これからどちらへ行く予定ですか?」と質問し、利用者が「家に帰る」と答える。このような対話では、対話制御部701は、目的地=“家”、動作=“帰る”と意味解釈される。対話制御部701は、文脈解釈において期待する回答「目的地と動作」を得たため、つぎの質問に移る。また、対話制御部701は、文脈解釈において期待する回答が得られない場合、違う質問やつぎの質問に移る。つぎの質問内容を発話後、対話制御部701は、話者交替を行う。また、対話制御部701は、質問と関係ないような回答の場合、利用者に入力を促す。質問と関係ないような回答とは、例えば、「あの〜」などというような回答である。
(システム例2)
図18は、システムの例2を示す説明図である。システム1800は、例えば、人型ロボット1801を有する。人型ロボット1801は、入力装置であるタッチパネル1802を有する。このため、システム1800では、システム400の例1と異なり、入力装置を含む携帯端末装置を有さない。利用者usと人型ロボット1801との対話は、人型ロボット1801による発話と人型ロボット1801のタッチパネル1802に対する文字入力とによって行われる。
人型ロボット1801は、上述した人型ロボット401と同様に、ボディ411と、頭部412と、アーム部413と、を有する。ボディ411の前面の中央部分には、タッチパネル1802が設けられる。
また、その他、人型ロボット1801の各構成については、システム400の例1と同様であるため、詳細な説明を省略する。
(システム1800の例2における人型ロボット1801のハードウェア構成例)
図19は、人型ロボット1801のハードウェア構成例を示す説明図である。人型ロボット1801は、CPU501と、ROM502と、RAM503と、不揮発メモリ504と、を有する。人型ロボット1801は、タッチパネル1802と、無線通信回路506と、カメラ421と、赤外線通信回路422と、スピーカ415と、ロボットI/F507と、距離センサ417,418,419と、を有する。
また、タッチパネル1802は、表示の機能と操作入力を受け付ける機能との2つの機能を有するタッチパネル型のディスプレイである。タッチパネル1802は、コンピュータなどの外部から受けた画像情報をディスプレイなどで表示する。ディスプレイとしては、例えば、TFT液晶ディスプレイなどを採用することができる。
タッチパネル1802は、ディスプレイなどの画面に表示された絵やピクトグラムなどの点または領域に利用者usが手や指で触れることによって、触れられた画面位置の情報を感知してCPU501などへ情報信号として出力する。
また、タッチパネル1802以外の各ハードウェアは、図5の例と同様であるため、詳細な説明を省略する。
(システム1800の機能的構成例)
図20は、システム1800の機能的構成例を示すブロック図である。システム1800は、人型ロボット1801を有する。人型ロボット1801は、対話制御部701と、発話制御部702と、視線制御部703と、バックチャネル制御部704と、アイコンタクト検知部705と、を有する。人型ロボット1801は、可動部707と、記憶部708と、表示制御部2001と、入力検知部2002と、を有する。
表示制御部2001と入力検知部2002とは、タッチパネル1802によって実現される。表示制御部2001と入力検知部2002との各処理は、それぞれ表示制御部2001と入力検知部2002の処理と同様であるため、詳細な説明を省略する。
また、視線制御部703は、共同注視の際に、タッチパネル1802を見るように可動部707を制御する。
また、情報処理装置100は、例えば、人型ロボットと異なり、人型ロボットを制御可能なコンピュータであってもよい。人型ロボットと情報処理装置100とが異なる場合、情報処理装置100は、例えば、PC(Personal Computer)やサーバである。そして、情報処理装置100は、無線通信などによるネットワークを介して、人型ロボットと接続可能であってもよい。
以上説明したように、情報処理装置100は、利用者と人型ロボットで文字入力・発話対話を行う際、話者がロボットの場合に、文字入力を無効にし、話者が利用者の場合に、文字入力を有効にする。これにより、利用者に対して人型ロボットと対話している感覚を与えられる。これにより、人型ロボットが発話中に利用者が文字入力に集中して入力装置を注視することを抑制できる。したがって、利用者に対して人型ロボットと対話している感覚を与えることができる。
また、情報処理装置100は、話者が人型ロボットの場合に、入力装置による画面表示が有効となり、かつ入力装置に対するタッチ操作に応じた処理が有効となるように入力装置を制御する。情報処理装置100は、話者が人型ロボットの場合に、入力装置による画面表示が無効となり、かつ入力装置に対するタッチ操作に応じた処理が無効となるように入力装置を制御する。これにより、人型ロボットが発話中に利用者がタッチパネルの表示に集中してタッチパネルを注視することを抑制できる。したがって、利用者に対して人型ロボットと対話している感覚を与えることができる。
また、情報処理装置100は、話者が利用者の場合に、人型ロボットの眼球部の視線を入力装置に向けるようにし、話者がロボットの場合に、人型ロボットの眼球部の視線を利用者に向けるようにする。これにより、利用者が文字入力中に共同で画面を注視することにより、人型ロボットが利用者の会話内容に傾聴しているように見せることができる。また、人型ロボットが発話中に利用者を見ることにより人型ロボットと利用者との間でアイコンタクトをとることができ、発話内容が利用者に向けた内容であることをより印象づけることができる。したがって、利用者に対してロボットと対話している感覚を与えることができる。
また、情報処理装置100は、入力装置による操作が無効な状態から有効な状態に切り替わってから、所定時間経過までの間に入力装置に対する操作を受け付けなかった場合に、直前の質問内容などを繰り返して発話する。これにより、話者が利用者であること提示でき、利用者に入力を促進させることができる。
また、情報処理装置100は、操作が無効な状態から有効な状態に切り替わってから、所定時間経過までの間に操作を受け付けなかった場合に、利用者を見て、直前の質問内容などを発話後に、再度入力装置に視線を向けるように制御する。これにより、話者が利用者であること提示でき、利用者に入力を促進させることができる。また、利用者が入力装置に対して操作していないことを人型ロボットが理解していることを提示でき、人型ロボットが利用者の会話を傾聴しているように見せることができる。
また、情報処理装置100は、話者が人型ロボットの場合において、利用者の視線を検知できなかった場合に、フィラーなどを発話させた後に、通常の発話内容を発話させる。これにより、利用者の視線を人型ロボットに誘導することができる。
また、情報処理装置100は、発話期間中に、利用者の視線を検知できず、かつ入力装置を有する他の装置によって利用者の視線が検出されなかった場合に、フィラーなどを発話させた後に、発話内容を発話させる。これにより、利用者の視線を人型ロボットに誘導することができる。
情報処理装置100が入力装置を有することにより、利用者、利用者の顔および利用者の目などの位置を容易に検出することができる。これにより、例えば、人型ロボットの視線を利用者に追従させる場合などに、利用者、利用者の顔および利用者の目などの位置を高速に検出でき、人型ロボットの視線を利用者に追従させる処理の高速化を図ることができる。
なお、本実施の形態で説明した情報処理方法は、予め用意された情報処理プログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本情報処理プログラムは、磁気ディスク、光ディスク、USBフラッシュメモリなどのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、情報処理プログラムは、インターネット等のネットワークを介して配布してもよい。
また、本実施の形態で説明した対話制御部701から記憶部708などの各部は、スタンダードセルやストラクチャードASIC(Application Specific Integrated Circuit)などの特定用途向けIC(以下、単に「ASIC」と称す。)やFPGAなどのPLD(Programmable Logic Device)によっても実現することができる。例えば、上述した各部の機能をHDL記述によって機能定義し、そのHDL記述を論理合成してASICやPLDに与えることにより、情報処理装置100を製造することができる。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)自装置がアクセス可能な入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話する出力部と、
前記出力部による発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、前記出力部による発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する制御部と、
を有することを特徴とする情報処理装置。
(付記2)前記入力装置が、タッチパネル型のディスプレイである場合、
前記制御部は、
前記出力部による発話期間でない場合に、前記入力装置による画面表示が有効となり、かつ前記入力装置に対するタッチ操作に応じた処理が有効となるように前記入力装置を制御し、前記出力部による発話期間である場合に、前記入力装置による画面表示が無効となり、かつ前記入力装置に対するタッチ操作に応じた処理が無効となるように前記入力装置を制御する、
ことを特徴とする付記1に記載の情報処理装置。
(付記3)自装置は、人型のロボットであり、
前記ロボットの頭部の眼球部を各方向に可動させる可動部を有し、
前記制御部は、
前記出力部による発話期間でない場合に、前記眼球部の視線を前記入力装置に向けるように前記可動部を制御し、前記出力部による発話期間である場合に、前記入力装置を操作可能な利用者に前記眼球部の視線を向けるように前記可動部を制御する、
ことを特徴とする付記1または2に記載の情報処理装置。
(付記4)前記制御部は、
前記入力装置による操作が無効な状態から有効な状態に切り替わってから、所定時間経過までの間に前記入力装置が前記入力文字および前記選択項目を受け付けなかった場合に、前記入力装置に向けられた前記眼球部の視線を前記利用者に向けるように前記可動部を制御し、前記出力部に特定の発話内容を発話させる制御をした後に、前記眼球部の視線を前記入力装置に向けるように前記可動部を制御する、
ことを特徴とする付記3に記載の情報処理装置。
(付記5)前記特定の発話内容は、前記入力装置による操作が有効な状態に切り替わる前に、前記出力部によって発話された発話内容であることを特徴とする付記4に記載の情報処理装置。
(付記6)前記入力装置を操作可能な利用者の視線が自装置に向けられていることを検知する検知部を有し、
前記制御部は、
前記出力部による発話期間中に、前記検知部によって前記利用者の視線を検知できなかった場合に、前記出力部に所定の発話内容を発話させた後に、前記出力部に取得した前記発話内容を発話させる制御を行う、
ことを特徴とする付記1〜5のいずれか一つに記載の情報処理装置。
(付記7)前記制御部は、
前記出力部による発話期間中に、前記検知部によって前記利用者の視線を検知できず、かつ前記情報処理装置と異なる前記入力装置を有する他の装置によって前記利用者の視線が検出されなかった場合に、前記出力部に所定の発話内容を発話させた後に、前記出力部に取得した前記発話内容を発話させる制御を行う、
ことを特徴とする付記6に記載の情報処理装置。
(付記8)自装置が前記入力装置を有することを特徴とする付記1〜6のいずれか一つに記載の情報処理装置。
(付記9)自装置がアクセス可能な入力装置によって受け付けた入力文字または選択項目に基づく発話内容を発話する人型ロボットと、前記入力装置を操作可能な利用者と、のうち、いずれが話者であるかを判断し、
前記人型ロボットが話者であると判断した場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御し、
前記利用者が話者であると判断した場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御する、
制御部を有することを特徴とする情報処理装置。
(付記10)入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話し、
発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する、
処理をコンピュータが実行する情報処理方法。
(付記11)入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話し、
発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する、
処理をコンピュータに実行させる情報処理プログラム。
100 情報処理装置
101 入力装置
111,706 出力部
112 制御部
400,1800 システム
401,1801 人型ロボット
402 携帯端末装置
403 ネットワーク
411 ボディ
412 頭部
413 アーム部
415 スピーカ
416 眼球部
417,418,419 距離センサ
421,432 カメラ
422,433 赤外線通信回路
431,1802 タッチパネル
500,600 バス
501,601 CPU
502,602 ROM
503,603 RAM
504,604 不揮発メモリ
506,605 無線通信回路
507 ロボットI/F
701 対話制御部
702 発話制御部
703 視線制御部
704 バックチャネル制御部
705 アイコンタクト検知部
707 可動部
708 記憶部
711,2001 表示制御部
712,2002 入力検知部
713 注視検知部

Claims (7)

  1. 自装置がアクセス可能な入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話する出力部と、
    前記出力部による発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、前記出力部による発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する制御部と、
    を有することを特徴とする情報処理装置。
  2. 前記入力装置が、タッチパネル型のディスプレイである場合、
    前記制御部は、
    前記出力部による発話期間でない場合に、前記入力装置による画面表示が有効となり、かつ前記入力装置に対するタッチ操作に応じた処理が有効となるように前記入力装置を制御し、前記出力部による発話期間である場合に、前記入力装置による画面表示が無効となり、かつ前記入力装置に対するタッチ操作に応じた処理が無効となるように前記入力装置を制御する、
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 自装置が、人型のロボットであり、
    前記ロボットの頭部の眼球部を各方向に可動させる可動部を有し、
    前記制御部は、
    前記出力部による発話期間でない場合に、前記眼球部の視線を前記入力装置に向けるように前記可動部を制御し、前記出力部による発話期間である場合に、前記入力装置を操作可能な利用者に前記眼球部の視線を向けるように前記可動部を制御する、
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記制御部は、
    前記入力装置による操作が無効な状態から有効な状態に切り替わってから、所定時間経過までの間に前記入力装置が前記入力文字および前記選択項目を受け付けなかった場合に、前記入力装置に向けられた前記眼球部の視線を前記利用者に向けるように前記可動部を制御し、前記出力部に特定の発話内容を発話させる制御をした後に、前記眼球部の視線を前記入力装置に向けるように前記可動部を制御する、
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記入力装置を操作可能な利用者の視線が自装置に向けられていることを検知する検知部を有し、
    前記制御部は、
    前記出力部による発話期間中に、前記検知部によって前記利用者の視線を検知できなかった場合に、前記出力部に所定の発話内容を発話させた後に、前記出力部に取得した前記発話内容を発話させる制御を行う、
    ことを特徴とする請求項1〜4のいずれか一つに記載の情報処理装置。
  6. 入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話し、
    発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する、
    処理をコンピュータが実行する情報処理方法。
  7. 入力装置によって受け付けた入力文字または選択項目に基づいて、記憶部から取得した発話内容を発話し、
    発話期間でない場合に、前記入力装置に対する操作が有効となるように前記入力装置を制御し、発話期間である場合に、前記入力装置に対する操作が無効となるように前記入力装置を制御する、
    処理をコンピュータに実行させる情報処理プログラム。
JP2016097081A 2016-05-13 2016-05-13 情報処理装置、情報処理方法、および情報処理プログラム Pending JP2017204231A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016097081A JP2017204231A (ja) 2016-05-13 2016-05-13 情報処理装置、情報処理方法、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016097081A JP2017204231A (ja) 2016-05-13 2016-05-13 情報処理装置、情報処理方法、および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2017204231A true JP2017204231A (ja) 2017-11-16

Family

ID=60323269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097081A Pending JP2017204231A (ja) 2016-05-13 2016-05-13 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2017204231A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018153871A (ja) * 2017-03-15 2018-10-04 株式会社G−グロボット 空中映像を用いた、ロボットによる案内方法
JP2020049596A (ja) * 2018-09-27 2020-04-02 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
JP2020091636A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 音声対話装置の制御方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5872200A (ja) * 1981-10-26 1983-04-30 シャープ株式会社 音声合成機器
JPH09269889A (ja) * 1996-04-02 1997-10-14 Sharp Corp 対話装置
JP2003076477A (ja) * 2001-08-30 2003-03-14 Anritsu Corp 情報提供装置
JP2003275473A (ja) * 2002-03-20 2003-09-30 Mitsubishi Heavy Ind Ltd 移動ロボットを用いた描画システム
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006123102A (ja) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International 眼球制御装置、眼球制御方法および眼球制御プログラム
JP2006235671A (ja) * 2005-02-22 2006-09-07 Norinaga Tsukiji 会話装置及びコンピュータ読み取り可能な記録媒体。
JP2008113875A (ja) * 2006-11-06 2008-05-22 Advanced Telecommunication Research Institute International コミュニケーション誘発システム
JP2012138086A (ja) * 2005-09-30 2012-07-19 Irobot Corp 個人の相互交流のためのコンパニオンロボット
JP2014515571A (ja) * 2011-05-17 2014-06-30 ピーティー アイラント エルエルシー セルラー通信、教育、エンターテイメント、アラート及びモニタリングシステムを統合した子供主導システム
WO2014102985A1 (ja) * 2012-12-27 2014-07-03 楽天株式会社 通信システム、電子書籍端末、通信方法、プログラム、及び記録媒体
JP2015194992A (ja) * 2014-03-26 2015-11-05 株式会社Nttドコモ 携帯端末及び制御方法
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5872200A (ja) * 1981-10-26 1983-04-30 シャープ株式会社 音声合成機器
JPH09269889A (ja) * 1996-04-02 1997-10-14 Sharp Corp 対話装置
JP2003076477A (ja) * 2001-08-30 2003-03-14 Anritsu Corp 情報提供装置
JP2003275473A (ja) * 2002-03-20 2003-09-30 Mitsubishi Heavy Ind Ltd 移動ロボットを用いた描画システム
JP2004034274A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2004042151A (ja) * 2002-07-09 2004-02-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006123102A (ja) * 2004-10-29 2006-05-18 Advanced Telecommunication Research Institute International 眼球制御装置、眼球制御方法および眼球制御プログラム
JP2006235671A (ja) * 2005-02-22 2006-09-07 Norinaga Tsukiji 会話装置及びコンピュータ読み取り可能な記録媒体。
JP2012138086A (ja) * 2005-09-30 2012-07-19 Irobot Corp 個人の相互交流のためのコンパニオンロボット
JP2008113875A (ja) * 2006-11-06 2008-05-22 Advanced Telecommunication Research Institute International コミュニケーション誘発システム
JP2014515571A (ja) * 2011-05-17 2014-06-30 ピーティー アイラント エルエルシー セルラー通信、教育、エンターテイメント、アラート及びモニタリングシステムを統合した子供主導システム
WO2014102985A1 (ja) * 2012-12-27 2014-07-03 楽天株式会社 通信システム、電子書籍端末、通信方法、プログラム、及び記録媒体
US20150288749A1 (en) * 2012-12-27 2015-10-08 Rakuten, Inc. Communication system, electronic book terminal, communication method, program, and recording medium
JP2016522465A (ja) * 2013-03-15 2016-07-28 ジボ インコーポレイテッド 永続性コンパニオンデバイスを提供するための装置及び方法
JP2015194992A (ja) * 2014-03-26 2015-11-05 株式会社Nttドコモ 携帯端末及び制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018153871A (ja) * 2017-03-15 2018-10-04 株式会社G−グロボット 空中映像を用いた、ロボットによる案内方法
JP2020049596A (ja) * 2018-09-27 2020-04-02 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
JP7225642B2 (ja) 2018-09-27 2023-02-21 富士通株式会社 コミュニケーションロボット、制御方法及び制御プログラム
JP2020091636A (ja) * 2018-12-05 2020-06-11 トヨタ自動車株式会社 音声対話装置の制御方法

Similar Documents

Publication Publication Date Title
WO2021036644A1 (zh) 一种基于人工智能的语音驱动动画方法和装置
CN109479172B (zh) 电子设备麦克风监听模式
US10318016B2 (en) Hands free device with directional interface
JP6819672B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017200074A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2007329702A (ja) 受音装置と音声認識装置とそれらを搭載している可動体
JP2009241166A (ja) ロボット遠隔操作システム
JP7180139B2 (ja) ロボット、ロボットの制御方法及びプログラム
CN111421557B (zh) 电子装置及其控制方法
JPWO2005057549A1 (ja) 情報処理システム、情報処理方法および情報処理用プログラム
WO2012119371A1 (zh) 一种用户交互系统和方法
JP2009166184A (ja) ガイドロボット
JP6514475B2 (ja) 対話装置および対話方法
JP2017204231A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR102651249B1 (ko) 디지털 어시스턴트를 이용한 오디오 정보 제공
JP2020182092A (ja) 警備システム及び監視表示装置
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
US11145315B2 (en) Electronic device with trigger phrase bypass and corresponding systems and methods
CN112711331A (zh) 机器人交互方法、装置、存储设备和电子设备
JP5324956B2 (ja) 道案内ロボット
JP7435641B2 (ja) 制御装置、ロボット、制御方法およびプログラム
JP2018086689A (ja) コミュニケーションロボット
KR102446637B1 (ko) 음향 출력 시스템 및 음성 처리 방법
JP6647636B2 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP2012232352A (ja) コミュニケーションロボット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200602