JP2013237124A - 端末装置、情報提供方法及びプログラム - Google Patents

端末装置、情報提供方法及びプログラム Download PDF

Info

Publication number
JP2013237124A
JP2013237124A JP2012111812A JP2012111812A JP2013237124A JP 2013237124 A JP2013237124 A JP 2013237124A JP 2012111812 A JP2012111812 A JP 2012111812A JP 2012111812 A JP2012111812 A JP 2012111812A JP 2013237124 A JP2013237124 A JP 2013237124A
Authority
JP
Japan
Prior art keywords
user
information
robot
action
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012111812A
Other languages
English (en)
Inventor
Toshitomo Kaneoka
利知 金岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012111812A priority Critical patent/JP2013237124A/ja
Publication of JP2013237124A publication Critical patent/JP2013237124A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

【課題】端末装置、情報提供方法及びプログラムにおいて、ユーザに対する情報伝達を確実に行うことを目的とする。
【解決手段】センサ情報を出力するセンサ群と、ユーザの反応を前記センサ情報に基づいて検出して前記ユーザとのインタラクション状態を管理するインタラクション状態管理部と、情報提供の行動戦略を管理する情報提供管理部を備え、前記情報提供管理部は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報の提供相手を明確にするために前記ユーザの注視を伴う情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うように構成する。
【選択図】図1

Description

本発明は、端末装置、情報提供方法及びプログラムに関する。プログラムは、コンピュータ読み取り可能な記憶媒体に格納されていても良い。
ロボットやコンピュータグラフィックエージェント(CGA:Computer Graphics Agent)のような生き物らしい振る舞いが可能な端末装置とユーザとの間で親和的な関係を構築するために、ロボットの本能や感情といった内部状態から発生する生き物らしさを想起させる自発的な振る舞いや、視覚センサから得られる人や物を追従する視線追従動作を行うことが提案されている(例えば、特許文献1及び特許文献2)。
端末装置とユーザとの間の親和性を活用したサービスには、例えばユーザへの情報伝達やユーザとのコミュニケーションを行うサービスがある。このようなサービスを提供する端末装置において、ユーザの興味を端末に引き付けるために、ユーザに対して大きなしぐさや音(例えば、声)による呼び込みなどを行うことが提案されている。ユーザの注意を端末装置に引き付けるために、ユーザの名前を呼んで返事を確認する方法(例えば、非特許文献1)や、端末装置への興味を引き付けるために、しぐさによってユーザに気付かせようとする方法(例えば、非特許文献2)などが提案されている。
従来の情報提供方法は、例えば指定時間や情報が更新された時などの、端末装置側で決定されたタイミングでユーザに情報を提供している。しかし、このような情報提供方法では、ユーザの興味が端末装置に向いていない場合、ユーザは情報提供に気付かなかったり、ユーザにとっては邪魔や迷惑となることもある。さらに、ユーザへの情報提供が頻繁に行われていると、ユーザの慣れによってユーザが情報提供への興味を失う可能性がある。
そこで、端末装置が無言の振る舞いでユーザの興味を引き付け、ユーザがその振る舞いに気づいて端末装置に声をかけることで端末装置との対話を始める方法が提案されている(例えば、非特許文献2)。しかし、この提案方法では、一旦ユーザの興味が得られた後も、ユーザに話し掛けるまでのタイミングが適切でない場合や、ユーザがロボットの意図を十分に理解できていないなど、ユーザが聞く体制にない場合、ユーザは発話内容の理解が難しくなってしまう。
一方、端末装置とユーザとの間の音声対話に応じて情報を確実にユーザに伝えるために、端末装置からの音声発話に対してユーザから有効な音声応答が得られるまで繰り返し情報を提供する方法が提案されている(例えば、非特許文献1)。しかし、この提案方法では、繰り返される情報提供がユーザにとっては邪魔や迷惑となる可能性に対する対策は取られていない。
特開2008−18529号公報 特開2011−233071号公報
Misato Nihei et al., "Development of an Interactive Information Support System for Persons with Dementia", 26th Annual International Technology & Persons with Disabilities Conference, 2011 米澤 朋子他、「ユーザの視線・発声に対するクロスモーダルアウェアネス、ユーザ状況把握を表すロボット」、HAIシンポジウム2009、2C−3
従来のロボットなどの端末装置を用いた情報提供方法では、ユーザに迷惑・邪魔といった心理を与えないように情報を伝えることと、ユーザの興味を引きつけてユーザに対する情報伝達を確実に行うことの両立は難しい。
そこで、本発明は、ユーザに対する情報伝達を確実に行うことのできる端末装置、情報提供方法及びプログラムを提供することを目的とする。
本発明の一観点によれば、センサ情報を出力するセンサ群と、ユーザの反応を前記センサ情報に基づいて検出して前記ユーザとのインタラクション状態を管理するインタラクション状態管理部と、情報提供の行動戦略を管理する情報提供管理部を備え、前記情報提供管理部は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報の提供相手を明確にするために前記ユーザの注視を伴う情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする端末装置が提供される。
本発明の一観点によれば、ロボットによる情報提供方法であって、前記ロボットのプロセッサが前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理する第1のステップと、前記プロセッサが情報提供の行動戦略を管理する第2のステップを含み、前記第2のステップは、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする情報提供方法が提供される。
本発明の一観点によれば、ロボットのプロセッサに情報提供処理を実行させるプログラムであって、前記プロセッサに前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理させるインタラクション状態管理手順と、前記プロセッサに情報提供の行動戦略を管理させる情報提供管理手順を含み、前記情報提供管理手順は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とするプログラムが提供される。
開示の端末装置、情報提供方法及びプログラムによれば、ユーザに対する情報伝達を確実に行うことができる。
第1実施例におけるロボット内のコントローラを示す機能ブロック図である。 ロボットのハードウェア構成の一例を示すブロック図である。 ロボットの外観の一例を示す図である。 ロボットとユーザとのインタラクション経過例を示す図である。 注意誘導行動を説明する図である。 導入行動によってユーザからの反応が即座にある場合の一例を説明する図である。 導入行動によってユーザからの反応が即座に得られず、導入行動を複数回実施する場合の一例を説明する図である。 情報提供行動の一例を説明するフローチャートである。 注意誘導行動の一例を説明するフローチャートである。 導入行動の一例を説明するフローチャートである。 情報の重要度または緊急性が低い場合の動作の一例を示すフローチャートである。 情報の重要度または緊急性が高い場合の動作の一例を示すフローチャートである。 情報の重要度または緊急性が中程度の場合の動作の一例を示すフローチャートである。 情報提供方法の一例を説明する図である。 重要度が高い場合の情報提供方法の一例を説明する図である。
開示の端末装置、情報提供方法及びプログラムでは、端末装置が例えば視覚、触覚、聴覚などに相当する各種センサを有し、これらのセンサから得られるセンサ情報(または、刺激情報)に基づいた振る舞いや自律的な振る舞いにより、ユーザの注意を端末装置に引き付けて端末装置とユーザとの間で親和的な関係性を構築してサービスを提供する。端末装置は、例えばロボットやCGAであり、ユーザに対して情報提供や行動誘導のサービスを提供する。
端末装置のインタラクション状態管理部は、ユーザの反応をセンサ情報に基づいて検出してユーザとのインタラクション状態を管理する、情報提供管理部は、情報提供の行動戦略を管理する。情報提供管理部は、ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報の提供相手を明確にするためにユーザの注視を伴う情報提供行動を、インタラクション状態に応じて選択し、必要に応じて繰り返すことでユーザに情報提供を行う。
以下に、開示の端末装置、情報提供方法及びプログラムの各実施例を図面と共に説明する。
図1は、第1実施例におけるロボット内のコントローラを示す機能ブロック図である。ロボットは、端末装置の一例である。例えば、人(以下、ユーザとも言う)とコミュニケーションを図るコミュニケーションロボットは、容姿、動き、触れ合いなどに生き物らしさを感じられることが望ましい。この例では、生き物らしさを実現するために、ロボットのアーキテクチャとして、所謂包摂アーキテクチャ(Subsumption Architecture)を用いる。包摂アーキテクチャは、複数の動作モジュールからの制御コマンドの優先度を調停して、ロボットに自然な動作を表現させる。ただし、ロボットが用いるロボットアーキテクチャは包摂アーキテクチャに限定されるものではなく、任意のロボットアーキテクチャを採用可能である。
図1において、ロボット1はコントローラ2を有し、外部サーバ3と通信可能である。コントローラ2と外部サーバ3は、例えば無線通信により接続可能である。コントローラ2は、ゲートウェイ部21、振る舞い管理部22、音声発話検知部23、接触検知部24、顔検知部25、注意または興味判断部26、インタラクション状態管理部27、情報提供管理部28、動作調停情報管理部29、コマンド受信部30、モータ駆動部31、及び出版/講読メッセージサービス(Publish/Subscribe (Pub/Sub) Message Service)32を有する。各部21〜31は、Pub/Subメッセージサービス32により直接または間接的に接続されたモジュールの一例であり、各部21〜31は必要な情報を購読(Subscribe)あるいは出版(Publish)または発信する。各部21〜31は、例えば後述するように、プロセッサが記憶部に格納されたプログラムを実行することで実現可能である。
ロボット1は、ゲートウェイ部21を介して外部サーバ3と接続することで、外部サーバ3と通信する。振る舞い管理部22は、記憶部上に振る舞いパターンを予め保持し、内部感情や他の部(モジュール)からの指示によって振る舞いパターンをロードし、モータ駆動部31に振る舞いパターンに関係するモータを駆動するモータコマンドを送信する。音声発話検知部23は、ロボット1に設けられた後述するマイクロホン(図示せず)から入力された音声信号を用いて音声発話の検知や認識を周知の方法で行って結果をメッセージ送信し、また、他の部(モジュール)からの指示に従って音声をロボット1に設けられた後述するスピーカ(図示せず)によって周知の方法で再生する。接触検知部24は、ユーザによるロボット1に設けられた後述するタッチセンサ(図示せず)への接触を検知してメッセージを送信する。顔検知部25は、ロボット1に設けられた後述するカメラ(図示せず)が撮像した画像からユーザの検出や認証、動きの分析などを周知の方法で行い、検出、認証、分析などの結果をメッセージ送信すると共に、ユーザの顔の位置情報に基づいてロボット1のモータ駆動部31に関係するモータを駆動するモータコマンドを送信して、周知の方法でロボット1にユーザの顔を追従するように指示する。注意または興味判断部26は、接触検知部24や顔検知部25、音声発話検知部23などからのメッセージを購読し、ユーザからの注意または興味のレベルを周知の方法で判断し、顔検知部25で検知されたどの顔を見るかを動作調停情報管理部29に送信する。また、注意または興味判断部26は、購読したメッセージを組み合わせて周知の方法で抽象化(顔検知と音声発話から発話ユーザの特定や、顔の口開閉と発話検知情報から発話タイミングの特定など)したメッセージを送信する。注意または興味判断部26は、例えばセンサ情報の組み合わせ及びセンサ情報の時間的変化に基づいてユーザ反応を周知の方法で推定可能である。コマンド受信部30は、各部(モジュール)から発信されたモータ制御要求を受け付けて、モータ駆動部31に対応する命令を送信する。動作調停情報管理部29は、コマンド受信部30が各部(モジュール)から受信したモータ制御要求について、優先順位を与える。モータ駆動部31では、優先順位に従ってロボット本体に内蔵されるモータを駆動するモータコマンドを送信する。ゲートウェイ部21は、外部サーバ3から送信されたインターネットで使用されるプロトコルをPub/Sub message serviceのプロトコルに変換して、メッセージを送受信する。外部サーバ3は、インターネット上のアプリケーションを指し、例えばインターネット上の情報をプッシュしたり、ロボット1の情報をアップロードしたりする。
インタラクション状態管理部27は、ロボット1のユーザとのインタラクション状態を管理し、情報提供管理部28は、ロボット1による情報提供の行動戦略を管理する。ロボット1は、ユーザとのインタラクション状態に応じて、ユーザをロボット1とのインタラクションに引き込む「注意誘導行動」、ロボット1がこれから目的動作を行うことをユーザに予想させるための「導入行動」、及びロボット1が誰に情報を伝えているか(すなわち、情報の提供相手)を明確にするためにユーザ注視を伴う「情報提供行動」を行う。これらの行動は、ロボット1とユーザとのインタラクション状態に応じて選択され、必要に応じて繰り返される。また、ロボット1とユーザとのインタラクション状態を把握するために、ロボット1はユーザからのバーバル(verbal)及びノンバーバル(nonverbal)な反応をセンサ情報に基づいて逐次確認しながら、必要な情報をユーザに確実に伝える。ユーザからのバーバルな反応にはロボット1に対する話しかけなどが含まれ、ユーザからのノンバーバルな反応にはロボット1の凝視、ロボット1への接触などが含まれる。
インタラクション状態管理部27は、顔検知部25から得られたユーザ検知情報や特徴情報を含むセンサ情報に基づいて、ユーザの数、ユーザの特徴情報(認証、性別など)を逐次検出して管理すると共に、現在のインタラクションの有無、ユーザ、継続時間、ユーザまでの距離などを検出して管理する。インタラクションに関しては、ロボット1がユーザの存在を検知し、ロボット1からユーザへの働きかけの有無に関わらずユーザがロボット1に対して何らかの行動(例えば、相互注視、接触、話しかけなど)が発生した時をインタラクションの開始と定義し、その何らかの行動が発生した状態が継続している状態をインタラクション状態と定義するものとする。
インタラクション状態管理部27は、顔検知部25から得られたユーザ検知情報や特徴情報を含むセンサ情報に基づいて、ユーザの数、ユーザの特徴情報(認証、性別など)を逐次検出して管理すると共に、現在のインタラクション状態の有無、ユーザ、継続時間、ユーザまでの距離などを検出して管理するユーザ管理部と、後述する注目状態ST1、インタラクション準備状態ST2、インタラクション状態ST3、及びアイドリング状態ST4の4つの状態を定義してユーザからの反応に従って遷移する状態管理部を有しても良い。
情報提供管理部28は、ユーザ(または、情報提供の対象者)、提供するべき情報の内容、重要度又は緊急性、有効期限などを定めた提供情報を外部サーバ3から受信する。情報提供管理部28は、インタラクション状態管理部27が管理しているユーザとのインタラクションの有無、ユーザまでの距離などを確認し、ユーザとのインタラクション状態に応じて「注意誘導行動」、「導入行動」、及び「情報提供行動」の3つの行動から適切な行動を選択し、行動によって得られるユーザからの反応やインタラクション状態に応じて次の行動を選択する。ユーザからの反応は、例えばロボット1の行動に対して期待するユーザからのバーバルまたはノンバーバルな反応を評価することで判定する。なお、インタラクション状態に加え、情報の重要度または緊急性に応じて3つの行動から適切な行動を選択しても良い。
図2は、ロボットのハードウェア構成の一例を示すブロック図である。図2に示すように、ロボット1は、プロセッサの一例であるCPU(Central Processing Unit)51、記憶部52、通信部53、表示部54、カメラ55、センサ群56、スピーカ群58、及びモータ群59がバス60を介して接続された構成を有する。
CPU51は、ロボット1全体の制御を司り、記憶部52に格納されたプログラムを実行することにより、後述する各ステップに相当する手順を実行したり、図1に示す各部21〜31を実現したりして、情報提供処理を実行することが可能である。記憶部52は、CPU51が用いる振る舞いパターン、提供する情報の重要度または緊急度などを含む各種データ、演算処理の中間データなどを格納可能である。記憶部52は、コンピュータ読み取り可能な記憶媒体の一例である。記憶部52は、磁気記録媒体、光記録媒体、光磁気記録媒体、これらの記録媒体を備えた記録媒体ドライブ(例えば、ディスクドライブ)、半導体記憶装置などで形成可能である。通信部53は、無線ネットワークを介して外部サーバ3と通信可能である。表示部54は、例えばタッチパネルで形成可能であり、タッチパネルの場合は操作部としても機能する。表示部54は、異なる色のランプなどを含んでも良い。
カメラ55は、例えば自動焦点カメラで形成可能である。センサ群56は、タッチセンサ、マイクロホンなどの各種センサを含む。センサ群56は、ロボット1からユーザなどの対象までの距離を検知するLRF(Laser Range Finder)などの測距センサを含んでも良い。カメラ55は、センサ群56に含まれていても良い。スピーカ群58は、1又は複数のスピーカを含む。モータ群59は、駆動部として機能する複数のモータを含む。なお、モータは駆動部の一例であり、駆動部はアクチュエータなどで形成しても良いことは言うまでもない。
図3は、ロボットの外観の一例を示す図である。図3中、(a)はロボット1の側面図、(b)はロボット1の正面図である。図3に示すように、この例ではロボット1は熊型ロボットであり、頭100、胴体101、左右の耳102L,102R、左右のまぶた103L,103R、左右の腕104L,104R、左右の足105L,105R、口106を有する。熊型ロボットは、生き物らしい振る舞いが可能な生物型ロボット(または、生物模倣型ロボット)の一例である。頭100はモータ群59のモータにより周知の方法で矢印で示す方向にパン(pan)、ロール(roll)、及びチルト(tilt)可能である。まぶた103L,103R及び口106は、モータ群59のモータにより周知の方法で矢印で示す方向に開けたり閉じたりすることが可能である。腕104L,104R及び足105L,105Rは、モータ群59のモータにより周知の方法で矢印で示す方向に上げたり下げたりすることが可能である。頭100には、マイクロホン56Aが設けられており、鼻に相当する箇所にはカメラ55が設けられている。頭100、耳102L,102R、腕104L,104R、及び足105L,105Rには、タッチセンサ56Bが設けられている。胴体101には、スピーカ58が設けられている。この例では、センサ群56はマイクロホン56A及び複数のタッチセンサ56Bを含む。ロボット1の内部には、図2に示すCPU51、記憶部52などのハードウェアが設けられている。
図1の機能ブロックの説明に戻るに、インタラクション状態管理部27では、顔検知部25から得られたユーザ検知情報や特徴情報を含むセンサ情報に基づいて、ユーザの数、ユーザの特徴(認証、性別など)情報を逐次検出して管理すると共に、現在のインタラクションの有無、ユーザ、継続時間、距離などを検出して管理する。
図4は、ロボットとユーザとのインタラクション経過例を示す図である。図4及び後述する図5において、横軸は経過時間を任意単位で示す。インタラクション状態管理部27では、「注目状態ST1」、「インタラクション準備状態ST2」、「インタラクション状態ST3」、「アイドリング状態ST4」の4つの状態を管理する。注目状態ST1は、ロボット1がユーザの存在に気付いてトラッキング状態にある状態、インタラクション準備状態ST2は、ユーザとロボット1の視線が一致している状態、インタラクション状態ST3は、ユーザがロボット1に対して接触、近付く、見つめるなどの働きかけを継続して発生している状態、アイドリング状態ST4はユーザがロボット1に対する働きかけがない状態と定義する。
ロボット1が例えばカメラ55の撮像画像情報を含むセンサ情報からユーザAを周知の方法で検知して注目したとき「注目状態ST1」となる。ロボット1からユーザAへの働きかけの有無に関わらず、例えばカメラ55の撮像画像情報を含むセンサ情報から注目対象のユーザAとロボット1との視線が一致したことを周知の方法で検知したとき「インタラクション準備状態ST2」となる。ユーザAがロボット1に対して何らかの行動(例えば、相互注視、接触、話しかけなど)を起こすと、例えばカメラ55からの撮像画像情報またはセンサ群56のセンサからの検知信号などを含むセンサ情報に基づいて周知の方法でその行動を検出した時をインタラクション開始とし、その状態が継続している状態を「インタラクション状態ST3」とする。また、インタラクション状態は、ロボット1がユーザAからの働きかけを失い、それと共にユーザAのロボット1への興味が喪失してから例えば所定時間が経過した時をインタラクション終了とする。インタラクション終了後、注目対象がない状態を「アイドリング状態ST4」とし、注目対象が例えば所定時間ないとユーザAが注目対象ではないと判断する。ロボット1がユーザAからの働きかけを失ったり、ユーザAがロボット1への興味を喪失したことは、例えばカメラ55からの撮像画像情報またはセンサ群56のセンサからの検知信号を含むセンサ情報に基づいて周知の方法で検出可能である。所定時間を計測するタイマは、例えばCPU51の内部タイマで形成可能である。
次に、情報提供管理部28について説明する。情報提供管理部28は、外部サーバ3からゲートウェイ部21を通じて要求される提供するべき情報の内容をユーザにタイミング良く出力するための機能モジュールである。外部サーバ3は、例えばニュースや天気を扱う情報コンテンツや、ユーザの生活を支援するためのスケジュールなどを提供可能であり、外部サーバ3からの情報は任意のタイミングでユーザ、内容、重要度または緊急性、有効期限を設定してロボット1に対してプッシュされる。ゲートウェイ部21は、外部サーバ3からの情報を、外部サーバ3の通信プロトコルに準じたメッセージ形式からPub/Sub message serviceに適合したメッセージ形式に変換する。情報提供管理部28とインタラクション状態管理部27とは互い独立したモジュールであるが、情報提供管理部28はインタラクション状態管理部27が管理する現在のインタラクション状態やユーザの特徴情報などを参照しながら情報提供を進める。情報提供管理部28は、以下に説明する「注意誘導行動」、「導入行動」、及び「情報提供行動」のロボット1の3つの行動を適宜選択して情報提供を行う。
注意誘導行動とは、ユーザの興味をロボット1に向けるための行動であり、主にユーザとのインタラクションが開始されていない場合に、ユーザに直接働きかけることなく、さりげなくユーザの興味をロボット1に引き付けることを目的としている。図5は、注意誘導行動を説明する図である。図5は、時間経過と注意誘導行動時のロボット1の総モータ動作量を任意単位で表す。ロボット1の総モータ動作量とは、モータ群59に含まれるモータの駆動量の総和を表す。図5に示すように、ロボット1は、外部サーバ3からの情報提供を受信すると、情報提供管理部28の制御下で注意誘導行動を行う。注意誘導行動では、ユーザを視覚的な強調効果を得るために、ロボット1は情報提供の受信までの待機状態の動きと比較して大きな動作、早い動作、または頻度の多い動作を行う。さらに聴覚的な効果として、例えばロボット1のため息や独り言などの発話を、情報提供の受信までの待機状態の音量(音量レベル)と比較して大きい音量(音量レベル)または多い頻度で入れる。これにより、ロボット1からさりげなくユーザの注意を促すことができる。なお、発話の音量(音量レベル)は、CPU51により周知の方法で制御可能である。
さらに、ユーザがロボット1に目を向けたタイミングで、例えばロボット1に静止動作による視線強調動作を行わせることで、視覚的な強調効果を得ることもできる。ユーザがロボット1に目を向けたタイミングは、例えばロボット1とユーザとのアイコンタクト(または、視線)を例えばカメラ55の撮像画像情報に基づいて周知の方法で検出することで検出可能である。ユーザが興味を持ってロボット1に近づいたり、ロボット1に触れたり、所定時間以上ロボット1との視線が一致(すなわち、ユーザによるロボット1の凝視)が発生すると、ロボット1は例えばカメラ55の撮像画像情報またはセンサ群56のセンサの検知信号に基づいてユーザ反応を検知してユーザとインタラクションを開始することをユーザに知らせる合図となるインタラクション開始反応を行い、ロボット1はインタラクション状態となる。情報提供管理部28は、インタラクション状態管理部27から出力される現在のインタラクション状態を確認して、振る舞い管理部22に注意誘導行動の指示を行うだけで良く、ロボット1のその他の行動はインタラクション状態管理部27が制御する。
図5において、注意誘導行動時以外のモータ動作量(平均)と注意誘導行動中のモータ動作量(平均)の差Q1及び、注意誘導行動中のモータ動作量(平均)と視線強調動作中のモータ動作量(平均)の差Q2に示すように、夫々の動作の前後で大きく動作量が変化することによって、ユーザに対して、ロボット1による視線強調動作を行うことができる。
導入行動とは、ユーザがロボット1に注意を促された後に、ユーザに直接働きかけることで、ユーザにロボット1の目的動作を予測して目的動作に注目するよう促すための動作である。導入行動は、ユーザにロボット1の目的動作に注目するよう促すために、目的動作の一部をシミュレーションするが、強調するために本来の行動を誇張して行う。ロボット1の目的動作が発話による情報提供であれば、導入行動は例えば「え〜っと」、「あのね」、「ねぇねぇ」などの発話によるフィラー(一般的には会話の間を埋めるために用いられる発話動作)とする。この例では、フィラーを強調してユーザの興味を引き付けるために、目的動作を行う際に想定している発話音量よりも大きくする。
導入行動から発話による情報提供動作までの動作の一例を、図6及び図7と共に説明する。図6及び図7において、縦軸は発話パワー(音量)を任意単位で示し、横軸は経過時間を任意単位で示す。
図6は、導入行動に対するユーザの反応が即座にある場合の一例を説明する図である。図6の例では、ロボット1は先ず導入行動を行う。この例では、導入行動は「え〜っと」という発話によるフィラーであり、ユーザの反応を待つ。ユーザの反応が確認されると、直前導入行動により再度「あのね」という発話によるフィラーを入れて、直ちに情報提供行動により「今日の天気は晴れだよ」という発話による情報提供を行う。導入行動時及び直前導入行動時の音量(導入音量レベル及び直前導入音量レベル)は、情報提供行動時の音量(情報提供音量レベル)及び上記注意誘導行動時の音量(音量レベル)より大きく設定することが望ましい。また、直前導入行動は、ユーザの反応が導入行動の開始から所定時間確認できない場合や、ユーザにロボット1への注意(または、興味)を持続させたい場合などに挿入する。
一方、図7は、導入行動に対するユーザの反応が即座に得られず、導入行動を複数回実施する場合の一例を説明する図である。図7の例では、1回目の導入行動に対してユーザの反応が所定時間確認できない場合、2回目の導入行動を、1回目の導入行動より大きな音量(音量レベル)で行うことが望ましい。この例ではロボット1の発話によるフィラーを入れているので2回目の導入行動の音量(音量レベル)を1回目の導入行動より大きな音量(音量レベル)で行うが、例えばロボット1の動作による導入行動を入れる場合には、2回目の導入行動の動作量、動作頻度又は動作速度を1回目の動作行動より多くまたは速く設定することが望ましい。
発話によるフィラーは、例えば1回目の導入行動の場合は、「えーっと」、「うんと」、「あのー」、「うー」、「えっと」などみの比較的短い発話(行動)を用い、2回目以降では「えーっとね」、「ねぇねぇ」、「ねぇってば」、「ちょっとちょっと」、「ねぇ聞いて」などの1回目より長くユーザの傾聴を要求する発話(行動)を用いる。このとき、発話と同時に、身体を静止し、ユーザを見つめて軽く手を挙げるような動作を行い、ユーザの注意を引く行動を合わせて取ることが望ましい。直前導入行動では、ロボット1が提供しようとしている情報の本題に入る前に、「あのね」、「そうそう」、「聞いて」などの発話によるフィラーを入れてユーザに直接働きかけることで、ユーザがより傾聴姿勢を継続しやすくする。直前導入行動後は、ロボット1はユーザの反応を確認することなく、直ちに情報提供行動に移行する。この例では、直前導入行動の発話の音量(音量レベル)は1回目の導入行動の発話の音量(音量レベル)より小さい。
情報提供行動は、外部サーバ3から受信した目的の情報を提供する。この例では、情報提供行動は発話により「今日の天気は晴れだよ」なる情報提供を行うが、例えば表示部54を用いた表示により情報提供を行うようにしても良い。また、情報提供の発話の音量は、直前導入行動の発話の音量より小さい。さらに、この例では、誰に対しての情報提供であるか(すなわち、情報の提供相手)を明確にするため、ロボット1はユーザの顔を見て発話を行う。発話中のロボット1は、ユーザの反応を常に判定し、ユーザからの反応(特に視線)が失われた場合、もう一度ユーザの興味を引き込むために同じ内容を繰り返して発話する。
導入行動にロボット1の動作を含める場合、ロボット1の動作の大きさ、速度または頻度は、注意誘導行動時及び情報提供行動時のロボット1の動作の大きさ、速度または頻度より大きく設定することが望ましい。
図8は、ロボットの情報提供行動の一例を説明するフローチャートである。図8において、ロボット1とユーザとの間のインタラクション開始後の動作では、ステップS101で導入行動を行い、ステップS102で直前導入行動を行い、ステップS103で情報提供行動を行う。図8の例では、ロボット1とユーザとの間のインタラクション開始後の動作を示しているので、注意誘導行動は既に行われているものとする。
ステップS103の情報提供行動は、ステップS301〜S305を含む。ステップS301では、先ず発話開始処理を行い情報の発話を開始する。ロボット1は、この例ではユーザの顔を見て発話する。ステップS302では、ユーザ反応評価処理を行いユーザがロボット1の発話に傾聴しているか否かを確認してユーザの反応を評価する。ステップS303では、発話が全て終了すると発話終了処理に遷移し、ユーザ反応評価処理を終了する。ステップS304では、結果判定処理を行い、先のユーザ反応評価処理により発話中にユーザが傾聴していることが確認されれば判定結果がYESとなり、処理は終了する。
一方、ユーザ反応評価処理によりユーザがロボット1から視線を逸らすなどして発話を聞いていないことが確認されると、判定結果がNOとなり処理はステップS305へ遷移する。ステップS305では、興味判定処理を行いユーザ反応評価処理における傾聴レベルを閾値と比較することでステップS101の導入行動に遷移するか、あるいは、ステップS102の直前導入行動に遷移するかを判定する。具体的には、ステップS305では、ユーザ反応評価処理における傾聴レベルが閾値以下であるか否かを判定し、判定結果がYESであれば処理はステップS101へ遷移して再度ユーザの引き込みを行う導入行動を行う。ユーザ反応評価処理における傾聴レベルが閾値を超えており判定結果がNOであると、処理はステップS102へ遷移して直前導入行動を行う。
ステップS302のユーザ反応評価処理では、例えばロボット1から発話中のユーザの反応を発話時間で正規化して、ユーザが常にロボット1の発話を傾聴している(例えば、ユーザの視線がロボット1に向けられている)場合は1.0、ユーザがロボット1の発話を傾聴していない(例えば、ユーザの視線がロボット1に向けられていない)場合は0.0とする。ステップS304およびステップS305における閾値は、例えば、ステップS304では0.8を閾値とし、当該閾値より大きい場合はYES、当該閾値より小さい場合はNOとし、ステップS305では、0.5を閾値とし、当該閾値より大きい場合はYES、当該閾値より小さい場合はNOとする。また、ステップS304の結果判定処理は、例えば情報の重要度または緊急性に応じて閾値を可変設定するようにしても良い。例えば、重要度または緊急性が比較的高い情報については閾値を比較的高い値に設定し、重要度または緊急性が比較的低い、例えば時報のような情報については閾値を0.0などを含む比較的低い値に設定しても良い。ステップS305の興味判定処理で用いる閾値についても、上記と同様に情報の重要度または緊急性に応じて可変設定するようにしても良い。
図9は、注意誘導行動の一例を説明するフローチャートである。図9において、注意誘導行動のステップS100は、ステップS51,S52を含む。ステップS51では、さりげなくユーザの注意を引くアピール動作を行う。アピール動作では、例えばユーザがロボット1に気付いていなければ、独り言を発話したり、そわそわする動作をしたり、ユーザをじっと見つめたりする。ステップS52では、アピール動作に対するユーザの反応があるか否かを判定する。ユーザがロボット1に気付いて見つめ返したり、ロボット1に触れたり、ロボット1に声をかけたりすると、ロボット1はカメラ55からの撮像画像情報またはセンサ群56のセンサからの検知信号を含むセンサ情報に基づいてユーザの反応を検知し、ユーザの反応からユーザのロボット1に対する興味があるか否かを判定する。ステップS52の判定結果がNOであると処理はステップS51へ戻る。一方、ステップS52の判定結果がYESであると、処理は終了して導入行動へ遷移する。
図10は、導入行動の一例を説明するフローチャートである。図10において、導入行動のステップS101は、ステップS61〜S63を含む。ステップS61では、上記の如きフィラー(一種のつなぎ動作)を行い、ロボット1が発話を行うことをユーザに事前に知らせるために、例えば「え〜っと」、「あの〜」などの発話を行う。ステップS62では、フィラーの実行から所定時間(例えば10秒)を超えているか否か、すなわち、タイムアウトを判定する。ステップS52の判定結果がYESであると、処理はステップS61へ戻る。一方、ステップS62の判定結果がNOであると、ステップS63では、フィラーに対するユーザの反応があるか否かを判定する。ステップS63の判定結果がNOであると、処理はステップS62へ戻る。一方、ステップS63の判定結果がYESであると、処理は終了して情報提供行動に遷移する。ユーザの反応は、ユーザがロボット1に気付いている場合は、例えばユーザがロボット1を凝視したりロボット1とのふれあいの継続している状態から判定可能であり、ユーザがロボット1に気づいていない場合は、例えばユーザの振り返りやロボット1の視線との一致の度合い、ユーザによる声の応答などから判定可能である。
図11は、ロボットが提供する情報の重要度または緊急性が低い場合の動作の一例を示すフローチャートである。図11及び後述する図12及び図13において、図8〜図10と同一ステップには同一符号を付し、その説明は省略する。また、図11乃至図13において、図8と共に説明したステップS102の直前導入行動の図示は省略する。重要度または緊急性が低い情報とは、例えばロボット1からユーザへのお勧め情報である。
インタラクション状態では、ユーザがロボット1の存在に気付き、かつ、ユーザがロボット1に興味(ユーザによるロボット1の凝視、ロボット1の行動に対するユーザの反応など)がある。ロボット1がユーザとインタラクション状態にないP1の場合は、ステップS100の注意誘導行動の後、インタラクション後にステップS101の導入行動及びステップS103の情報提供行動を行う。ロボット1がユーザとの間で既にインタラクション状態にあるP2の場合、インタラクション後にステップS101の導入行動及びステップS103の情報提供行動を行う。ロボット1が前回の情報提供から継続的に、かつ、所定時間内インタラクション状態にあるP3の場合、インタラクション後にステップS103の情報提供行動を行う。
ステップS103の情報提供行動では、図8と共に説明した処理を行う。例えば、ユーザが存在する場合、ロボット1は例えばユーザの顔を見ながら必要に応じて身振り手振りを行う。情報提供を実行してからユーザの反応評価に基づいてユーザから一定以上の興味反応が確認されれば、情報提供行動を終了する。
図12は、情報の重要度または緊急性が高い場合の動作の一例を示すフローチャートである。重要度または緊急性が高い情報とは、例えばロボット1からユーザへの急なスケジュール変更を知らせる情報である。
図12において、ロボット1がユーザとインタラクション状態にないP1の場合は、ステップS100の注意誘導行動の後、ステップS101の導入行動及びステップS103の情報提供行動を行う。ロボット1が前回の情報提供から継続的に、かつ、所定時間内インタラクション状態にあるP3の場合、インタラクション後にステップS103の情報提供行動を行う。なお、ステップS103の情報提供行動では、ユーザがロボット1による情報提供行動に気付いて興味反応が確認されるまで、あるいは情報提供の有効期限まで繰り返し実行する。
図13は、情報の重要度または緊急性が中程度の場合の動作の一例を示すフローチャートである。重要度または緊急性が中程度の情報とは、例えばロボット1からユーザへのスケジュールを知らせる情報である。
図13において、ロボット1がユーザとインタラクション状態にないP1の場合は、ステップS100の注意誘導行動の後、ステップS101の導入行動を行い、インタラクション後にステップS103の情報提供行動を行う。ロボット1が前回の情報提供から継続的に、かつ、所定時間内インタラクション状態にあるP3の場合、インタラクション後にステップS103の情報提供行動を行う。
注意誘導行動、導入行動、直前導入行動、及び情報提供行動は、いずれも音声または発話、ロボット1の腕などの動作(動き)、表示部54上の表示などの任意の組み合わせてあっても良く、音声または発話の大きさ(音量)、動作の大きさまたは速度、及び表示部54上の表示の色、明るさ、点滅速度などは、提供する情報の重要度または緊急性などに応じて適宜選定すれば良い。
次に、外部サーバ3から情報を受信してからロボット1がユーザに情報を提供するまでの動作について、図14と共に説明する。図14は、情報提供方法の一例を説明する図である。インタラクション状態管理部27、情報提供管理部28、振る舞い管理部22、及びユーザの反応について、時間経過に沿って情報受信から情報提供までを説明する。なお、ユーザの反応は、接触検知部24、顔検知部25、注意または興味判断部26、音声発話検知部23などから得られたセンサ情報に基づいて周知の方法で解釈可能である。センサ情報には、例えばカメラ55からの撮像画像情報、センサ群56のセンサからの検知信号、撮像画像情報または検知信号の解析結果を示す情報などが含まれる。ユーザの反応は、例えばロボット1の表示部54を形成するタッチパネルのユーザによる操作から検知しても良い。
図14において、ステップS1では、情報提供管理部28が外部サーバ3から情報を受信する情報受信処理を行う。ステップS2では、情報提供管理部28が外部サーバ3から情報を受信したことをトリガとして注意誘導開始を振る舞い管理部22に要求する。ステップS3では、振る舞い管理部22が注意誘導開始要求に応答して注意誘導時以外と比べてロボット1の動きを少し大きくして話したいことをアピールする注意誘導行動を開始する。
ステップS4では、ユーザがロボット1の動きが気になる興味反応を示し、例えばロボット1の視界内に接近する。この場合、ステップS5では、インタラクション状態管理部27がユーザの位置をセンサ情報から検出してユーザの位置のトラッキングを行う注目状態を開始する。ステップS6では、例えばユーザの視線がロボット1の視線と一致する反応を示す。ステップS7では、振る舞い管理部22が視線一致をトリガとしてロボット1を静止させて視線強調動作を行う。ステップS8では、インタラクション状態管理部27がユーザの反応を待つインタラクション準備状態となる。
ステップS9では、例えばユーザがロボット1に注視されたことが気になりロボット1に接近する興味反応を示す。ユーザのロボット1への興味は、例えば次のように判定することができる。音声発話検知部23はユーザの発話を検知して音声認識を行い、接触検知部24はユーザによるロボット1への接触を検知し、顔検知部25はユーザの表情の変化、距離、動き、視線などを検出する。注意または興味判断部26は音声発話検出部23、接触検知部24、及び顔検知部25の検出結果に重み付けをして検出結果を抽象化する。例えば、音声認識と顔検知と表情変化検知の結果が得られるとユーザが発話したと判断する。また、ユーザの顔検知を行う直前の顔の位置と現在の顔の位置の変化からユーザが振り返ったと判断する。これらの抽象化された判断結果から、ロボット1がユーザに対して働きかけた行動から例えば所定時間内に反応が検出されたとき、ユーザの反応があったと判断することができる。
ステップS10では、インタラクション状態管理部27がロボット1の注視に対してユーザが興味反応(接近)を示したことをセンサ情報から確認すると、ロボット1とユーザとの間のインタラクションが成立し、インタラクション状態になったことを検出する。ステップS11では、振る舞い管理部22がインタラクション動作を行い、ユーザをトラッキングしてユーザへロボット1への興味を促すインタラクションを継続する。ステップS12では、情報提供管理部28がこれからロボット1が発話することを例えば発話によるフィラーでユーザに知らせる導入行動を開始する。
ステップS13では、ユーザは発話によるフィラーに対して、例えばロボット1が発話する内容を予測してロボットを見つめ返し、ユーザとロボット1とが相互凝視の状態となる。ステップS14では、情報提供管理部28がロボット1による発話の念を押すようにフィラーを挿入する直前導入行動を開始する。ステップS15では、情報提供管理部28が情報提供行動を開始し、例えば発話による情報提供を開始する。
ステップS16では、ユーザがロボット1の発話内容を聞いていることを、例えばユーザとロボット1とが相互凝視の状態にあることから確認する。ステップS17では、情報提供管理部28がユーザがロボット1の発話内容を聞いていることを確認しているので、提供するべき情報がなくなると情報提供行動を終了する。ステップS18では、情報提供管理部28がユーザに情報を提供できたことを外部サーバ3に通知する終了通知を行う。ステップS19では、ユーザがロボット1から離れた例えばロボット1(カメラ55)の視界から外れる。ステップS20では、インタラクション状態管理部27がユーザがロボット1の視界から外れたことをセンサ情報から検出するとアイドリング状態に遷移する。
例えば、外部サーバ3からの情報受信時にロボット1とユーザとのインタラクションが既に始まっており、当該ユーザが情報提供対象である場合には、図14においてステップS12の導入行動から処理を始めれば良い。また、情報提供が短い期間に連続して行われている場合は、導入行動も省略し、ステップS15の情報提供行動の開始から始めても良い。図14の情報提供方法では、ユーザがロボット1の注意誘導に気づかない場合には、最終的に情報提供が行われないこともある。ユーザにとってそれほど重要度または緊急性が高くないと設定された情報については、ロボット1がさりげなくアピールするものの、ロボット1の発話まで至らないことで、ロボット1が発話してしまうことでユーザに邪魔または迷惑になる場合と比較すると、ユーザの心理的な負担を軽減可能となる。一方、ユーザは、ロボット1が気になった場合は、ロボット1に対して興味を示す自然な反応(例えば、ロボット1と目を合わせる、ロボット1に触れる、ロボット1の方を振り返るなど)を示すことで容易に情報提供を受けることができる。なお、図14に示す処理の途中でユーザの興味または反応がないと判断された場合(例えば、導入行動の後のユーザの反応が所定時間以上ない)は、情報提供行動が終了していなければ、再び最初のステップS2に戻る。
次に、ユーザにより確実に情報を提供する場合の情報提供方法について、図15と共に説明する。図15は、重要度が高い場合の情報提供方法の一例を説明する図である。図15中、図14と同一ステップには同一符号を付し、その説明は省略する。
図15において、ステップS3の注意誘導行動に対して、ユーザの反応がなくインタラクションが開始できない場合、ステップS12の導入行動を行い、直接ユーザに呼びかけることでユーザ反応を待つ。ステップS13以降の処理は、図14の場合と同様である。
次に、第2実施例について説明する。第2実施例におけるロボット内のコントローラの機能構成と、端末装置の一例であるロボットのハードウェア構成は、夫々上記第1実施例の場合と同様である。また、第2実施例における情報提供方法は、基本的には上記第1実施例と同様であるが、第2実施例ではロボット1の発話及び動作に加え、ロボット1の少なくとも一部が発光または点滅する。
つまり、ロボット1の一部分(例えば、頬や目)あるいはロボット1全体が発光したり、発光色を変えたり、点滅したりする構成であれば、注意誘導として、注意誘導時以外と異なる色、異なる明るさ、異なる点滅速度とすることで、ユーザの注意を引き付けることができる。例えば、注意誘導時以外はロボット1の頬が水色でゆっくり点滅するが、注意誘導時は頬が赤色となって点滅頻度が多くなるといった区別が可能である。
次に、第3実施例について説明する。第3実施例におけるロボット内のコントローラの機能構成と、端末装置の一例であるロボットのハードウェア構成は、夫々上記第1実施例の場合と同様である。また、第3実施例における情報提供方法は、基本的には上記第1実施例と同様であるが、第3実施例では、導入行動における発話によるフィラーの音量レベルについて、図13に示したインタラクションが無い状態において導入行動が実行されるような場合では、発話によるフィラーの音量レベルを、初回実行時は情報提供行動時の音量レベルよりも小さい音量に設定し、1回目の導入行動に対してユーザの反応が所定時間確認できない場合、2回目以降、回を重ねるごとに徐々に音量レベルを上げる。この時、数回目の発話によるフィラーの音量レベルは、情報提供行動時の音量レベルよりも大きくてもよい。
上記の各実施例によれば、ユーザがロボットに対して興味を示したタイミングで情報を提供することで、邪魔や迷惑といった心理をユーザに与えにくく、興味の持続を確認しながら情報提供を行うことで情報伝達の確実性を向上させることができる。また、ロボットからユーザへの情報提供において、ユーザに不快感を与えることなく、ロボットとユーザと間のインタラクション状態に応じて柔軟にユーザの興味を引き付けながら情報を確実にユーザに伝達することができる。さらに、ロボットからユーザへの情報提供において、インタラクション状態に加え、情報の重要度または緊急性に応じて柔軟にユーザの興味を引き付けながら情報を確実にユーザに伝達することもできる。これにより、ユーザに迷惑・邪魔といった心理を与えないように情報を伝えることと、ユーザの興味を引きつけてユーザに対する情報伝達を確実に行うことの両立が可能となる。
端末装置は、コミュニケーションロボットに限定されるものではなく、自律走行型ロボット、設置型(または、固定型)ロボットを含む各種ロボットであっても良い。また、端末装置は物理ロボットに限定されるものではなく、例えばCGAであっても良い。CGAの場合、例えばロボットに相当する表示を端末装置の表示装置に表示することができる。この場合、ロボットの行動は、物理ロボットではなく表示装置上の仮想ロボットで実現できる。また、CGAの場合、ロボットの各部を異なる色で表示したり点滅させたりすることで、上記第2実施例と同様の効果を得ることもできる。従って、CGAの場合、端末装置自体は熊型ロボット、人間型ロボットなどのような生物型ロボットの外観を有する必要はない。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
センサ情報を出力するセンサ群と、
ユーザの反応を前記センサ情報に基づいて検出して前記ユーザとのインタラクション状態を管理するインタラクション状態管理部と、
情報提供の行動戦略を管理する情報提供管理部を備え、
前記情報提供管理部は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、端末装置。
(付記2)
前記インタラクション状態管理部は、前記ユーザからのバーバル及びノンバーバルな反応を、前記センサ群の視覚、触覚、及び聴覚に相当するセンサから出力されるセンサ情報に基づいて検出して前記インタラクション状態を管理し、
前記情報提供管理部は、前記インタラクション状態管理部で検出した反応を逐次評価し、評価に応じて前記導入行動、あるいは、前記直前導入行動に行動遷移し、
前記端末装置は生物型ロボットを形成することを特徴とする、付記1記載の端末装置。
(付記3)
前記注意誘導行動では、前記ユーザに直接働きかけない前記ロボットの発話または動作を、前記情報を受信するまでの待機状態の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記2記載の端末装置。
(付記4)
前記導入行動では、前記ユーザに前記情報提供行動を予測させるために前記ユーザに直接働きかける前記ロボットの発話または動作を、前記情報提供行動時の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記2または3記載の端末装置。
(付記5)
前記情報提供行動では、前記ロボットが前記ユーザとアイコンタクトのある状態で前記情報を提供することを特徴とする、付記2乃至4のいずれか1項記載の端末装置。
(付記6)
前記センサ情報の組み合わせ及び時間的変化に基づいて前記ユーザの反応を推定する注意または興味判断部をさらに備え、
前記注意または興味判断部は、前記注意誘導行動、導入行動または情報提供行動に対する前記ユーザの推定された反応と閾値の比較によりユーザ反応の有無を判定することを特徴とする、付記2乃至5のいずれか1項記載の端末装置。
(付記7)
前記インタラクション状態管理部は、
前記センサ情報に基づいてユーザの数及びユーザの特徴情報を逐次検出して管理すると共に、現在のインタラクション状態の有無、ユーザ、継続時間、及びユーザまでの距離を検出して管理するユーザ管理部と、
注目状態、インタラクション準備状態、インタラクション状態、及びアイドリング状態の4つの状態を定義してユーザからの反応に従って状態遷移を制御する状態管理部を有し、
前記注目状態は前記ロボットが前記ユーザをトラッキングしている状態、前記インタラクション準備状態はユーザと前記ロボット前記の視線が一致している状態、前記インタラクション状態はユーザが前記ロボットに対して働きかけを継続して発生している状態、及び前記アイドリング状態はユーザが前記ロボットに対する働きかけがない状態であることを特徴とする、付記2乃至6のいずれか1項記載の端末装置。
(付記8)
前記発話を出力するスピーカ群と、
前記ロボットの少なくとも一部を駆動して動作させる前記モータ群と、
前記インタラクション状態管理部及び前記情報提供管理部を含むプロセッサを更に備え、
前記端末装置は物理ロボットを形成することを特徴とする、付記1乃至7のいずれか1項記載の端末装置。
(付記9)
表示部を更に備え、
前記端末装置は仮想ロボットを前記表示部に表示してコンピュータグラフィックエージェント(CGA:Computer Graphics Agent)を形成することを特徴とする、付記1乃至7のいずれか1項記載の端末装置。
(付記10)
ロボットによる情報提供方法であって、
前記ロボットのプロセッサが前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理する第1のステップと、
前記プロセッサが情報提供の行動戦略を管理する第2のステップを含み、
前記第2のステップは、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、情報提供方法。
(付記11)
前記第1のステップは、前記ユーザからのバーバル及びノンバーバルな反応を、前記センサ群の視覚、触覚、及び聴覚に相当するセンサから出力されるセンサ情報に基づいて検出して前記インタラクション状態を管理し、
前記第2のステップは、前記プロセッサで検出した反応を逐次評価し、評価に応じて前記導入行動、あるいは、前記直前導入行動に行動遷移し、
前記ロボットは生物型ロボットを形成することを特徴とする、付記10記載の情報提供方法。
(付記12)
前記注意誘導行動では、前記ユーザに直接働きかけない前記ロボットの発話または動作を、前記情報を受信するまでの待機状態の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記11記載の情報提供方法。
(付記13)
前記導入行動では、前記ユーザに前記情報提供行動を予測させるために前記ユーザに直接働きかける前記ロボットの発話または動作を、前記情報提供行動時の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記11または12記載の情報提供方法。
(付記14)
前記情報提供行動では、前記ロボットが前記ユーザとアイコンタクトのある状態で前記情報を提供することを特徴とする、付記11乃至13のいずれか1項記載の情報提供方法。
(付記15)
前記プロセッサが前記センサ情報の組み合わせ及び時間的変化に基づいて前記ユーザの反応を推定する第3のステップをさらに含み、
前記第3のステップは、前記注意誘導行動、導入行動または情報提供行動に対する前記ユーザの推定された反応と閾値の比較によりユーザ反応の有無を判定することを特徴とする、付記11乃至14のいずれか1項記載の情報提供方法。
(付記16)
ロボットのプロセッサに情報提供処理を実行させるプログラムであって、
前記プロセッサに前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理させるインタラクション状態管理手順と、
前記プロセッサに情報提供の行動戦略を管理させる情報提供管理手順を含み、
前記情報提供管理手順は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、プログラム。
(付記17)
前記インタラクション状態管理手順は、前記ユーザからのバーバル及びノンバーバルな反応を、前記センサ群の視覚、触覚、及び聴覚に相当するセンサから出力されるセンサ情報に基づいて検出して前記インタラクション状態を管理し、
前記情報提供管理手順は、前記プロセッサで検出した反応を逐次評価し、評価に応じて前記導入行動、あるいは、前記直前導入行動に行動遷移し、
前記ロボットは生物型ロボットを形成することを特徴とする、付記16記載のプログラム。
(付記18)
前記注意誘導行動では、前記ユーザに直接働きかけない前記ロボットの発話または動作を、前記情報を受信するまでの待機状態の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記17記載のプログラム。
(付記19)
前記導入行動では、前記ユーザに前記情報提供行動を予測させるために前記ユーザに直接働きかける前記ロボットの発話または動作を、前記情報提供行動時の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、付記17または18記載のプログラム。
(付記20)
前記情報提供行動では、前記ロボットが前記ユーザとアイコンタクトのある状態で前記情報を提供することを特徴とする、付記17乃至19のいずれか1項記載のプログラム。
(付記21)
前記プロセッサに前記センサ情報の組み合わせ及び時間的変化に基づいて前記ユーザの反応を推定させる注意または興味判断手順をさらに含み、
前記注意または興味判断手順は、前記注意誘導行動、導入行動または情報提供行動に対する前記ユーザの推定された反応と閾値の比較によりユーザ反応の有無を判定することを特徴とする、付記17乃至20のいずれか1項記載の情報提供方法。
以上、開示の端末装置、情報提供方法及びプログラムを実施例により説明したが、本発明は上記実施例に限定されるものではなく、本発明の範囲内で種々の変形及び改良が可能であることは言うまでもない。
1 ロボット
2 コントローラ
21 ゲートウェイ部
22 振る舞い管理部
23 音声発話検知部
24 接触検知部
25 顔検知部
26 注意または興味判断部
27 インタラクション状態管理部
28 情報提供管理部
29 動作調停情報管理部
30 コマンド受信部
31 モータ駆動部
32 出版/講読メッセージサービス
51 CPU
52 記憶部
55 カメラ
56 センサ群

Claims (5)

  1. センサ情報を出力するセンサ群と、
    ユーザの反応を前記センサ情報に基づいて検出して前記ユーザとのインタラクション状態を管理するインタラクション状態管理部と、
    情報提供の行動戦略を管理する情報提供管理部を備え、
    前記情報提供管理部は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報の提供相手を明確にするために前記ユーザの注視を伴う情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、端末装置。
  2. 前記インタラクション状態管理部は、前記ユーザからのバーバル及びノンバーバルな反応を、前記センサ群の視覚、触覚、及び聴覚に相当するセンサから出力されるセンサ情報に基づいて検出して前記インタラクション状態を管理し、
    前記情報提供管理部は、前記インタラクション状態管理部で検出した反応を逐次評価し、評価に応じて前記導入行動、あるいは、前記直前導入行動に遷移し、
    前記端末装置は生物型ロボットを形成することを特徴とする、請求項1記載の端末装置。
  3. 前記注意誘導行動では、前記ユーザに直接働きかけない前記ロボット発話または動作を、前記注意誘導行動時以外の発話の音量または頻度、動作の大きさ、速度または頻度より大きく設定して行うことを特徴とする、請求項1または2記載の端末装置。
  4. ロボットによる情報提供方法であって、
    前記ロボットのプロセッサが前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理する第1のステップと、
    前記プロセッサが情報提供の行動戦略を管理する第2のステップを含み、
    前記第2のステップは、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、情報提供方法。
  5. ロボットのプロセッサに情報提供処理を実行させるプログラムであって、
    前記プロセッサに前記ロボットのセンサ群が出力するセンサ情報に基づいてユーザの反応を検出して前記ロボットと前記ユーザとのインタラクション状態を管理させるインタラクション状態管理手順と、
    前記プロセッサに情報提供の行動戦略を管理させる情報提供管理手順を含み、
    前記情報提供管理手順は、前記ユーザをインタラクションに引き込む注意誘導行動、発話することをユーザに予想させる導入行動、及び情報をユーザに提供する情報提供行動を、前記インタラクション状態に応じて選択し、必要に応じて繰り返すことで前記ユーザに情報提供を行うことを特徴とする、プログラム。
JP2012111812A 2012-05-15 2012-05-15 端末装置、情報提供方法及びプログラム Pending JP2013237124A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012111812A JP2013237124A (ja) 2012-05-15 2012-05-15 端末装置、情報提供方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012111812A JP2013237124A (ja) 2012-05-15 2012-05-15 端末装置、情報提供方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2013237124A true JP2013237124A (ja) 2013-11-28

Family

ID=49762631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111812A Pending JP2013237124A (ja) 2012-05-15 2012-05-15 端末装置、情報提供方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2013237124A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015190562A1 (ja) * 2014-06-11 2015-12-17 シャープ株式会社 出力メッセージ決定装置、出力メッセージ決定装置の制御方法、履歴管理装置、および書き込みデータ送信指示装置
JP2016012341A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム、システム及びプログラム
JP2016052502A (ja) * 2014-09-03 2016-04-14 株式会社国際電気通信基礎技術研究所 講話システム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
JPWO2016068262A1 (ja) * 2014-10-29 2017-08-10 京セラ株式会社 コミュニケーションロボット
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
US20180093625A1 (en) 2016-09-30 2018-04-05 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
CN108698231A (zh) * 2016-02-25 2018-10-23 夏普株式会社 姿势控制装置、机器人及姿势控制方法
JPWO2017187620A1 (ja) * 2016-04-28 2018-11-22 富士通株式会社 ロボット
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020100488A1 (ja) * 2018-11-13 2020-05-22 株式会社日立製作所 コミュニケーションロボット
WO2023017745A1 (ja) * 2021-08-10 2023-02-16 本田技研工業株式会社 コミュニケーションロボット、コミュニケーションロボット制御方法、およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034273A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd ロボット発話中の動作プログラム生成装置及びロボット
JP2006123136A (ja) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006272471A (ja) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004034273A (ja) * 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd ロボット発話中の動作プログラム生成装置及びロボット
JP2006123136A (ja) * 2004-11-01 2006-05-18 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2006272471A (ja) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2008254122A (ja) * 2007-04-05 2008-10-23 Honda Motor Co Ltd ロボット
JP2008279529A (ja) * 2007-05-09 2008-11-20 Honda Motor Co Ltd 移動型ロボット

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012341A (ja) * 2014-06-05 2016-01-21 ソフトバンク株式会社 行動制御システム、システム及びプログラム
WO2015190562A1 (ja) * 2014-06-11 2015-12-17 シャープ株式会社 出力メッセージ決定装置、出力メッセージ決定装置の制御方法、履歴管理装置、および書き込みデータ送信指示装置
JPWO2015190562A1 (ja) * 2014-06-11 2017-04-20 シャープ株式会社 出力メッセージ決定装置、出力メッセージ決定装置の制御方法、履歴管理装置、および書き込みデータ送信指示装置
JP2016052502A (ja) * 2014-09-03 2016-04-14 株式会社国際電気通信基礎技術研究所 講話システム
JP2016068197A (ja) * 2014-09-30 2016-05-09 富士ソフト株式会社 ロボット
JPWO2016068262A1 (ja) * 2014-10-29 2017-08-10 京セラ株式会社 コミュニケーションロボット
US10366689B2 (en) 2014-10-29 2019-07-30 Kyocera Corporation Communication robot
JP2016215292A (ja) * 2015-05-15 2016-12-22 Kddi株式会社 ロボット動作生成装置およびプログラム
CN108698231A (zh) * 2016-02-25 2018-10-23 夏普株式会社 姿势控制装置、机器人及姿势控制方法
JPWO2017145929A1 (ja) * 2016-02-25 2018-10-25 シャープ株式会社 姿勢制御装置、ロボット及び姿勢制御方法
JPWO2017187620A1 (ja) * 2016-04-28 2018-11-22 富士通株式会社 ロボット
US11331808B2 (en) 2016-04-28 2022-05-17 Fujitsu Limited Robot
JP2017213612A (ja) * 2016-05-30 2017-12-07 トヨタ自動車株式会社 ロボットおよびロボットの制御方法
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
US10569727B2 (en) 2016-09-30 2020-02-25 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
CN107878465A (zh) * 2016-09-30 2018-04-06 本田技研工业株式会社 移动体控制装置和移动体
US20180093625A1 (en) 2016-09-30 2018-04-05 Honda Motor Co., Ltd. Mobile unit control device and mobile unit
JP2018052425A (ja) * 2016-09-30 2018-04-05 本田技研工業株式会社 移動体制御装置、及び移動体
WO2019163279A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019163279A1 (ja) * 2018-02-26 2021-02-18 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7363764B2 (ja) 2018-02-26 2023-10-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
WO2020100488A1 (ja) * 2018-11-13 2020-05-22 株式会社日立製作所 コミュニケーションロボット
JP2020078448A (ja) * 2018-11-13 2020-05-28 株式会社日立製作所 コミュニケーションロボット
CN112912152A (zh) * 2018-11-13 2021-06-04 株式会社日立制作所 交流机器人
CN112912152B (zh) * 2018-11-13 2022-07-22 株式会社日立制作所 交流机器人
JP7253900B2 (ja) 2018-11-13 2023-04-07 株式会社日立製作所 コミュニケーションロボット
WO2023017745A1 (ja) * 2021-08-10 2023-02-16 本田技研工業株式会社 コミュニケーションロボット、コミュニケーションロボット制御方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP2013237124A (ja) 端末装置、情報提供方法及びプログラム
US11810562B2 (en) Reducing the need for manual start/end-pointing and trigger phrases
JP2018180523A (ja) マン・マシン・ダイアログにおけるエージェント係属の管理
JP7348288B2 (ja) 音声対話の方法、装置、及びシステム
JP7053432B2 (ja) 制御装置、エージェント装置及びプログラム
JP2016076799A (ja) 家電管理システム、家電、リモコン装置、ロボット
US20080289002A1 (en) Method and a System for Communication Between a User and a System
US11373635B2 (en) Information processing apparatus that fades system utterance in response to interruption
CN111144539A (zh) 控制装置、智能体装置以及计算机可读存储介质
CN111192583A (zh) 控制装置、智能体装置以及计算机可读存储介质
JP2004234631A (ja) ユーザと対話型実体エージェントとの間の対話を管理するシステムおよび対話型実体エージェントによるユーザとの対話を管理する方法
CN116368562A (zh) 针对自动化助理启用自然对话
WO2017179262A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2023006033A1 (zh) 语音交互方法、电子设备及介质
KR102519599B1 (ko) 멀티모달 기반의 인터랙션 로봇, 및 그 제어 방법
KR20230156929A (ko) 적응적 사용자 상호 작용을 갖는 로봇형 컴퓨팅 디바이스
JP7084848B2 (ja) 制御装置、エージェント装置及びプログラム
KR20230003896A (ko) 지식 그래프를 이용하여 사용자의 상태 및 신체 부위의 사용량을 인식하기 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160705