JP4512830B2 - コミュニケーションロボット - Google Patents
コミュニケーションロボット Download PDFInfo
- Publication number
- JP4512830B2 JP4512830B2 JP2006042780A JP2006042780A JP4512830B2 JP 4512830 B2 JP4512830 B2 JP 4512830B2 JP 2006042780 A JP2006042780 A JP 2006042780A JP 2006042780 A JP2006042780 A JP 2006042780A JP 4512830 B2 JP4512830 B2 JP 4512830B2
- Authority
- JP
- Japan
- Prior art keywords
- mode
- communication
- robot
- subject
- target person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Description
下記特許文献1には、指示者が手振りや身振りで指示を出すと、その指示に応じた行動を始めるロボットが開示されている。このロボットは、指示者の姿勢と指示内容との関係が定義された設定ファイルを保持し、カメラで撮影した画像から人物の姿勢を認識して、その姿勢に対応した指示内容を実行する。
例えば、ロボットに付いて来るように合図すると、ロボットは、指示を出した人物に追従する。このとき、「ロボットが人間との距離を一定に保ちながら移動する場合に、安全を確保するための距離が第一の所定距離(例えば150cm)になるように移動する」、「人間との距離が第二の所定距離(例えば90cm)未満になった場合は停止する」、「人間との距離が第二の所定距離(例えば、90cm)以上〜第一の所定距離(例えば、150cm)未満になった場合は後退または歩調を合わせる」等の条件が設定されていると、ロボットの動作は、この条件を満たすように制御される。
例えば、接客係の手許にコントロール装置が置かれ、入店者を映すロボットのカメラの映像がコントロール装置に表示される。接客係は、この映像から来客を発見すると、遠隔操作でロボットを客に近付ける。接客係の顔は、コントロール装置のカメラで撮影されてロボットの表示画面に表示され、接客係の声はロボットに送られてスピーカから音声出力される。一方、客の顔は、ロボットのカメラで撮影されてコントロール装置に表示され、客の音声は、ロボットのマイクで集音されて接客係側に送られる。
そのため、コミュニケーションロボットとコントロール装置との間で映像及び音声をリアルタイムに送受信することができ、コントロール装置の操作者とロボットに対面している人とは、コミュニケーションを行うことができる。
しかし、通信手段を介してコミュニケーションを行う場合は、通信手段を通じて伝送された情報しかコミュニケーションに利用することができない。それ故、通信手段を使用する場合に、円滑なコミュニケーションを如何にして実現するかが大きな課題となる。
人と人とがロボットを介してコミュニケーションを行う場合は、少なくとも一方の人がロボットに対面しているから、対面コミュニケーションの利点を活用することが可能である。
ただ、そのためには、ロボットが、対面する人の五感に訴えるパフォーマンスを示す必要があり、また、通信手段を介してロボットと情報を交換する他方の人が、ロボットとの間で円滑なコミュニケーションを実現する必要がある。
このロボットに対面する第1の対象者は、ロボットの動作から、コミュニケーションの相手である第2の対象者の動作を知ることができる。第2の対象者は、通信手段を通じてロボットの行動及び周囲の状況を知ることにより、ロボットの位置に居た場合の動作を行うことができ、ロボットは、通信手段を通じて第2の対象者の動作の情報を得ることにより、第2の対象者が指示する方向に頭部を向けたり、第2の対象者の動作を真似たりすることができる。
このロボットは、展示のガイドロボットとして動作することができる。
このロボットは、身体的事情などで会場に来られない第2の対象者に代わって、彼の友人等(第1の対象者)とともに会場内を見て周り、会場内の状況を第2の対象者に伝える動作を行うことができる。
また、本発明のコミュニケーションロボットは、第2のモードにおいて、第2の対象者から指示された人物を同伴対象に設定し、当該第2のモードから移行した第3のモードにおいて、前記人物に従って移動しながら第1の対象者と第2の対象者とのコミュニケーションを媒介することができる。
第2の対象者は、モニタに表示された画像やスピーカからの音声でロボットの行動及び周囲の状況を知り、ロボットの位置に居た場合の動作を行うことができ、ロボットは、顔方向検出手段で検出された第2の対象者の顔方向、及び、指差し方向検出手段で検出された第2の対象者の指差し方向の情報を得ることにより、第2の対象者が指示する方向に頭部を向けたり、第2の対象者の動作を真似たりすることができる。
本発明の第1の実施形態では、博物館のガイド役を担当するコミュニケーションロボットについて説明する。
図1は、このコミュニケーションロボットと操作側装置とを示す模式図である。また、図2は、コミュニケーションロボットの構成を示すブロック図であり、図3は、操作側装置の構成を示すブロック図である。
腕151、152は、上げたり下げたりすることができる。頭部11は、首16の回転や傾斜により2自由度以上の自由度で動かすことができる。また、台車13は、車輪14の回転により任意の方向に移動することができる。
前側の胴体カメラ201〜203のうち、中央のカメラ202は正面を撮影範囲とし、右側のカメラ203は右方向を、また、左側のカメラ201は左方向をそれぞれ撮影範囲としている。そのため、前側の三台のカメラ201〜203によってロボット前方の全域が撮影される。同様に、背側の三台のカメラ(不図示)によってロボット10の後ろ側の全域が撮影される。
6個のモニタの内、下列のモニタ501、502、503は、それぞれ、ロボット10の前側に設置された胴体カメラ201、202、203の映像を表示し、上列のモニタ601、602、603は、それぞれ、背側に設置された三台の胴体カメラの映像を表示する。
また、頭部カメラ17の撮影方向と一致する下列モニタ501、502、503の画像上に、頭部カメラ17の画像53が重ねて表示される。例えば、ロボット10の頭部11が左を向いたときは、頭部カメラ17の画像53が左側のモニタ501の画像上に表示され、頭部11が右を向いたときは、頭部カメラ17の画像53が右側のモニタ503の画像上に表示される。
また、上列中央のモニタ602には、胴体カメラの画像に重ねて、ロボット10のCG像52が表示される。
この内、画像処理部63、画像解析部62、音声処理部66、音声合成部65、音声認識部64、障害物検知部70、駆動制御部69及び制御部68は、ロボット10に内蔵されたコンピュータやCPUがプログラムで規定された処理を実行することにより実現される。
また、図3に示すように、操作側装置80は、モニタ501〜503、601〜603の表示を制御する表示制御部90と、CG像52を作成するCG作成部89と、カメラ51の画像データを処理する画像処理部82と、カメラ51の画像を解析して専門家40の顔方向の検出831や指差し方向の検出832を行う画像解析部83と、マイク84と、スピーカ85と、音声処理部86と、データ記憶部87と、ロボット10との間で無線等によりデータを送受信する送受信部81と、各部の動作を制御する制御部88とを備えている。
この内、表示制御部90、CG作成部89、画像処理部82、画像解析部83及び制御部88は、操作側装置80に内蔵されたコンピュータやCPUがプログラムで規定された処理を実行することにより実現される。
このコミュニケーションロボット10は、「自律モード」において、周囲の人301(見学者)と自律的にコミュニケーションを行う。通常、このロボット10は、自律モードで動作し、状況に応じて対話モードや媒介モードに切替える。そして、それらのモードの動作が終了すると自律モードに戻る。
例えば、自律モードでは、
(1)前側及び背側の胴体カメラ201〜203の画像から、展示物の近くにいて、ロボット10の方を見ている人を検出する。
(2)(1)において該当者が検出されたときは、頭部11をその人の顔の方に向け、頭部カメラ17で顔を撮影する。
(3)頭部カメラ17で撮影した顔がS1秒以上ロボット10の方を見ていたら、その人の方へ移動して、その人からd1m離れた位置で停止する。
(4)(3)に続いて、展示物の説明文を音声合成で発声する。
(5)説明文の発声時には、予め指定された重要な言葉の後、あるいは、文の区切り箇所で説明を聞く見学者の方にロボット10の顔を向ける。
等の動作が設定される。
(1)操作側装置80から指示された方向にロボット10の頭部11を向ける。
(2)操作側装置80から指示されたパンフレットを、指示された人に渡す。
等の動作が設定される。
また、媒介モードでは、
(1)操作側装置80側の人物の顔が向く方向に頭部11を向ける。
(2)操作側装置80側の人物が指差す方向に腕151、152を上げる。
(3)操作側装置80から送られた音声を出力する。
等の動作が設定される。
(1)操作側装置80からロボット10に対する音声の指示が入力したときは、自律モードから対話モードに移行し、指示された動作が終了したときは、対話モードから自律モードに移行する。
(2)ロボット10の周囲の人からロボット10に向けて質問(発話)があったときは、自律モードから媒介モードに移行し、質問のやり取りが終了したときは、媒介モードから自律モードに移行する。
一方、操作側装置80のデータ記憶部87には、ロボット10の各種パラメータと実データとの関係を示すテーブル等が格納されている。
ロボット10は、前側及び背側の胴体カメラ201〜203で映した映像、並びに、頭部カメラ17で映した映像を、画像処理部63で標本化、量子化等の処理を施した後、送受信部61から操作側装置80に送信する。また、マイク25から入力した音声信号を音声処理部66でデジタルデータに変換し、送受信部61から操作側装置80に送信する。さらに、駆動制御部69が走行駆動部71、腕駆動部72及び首駆動部73の駆動制御に用いた制御パラメータを送受信部61から操作側装置80に送信する。
操作側装置80では、受信した前側及び背側の胴体カメラ201〜203の映像を表示制御部90が6台のモニタ501〜503、601〜603に分けて表示する(ロボット10の前側左の胴体カメラ201の映像を下列の向かって左のモニタ501に、前側中央の胴体カメラ202の映像を下列中央のモニタ502に、前側右の胴体カメラ203の映像を下列の向かって右のモニタ503に、胴体カメラ201の裏側の背側胴体カメラの映像を上列の向かって右のモニタ603に、胴体カメラ202の裏側の背側胴体カメラの映像を上列中央のモニタ602に、胴体カメラ203の裏側の背側胴体カメラの映像を上列の向かって左のモニタ601に、それぞれ表示する。)
また、CG作成部89は、ロボット10より受信した走行駆動部71、腕駆動部72及び首駆動部73の制御パラメータから、データ記憶部87のテーブルを参照して、ロボット10の走行方向、腕151、152の角度、頭部11の向き及び傾きを求め、ロボット10のCG画像を生成する。表示制御部70は、作成されたCG画像52を上列中央のモニタ602の画像に重ねて表示する。
また、受信した音声データを音声処理部86でアナログ信号に変換し、スピーカ85から音声出力する。
専門家40は、モニタ501〜503、601〜603に映る各種画像を見ることにより、ロボット10の周りの状況や、ロボット10の行動を知ることができる。
画像解析部62は、制御部68の指示に基づいて、前側及び背側の胴体カメラ201〜203の映像を解析し、展示物の近くに居てロボット10の方向に顔が向いている見学者を検出する。
画像解析により該当者が検出されると、制御部68は、駆動制御部69に対し、検出された方向に頭部11を向けるように指示し、駆動制御部69は、指示に従って首駆動部73を駆動し、頭部11の向きを変える。
画像解析部62は、頭部カメラ17の画像を解析し、見学者の顔を抽出する。制御部68は、抽出された顔がロボット10の方を向いている時間を計測し、その時間がS1秒を超えた場合に、ロボット10はその見学者と目が合った(アイコンタクトが成立した)と判断し、その見学者との距離がd1mになるまで近付くように駆動制御部69に指示する。駆動制御部69は、データ記憶部67の地図データを参照し、走行駆動部71を制御して、その見学者の方向にロボット10を進める。そして、障害物検知部70がその見学者との距離をd1mと検知した時点で停止する。
従って、ロボット10と目が合った見学者は、ロボット10から展示物の説明を受けることになる。
このようなロボット10の動作は、一般のガイドが説明の途中で視線を見学者の方に移し、見学者の方も、それに応じてガイドの方を見る動作(即ち、ガイドが「分かりますか」と目で問い、見学者が「分かっています」と目で答える動作)と同じ効果を生むことができ、対面する見学者との円滑なコミュニケーションを可能にする。
操作側装置80の専門家40は、モニタ501〜503に表示された頭部カメラ17の画像53の位置と表示内容、モニタ601〜603に表示されたCG像52、スピーカ85から流れる音声などにより、ロボット10がどの方向を見て何をしているかが容易に分かる。
専門家40の音声は、操作側装置80のマイク84で電気信号に変換され、音声処理部86でデジタルデータに変換される。制御部88は、このときの専門家40の姿を映したカメラ51の画像を解析するように画像解析部83に指示し、画像解析部83は、この画像から顔方向の検出処理831または指差し方向の検出処理832を実施する。制御部88は、検出された方向を示すデータと音声データとを、送受信部81を通じてロボット10に送信する。
制御部68は、操作側装置80から受信した方向を示すデータを駆動制御部69に伝え、頭部11を当該方向に向けるように指示する。駆動制御部69は、指示に従って首駆動部73を駆動し、頭部11を指定された方向に向ける。その結果、頭部カメラ17に、専門家40が「あの人」と言った見学者が映ることになる。
ロボット10は、対話モードにおいて設定されている動作が終了すると、自律モードに戻り、頭部カメラ17の画像を解析して見学者の顔を抽出する。抽出された顔がロボット10の方をS1秒以上向いているとき、その見学者との距離がd1mになるまで近付き、展示物の説明を開始する。
また、ロボット10に対してパンフレットの手渡しを指示する場合も、同様に、専門家40は、モニタ501〜503、601〜603に映るパンフレットを見ることにより(または、指差すことにより)「そのパンフレットをあの人にあげて」との言い方で指示を出すことができる。
ロボット11の制御部68は、まず、媒介モードに移行したことを操作側装置80に伝える。例えば、特定の音を操作側装置80のスピーカ24から鳴らしたり、操作側装置80のモニタ501〜503、601〜603の表示を特別の色の表示枠で囲んだりして、媒介モードへの移行を知らせる。
また、ロボット11は、操作側装置80から送られた回答の音声をスピーカ24から発声する。
ロボット11の制御部68は、操作側装置80から受信した専門家40の顔方向のデータと指差し方向のデータとを駆動制御部69に伝えて、頭部11の向きを顔方向に一致させ、腕151、152の向きを指差し方向に一致させるように指示する。駆動制御部69は、指示に従って首駆動部73及び腕駆動部72を駆動し、頭部11及び腕151、152を指定された方向に向ける。その結果、ロボット10は、専門家40と同じような姿勢をとることになる。
そのため、見学者は、専門家40と直接対面していないにも関わらず、ロボット10を見ることにより、専門家40と対面しているときのような円滑なコミュニケーションを行うことができる。また、専門家40は、「これ」とか「あれ」とか言う表現で見学者と意思の疎通を図ることができる。これは、見学者と専門家40との間で円滑なコミュニケーションが可能であることを示している。
質問のやり取りが終了すると、ロボット10の制御部68は、媒介モードから自律モードに戻る。
ロボット10によるモードの切り替えは自然に行われ、見学者には察知されない。そのため、見学者は、ロボットが高機能化していることを強く印象付けられることになる。
また、通信手段を介してロボット10に接触する専門家40は、ロボット10の行動を画像から詳細に知ることができ、かつ、自らの顔や手の向きをロボット10に伝えることができる。そのため、専門家40とロボット10との間では、対面しているときと同等の円滑なコミュニケーションが可能である。
また、ロボット10の周囲の見学者は、ロボット10を通じて専門家40の動作を見ることができるため、専門家40と対面している場合と同等の円滑なコミュニケーションが可能になる。
(1)ロボット10を正面から見たときの像(正面像)を上列の中央モニタ602に表示
(2)正面像の左右を逆にした左右逆像を上列の中央モニタ602に表示
(3)左右逆像を下列の中央モニタ502に表示
(4)ロボット10を背面から見たときの像(背面像)を下列の中央モニタ502に表示
(5)正面像を下列の中央モニタ502に表示
(6)背面像を上列の中央モニタ602に表示
等の方法が考えられる。
(2)の表示方法では、ロボット10の顔や手の左右の動きは、前面のモニタ表示と一致するが、実際の動きと逆像が表示される。背景の映像が専門家40から見て、左右が正しい画像なので、実際の状況と違う画像が表示されてしまう問題がある。
(3)の表示方法では、ロボット10の視点からの画像を表示する下列の中央モニタ502に逆像のCG像52を表示するので、(2)の表示方法より違和感は減る。即ち、専門家40は、このモニタ502を見る際に、ロボット10の視点を意識しているからである。ただし、この場合は、一般に重要な情報の含まれる正面の画像の一部がCG像により隠されてしまうという問題がある。
(4)の表示方法では、ロボット10の動作とモニタ502の位置関係とが一致しており、この点は良い。ただし、後ろ向きの像が表示されるため動作が分かり難い。それを防ぐには少し斜め後ろからの像に変えてもよい。また、(3)と同様に、正面の画像の一部がCG像により隠されてしまうという問題がある。また、ロボット10が後ろ向きであるため、特に対話モードでは使用者に好感を持たれない場合がある。
(5)の表示方法は、ロボット10が背側の胴体カメラを持たない場合には採用される表示方法であるが、その他の場合には特に利点がない。
(6)の表示方法は、ロボット10が後方を見ているように見えて、不自然であり、特に利点はない。
このように、各表示方法には、それぞれ特徴がある。そのため、複数のCG表示方法を用意して、使用者が好みにより選択できるようにしても良い。また、ロボット10のモードに応じて、CG表示方法を切り替えるようにしても良い(例えば、対話モードでは、CG像を(1)(2)(3)(5)のいずれかの方法で表示し、媒介モードでは(4)または(6)の方法で表示し、自律モードでは、対話モードまたは媒介モードと同一の方法で表示する。)。
本発明の第2の実施形態では、博物館に行けない人に代わって博物館を見学するコミュニケーションロボットについて説明する。
図6は、在宅者302の友人303とロボット10が連れ立って博物館を見学し、在宅者302が、ロボット10のカメラに映る映像を家の操作側装置80で見ている様子を模式的に示した図である。
ロボット10の構成は、第1の実施形態(図2)と同じである。また、操作側装置80の構成は、外形が小型になっているものの、機能的には第1の実施形態(図3)と変わりがない。
ロボット10のデータ記憶部67には、自律モード、対話モード及び媒介モードの各モードにおいて実行すべき動作や、一つのモードから他のモードに移る際の条件が次のように設定される。
(1)移動中に障害物を発見したとき、障害物の方にロボット10の頭部11を向ける。
(2)発見した障害物を回避する。
等の動作が設定される。
また、対話モードでは、
(1)操作側装置80から指定された場所を目標地点に設定する。
(2)操作側装置80から指定された人を同伴対象に設定する。
等の動作が設定される。
また、媒介モードでは、
(1)操作側装置80側の人物の顔が向く方向に頭部11を向ける。
(2)操作側装置80側の人物が指差す方向に腕151、152を上げる。
(3)操作側装置80から送られた音声を出力する。
(4)設定された目標地点まで移動する。
(5)同伴対象に設定された人に従って移動する。
等の動作が設定される。
(1)操作側装置80からロボット10に対する音声の指示が入力したときは、媒介モードから対話モードに移行し、指示された動作が終了したときは、対話モードから媒介モードに移行する。
(2)移動中に障害物を発見したときは、媒介モードから自律モードに移行し、ロボット10の動作と操作側装置80側の人物の動作とが一致したとき、自律モードから媒介モードに移行する。
在宅者302が、操作側装置80の画面に映る展示を指差して「これを見たい」と発声すると、ロボット10は、自身に対する指示であることを識別して、指示された場所を目標地点に設定する。また、在宅者302が、操作側装置80の画面に映る友人303を指差して「この人と一緒に行く」と発声すると、ロボット10は、自身に対する指示であることを識別して、その人を同伴対象に設定する。
ロボット10は、媒介モードに移行し、目標地点への移動、または、友人303に従う移動を開始する。
また、在宅者302が操作側装置80の画面上で見たい箇所に顔を向けると、ロボット10の頭部11が同じ方向を向き、頭部カメラ17が在宅者302の見たい方向を映し出す。
ロボット10が媒介モードに戻ると、在宅者302は、友人303と見学ルートの変更などを協議することになる。また、もしも、在宅者302が障害物に気付かなければ、自律モードのロボット10が障害物との衝突を回避する。
11 頭部
12 胴体
13 台車
14 車輪
16 首
17 頭部カメラ
23 超音波センサ
24 マイク
25 スピーカ
40 専門家
51 カメラ
52 CG像
61 送受信部
62 画像解析部
63 画像処理部
64 音声認識部
65 音声合成部
66 音声処理部
67 データ記憶部
68 制御部
69 駆動制御部
70 障害物検知部
71 走行駆動部
72 腕駆動部
73 首駆動部
80 操作側装置
81 送受信部
82 画像処理部
83 画像解析部
84 マイク
85 スピーカ
86 音声処理部
87 データ記憶部
88 制御部
89 CG作成部
90 表示制御部
151 腕
152 腕
201 胴体カメラ
202 胴体カメラ
203 胴体カメラ
301 見学者
302 在宅者
303 友人
501〜503 モニタ
601〜603 モニタ
831 顔方向検出
832 指差し方向検出
Claims (8)
- 移動可能な腕と、向きや傾きを変えることができる頭部と、カメラと、マイクロホンと、スピーカとを有し、第1の対象者と対面してコミュニケーションを行い、第2の対象者と通信手段を介してコミュニケーションを行うコミュニケーションロボットであって、
自律的に動作を行う第1のモードと、
前記第2の対象者から指示された動作を行う第2のモードと、
前記第2の対象者の動作を反映する動作を行い、前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介する第3のモードと
を切り替えて実行する制御部を有し、
前記制御部は、
前記第2の対象者から前記通信手段を介して音声の指示が入力されると、前記第1のモードから前記第2のモードに移行して、前記通信手段を通じて取得した前記第2の対象者の顔方向または指差し方向に前記頭部を向けて、前記第2の対象者から指示された動作を実行し、前記動作が終了すると、前記第2のモードから前記第1のモードに移行し、
前記第1の対象者から当該コミュニケーションロボットに向けて問い掛けがあると、前記第1のモードから前記第3のモードに移行して、前記頭部及び腕の方向を、前記通信手段を通じて取得した前記第2の対象者の顔方向及び指差し方向に一致させながら、前記第2の対象者から前記通信手段を通じて送られてきた音声を前記スピーカから発声することにより、前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介し、前記第1の対象者と前記第2の対象者とのやり取りが終了すると、前記第3のモードから前記第1のモードに移行する
ことを特徴とするコミュニケーションロボット。 - 請求項1に記載のコミュニケーションロボットであって、前記第1のモードにおいて、前記カメラの画像から当該コミュニケーションロボットの方を見ている対象者を検出し、検出された対象者の方向に前記頭部を向け、前記カメラの画像から前記対象者の顔画像を抽出して、当該コミュニケーションロボットの方を見ている時間を計測し、前記時間が所定時間を超えた場合に、当該対象者に近付く動作を行うことを特徴とするコミュニケーションロボット。
- 請求項1に記載のコミュニケーションロボットであって、前記第1のモードにおいて、前記カメラの画像から当該コミュニケーションロボットの方を見ている対象者を検出し、検出された対象者の方向に前記頭部を向け、前記カメラの画像から前記対象者の顔画像を抽出して、当該コミュニケーションロボットの方を見ている時間を計測し、前記時間が所定時間を超えた場合に、当該対象者に予め記録された音声データを前記スピーカから発声する動作を行うことを特徴とするコミュニケーションロボット。
- 請求項1から3のいずれかに記載のコミュニケーションロボットであって、前記第2のモードにおいて、前記第2の対象者から指示されたパンフレット等を指示された対象者に渡す動作を行うことを特徴とするコミュニケーションロボット。
- 移動可能な腕と、向きや傾きを変えることができる頭部と、カメラと、マイクロホンと、スピーカとを有し、第1の対象者と対面してコミュニケーションを行い、第2の対象者と通信手段を介してコミュニケーションを行うコミュニケーションロボットであって、
自律的に動作を行う第1のモードと、
前記第2の対象者から指示された動作を行う第2のモードと、
前記第2の対象者の動作を反映する動作を行い、前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介する第3のモードと
を切り替えて実行する制御部を有し、
前記制御部は、
前記第2の対象者から前記通信手段を介して音声の指示が入力されると、前記第3のモードから前記第2のモードに移行して、前記第2の対象者から指示された動作を実行し、前記動作が終了すると、前記第2のモードから前記第3のモードに移行して、前記頭部及び腕の方向を、前記通信手段を通じて取得した前記第2の対象者の顔方向及び指差し方向に一致させながら、前記第2の対象者から前記通信手段を通じて送られてきた音声を前記スピーカから発声することにより、前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介し、
移動中に障害物を発見すると、前記第3のモードから前記第1のモードに移行して、前記障害物の方に前記頭部を向け、前記通信手段を通じて取得した前記第2の対象者の顔方向が当該コミュニケーションロボットの前記頭部の向きに一致すると、前記第1のモードから前記第3のモードに移行する
ことを特徴とするコミュニケーションロボット。 - 請求項5に記載のコミュニケーションロボットであって、前記第2のモードにおいて、前記第2の対象者から指示された場所を目標地点に設定し、当該第2のモードから移行した前記第3のモードにおいて、前記目標地点まで移動しながら前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介することを特徴とするコミュニケーションロボット。
- 請求項5に記載のコミュニケーションロボットであって、前記第2のモードにおいて、前記第2の対象者から指示された人物を同伴対象に設定し、当該第2のモードから移行した前記第3のモードにおいて、前記人物に従って移動しながら前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介することを特徴とするコミュニケーションロボット。
- 移動可能な腕と、向きや傾きを変えることができる頭部と、カメラと、マイクロホンと、スピーカとを有し、第1の対象者と対面してコミュニケーションを行い、第2の対象者と通信手段を介してコミュニケーションを行うコミュニケーションロボットと、前記第2の対象者が前記コミュニケーションロボットへのアクセスに使用する操作側装置とを備えるコミュニケーションロボットシステムであって、
前記コミュニケーションロボットは、請求項1から請求項7のいずれかに記載の構成を有し、
前記操作側装置は、前記コミュニケーションロボットから前記通信手段を通じて送られた画像を表示するモニタと、前記コミュニケーションロボットから前記通信手段を通じて送られた音声を出力するスピーカと、前記第2の対象者の音声を電気信号に変換するマイクロホンと、前記第2の対象者を撮影するカメラと、前記カメラの画像から前記第2の対象者の顔方向を検出する顔方向検出手段と、前記第2の対象者の指差し方向を検出する指差し方向検出手段と、を備え、前記マイクロホンから入力した前記第2の対象者の音声、前記顔方向検出手段で検出された前記第2の対象者の顔方向、及び、前記指差し方向検出手段で検出された前記第2の対象者の指差し方向が、前記通信手段を通じて前記コミュニケーションロボットに送られることを特徴とするコミュニケーションロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006042780A JP4512830B2 (ja) | 2006-02-20 | 2006-02-20 | コミュニケーションロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006042780A JP4512830B2 (ja) | 2006-02-20 | 2006-02-20 | コミュニケーションロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007216363A JP2007216363A (ja) | 2007-08-30 |
JP4512830B2 true JP4512830B2 (ja) | 2010-07-28 |
Family
ID=38494156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006042780A Active JP4512830B2 (ja) | 2006-02-20 | 2006-02-20 | コミュニケーションロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4512830B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103752019A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 娱乐机器犬 |
KR20190047640A (ko) * | 2017-10-27 | 2019-05-08 | 서울대학교산학협력단 | 전력 및 모션 감응형 교육용 로봇 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009131914A (ja) * | 2007-11-29 | 2009-06-18 | Advanced Telecommunication Research Institute International | ロボット制御システム |
JP2009166184A (ja) * | 2008-01-17 | 2009-07-30 | Saitama Univ | ガイドロボット |
JP5453908B2 (ja) * | 2009-05-08 | 2014-03-26 | 日本電気株式会社 | ロボット装置 |
JP2011201002A (ja) * | 2010-03-26 | 2011-10-13 | Sony Corp | ロボット装置、ロボット装置の遠隔制御方法及びプログラム |
JP5610283B2 (ja) * | 2010-09-10 | 2014-10-22 | 株式会社日立製作所 | 外部機器制御装置、その外部機器制御方法及びプログラム |
JP2013099800A (ja) * | 2011-11-07 | 2013-05-23 | Fujitsu Ltd | ロボット、ロボットの制御方法及び制御プログラム |
CN103753580A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 家庭矛盾和解服务机器人 |
JP6788845B2 (ja) | 2017-06-23 | 2020-11-25 | パナソニックIpマネジメント株式会社 | 遠隔通信方法、遠隔通信システム及び自律移動装置 |
JP7119896B2 (ja) | 2018-10-24 | 2022-08-17 | トヨタ自動車株式会社 | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム |
JP7067414B2 (ja) | 2018-10-24 | 2022-05-16 | トヨタ自動車株式会社 | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム |
JP6651221B1 (ja) * | 2019-09-03 | 2020-02-19 | 廣美 畑中 | Ai活用のガイロボによる案内や不審者への応対及び対応方法。 |
WO2022097210A1 (ja) * | 2020-11-04 | 2022-05-12 | 本田技研工業株式会社 | ロボット |
WO2022097211A1 (ja) * | 2020-11-04 | 2022-05-12 | 本田技研工業株式会社 | ロボット |
KR102400143B1 (ko) * | 2020-11-12 | 2022-05-18 | 충북대학교 산학협력단 | 스마트폰의 영상통화에 기반하는 원격로봇의 자세 제어방법 및 장치 |
WO2024053767A1 (ko) * | 2022-09-08 | 2024-03-14 | 엘지전자 주식회사 | 안내 로봇 및 안내 로봇의 동작방법 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0634489B2 (ja) * | 1986-01-22 | 1994-05-02 | 株式会社トミー | 電話通達装置 |
JP2000349920A (ja) * | 1999-06-01 | 2000-12-15 | Interrobot Inc | 意思伝達装置 |
JP2001156930A (ja) * | 1999-11-30 | 2001-06-08 | Nippon Telegr & Teleph Corp <Ntt> | ゼスチャー伝送装置 |
JP2004048186A (ja) * | 2002-07-09 | 2004-02-12 | Seiko Epson Corp | コミュニケーション支援システム、コミュニケーション端末、動作制御データ蓄積端末及び端末用プログラム、並びにコミュニケーション支援方法 |
JP2004230479A (ja) * | 2003-01-28 | 2004-08-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いたコミュニケーションシステム |
JP2004261941A (ja) * | 2003-03-04 | 2004-09-24 | Sharp Corp | コミュニケーションロボットおよびコミュニケーションシステム |
JP2005012819A (ja) * | 2004-06-22 | 2005-01-13 | Seiko Epson Corp | コミュニケーション支援システム、コミュニケーション端末、動作制御データ蓄積端末および端末用プログラム、並びにコミュニケーション支援方法 |
JP2005193351A (ja) * | 2004-01-09 | 2005-07-21 | Honda Motor Co Ltd | 顔画像取得方法およびそのシステム |
JP2005238382A (ja) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2006033503A (ja) * | 2004-07-16 | 2006-02-02 | National Institute Of Information & Communication Technology | 動作間接伝達装置及び方法 |
-
2006
- 2006-02-20 JP JP2006042780A patent/JP4512830B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0634489B2 (ja) * | 1986-01-22 | 1994-05-02 | 株式会社トミー | 電話通達装置 |
JP2000349920A (ja) * | 1999-06-01 | 2000-12-15 | Interrobot Inc | 意思伝達装置 |
JP2001156930A (ja) * | 1999-11-30 | 2001-06-08 | Nippon Telegr & Teleph Corp <Ntt> | ゼスチャー伝送装置 |
JP2004048186A (ja) * | 2002-07-09 | 2004-02-12 | Seiko Epson Corp | コミュニケーション支援システム、コミュニケーション端末、動作制御データ蓄積端末及び端末用プログラム、並びにコミュニケーション支援方法 |
JP2004230479A (ja) * | 2003-01-28 | 2004-08-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットおよびそれを用いたコミュニケーションシステム |
JP2004261941A (ja) * | 2003-03-04 | 2004-09-24 | Sharp Corp | コミュニケーションロボットおよびコミュニケーションシステム |
JP2005193351A (ja) * | 2004-01-09 | 2005-07-21 | Honda Motor Co Ltd | 顔画像取得方法およびそのシステム |
JP2005238382A (ja) * | 2004-02-26 | 2005-09-08 | Advanced Telecommunication Research Institute International | コミュニケーションロボット |
JP2005012819A (ja) * | 2004-06-22 | 2005-01-13 | Seiko Epson Corp | コミュニケーション支援システム、コミュニケーション端末、動作制御データ蓄積端末および端末用プログラム、並びにコミュニケーション支援方法 |
JP2006033503A (ja) * | 2004-07-16 | 2006-02-02 | National Institute Of Information & Communication Technology | 動作間接伝達装置及び方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103752019A (zh) * | 2014-01-24 | 2014-04-30 | 成都万先自动化科技有限责任公司 | 娱乐机器犬 |
KR20190047640A (ko) * | 2017-10-27 | 2019-05-08 | 서울대학교산학협력단 | 전력 및 모션 감응형 교육용 로봇 |
KR102191488B1 (ko) | 2017-10-27 | 2020-12-15 | 서울대학교산학협력단 | 전력 및 모션 감응형 교육용 로봇 |
Also Published As
Publication number | Publication date |
---|---|
JP2007216363A (ja) | 2007-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4512830B2 (ja) | コミュニケーションロボット | |
JP5429462B2 (ja) | コミュニケーションロボット | |
JP4386367B2 (ja) | コミュニケーションロボット改良システム | |
KR20140033009A (ko) | 시각 장애인을 위한 광학 디바이스 | |
WO2017130486A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2018067785A (ja) | コミュニケーションロボットシステム | |
JP7120254B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP7102169B2 (ja) | 装置、ロボット、方法、及びプログラム | |
JP2009166184A (ja) | ガイドロボット | |
JPWO2019155735A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2024023193A (ja) | 情報処理装置及び情報処理方法 | |
JP2007160427A (ja) | ロボット制御システム | |
JPWO2017064926A1 (ja) | 情報処理装置及び情報処理方法 | |
JP7040521B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2019123744A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2005279896A (ja) | ロボット | |
JP2002366271A (ja) | 画像表示システムおよび画像表示方法 | |
WO2012008553A1 (ja) | ロボットシステム | |
US11792484B2 (en) | Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot | |
JP2004227276A (ja) | 人間のコミュニケーション行動記録システムおよび方法 | |
WO2022149496A1 (ja) | エンタテインメントシステムおよびロボット | |
WO2022149497A1 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
WO2023234378A1 (ja) | アバターおよび遠隔機械操作システム | |
JP2003333561A (ja) | モニタ画面表示方法、端末装置及びテレビ会議システム | |
WO2023079847A1 (ja) | 情報処理装置、情報処理方法および記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100413 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |