JP2007216363A - Communication robot - Google Patents

Communication robot Download PDF

Info

Publication number
JP2007216363A
JP2007216363A JP2006042780A JP2006042780A JP2007216363A JP 2007216363 A JP2007216363 A JP 2007216363A JP 2006042780 A JP2006042780 A JP 2006042780A JP 2006042780 A JP2006042780 A JP 2006042780A JP 2007216363 A JP2007216363 A JP 2007216363A
Authority
JP
Japan
Prior art keywords
robot
mode
communication
person
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006042780A
Other languages
Japanese (ja)
Other versions
JP4512830B2 (en
Inventor
Yoshinori Kuno
義徳 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saitama University NUC
Original Assignee
Saitama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saitama University NUC filed Critical Saitama University NUC
Priority to JP2006042780A priority Critical patent/JP4512830B2/en
Publication of JP2007216363A publication Critical patent/JP2007216363A/en
Application granted granted Critical
Publication of JP4512830B2 publication Critical patent/JP4512830B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Manipulator (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a communication robot capable of realizing smooth communication. <P>SOLUTION: The communication robot 10 performs the communication while facing a first object person 301, and performs the communication with a second object person 40 via a communication means. The communication robot performs a first mode for performing the autonomous operation, a second mode for performing the operation instructed from the second object person 40, and a third mode for performing the operation to reflect the operation of the second object person 40 and for mediating the communication with the first object person 301 and the second object person 40. The robot 10 can perform the smooth communication with the facing person 301, perform the smooth communication with the person 40 in contact via a communication means, and performs the smooth communication between the facing person 301 and the person 40 in contact via the communication means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、人間とコミュニケーションを行うロボットに関し、特に、円滑なコミュニケーションの実現を図るものである。   The present invention relates to a robot that communicates with humans, and in particular, to achieve smooth communication.

我が国では、ロボットに関する研究開発が盛んであり、多種類のロボットが製作されている。
下記特許文献1には、指示者が手振りや身振りで指示を出すと、その指示に応じた行動を始めるロボットが開示されている。このロボットは、指示者の姿勢と指示内容との関係が定義された設定ファイルを保持し、カメラで撮影した画像から人物の姿勢を認識して、その姿勢に対応した指示内容を実行する。
例えば、ロボットに付いて来るように合図すると、ロボットは、指示を出した人物に追従する。このとき、「ロボットが人間との距離を一定に保ちながら移動する場合に、安全を確保するための距離が第一の所定距離(例えば150cm)になるように移動する」、「人間との距離が第二の所定距離(例えば90cm)未満になった場合は停止する」、「人間との距離が第二の所定距離(例えば、90cm)以上〜第一の所定距離(例えば、150cm)未満になった場合は後退または歩調を合わせる」等の条件が設定されていると、ロボットの動作は、この条件を満たすように制御される。
In Japan, research and development related to robots is thriving, and many types of robots are manufactured.
Patent Document 1 below discloses a robot that starts an action in response to an instruction given by an instructor by hand gesture or gesture. This robot holds a setting file in which the relationship between the posture of the instructor and the instruction content is defined, recognizes the posture of the person from the image captured by the camera, and executes the instruction content corresponding to the posture.
For example, when signaling to follow the robot, the robot follows the person who issued the instruction. At this time, “when the robot moves while maintaining a constant distance from the human, the distance to ensure safety is the first predetermined distance (eg, 150 cm)”, “distance from the human Is stopped when the distance is less than the second predetermined distance (for example, 90 cm) "," the distance from the human being is greater than or equal to the second predetermined distance (for example, 90 cm) to less than the first predetermined distance (for example, 150 cm) If a condition such as “retreat or adjust the pace when it is reached” is set, the operation of the robot is controlled to satisfy this condition.

また、下記特許文献2には、離れて位置する二人のコミュニケーションを支援するロボットが記載されている。このロボットは、自律動作のための走行手段、駆動手段、各種センサ、コントローラ等と共に、スピーカ、マイク、カメラ、表示画面を備え、さらに、このロボットを遠隔操作するコントロール装置との通信手段を具備している。
例えば、接客係の手許にコントロール装置が置かれ、入店者を映すロボットのカメラの映像がコントロール装置に表示される。接客係は、この映像から来客を発見すると、遠隔操作でロボットを客に近付ける。接客係の顔は、コントロール装置のカメラで撮影されてロボットの表示画面に表示され、接客係の声はロボットに送られてスピーカから音声出力される。一方、客の顔は、ロボットのカメラで撮影されてコントロール装置に表示され、客の音声は、ロボットのマイクで集音されて接客係側に送られる。
そのため、コミュニケーションロボットとコントロール装置との間で映像及び音声をリアルタイムに送受信することができ、コントロール装置の操作者とロボットに対面している人とは、コミュニケーションを行うことができる。
特開2004−78316号公報 特開2004−261941号公報
Patent Document 2 listed below describes a robot that supports communication between two people who are located apart from each other. This robot includes a travel means, a drive means, various sensors, a controller, etc. for autonomous operation, as well as a speaker, a microphone, a camera, a display screen, and a communication means with a control device for remotely operating the robot. ing.
For example, a control device is placed in the hands of a customer service representative, and an image of a robot camera showing a store visitor is displayed on the control device. When the customer service staff finds a visitor from this video, the robot approaches the customer remotely. The face of the customer service is photographed by the camera of the control device and displayed on the robot display screen, and the voice of the customer service is sent to the robot and output from the speaker. On the other hand, the customer's face is photographed by the robot camera and displayed on the control device, and the customer's voice is collected by the robot microphone and sent to the customer service.
Therefore, video and audio can be transmitted and received between the communication robot and the control device in real time, and communication between the operator of the control device and the person facing the robot can be performed.
JP 2004-78316 A JP 2004-261194 A

人と人とが対面してコミュニケーションを行う場面では、例えば、いきなり「それを取って」と言われても「それ」が何か分かることが多い。これは、受け手側が周囲の状況や相手の行動に関する情報を五感で得ているためである。
しかし、通信手段を介してコミュニケーションを行う場合は、通信手段を通じて伝送された情報しかコミュニケーションに利用することができない。それ故、通信手段を使用する場合に、円滑なコミュニケーションを如何にして実現するかが大きな課題となる。
人と人とがロボットを介してコミュニケーションを行う場合は、少なくとも一方の人がロボットに対面しているから、対面コミュニケーションの利点を活用することが可能である。
ただ、そのためには、ロボットが、対面する人の五感に訴えるパフォーマンスを示す必要があり、また、通信手段を介してロボットと情報を交換する他方の人が、ロボットとの間で円滑なコミュニケーションを実現する必要がある。
In a situation where people communicate with each other face-to-face, for example, even if they suddenly say “take it”, they often know what it is. This is because the receiver side obtains information about the surrounding situation and the behavior of the other party with the five senses.
However, when communication is performed via communication means, only information transmitted through the communication means can be used for communication. Therefore, when using communication means, how to achieve smooth communication is a major issue.
When people communicate with each other via a robot, at least one person faces the robot, so that the advantage of face-to-face communication can be utilized.
However, for that purpose, it is necessary for the robot to show the performance that appeals to the five senses of the person who faces it, and the other person who exchanges information with the robot through the communication means communicates smoothly with the robot. It needs to be realized.

本発明は、こうした事情を考慮して創案したものであり、円滑なコミュニケーションを実現することができるコミュニケーションロボットを提供することを目的としている。   The present invention has been made in consideration of such circumstances, and an object thereof is to provide a communication robot capable of realizing smooth communication.

本発明は、第1の対象者と対面してコミュニケーションを行い、第2の対象者と通信手段を介してコミュニケーションを行うコミュニケーションロボットであって、自律的に動作を行う第1のモードと、第2の対象者から指示された動作を行う第2のモードと、第2の対象者の動作を反映する動作を行い、第1の対象者と第2の対象者とのコミュニケーションを媒介する第3のモードとを実行する。
このロボットに対面する第1の対象者は、ロボットの動作から、コミュニケーションの相手である第2の対象者の動作を知ることができる。
The present invention is a communication robot that communicates with a first target person and communicates with the second target person via a communication means, the first mode for autonomously operating, A second mode for performing an operation instructed by the second target person, a third mode for performing an operation reflecting the action of the second target person, and mediating communication between the first target person and the second target person. Execute the mode.
The first target person facing the robot can know the operation of the second target person who is the communication partner from the operation of the robot.

また、本発明のコミュニケーションロボットは、第1のモード、第2のモード及び第3のモードを状況に応じて切り替えて実行する。
そのため、対象者が望む形でコミュニケーションを行うことができる。
In addition, the communication robot according to the present invention executes the first mode, the second mode, and the third mode by switching them according to the situation.
Therefore, it is possible to communicate in a manner desired by the target person.

また、本発明のコミュニケーションロボットは、第2の対象者との間に、当該コミュニケーションロボットの行動及び周囲の状況を第2の対象者に伝え、第2の対象者の動作を当該コミュニケーションロボットに伝える伝達手段を有している。
第2の対象者は、ロボットの行動及び周囲の状況を知ることにより、ロボットの位置に居た場合の動作を行うことができ、ロボットは、伝達手段を通じて第2の対象者の動作の情報を得ることにより、第2の対象者の動作を真似ることができる。
In addition, the communication robot of the present invention communicates the behavior of the communication robot and the surrounding situation to the second target person and communicates the operation of the second target person to the communication robot. It has a transmission means.
By knowing the behavior of the robot and the surrounding situation, the second target person can perform an action when the robot is at the position of the robot, and the robot can obtain information on the action of the second target person through the transmission means. By obtaining, the operation of the second subject can be imitated.

また、本発明のコミュニケーションロボットは、第1のモードで、第1の対象者とのコミュニケーションを自律的に行う。
このロボットは、対面する第1の対象者とのコミュニケーションを自律的に行う。
In addition, the communication robot of the present invention autonomously communicates with the first target person in the first mode.
This robot autonomously communicates with the first target person facing.

また、本発明のコミュニケーションロボットは、第1のモードで、第1の対象者に展示物の説明を行い、第3のモードで、第1の対象者からの質問と第2の対象者による回答とのやり取りを媒介する。
このロボットは、展示のガイドロボットとして動作する。
In addition, the communication robot of the present invention explains the exhibit to the first target person in the first mode, and the question from the first target person and the answer by the second target person in the third mode. Mediates exchanges with
This robot operates as a guide robot for the exhibition.

また、本発明のコミュニケーションロボットは、第3のモードで、会場内の第1の対象者と会場外の第2の対象者との会話を媒介する。
このロボットは、身体的事情などで会場に来られない第2の対象者に代わって会場内を見て周り、会場内の状況を第2の対象者に伝える動作を行う。
In addition, the communication robot of the present invention mediates a conversation between the first target person in the hall and the second target person outside the hall in the third mode.
This robot looks around the venue on behalf of the second subject who cannot come to the venue due to physical circumstances, etc., and performs the operation of conveying the situation in the venue to the second subject.

本発明のコミュニケーションロボットは、対面する人に対して円滑なコミュニケーションを行うことができ、また、通信手段を介して接触する人との円滑なコミュニケーションが可能であり、さらに、対面する人と通信手段を介して接触する人との間の円滑なコミュニケーションを取り持つことができる。   The communication robot according to the present invention can perform smooth communication with a person who meets the person, can smoothly communicate with a person who contacts through the communication means, and can communicate with the person who meets the person. You can have smooth communication with people who come in contact with you.

(第1の実施形態)
本発明の第1の実施形態では、博物館のガイド役を担当するコミュニケーションロボットについて説明する。
図1は、このコミュニケーションロボットと操作側装置とを示す模式図である。また、図2は、コミュニケーションロボットの構成を示すブロック図であり、図3は、操作側装置の構成を示すブロック図である。
(First embodiment)
In the first embodiment of the present invention, a communication robot in charge of a museum guide role will be described.
FIG. 1 is a schematic diagram showing the communication robot and the operation side device. FIG. 2 is a block diagram showing the configuration of the communication robot, and FIG. 3 is a block diagram showing the configuration of the operation side device.

図1に示すように、コミュニケーションロボット10は、頭部11と、首16と、胴体12と、台車13と、車輪14と、腕151、152とを備えている。また、頭部11の頂点には頭部カメラ17が設置され、胴体12には、前側に三台、背側に三台の胴体カメラ201、202、203と、マイク24と、スピーカ25とが設置され、また、台車13には複数の超音波センサ23が設置されている。
腕151、152は、上げたり下げたりすることができる。頭部11は、首16の回転や傾斜により2自由度以上の自由度で動かすことができる。また、台車13は、車輪14の回転により任意の方向に移動することができる。
前側の胴体カメラ201〜203のうち、中央のカメラ202は正面を撮影範囲とし、右側のカメラ203は右方向を、また、左側のカメラ201は左方向をそれぞれ撮影範囲としている。そのため、前側の三台のカメラ201〜203によってロボット前方の全域が撮影される。同様に、背側の三台のカメラ(不図示)によってロボット10の後ろ側の全域が撮影される。
As shown in FIG. 1, the communication robot 10 includes a head 11, a neck 16, a body 12, a carriage 13, wheels 14, and arms 151 and 152. A head camera 17 is installed at the apex of the head 11, and the body 12 has three body cameras 201, 202, 203, a microphone 24, and a speaker 25 on the front side and three on the back side. A plurality of ultrasonic sensors 23 are installed on the carriage 13.
The arms 151 and 152 can be raised and lowered. The head 11 can be moved with two or more degrees of freedom by rotating or tilting the neck 16. Further, the carriage 13 can move in an arbitrary direction by the rotation of the wheels 14.
Among the front body cameras 201 to 203, the center camera 202 has a shooting range in the front, the right camera 203 has a right direction, and the left camera 201 has a left range. Therefore, the entire area in front of the robot is photographed by the three cameras 201 to 203 on the front side. Similarly, the entire area behind the robot 10 is photographed by three cameras (not shown) on the back side.

また、操作側装置は、博物館の専門家40の部屋に設置され、6個のモニタ501〜503、601〜603と、専門家40を撮影するためのカメラ51とを備えている。
6個のモニタの内、下列のモニタ501、502、503は、それぞれ、ロボット10の前側に設置された胴体カメラ201、202、203の映像を表示し、上列のモニタ601、602、603は、それぞれ、背側に設置された三台の胴体カメラの映像を表示する。
また、頭部カメラ17の撮影方向と一致する下列モニタ501、502、503の画像上に、頭部カメラ17の画像53が重ねて表示される。例えば、ロボット10の頭部11が左を向いたときは、頭部カメラ17の画像53が左側のモニタ501の画像上に表示され、頭部11が右を向いたときは、頭部カメラ17の画像53が右側のモニタ503の画像上に表示される。
また、上列中央のモニタ602には、胴体カメラの画像に重ねて、ロボット10のCG像52が表示される。
The operation side device is installed in the room of the expert 40 in the museum, and includes six monitors 501-503, 601-603, and a camera 51 for photographing the expert 40.
Among the six monitors, the monitors 501, 502, and 503 in the lower row display images of the body cameras 201, 202, and 203 installed on the front side of the robot 10, respectively, and the monitors 601, 602, and 603 in the upper row display , Respectively, display images of three torso cameras installed on the back side.
Further, the image 53 of the head camera 17 is displayed in an overlapping manner on the images of the lower row monitors 501, 502, and 503 that coincide with the shooting direction of the head camera 17. For example, when the head 11 of the robot 10 turns to the left, the image 53 of the head camera 17 is displayed on the image of the left monitor 501, and when the head 11 turns to the right, the head camera 17 Is displayed on the image of the monitor 503 on the right side.
Further, a CG image 52 of the robot 10 is displayed on the monitor 602 in the center of the upper row so as to be superimposed on the image of the torso camera.

図2に示すように、コミュニケーションロボット10は、頭部カメラ17及び胴体カメラ201〜203の画像データを処理する画像処理部63と、これらの画像を解析する画像解析部62と、マイク25及びスピーカ24の音声を処理する音声処理部66と、音声合成部65と、音声認識部64と、超音波センサ23により障害物を検知する障害物検知部70と、走行駆動部71、腕駆動部72及び首駆動部73の駆動を制御する駆動制御部69と、データ記憶部67と、操作側装置との間で無線等によりデータを送受信する送受信部61と、各部の動作を制御する制御部68とを備えている。
この内、画像処理部63、画像解析部62、音声処理部66、音声合成部65、音声認識部64、障害物検知部70、駆動制御部69及び制御部68は、ロボット10に内蔵されたコンピュータやCPUがプログラムで規定された処理を実行することにより実現される。
As shown in FIG. 2, the communication robot 10 includes an image processing unit 63 that processes image data of the head camera 17 and the torso cameras 201 to 203, an image analysis unit 62 that analyzes these images, a microphone 25, and a speaker. A voice processing unit 66 that processes 24 voices, a voice synthesis unit 65, a voice recognition unit 64, an obstacle detection unit 70 that detects an obstacle using the ultrasonic sensor 23, a travel drive unit 71, and an arm drive unit 72. And a drive control unit 69 that controls the drive of the neck drive unit 73, a data storage unit 67, a transmission / reception unit 61 that transmits and receives data to and from the operation side device by wireless, and a control unit 68 that controls the operation of each unit. And.
Among these, the image processing unit 63, the image analysis unit 62, the voice processing unit 66, the voice synthesis unit 65, the voice recognition unit 64, the obstacle detection unit 70, the drive control unit 69, and the control unit 68 are built in the robot 10. This is realized by a computer or CPU executing a process defined by a program.

走行駆動部71は台車13を動かし、腕駆動部72は腕151、152を動かし、首駆動部73は首16を回転または傾斜させて頭部11の向きや傾きを変える。
また、図3に示すように、操作側装置80は、モニタ501〜503、601〜603の表示を制御する表示制御部90と、CG像52を作成するCG作成部89と、カメラ51の画像データを処理する画像処理部82と、カメラ51の画像を解析して専門家40の顔方向の検出831や指差し方向の検出832を行う画像解析部83と、マイク84と、スピーカ85と、音声処理部86と、データ記憶部87と、ロボット10との間で無線等によりデータを送受信する送受信部81と、各部の動作を制御する制御部88とを備えている。
この内、表示制御部90、CG作成部89、画像処理部82、画像解析部83及び制御部88は、操作側装置80に内蔵されたコンピュータやCPUがプログラムで規定された処理を実行することにより実現される。
The travel drive unit 71 moves the carriage 13, the arm drive unit 72 moves the arms 151 and 152, and the neck drive unit 73 rotates or tilts the neck 16 to change the direction and tilt of the head 11.
As shown in FIG. 3, the operation side device 80 includes a display control unit 90 that controls the display of the monitors 501 to 503 and 601 to 603, a CG creation unit 89 that creates a CG image 52, and an image of the camera 51. An image processing unit 82 that processes data, an image analysis unit 83 that analyzes an image of the camera 51 to detect a face direction 831 and a pointing direction 832 of the expert 40, a microphone 84, a speaker 85, An audio processing unit 86, a data storage unit 87, a transmission / reception unit 81 for transmitting / receiving data to / from the robot 10 by radio or the like, and a control unit 88 for controlling the operation of each unit are provided.
Among these, the display control unit 90, the CG creation unit 89, the image processing unit 82, the image analysis unit 83, and the control unit 88 execute processing specified by a program by a computer or CPU built in the operation side device 80. It is realized by.

このコミュニケーションロボット10は、図4に示すように、自律的に動作を行う「自律モード」、専門家40(即ち、通信手段を通じて情報を交換する人)とコミュニケーションを行い、専門家40の指示を実行する「対話モード」、及び、専門家40と見学者とのコミュニケーションを媒介する「媒介モード」のいずれかを実行する。
このコミュニケーションロボット10は、「自律モード」において、周囲の人301(見学者)と自律的にコミュニケーションを行う。通常、このロボット10は、自律モードで動作し、状況に応じて対話モードや媒介モードに切替える。そして、それらのモードの動作が終了すると自律モードに戻る。
As shown in FIG. 4, the communication robot 10 communicates with an “autonomous mode” that operates autonomously, an expert 40 (that is, a person who exchanges information through a communication means), and gives instructions from the expert 40. Either “interactive mode” to be executed or “mediation mode” to mediate communication between the expert 40 and the visitor is executed.
The communication robot 10 autonomously communicates with surrounding people 301 (visitors) in the “autonomous mode”. Normally, the robot 10 operates in an autonomous mode, and switches to a dialogue mode or a mediation mode depending on the situation. Then, when the operation in those modes ends, the mode returns to the autonomous mode.

ロボット10のデータ記憶部67には、展示物説明用のデータや会場の地図データが格納され、さらに、自律モード、対話モード及び媒介モードの各モードにおいて実行すべき動作や、一つのモードから他のモードに移る際の条件などが設定されている。
例えば、自律モードでは、
(1)前側及び背側の胴体カメラ201〜203の画像から、展示物の近くにいて、ロボット10の方を見ている人を検出する。
(2)(1)において該当者が検出されたときは、頭部11をその人の顔の方に向け、頭部カメラ17で顔を撮影する。
(3)頭部カメラ17で撮影した顔がS1秒以上ロボット10の方を見ていたら、その人の方へ移動して、その人からd1m離れた位置で停止する。
(4)(3)に続いて、展示物の説明文を音声合成で発声する。
(5)説明文の発声時には、予め指定された重要な言葉の後、あるいは、文の区切り箇所で説明を聞く見学者の方にロボット10の顔を向ける。
等の動作が設定される。
The data storage unit 67 of the robot 10 stores data for explaining the exhibits and map data of the venue, and further, the operation to be executed in each mode of the autonomous mode, the dialogue mode, and the mediation mode, and other operations from one mode to another. The conditions for moving to the mode are set.
For example, in autonomous mode,
(1) A person who is near the exhibit and looking at the robot 10 is detected from the images of the front and back body cameras 201 to 203.
(2) When a corresponding person is detected in (1), the head 11 is directed toward the person's face and the face is photographed by the head camera 17.
(3) If the face photographed by the head camera 17 is looking at the robot 10 for S1 seconds or longer, the face moves toward the person and stops at a position d1 m away from the person.
(4) Subsequent to (3), the explanatory text of the exhibit is uttered by voice synthesis.
(5) At the time of utterance of the explanatory sentence, the face of the robot 10 is directed to a visitor who hears the explanation after an important word specified in advance or at a sentence break point.
Etc. are set.

また、対話モードでは、
(1)操作側装置80から指示された方向にロボット10の頭部11を向ける。
(2)操作側装置80から指示されたパンフレットを、指示された人に渡す。
等の動作が設定される。
また、媒介モードでは、
(1)操作側装置80側の人物の顔が向く方向に頭部11を向ける。
(2)操作側装置80側の人物が指差す方向に腕151、152を上げる。
(3)操作側装置80から送られた音声を出力する。
等の動作が設定される。
In interactive mode,
(1) The head 11 of the robot 10 is directed in the direction instructed from the operation side device 80.
(2) The pamphlet instructed from the operation side device 80 is given to the instructed person.
Etc. are set.
In the medium mode,
(1) The head 11 is directed in the direction in which the face of the person on the operation side device 80 faces.
(2) Raise the arms 151 and 152 in the direction in which the person on the operation side device 80 points.
(3) The voice sent from the operation side device 80 is output.
Etc. are set.

また、モード間の移行の条件は、例えば、次のように設定される。
(1)操作側装置80からロボット10に対する音声の指示が入力したときは、自律モードから対話モードに移行し、指示された動作が終了したときは、対話モードから自律モードに移行する。
(2)ロボット10の周囲の人からロボット10に向けて質問(発話)があったときは、自律モードから媒介モードに移行し、質問のやり取りが終了したときは、媒介モードから自律モードに移行する。
一方、操作側装置80のデータ記憶部87には、ロボット10の各種パラメータと実データとの関係を示すテーブル等が格納されている。
Moreover, the conditions for transition between modes are set as follows, for example.
(1) When a voice instruction to the robot 10 is input from the operation side device 80, the mode shifts from the autonomous mode to the dialog mode, and when the commanded operation ends, the mode shifts from the dialog mode to the autonomous mode.
(2) When there is a question (speech) from a person around the robot 10 toward the robot 10, the mode shifts from the autonomous mode to the mediation mode, and when the exchange of the questions ends, the mode shifts from the mediation mode to the autonomous mode. To do.
On the other hand, the data storage unit 87 of the operation side device 80 stores a table indicating the relationship between various parameters of the robot 10 and actual data.

次に、このシステムの動作について説明する。
ロボット10は、前側及び背側の胴体カメラ201〜203で映した映像、並びに、頭部カメラ17で映した映像を、画像処理部63で標本化、量子化等の処理を施した後、送受信部61から操作側装置80に送信する。また、マイク25から入力した音声信号を音声処理部66でデジタルデータに変換し、送受信部61から操作側装置80に送信する。さらに、駆動制御部69が走行駆動部71、腕駆動部72及び首駆動部73の駆動制御に用いた制御パラメータを送受信部61から操作側装置80に送信する。
操作側装置80では、受信した前側及び背側の胴体カメラ201〜203の映像を表示制御部90が6台のモニタ501〜503、601〜603に分けて表示する(ロボット10の前側左の胴体カメラ201の映像を下列の向かって左のモニタ501に、前側中央の胴体カメラ202の映像を下列中央のモニタ502に、前側右の胴体カメラ203の映像を下列の向かって右のモニタ503に、胴体カメラ201の裏側の背側胴体カメラの映像を上列の向かって右のモニタ603に、胴体カメラ202の裏側の背側胴体カメラの映像を上列中央のモニタ602に、胴体カメラ203の裏側の背側胴体カメラの映像を上列の向かって左のモニタ601に、それぞれ表示する。)
Next, the operation of this system will be described.
The robot 10 performs processing such as sampling and quantization on the images projected by the front and back torso cameras 201 to 203 and the image projected by the head camera 17 by the image processing unit 63, and then transmitted and received. The data is transmitted from the unit 61 to the operation side device 80. The audio signal input from the microphone 25 is converted into digital data by the audio processing unit 66 and transmitted from the transmission / reception unit 61 to the operation side device 80. Further, the drive control unit 69 transmits control parameters used for drive control of the travel drive unit 71, the arm drive unit 72, and the neck drive unit 73 from the transmission / reception unit 61 to the operation side device 80.
In the operation-side device 80, the display controller 90 divides and displays the received images of the front and back body cameras 201 to 203 on the six monitors 501 to 503 and 601 to 603 (the front left body of the robot 10). The image of the camera 201 is directed to the left monitor 501 toward the lower row, the image of the front-side torso camera 202 is directed to the monitor 502 at the center of the lower row, and the image of the front right torso camera 203 is directed to the right monitor 503 toward the lower row. The image of the back fuselage camera on the back side of the torso camera 201 is displayed on the right monitor 603 toward the upper row, the image of the back fuselage camera on the back side of the torso camera 202 is displayed on the monitor 602 in the center of the upper row, and the back side of the torso camera 203 Are displayed on the left monitor 601 toward the upper row.)

また、表示制御部70は、ロボット10より受信した制御パラメータの中の首駆動部73の制御パラメータを基に、データ記憶部87に格納されたテーブルを参照して、ロボット10の頭部11の向き及び傾きを求め、頭部カメラ17の撮影方向と一致する下列モニタ501、502、503の画像上に、頭部カメラ17の画像53を重ねて表示する。
また、CG作成部89は、ロボット10より受信した走行駆動部71、腕駆動部72及び首駆動部73の制御パラメータから、データ記憶部87のテーブルを参照して、ロボット10の走行方向、腕151、152の角度、頭部11の向き及び傾きを求め、ロボット10のCG画像を生成する。表示制御部70は、作成されたCG画像52を上列中央のモニタ602の画像に重ねて表示する。
また、受信した音声データを音声処理部86でアナログ信号に変換し、スピーカ85から音声出力する。
専門家40は、モニタ501〜503、601〜603に映る各種画像を見ることにより、ロボット10の周りの状況や、ロボット10の行動を知ることができる。
In addition, the display control unit 70 refers to the table stored in the data storage unit 87 based on the control parameters of the neck driving unit 73 among the control parameters received from the robot 10, so that the head 11 of the robot 10 The direction and inclination are obtained, and the image 53 of the head camera 17 is displayed in an overlapping manner on the images of the lower monitors 501, 502, and 503 that coincide with the shooting direction of the head camera 17.
Further, the CG creation unit 89 refers to the table of the data storage unit 87 based on the control parameters of the travel drive unit 71, the arm drive unit 72, and the neck drive unit 73 received from the robot 10, and the travel direction and arm of the robot 10. The angles of 151 and 152 and the direction and inclination of the head 11 are obtained, and a CG image of the robot 10 is generated. The display control unit 70 displays the created CG image 52 so as to be superimposed on the image of the monitor 602 at the center of the upper row.
The received audio data is converted into an analog signal by the audio processor 86 and output from the speaker 85 as audio.
The expert 40 can know the situation around the robot 10 and the behavior of the robot 10 by looking at various images displayed on the monitors 501 to 503 and 601 to 603.

自律モードのロボット10では、制御部68が、データ記憶部67に設定された自律モード時の動作を実行すべく各部を制御する。
画像解析部62は、制御部68の指示に基づいて、前側及び背側の胴体カメラ201〜203の映像を解析し、展示物の近くに居てロボット10の方向に顔が向いている見学者を検出する。
画像解析により該当者が検出されると、制御部68は、駆動制御部69に対し、検出された方向に頭部11を向けるように指示し、駆動制御部69は、指示に従って首駆動部73を駆動し、頭部11の向きを変える。
画像解析部62は、頭部カメラ17の画像を解析し、見学者の顔を抽出する。制御部68は、抽出された顔がロボット10の方を向いている時間を計測し、その時間がS1秒を超えた場合に、ロボット10はその見学者と目が合った(アイコンタクトが成立した)と判断し、その見学者との距離がd1mになるまで近付くように駆動制御部69に指示する。駆動制御部69は、データ記憶部67の地図データを参照し、走行駆動部71を制御して、その見学者の方向にロボット10を進める。そして、障害物検知部70がその見学者との距離をd1mと検知した時点で停止する。
In the robot 10 in the autonomous mode, the control unit 68 controls each unit to execute the operation in the autonomous mode set in the data storage unit 67.
The image analysis unit 62 analyzes the images of the front and back torso cameras 201 to 203 based on instructions from the control unit 68, and is a visitor who is near the exhibition and faces in the direction of the robot 10. Is detected.
When a corresponding person is detected by image analysis, the control unit 68 instructs the drive control unit 69 to turn the head 11 in the detected direction, and the drive control unit 69 follows the instruction, and the neck drive unit 73. To change the direction of the head 11.
The image analysis unit 62 analyzes the image of the head camera 17 and extracts the visitor's face. The control unit 68 measures the time when the extracted face is facing the robot 10, and when the time exceeds S1 seconds, the robot 10 meets the visitor (eye contact is established). The drive control unit 69 is instructed to approach until the distance from the visitor becomes d1 m. The drive control unit 69 refers to the map data in the data storage unit 67 and controls the travel drive unit 71 to advance the robot 10 in the direction of the visitor. And it stops when the obstacle detection part 70 detects the distance with the visitor as d1m.

ロボット10が指示された位置まで移動すると、音声合成部65は、制御部68の指示に基づいて、データ記憶部67に格納された説明文のデータを音声に合成し、合成された音声がスピーカ24から発声される(この発声は操作側装置80にも送信される)。
従って、ロボット10と目が合った見学者は、ロボット10から展示物の説明を受けることになる。
When the robot 10 moves to the instructed position, the voice synthesizer 65 synthesizes the description data stored in the data storage unit 67 with the voice based on the instruction from the control unit 68, and the synthesized voice is output from the speaker. 24 is uttered (this utterance is also transmitted to the operation side device 80).
Accordingly, a visitor who has eyes in contact with the robot 10 receives an explanation of the exhibit from the robot 10.

制御部68は、この説明の間、画像解析部62の解析結果から見学者の顔の現在位置を確認し、その説明中に予め指定された重要な言葉が発声されると、あるいは、文の区切り箇所に達すると、駆動制御部69に対し、頭部11を見学者の方に向けるように指示する。駆動制御部69は、指示に従って首駆動部73の回転や傾きを変え、頭部11を見学者の方に向ける。
このようなロボット10の動作は、一般のガイドが説明の途中で視線を見学者の方に移し、見学者の方も、それに応じてガイドの方を見る動作(即ち、ガイドが「分かりますか」と目で問い、見学者が「分かっています」と目で答える動作)と同じ効果を生むことができ、対面する見学者との円滑なコミュニケーションを可能にする。
操作側装置80の専門家40は、モニタ501〜503に表示された頭部カメラ17の画像53の位置と表示内容、モニタ601〜603に表示されたCG像52、スピーカ85から流れる音声などにより、ロボット10がどの方向を見て何をしているかが容易に分かる。
During this explanation, the control unit 68 confirms the current position of the visitor's face from the analysis result of the image analysis unit 62, and when important words designated in advance during the explanation are uttered, or When the break point is reached, the drive control unit 69 is instructed to turn the head 11 toward the visitor. The drive control unit 69 changes the rotation and inclination of the neck drive unit 73 in accordance with the instruction, and turns the head 11 toward the visitor.
The movement of the robot 10 is such that a general guide moves his / her line of sight to the visitor in the middle of the explanation, and the visitor also looks at the guide accordingly (that is, the guide is “Do you understand? ”And the same effect as a visitor who answers“ I know ”with the eyes), and enables smooth communication with the face-to-face visitors.
The expert 40 of the operation side device 80 uses the position and display contents of the image 53 of the head camera 17 displayed on the monitors 501 to 503, the CG image 52 displayed on the monitors 601 to 603, the sound flowing from the speaker 85, and the like. It is easy to see what direction the robot 10 is looking at.

専門家40は、モニタ501〜503、601〜603に映る胴体カメラ201〜203の映像から、ロボット10の説明を聞きたがっている人を見つけた場合に、その人の存在にロボット10が気付いていないときには、モニタ501〜503、601〜603に映るその人の方を向いて、あるいは、その人を指差して、「あの人に説明してあげて」と発声する。
専門家40の音声は、操作側装置80のマイク84で電気信号に変換され、音声処理部86でデジタルデータに変換される。制御部88は、このときの専門家40の姿を映したカメラ51の画像を解析するように画像解析部83に指示し、画像解析部83は、この画像から顔方向の検出処理831または指差し方向の検出処理832を実施する。制御部88は、検出された方向を示すデータと音声データとを、送受信部81を通じてロボット10に送信する。
When the expert 40 finds a person who wants to hear the explanation of the robot 10 from the images of the torso cameras 201 to 203 displayed on the monitors 501-503 and 601-603, the robot 10 notices the presence of the person. If not, face the person on the monitors 501 to 503 and 601 to 603, or point to the person and say "Tell me about that person".
The voice of the expert 40 is converted into an electric signal by the microphone 84 of the operation side device 80, and converted into digital data by the voice processing unit 86. The control unit 88 instructs the image analysis unit 83 to analyze the image of the camera 51 that reflects the appearance of the expert 40 at this time, and the image analysis unit 83 detects the face direction detection processing 831 or the finger from this image. An insertion direction detection process 832 is performed. The control unit 88 transmits data indicating the detected direction and audio data to the robot 10 through the transmission / reception unit 81.

これらのデータを受信したロボット10では、制御部68が、音声認識部64に対して音声データの音声認識を指示する。音声認識部64は、この音声データを文字列に変換する。制御部68は、その文字列を予め保持した辞書の単語や文字列と照合し、ロボット10に対する指示であることを識別すると、自律モードから対話モードに移行し、対話モードの動作を実行する。
制御部68は、操作側装置80から受信した方向を示すデータを駆動制御部69に伝え、頭部11を当該方向に向けるように指示する。駆動制御部69は、指示に従って首駆動部73を駆動し、頭部11を指定された方向に向ける。その結果、頭部カメラ17に、専門家40が「あの人」と言った見学者が映ることになる。
ロボット10は、対話モードにおいて設定されている動作が終了すると、自律モードに戻り、頭部カメラ17の画像を解析して見学者の顔を抽出する。抽出された顔がロボット10の方をS1秒以上向いているとき、その見学者との距離がd1mになるまで近付き、展示物の説明を開始する。
In the robot 10 that has received these data, the control unit 68 instructs the voice recognition unit 64 to perform voice recognition of the voice data. The voice recognition unit 64 converts the voice data into a character string. When the control unit 68 compares the character string with a dictionary word or character string stored in advance and identifies the instruction to the robot 10, the control unit 68 shifts from the autonomous mode to the interactive mode and executes the operation in the interactive mode.
The control unit 68 transmits data indicating the direction received from the operation side device 80 to the drive control unit 69 and instructs the head 11 to face the direction. The drive control unit 69 drives the neck drive unit 73 in accordance with the instruction, and directs the head 11 in the designated direction. As a result, a visitor who the expert 40 says “that person” appears in the head camera 17.
When the operation set in the dialogue mode is completed, the robot 10 returns to the autonomous mode, analyzes the image of the head camera 17 and extracts the face of the visitor. When the extracted face faces the robot 10 for S1 seconds or longer, it approaches until the distance from the visitor becomes d1 m, and the explanation of the exhibit is started.

このように、このシステムでは、ロボット10と直接対面していない専門家40が、「この人」とか「あの人」とか言う表現でロボット10とコミュニケーションを行うことができる。これは、ロボット10と専門家40との間で円滑なコミュニケーションが可能であることを示している。
また、ロボット10に対してパンフレットの手渡しを指示する場合も、同様に、専門家40は、モニタ501〜503、601〜603に映るパンフレットを見ることにより(または、指差すことにより)「そのパンフレットをあの人にあげて」との言い方で指示を出すことができる。
Thus, in this system, the expert 40 who does not directly face the robot 10 can communicate with the robot 10 with the expression “this person” or “that person”. This indicates that smooth communication is possible between the robot 10 and the expert 40.
Similarly, when instructing the robot 10 to hand over the pamphlet, the expert 40 similarly looks at the pamphlets displayed on the monitors 501 to 503 and 601 to 603 (or points to them). You can give instructions by saying "Give that person to that person".

ロボット10の説明を聞いた人から質問が出た場合は、その音声が、マイク25で電気信号に変換され、音声処理部66でデジタルデータに変換される。ロボット10の制御部68は、音声認識部64に対して、この音声データの音声認識を指示する。音声認識部64が音声データを文字列に変換すると、制御部68は、その文字列を予め保持した辞書の単語や文字列と照合し、質問であることを識別すると、自律モードから媒介モードに移行して、媒介モードの動作を実行する。
ロボット11の制御部68は、まず、媒介モードに移行したことを操作側装置80に伝える。例えば、特定の音を操作側装置80のスピーカ24から鳴らしたり、操作側装置80のモニタ501〜503、601〜603の表示を特別の色の表示枠で囲んだりして、媒介モードへの移行を知らせる。
また、ロボット11は、操作側装置80から送られた回答の音声をスピーカ24から発声する。
When a question comes from a person who has heard the explanation of the robot 10, the voice is converted into an electric signal by the microphone 25 and converted into digital data by the voice processing unit 66. The control unit 68 of the robot 10 instructs the voice recognition unit 64 to perform voice recognition of the voice data. When the voice recognition unit 64 converts the voice data into a character string, the control unit 68 compares the character string with a dictionary word or character string stored in advance, and when it is identified as a question, the autonomous mode is changed to the mediation mode. Transition to execute the operation of the mediation mode.
First, the control unit 68 of the robot 11 notifies the operation side device 80 that the mode has been changed to the mediation mode. For example, a specific sound is generated from the speaker 24 of the operation side device 80, or the displays of the monitors 501 to 503 and 601 to 603 of the operation side device 80 are surrounded by a special color display frame, so that the transition to the mediation mode is performed. To inform.
Further, the robot 11 utters the answer voice sent from the operation side device 80 from the speaker 24.

質問に回答する専門家40の姿は、操作側装置80のカメラ51で撮影され、制御部88の指示を受けた画像解析部83により、この画像から顔の方向及び指差し方向が検出される。制御部88は、検出された顔方向のデータと指差し方向のデータとを、送受信部81を通じてロボット10に送信する。
ロボット11の制御部68は、操作側装置80から受信した専門家40の顔方向のデータと指差し方向のデータとを駆動制御部69に伝えて、頭部11の向きを顔方向に一致させ、腕151、152の向きを指差し方向に一致させるように指示する。駆動制御部69は、指示に従って首駆動部73及び腕駆動部72を駆動し、頭部11及び腕151、152を指定された方向に向ける。その結果、ロボット10は、専門家40と同じような姿勢をとることになる。
The figure of the expert 40 answering the question is photographed by the camera 51 of the operation side device 80, and the face direction and the pointing direction are detected from this image by the image analysis unit 83 which receives an instruction from the control unit 88. . The control unit 88 transmits the detected face direction data and pointing direction data to the robot 10 through the transmission / reception unit 81.
The control unit 68 of the robot 11 transmits the face direction data and the pointing direction data of the expert 40 received from the operation side device 80 to the drive control unit 69 so that the direction of the head 11 matches the face direction. And instructing the directions of the arms 151 and 152 to coincide with the pointing direction. The drive control unit 69 drives the neck drive unit 73 and the arm drive unit 72 according to the instructions, and directs the head 11 and the arms 151 and 152 in the designated direction. As a result, the robot 10 takes the same posture as the expert 40.

例えば、見学者が「これはなんですか」と聞いた場合に、専門家40がモニタ501〜503、601〜603に映る「これ」を指して「これは×××××です」と答えると、専門家40の音声がロボット10から流れるとともに、ロボット10の頭部11が「これ」の方を向き、ロボット10の腕151、152が「これ」の方向を指すことになる。
そのため、見学者は、専門家40と直接対面していないにも関わらず、ロボット10を見ることにより、専門家40と対面しているときのような円滑なコミュニケーションを行うことができる。また、専門家40は、「これ」とか「あれ」とか言う表現で見学者と意思の疎通を図ることができる。これは、見学者と専門家40との間で円滑なコミュニケーションが可能であることを示している。
質問のやり取りが終了すると、ロボット10の制御部68は、媒介モードから自律モードに戻る。
For example, when a visitor asks "What is this?", The expert 40 points to "this" on the monitors 501-503 and 601-603 and answers "This is xxxxxxx" The voice of the expert 40 flows from the robot 10, the head 11 of the robot 10 faces “this”, and the arms 151 and 152 of the robot 10 point in the “this” direction.
Therefore, the visitor can perform smooth communication as when facing the expert 40 by looking at the robot 10 even though he / she does not face the expert 40 directly. Moreover, the expert 40 can aim at communication with a visitor by the expression "this" or "that". This indicates that smooth communication is possible between the visitor and the expert 40.
When the exchange of questions ends, the control unit 68 of the robot 10 returns from the mediation mode to the autonomous mode.

なお、ここでは、見学者から質問があると、直ちに媒介モードに移行したが、ロボット10が回答できる質問の場合は、自律モードのロボット10が回答し、ロボット10に回答できない質問が出た場合に、媒介モードに移行するようにしても良い。   Here, when there is a question from the visitor, the mode immediately shifts to the mediation mode, but in the case of a question that the robot 10 can answer, the robot 10 in the autonomous mode answers and a question that cannot be answered to the robot 10 appears. In addition, the mode may be shifted to the intermediate mode.

このように、このコミュニケーションロボット10は、図4に示すように、自律モード、対話モード、及び、媒介モードの各モードに対応し、状況に応じて、そのモードを自ら切り替えている。こうした行動により、ロボット10は、見学者と円滑なコミュニケーションを図ることができる。
ロボット10によるモードの切り替えは自然に行われ、見学者には察知されない。そのため、見学者は、ロボットが高機能化していることを強く印象付けられることになる。
また、通信手段を介してロボット10に接触する専門家40は、ロボット10の行動を画像から詳細に知ることができ、かつ、自らの顔や手の向きをロボット10に伝えることができる。そのため、専門家40とロボット10との間では、対面しているときと同等の円滑なコミュニケーションが可能である。
また、ロボット10の周囲の見学者は、ロボット10を通じて専門家40の動作を見ることができるため、専門家40と対面している場合と同等の円滑なコミュニケーションが可能になる。
In this way, as shown in FIG. 4, the communication robot 10 corresponds to each mode of the autonomous mode, the dialogue mode, and the mediation mode, and switches the mode by itself according to the situation. With such behavior, the robot 10 can communicate smoothly with the visitors.
The mode switching by the robot 10 is naturally performed and is not perceived by the visitor. As a result, visitors will be impressed with the high functionality of the robot.
Moreover, the expert 40 who contacts the robot 10 through the communication means can know the behavior of the robot 10 in detail from the image and can tell the robot 10 the direction of his / her face and hand. Therefore, smooth communication equivalent to that when facing each other is possible between the expert 40 and the robot 10.
In addition, since visitors around the robot 10 can see the operation of the expert 40 through the robot 10, smooth communication equivalent to the case of facing the expert 40 is possible.

なお、操作側装置80のモニタにCG像52を表示する方法として、図1に例示する以外の方法を採ることも可能である。CG像52の表示の仕方には、
(1)ロボット10を正面から見たときの像(正面像)を上列の中央モニタ602に表示
(2)正面像の左右を逆にした左右逆像を上列の中央モニタ602に表示
(3)左右逆像を下列の中央モニタ502に表示
(4)ロボット10を背面から見たときの像(背面像)を下列の中央モニタ502に表示
(5)正面像を下列の中央モニタ502に表示
(6)背面像を上列の中央モニタ602に表示
等の方法が考えられる。
As a method for displaying the CG image 52 on the monitor of the operation side device 80, a method other than that illustrated in FIG. To display the CG image 52,
(1) An image when the robot 10 is viewed from the front (front image) is displayed on the upper row of the central monitor 602. (2) A left-right inverted image obtained by reversing the left and right of the front image is displayed on the upper row of the central monitor 602. 3) Display the left and right reverse image on the lower row of the central monitor 502 (4) Display the image of the robot 10 viewed from the back (rear image) on the lower row of the central monitor 502 (5) Display the front image on the lower row of the central monitor 502 Display (6) A method of displaying the rear image on the central monitor 602 in the upper row can be considered.

このうち、(1)の表示方法(図1の表示方法)は、ロボット10の状態が、その場に実際に専門家40がいてロボット10を見たときと同じ背景の中に表示される利点がある。ただし、ロボット10の顔や手の左右の動きは、前面のモニタ表示と一致しない。例えば、図1の状況ではロボット10は左側を見ていて、CG像52も左側を向いている(専門家40から見ると右を向いている)が、頭部カメラ17の画像53は専門家40から見ると左側のモニタ501に表示されている。
(2)の表示方法では、ロボット10の顔や手の左右の動きは、前面のモニタ表示と一致するが、実際の動きと逆像が表示される。背景の映像が専門家40から見て、左右が正しい画像なので、実際の状況と違う画像が表示されてしまう問題がある。
(3)の表示方法では、ロボット10の視点からの画像を表示する下列の中央モニタ502に逆像のCG像52を表示するので、(2)の表示方法より違和感は減る。即ち、専門家40は、このモニタ502を見る際に、ロボット10の視点を意識しているからである。ただし、この場合は、一般に重要な情報の含まれる正面の画像の一部がCG像により隠されてしまうという問題がある。
(4)の表示方法では、ロボット10の動作とモニタ502の位置関係とが一致しており、この点は良い。ただし、後ろ向きの像が表示されるため動作が分かり難い。それを防ぐには少し斜め後ろからの像に変えてもよい。また、(3)と同様に、正面の画像の一部がCG像により隠されてしまうという問題がある。また、ロボット10が後ろ向きであるため、特に対話モードでは使用者に好感を持たれない場合がある。
(5)の表示方法は、ロボット10が背側の胴体カメラを持たない場合には採用される表示方法であるが、その他の場合には特に利点がない。
(6)の表示方法は、ロボット10が後方を見ているように見えて、不自然であり、特に利点はない。
このように、各表示方法には、それぞれ特徴がある。そのため、複数のCG表示方法を用意して、使用者が好みにより選択できるようにしても良い。また、ロボット10のモードに応じて、CG表示方法を切り替えるようにしても良い(例えば、対話モードでは、CG像を(1)(2)(3)(5)のいずれかの方法で表示し、媒介モードでは(4)または(6)の方法で表示し、自律モードでは、対話モードまたは媒介モードと同一の方法で表示する。)。
Among these, the display method (1) (display method in FIG. 1) is advantageous in that the state of the robot 10 is displayed in the same background as when the expert 40 is actually there and the robot 10 is viewed. There is. However, the left and right movements of the face and hand of the robot 10 do not match the front monitor display. For example, in the situation of FIG. 1, the robot 10 is looking at the left side and the CG image 52 is also facing the left side (when looking from the expert 40), the image 53 of the head camera 17 is an expert. When viewed from 40, it is displayed on the monitor 501 on the left side.
In the display method (2), the left and right movements of the face and hand of the robot 10 coincide with the front monitor display, but the actual movement and the reverse image are displayed. Since the background image is the right and left images as viewed from the expert 40, there is a problem that an image different from the actual situation is displayed.
In the display method (3), since the CG image 52 of the reverse image is displayed on the lower center monitor 502 that displays an image from the viewpoint of the robot 10, the uncomfortable feeling is reduced compared to the display method (2). That is, the expert 40 is conscious of the viewpoint of the robot 10 when viewing the monitor 502. However, in this case, there is a problem that a part of the front image including important information is generally hidden by the CG image.
In the display method (4), the operation of the robot 10 and the positional relationship of the monitor 502 coincide with each other, which is good. However, the operation is difficult to understand because a backward-facing image is displayed. In order to prevent this, you may change the image from slightly behind. Further, as in (3), there is a problem that a part of the front image is hidden by the CG image. In addition, since the robot 10 is facing backward, the user may not have a favorable feeling particularly in the interactive mode.
The display method (5) is a display method employed when the robot 10 does not have a back body camera, but is not particularly advantageous in other cases.
The display method (6) is unnatural because it looks as if the robot 10 is looking backward, and has no particular advantage.
Thus, each display method has its own characteristics. Therefore, a plurality of CG display methods may be prepared so that the user can select according to his / her preference. Further, the CG display method may be switched according to the mode of the robot 10 (for example, in the interactive mode, the CG image is displayed by any one of methods (1), (2), (3), and (5)). In the intermediate mode, it is displayed by the method (4) or (6), and in the autonomous mode, it is displayed by the same method as the interactive mode or the intermediate mode.)

また、ここでは、操作側装置80に6面のディスプレイを設けているが、一つのディスプレイの表示領域を六つに区画して、6面のディスプレイに表示していた内容を小さく表示するようにしても良い。こうすることにより、図5に示すように、専門家40は、一人で複数台のロボットを扱うことが可能になる。但し、この場合、表示を見る専門家40の顔の動きが小さくなるので、ロボット側では、それを拡大してロボットの頭部11の動きに反映させる必要がある。   Here, the operation side device 80 is provided with a six-sided display, but the display area of one display is divided into six parts so that the contents displayed on the six-sided display are displayed in a small size. May be. By doing so, as shown in FIG. 5, the expert 40 can handle a plurality of robots alone. However, in this case, since the movement of the face of the expert 40 who sees the display becomes small, it is necessary on the robot side to enlarge it and reflect it in the movement of the head 11 of the robot.

また、この場合、専門家40の顔の向きを検出するためのカメラは、一台の広角カメラで代用することも可能ではあるが、図5のように、各ロボットに対応する表示器に一台ずつ設置することが望ましい。こうすると、専門家40が注目するロボットを判断するとき、各カメラの画像の中で、専門家40の顔がほぼ正面を向いている画像を探すだけで足りるため、簡単な処理で正しく判定できる。   In this case, the camera for detecting the orientation of the face of the expert 40 can be replaced by a single wide-angle camera. However, as shown in FIG. 5, a single display is provided for each robot. It is desirable to install them one by one. In this way, when determining the robot to which the expert 40 pays attention, it is sufficient to search for an image in which the face of the expert 40 is almost in front of each camera image. .

また、ここでは、ロボット10の頭部カメラ17の映像53を操作側装置80のモニタ501〜503上に表示したが、頭部カメラ17の設置を止め、ロボット10の頭部11の向きを示す記号(例えば、カーソルや頭部形状のマーク、矩形の枠など)をモニタ501〜503の対応位置に表示するようにしても良い。   Here, the video 53 of the head camera 17 of the robot 10 is displayed on the monitors 501 to 503 of the operation side device 80, but the installation of the head camera 17 is stopped and the direction of the head 11 of the robot 10 is indicated. You may make it display a symbol (for example, a cursor, a head-shaped mark, a rectangular frame, etc.) in the corresponding position of the monitors 501 to 503.

また、専門家40の顔や手の向きをカメラ画像から求める際に、専門家40の頭部や腕にマークを付けて、それを検出するようにすれば、簡単な処理で確実な情報を得ることができる。また、顔や手の向きをカメラ画像から求める代わりに、磁気センサなどを用いて検出しても良い。この場合、専門家40は、検出用の機器を装着する必要がある。   Also, when finding the orientation of the face or hand of the expert 40 from the camera image, if the head and arms of the expert 40 are marked and detected, reliable information can be obtained through simple processing. Obtainable. Further, instead of obtaining the orientation of the face or hand from the camera image, it may be detected using a magnetic sensor or the like. In this case, the expert 40 needs to wear a detection device.

(第2の実施形態)
本発明の第2の実施形態では、博物館に行けない人に代わって博物館を見学するコミュニケーションロボットについて説明する。
図6は、在宅者302の友人303とロボット10が連れ立って博物館を見学し、在宅者302が、ロボット10のカメラに映る映像を家の操作側装置80で見ている様子を模式的に示した図である。
(Second Embodiment)
In the second embodiment of the present invention, a communication robot that visits a museum on behalf of a person who cannot go to the museum will be described.
FIG. 6 schematically shows a situation where a friend 303 of the home-staying 302 and the robot 10 take a tour of the museum, and the home-staying 302 sees an image reflected on the camera of the robot 10 on the home operating side device 80. It is a figure.

博物館や美術館の見学は、単に作品を観賞するだけでなく、友人と語らいながら見るところに楽しみが生まれる。このコミュニケーションロボット10は、病気や身体的理由により、こうした楽しみを味わえない在宅者302に代わって、友人303と博物館を見学し、在宅者302に見学の楽しさを感じさせることを目的としている。
ロボット10の構成は、第1の実施形態(図2)と同じである。また、操作側装置80の構成は、外形が小型になっているものの、機能的には第1の実施形態(図3)と変わりがない。
Visiting museums and art galleries is not just about appreciating the works, but also about creating fun while talking with friends. This communication robot 10 is intended to visit a museum with friends 303 on behalf of a resident 302 who cannot enjoy such enjoyment due to illness or physical reasons, and to make the resident 302 feel the pleasure of visiting.
The configuration of the robot 10 is the same as that of the first embodiment (FIG. 2). The configuration of the operation side device 80 is functionally the same as that of the first embodiment (FIG. 3), although the outer shape is small.

このコミュニケーションロボット10は、通常、媒介モードで動作し、状況に応じて自律モードや対話モードに切り替わる。そして、それらのモードの動作が終了すると媒介モードに戻る。
ロボット10のデータ記憶部67には、自律モード、対話モード及び媒介モードの各モードにおいて実行すべき動作や、一つのモードから他のモードに移る際の条件が次のように設定される。
The communication robot 10 normally operates in a mediation mode, and switches to an autonomous mode or a dialogue mode depending on the situation. When the operation of these modes is completed, the mode returns to the mediation mode.
In the data storage unit 67 of the robot 10, operations to be executed in each mode of the autonomous mode, the dialogue mode, and the mediation mode, and conditions for shifting from one mode to another mode are set as follows.

例えば、自律モードでは、
(1)移動中に障害物を発見したとき、障害物の方にロボット10の頭部11を向ける。
(2)発見した障害物を回避する。
等の動作が設定される。
また、対話モードでは、
(1)操作側装置80から指定された場所を目標地点に設定する。
(2)操作側装置80から指定された人を同伴対象に設定する。
等の動作が設定される。
また、媒介モードでは、
(1)操作側装置80側の人物の顔が向く方向に頭部11を向ける。
(2)操作側装置80側の人物が指差す方向に腕151、152を上げる。
(3)操作側装置80から送られた音声を出力する。
(4)設定された目標地点まで移動する。
(5)同伴対象に設定された人に従って移動する。
等の動作が設定される。
For example, in autonomous mode,
(1) When an obstacle is found during movement, the head 11 of the robot 10 is directed toward the obstacle.
(2) Avoid the obstacles found.
Etc. are set.
In interactive mode,
(1) A place designated by the operation side device 80 is set as a target point.
(2) A person designated by the operation side device 80 is set as a companion target.
Etc. are set.
In the medium mode,
(1) The head 11 is directed in the direction in which the face of the person on the operation side device 80 faces.
(2) Raise the arms 151 and 152 in the direction in which the person on the operation side device 80 points.
(3) The voice sent from the operation side device 80 is output.
(4) Move to the set target point.
(5) Move according to the person set as the companion target.
Etc. are set.

また、モード間の移行の条件は、例えば、次のように設定される。
(1)操作側装置80からロボット10に対する音声の指示が入力したときは、媒介モードから対話モードに移行し、指示された動作が終了したときは、対話モードから媒介モードに移行する。
(2)移動中に障害物を発見したときは、媒介モードから自律モードに移行し、ロボット10の動作と操作側装置80側の人物の動作とが一致したとき、自律モードから媒介モードに移行する。
Moreover, the conditions for transition between modes are set as follows, for example.
(1) When a voice instruction to the robot 10 is input from the operation side device 80, the mode is switched from the mediation mode to the dialog mode, and when the commanded operation is completed, the mode is switched from the dialog mode to the mediation mode.
(2) When an obstacle is found during movement, the mode is switched from the mediation mode to the autonomous mode, and when the operation of the robot 10 and the motion of the person on the operation side device 80 coincide, the mode is switched from the autonomous mode to the mediation mode. To do.

次に、このシステムの動作について説明する。
在宅者302が、操作側装置80の画面に映る展示を指差して「これを見たい」と発声すると、ロボット10は、自身に対する指示であることを識別して、指示された場所を目標地点に設定する。また、在宅者302が、操作側装置80の画面に映る友人303を指差して「この人と一緒に行く」と発声すると、ロボット10は、自身に対する指示であることを識別して、その人を同伴対象に設定する。
ロボット10は、媒介モードに移行し、目標地点への移動、または、友人303に従う移動を開始する。
Next, the operation of this system will be described.
When the at-home person 302 points to the exhibition displayed on the screen of the operation side device 80 and utters “I want to see this”, the robot 10 identifies that it is an instruction for itself, and determines the designated location as the target point. Set to. Further, when the home person 302 points to the friend 303 reflected on the screen of the operation side device 80 and utters “Go with this person”, the robot 10 identifies that it is an instruction for itself, and the person Set as a companion target.
The robot 10 shifts to the mediation mode and starts moving to the target point or following the friend 303.

媒介モードにおいて、在宅者302が発した声はロボット10のスピーカ24から発声され、友人303の声は、ロボット10のマイク25から入力して操作側装置80のスピーカ85から発声される。また、在宅者302の顔の向きや手の振りは、ロボット10の頭部11や腕151、152に再現され、友人303の仕草は、操作側装置80の画面に表示される。そのため、在宅者302は、友人303と身振りや手振りを交えた会話を愉しみながら展示を見学することができる。
また、在宅者302が操作側装置80の画面上で見たい箇所に顔を向けると、ロボット10の頭部11が同じ方向を向き、頭部カメラ17が在宅者302の見たい方向を映し出す。
In the mediation mode, a voice uttered by the person at home 302 is uttered from the speaker 24 of the robot 10, and a voice of the friend 303 is input from the microphone 25 of the robot 10 and uttered from the speaker 85 of the operation side device 80. In addition, the face orientation and hand shake of the person at home 302 are reproduced on the head 11 and arms 151 and 152 of the robot 10, and the gesture of the friend 303 is displayed on the screen of the operation side device 80. Therefore, the person at home 302 can observe the exhibition while enjoying a conversation with gestures and hand gestures with the friend 303.
When the home person 302 turns his / her face to a place he / she wants to see on the screen of the operation side device 80, the head 11 of the robot 10 faces the same direction, and the head camera 17 projects the direction the home person 302 wants to see.

また、移動途中に障害物が存在すると、それを超音波センサ23で検知したロボット10は、自律モードに移行して、頭部11を障害物の方向に向ける。在宅者302は、操作側装置80の画面に表示されたCG像の動きや、障害物を映す頭部カメラ17の画像から障害物の存在に気付き、画面に表示された障害物を見る。この時点でロボット10の頭部11の動きと在宅者302の頭部の動きとが一致するため、ロボット10は媒介モードに戻る。
ロボット10が媒介モードに戻ると、在宅者302は、友人303と見学ルートの変更などを協議することになる。また、もしも、在宅者302が障害物に気付かなければ、自律モードのロボット10が障害物との衝突を回避する。
If an obstacle is present during the movement, the robot 10 that has detected the obstacle by the ultrasonic sensor 23 shifts to the autonomous mode and directs the head 11 in the direction of the obstacle. The resident 302 notices the presence of an obstacle from the movement of the CG image displayed on the screen of the operation side device 80 and the image of the head camera 17 that reflects the obstacle, and sees the obstacle displayed on the screen. At this time, since the movement of the head 11 of the robot 10 and the movement of the head of the person 302 are the same, the robot 10 returns to the mediation mode.
When the robot 10 returns to the mediation mode, the at-home person 302 will negotiate with the friend 303 about a change in the tour route. If the home person 302 does not notice the obstacle, the robot 10 in the autonomous mode avoids a collision with the obstacle.

このように、このコミュニケーションロボットは、博物館等に行けない人に見学の楽しさを感じさせることができる。   In this way, this communication robot can make people who cannot go to museums feel the pleasure of visiting.

本発明のコミュニケーションロボットは、博物館や各種展示会等のガイドロボットとして、あるいは、病気や身体が不自由な人を支援する福祉サービスロボットとして、広く利用することができる。   The communication robot of the present invention can be widely used as a guide robot in museums and various exhibitions, or as a welfare service robot that supports people who are sick or physically disabled.

本発明の第1の実施形態におけるロボットの使用形態を模式的に示す図The figure which shows typically the usage type of the robot in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるロボットの構成を示すブロック図The block diagram which shows the structure of the robot in the 1st Embodiment of this invention. 本発明の第1の実施形態における操作側装置の構成を示すブロック図The block diagram which shows the structure of the operation side apparatus in the 1st Embodiment of this invention. 本発明の第1の実施形態におけるロボットのモードを説明する図The figure explaining the mode of the robot in the 1st Embodiment of this invention 本発明の第1の実施形態におけるロボットの使用形態の変形例を示す図The figure which shows the modification of the usage pattern of the robot in the 1st Embodiment of this invention. 本発明の第2の実施形態におけるロボットの使用形態を模式的に示す図The figure which shows typically the usage type of the robot in the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

10 コミュニケーションロボット
11 頭部
12 胴体
13 台車
14 車輪
16 首
17 頭部カメラ
23 超音波センサ
24 マイク
25 スピーカ
40 専門家
51 カメラ
52 CG像
61 送受信部
62 画像解析部
63 画像処理部
64 音声認識部
65 音声合成部
66 音声処理部
67 データ記憶部
68 制御部
69 駆動制御部
70 障害物検知部
71 走行駆動部
72 腕駆動部
73 首駆動部
80 操作側装置
81 送受信部
82 画像処理部
83 画像解析部
84 マイク
85 スピーカ
86 音声処理部
87 データ記憶部
88 制御部
89 CG作成部
90 表示制御部
151 腕
152 腕
201 胴体カメラ
202 胴体カメラ
203 胴体カメラ
301 見学者
302 在宅者
303 友人
501〜503 モニタ
601〜603 モニタ
831 顔方向検出
832 指差し方向検出
DESCRIPTION OF SYMBOLS 10 Communication robot 11 Head 12 Body 13 Cart 14 Wheel 16 Neck 17 Head camera 23 Ultrasonic sensor 24 Microphone 25 Speaker 40 Expert 51 Camera 52 CG image 61 Transmission / reception part 62 Image analysis part 63 Image processing part 64 Voice recognition part 65 Speech synthesis unit 66 Speech processing unit 67 Data storage unit 68 Control unit 69 Drive control unit 70 Obstacle detection unit 71 Travel drive unit 72 Arm drive unit 73 Neck drive unit 80 Operation side device 81 Transmission / reception unit 82 Image processing unit 83 Image analysis unit 84 Microphone 85 Speaker 86 Audio processing unit 87 Data storage unit 88 Control unit 89 CG creation unit 90 Display control unit 151 Arm 152 Arm 201 Torso camera 202 Torso camera 203 Torso camera 301 Visitor 302 Home visitor 303 Friends 501 to 503 Monitor 601 603 Data 831 face direction detection 832 pointing direction detection

Claims (6)

第1の対象者と対面してコミュニケーションを行い、第2の対象者と通信手段を介してコミュニケーションを行うコミュニケーションロボットであって、
自律的に動作を行う第1のモードと、
前記第2の対象者から指示された動作を行う第2のモードと、
前記第2の対象者の動作を反映する動作を行い、前記第1の対象者と前記第2の対象者とのコミュニケーションを媒介する第3のモードと
を実行するコミュニケーションロボット。
A communication robot that communicates with a first target person and communicates with a second target person through communication means,
A first mode that operates autonomously;
A second mode for performing an operation instructed by the second subject;
A communication robot that performs an operation reflecting the operation of the second target person and executes a third mode that mediates communication between the first target person and the second target person.
請求項1に記載のコミュニケーションロボットであって、前記第1のモード、第2のモード及び第3のモードを状況に応じて切り替えて実行するコミュニケーションロボット。   The communication robot according to claim 1, wherein the communication robot executes the first mode, the second mode, and the third mode by switching according to a situation. 請求項1または2に記載のコミュニケーションロボットであって、前記第2の対象者との間に、当該コミュニケーションロボットの行動及び周囲の状況を前記第2の対象者に伝え、前記第2の対象者の動作を当該コミュニケーションロボットに伝える伝達手段を有するコミュニケーションロボット。   The communication robot according to claim 1 or 2, wherein the second target person is informed of the behavior of the communication robot and the surrounding situation with the second target person. A communication robot having a transmission means for transmitting the movement of the robot to the communication robot. 請求項1から3のいずれかに記載のコミュニケーションロボットであって、前記第1のモードで、前記第1の対象者とのコミュニケーションを自律的に行うコミュニケーションロボット。   The communication robot according to claim 1, wherein the communication robot autonomously communicates with the first target person in the first mode. 請求項4に記載のコミュニケーションロボットであって、前記第1のモードで、前記第1の対象者に展示物の説明を行い、前記第3のモードで、前記第1の対象者からの質問と前記第2の対象者による回答とのやり取りを媒介するコミュニケーションロボット。   The communication robot according to claim 4, wherein an exhibit is explained to the first subject in the first mode, and a question from the first subject is explained in the third mode. A communication robot that mediates exchange with an answer by the second target person. 請求項3に記載のコミュニケーションロボットであって、前記第3のモードで、会場内の前記第1の対象者と会場外の前記第2の対象者との会話を媒介するコミュニケーションロボット。
The communication robot according to claim 3, wherein in the third mode, the communication robot mediates a conversation between the first target person in the hall and the second target person outside the hall.
JP2006042780A 2006-02-20 2006-02-20 Communication robot Active JP4512830B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006042780A JP4512830B2 (en) 2006-02-20 2006-02-20 Communication robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006042780A JP4512830B2 (en) 2006-02-20 2006-02-20 Communication robot

Publications (2)

Publication Number Publication Date
JP2007216363A true JP2007216363A (en) 2007-08-30
JP4512830B2 JP4512830B2 (en) 2010-07-28

Family

ID=38494156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006042780A Active JP4512830B2 (en) 2006-02-20 2006-02-20 Communication robot

Country Status (1)

Country Link
JP (1) JP4512830B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2010260141A (en) * 2009-05-08 2010-11-18 Nec Corp Robot device
JP2011201002A (en) * 2010-03-26 2011-10-13 Sony Corp Robot device, method and program of remote control of the robot device
JP2012060506A (en) * 2010-09-10 2012-03-22 Hitachi Ltd External device control unit, and method and program for controlling the same
JP2013099800A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Robot, method for controlling robot, and control program
CN103753580A (en) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 Robot for family conflict reconciliation service
US10321065B2 (en) 2017-06-23 2019-06-11 Panasonic Intellectual Property Management Co., Ltd. Remote communication method, remote communication system, and autonomous movement device
JP2020067799A (en) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 Communication robot and control program for communication robot
JP2021039525A (en) * 2019-09-03 2021-03-11 廣美 畑中 Guidance and handling of suspicious person using artificially intelligent robot, and method thereof
WO2022097211A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
WO2022097210A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
KR102400143B1 (en) * 2020-11-12 2022-05-18 충북대학교 산학협력단 Method and Apparatus for Posture Control for Remote Robot Based on Video Call of Smartphone
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
WO2024053767A1 (en) * 2022-09-08 2024-03-14 엘지전자 주식회사 Guide robot and operation method of guide robot

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103752019A (en) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 Entertainment machine dog
KR102191488B1 (en) * 2017-10-27 2020-12-15 서울대학교산학협력단 Power and motion sensitized education robot

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634489B2 (en) * 1986-01-22 1994-05-02 株式会社トミー Telephone notification device
JP2000349920A (en) * 1999-06-01 2000-12-15 Interrobot Inc Intention transmitter
JP2001156930A (en) * 1999-11-30 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Gesture transmitter
JP2004048186A (en) * 2002-07-09 2004-02-12 Seiko Epson Corp Communication support system, communication terminal, operation control data storage terminal, terminal program, and communication support method
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2004261941A (en) * 2003-03-04 2004-09-24 Sharp Corp Communication robot and communication system
JP2005012819A (en) * 2004-06-22 2005-01-13 Seiko Epson Corp Communication support system, communication terminal, motion control data storage terminal and program for terminal, and method of communication support
JP2005193351A (en) * 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2006033503A (en) * 2004-07-16 2006-02-02 National Institute Of Information & Communication Technology Operation indirect transmission device, and method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0634489B2 (en) * 1986-01-22 1994-05-02 株式会社トミー Telephone notification device
JP2000349920A (en) * 1999-06-01 2000-12-15 Interrobot Inc Intention transmitter
JP2001156930A (en) * 1999-11-30 2001-06-08 Nippon Telegr & Teleph Corp <Ntt> Gesture transmitter
JP2004048186A (en) * 2002-07-09 2004-02-12 Seiko Epson Corp Communication support system, communication terminal, operation control data storage terminal, terminal program, and communication support method
JP2004230479A (en) * 2003-01-28 2004-08-19 Advanced Telecommunication Research Institute International Communication robot and communication system using the same
JP2004261941A (en) * 2003-03-04 2004-09-24 Sharp Corp Communication robot and communication system
JP2005193351A (en) * 2004-01-09 2005-07-21 Honda Motor Co Ltd Face image acquiring method and its system
JP2005238382A (en) * 2004-02-26 2005-09-08 Advanced Telecommunication Research Institute International Communication robot
JP2005012819A (en) * 2004-06-22 2005-01-13 Seiko Epson Corp Communication support system, communication terminal, motion control data storage terminal and program for terminal, and method of communication support
JP2006033503A (en) * 2004-07-16 2006-02-02 National Institute Of Information & Communication Technology Operation indirect transmission device, and method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009131914A (en) * 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International Robot control system
JP2009166184A (en) * 2008-01-17 2009-07-30 Saitama Univ Guide robot
JP2010260141A (en) * 2009-05-08 2010-11-18 Nec Corp Robot device
JP2011201002A (en) * 2010-03-26 2011-10-13 Sony Corp Robot device, method and program of remote control of the robot device
US10105843B2 (en) 2010-03-26 2018-10-23 Sony Corporation Robot device, remote control method of robot device, and program
JP2012060506A (en) * 2010-09-10 2012-03-22 Hitachi Ltd External device control unit, and method and program for controlling the same
JP2013099800A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Robot, method for controlling robot, and control program
CN103753580A (en) * 2014-01-24 2014-04-30 成都万先自动化科技有限责任公司 Robot for family conflict reconciliation service
US10321065B2 (en) 2017-06-23 2019-06-11 Panasonic Intellectual Property Management Co., Ltd. Remote communication method, remote communication system, and autonomous movement device
CN111086009A (en) * 2018-10-24 2020-05-01 丰田自动车株式会社 Communication robot and computer-readable storage medium
JP2020067799A (en) * 2018-10-24 2020-04-30 トヨタ自動車株式会社 Communication robot and control program for communication robot
JP7119896B2 (en) 2018-10-24 2022-08-17 トヨタ自動車株式会社 Communication robot and communication robot control program
US11474499B2 (en) 2018-10-24 2022-10-18 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
US11491661B2 (en) 2018-10-24 2022-11-08 Toyota Jidosha Kabushiki Kaisha Communication robot and control program of communication robot
CN111086009B (en) * 2018-10-24 2022-11-29 丰田自动车株式会社 Communication robot and computer-readable storage medium
JP2021039525A (en) * 2019-09-03 2021-03-11 廣美 畑中 Guidance and handling of suspicious person using artificially intelligent robot, and method thereof
WO2022097211A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
WO2022097210A1 (en) * 2020-11-04 2022-05-12 本田技研工業株式会社 Robot
KR102400143B1 (en) * 2020-11-12 2022-05-18 충북대학교 산학협력단 Method and Apparatus for Posture Control for Remote Robot Based on Video Call of Smartphone
WO2024053767A1 (en) * 2022-09-08 2024-03-14 엘지전자 주식회사 Guide robot and operation method of guide robot

Also Published As

Publication number Publication date
JP4512830B2 (en) 2010-07-28

Similar Documents

Publication Publication Date Title
JP4512830B2 (en) Communication robot
JP4386367B2 (en) Communication robot improvement system
JP2001524286A (en) Teleconference robot with swiveling video monitor
KR20140033009A (en) An optical device for the visually impaired
JP2000193480A (en) On-vehicle input/output device
JP2006297531A (en) Service robot
JP2018067785A (en) Communication robot system
JP7102169B2 (en) Equipment, robots, methods, and programs
JP2009166184A (en) Guide robot
JPWO2019155735A1 (en) Information processing equipment, information processing methods and programs
WO2017064926A1 (en) Information processing device and information processing method
JP2012175136A (en) Camera system and control method of the same
JP2007160427A (en) Robot control system
CN110651304B (en) Information processing device, information processing method, and program
JP2022078741A (en) robot
WO2012008553A1 (en) Robot system
WO2022149496A1 (en) Entertainment system and robot
WO2022149497A1 (en) Information processing device, information processing method, and computer program
US12001018B2 (en) Device, method and program for improving cooperation between tele-existence and head-mounted display
JP2006067393A (en) Viewing system
WO2023234378A1 (en) Avatar and remote machine operation system
JP2003333561A (en) Monitor screen displaying method, terminal, and video conference system
WO2023248832A1 (en) Remote viewing system and on-site imaging system
WO2022024412A1 (en) Information processing device, information processing system, information processing method, and program
JP4431757B2 (en) Robot system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100413

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150