JP5028568B2 - Robot control system - Google Patents

Robot control system Download PDF

Info

Publication number
JP5028568B2
JP5028568B2 JP2006014964A JP2006014964A JP5028568B2 JP 5028568 B2 JP5028568 B2 JP 5028568B2 JP 2006014964 A JP2006014964 A JP 2006014964A JP 2006014964 A JP2006014964 A JP 2006014964A JP 5028568 B2 JP5028568 B2 JP 5028568B2
Authority
JP
Japan
Prior art keywords
robot
environment
information
sensor
environmental
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006014964A
Other languages
Japanese (ja)
Other versions
JP2007196300A (en
Inventor
昌裕 塩見
崇行 神田
智史 小泉
敬宏 宮下
法明 光永
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2006014964A priority Critical patent/JP5028568B2/en
Publication of JP2007196300A publication Critical patent/JP2007196300A/en
Application granted granted Critical
Publication of JP5028568B2 publication Critical patent/JP5028568B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

この発明はロボット制御システムに関し、特にたとえば、自律制御可能なコミュニケーションロボットを必要に応じてオペレータが遠隔操作する、ロボット制御システムに関する。   The present invention relates to a robot control system, and more particularly to a robot control system in which an operator remotely operates a communication robot capable of autonomous control as required.

たとえば特許文献1に従来のロボット制御システムの一例が開示される。特許文献1の技術では、ユーザの操作するパーソナルコンピュータのモニタにコントロールパネルが表示される。このコンロトールパネルには、ロボットのカメラで撮影された画像、ロボットの距離センサで検出された画像上の物体までの距離、およびロボットの現在の姿勢と同じ姿勢の3次元CG画像等が表示される。また、ロボットのタッチセンサが触られたときには、3次元CG画像上の対応する部位が青く表示される。
特開2003−136455号公報
For example, Patent Document 1 discloses an example of a conventional robot control system. In the technique of Patent Document 1, a control panel is displayed on a monitor of a personal computer operated by a user. On this control panel, an image taken by the robot camera, a distance to the object on the image detected by the robot distance sensor, a 3D CG image having the same posture as the current posture of the robot, and the like are displayed. The Further, when the touch sensor of the robot is touched, the corresponding part on the three-dimensional CG image is displayed in blue.
JP 2003-136455 A

従来技術では、コントロールパネルには、ロボットに設けられたセンサによって検出された情報しか表示されなかったので、オペレータはロボットの置かれている場所の環境をすぐに把握することが不可能であった。たとえば人と対話したり触れ合ったりするなど人の近くで動作することの多いコミュニケーションロボットを遠隔操作するような場合には、安全確保のためにロボットの周辺環境を把握することが重要である。しかし、従来技術では、オペレータが遠隔操作によってカメラの設けられた頭部を動かしたとしても、ロボットの視点から見た画像が順次表示されるだけである。したがって、従来技術では、ロボットの周辺環境を瞬時に把握することができず、非効率的であり、また、環境の変化に対してすぐに対処することができなかった。このように、ロボットに設置されたセンサの情報を提示するだけでは、ロボットの周辺環境を把握することは困難であり、ロボットの遠隔操作の効率性や安全性が良くなかった。   In the prior art, since only the information detected by the sensor provided on the robot was displayed on the control panel, the operator could not immediately grasp the environment where the robot was placed. . For example, in the case of remotely controlling a communication robot that often operates near a person, such as interacting with or touching a person, it is important to grasp the surrounding environment of the robot to ensure safety. However, in the prior art, even if the operator moves the head provided with the camera by remote control, only the images viewed from the viewpoint of the robot are sequentially displayed. Therefore, in the prior art, the surrounding environment of the robot cannot be grasped instantaneously, it is inefficient, and it has not been possible to immediately cope with changes in the environment. Thus, it is difficult to grasp the surrounding environment of the robot only by presenting information on the sensors installed in the robot, and the efficiency and safety of remote operation of the robot are not good.

それゆえに、この発明の主たる目的は、効率的よくロボットを遠隔操作することができる、ロボット制御システムを提供することである。   Therefore, a main object of the present invention is to provide a robot control system capable of efficiently operating a robot remotely.

この発明の他の目的は、ロボットの遠隔操作の安全性を向上できる、ロボット制御システムを提供することである。   Another object of the present invention is to provide a robot control system that can improve the safety of remote operation of a robot.

請求項1の発明は、複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットと、入力装置を備える操作用コンピュータとを含み、操作用コンピュータは、入力装置からの入力に応じてオペレータによる操作を特定して当該操作のための操作情報をロボットに送信する、ロボット制御システムであって、複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および環境の一部または全体を示す地図を表示する地図表示手段を備え、地図表示手段は、コミュニケーションロボットの現在位置を地図上に表示するロボット位置表示手段、環境センサの検出情報に基づいて検出された環境における注意情報を地図上に表示する注意情報表示手段、および環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段を含む、ロボット制御システムである。 The invention of claim 1 includes a communication robot existing in an environment provided with a plurality of types of environmental sensors, and an operation computer provided with an input device. The operation computer is operated by an operator in response to an input from the input device. A robot control system for identifying an operation and transmitting operation information for the operation to the robot, a plurality of environment display means for individually displaying the environment information detected using a plurality of types of environment sensors, and the environment includes a map display means for displaying a map showing a part or the whole of, a map display means, the current position robot position display means to display on a map the communication robot, which is detected based on detection information of the environmental sensor Note information display means for displaying warning information in the environment on the map, and a plurality of types of environments Sen placed in the environment Including environmental sensor position display means for displaying the respective position of a robot control system.

請求項1の発明では、ロボット制御システムは、環境センサを設けた環境中に存在するコミュニケーションロボットをオペレータの指示に応じて遠隔操作する。後述する実施例では、環境センサは、カメラ、距離センサ、騒音計、無線タグリーダ等を含む。環境表示手段は、環境センサを用いて検出した環境情報を表示する。環境情報は、たとえば、たとえば環境センサによって検出されたセンサ情報であり、これによって、所定領域のカメラ画像、所定領域の騒音レベル、展示物等の特定物体から人間までの距離情報などが表示される。地図表示手段は、このような環境の一部または全部を示す地図を表示し、ロボット位置表示手段は、コミュニケーションロボットの現在位置を地図中に表示し、注意情報表示手段は、環境センサの検出情報に基づいて検出された環境における注意情報を地図中に表示し、これによって、コミュニケーションロボットの遠隔操作にあたってオペレータに注意を促す。このように、環境情報や注意情報のようなロボットの周辺環境の情報がコミュニケーションロボットの現在位置とともに表示されるので、オペレータにコミュニケーションロボットの周辺環境を容易に把握させることができる。したがって、オペレータは効率よくかつ安全にロボットを遠隔制御することができる。 According to the first aspect of the present invention, the robot control system remotely operates the communication robot existing in the environment provided with the environment sensor in accordance with an instruction from the operator . In an embodiment described later, the environmental sensor includes a camera, a distance sensor, a sound level meter, a wireless tag reader, and the like. The environment display means displays the environment information detected using the environment sensor. The environmental information is, for example, sensor information detected by an environmental sensor, for example, and displays a camera image of a predetermined area, a noise level of the predetermined area, distance information from a specific object such as an exhibit to a person, and the like. . The map display means displays a map showing part or all of such an environment, the robot position display means displays the current position of the communication robot on the map, and the caution information display means displays detection information of the environment sensor. the warning information in the detected environment is displayed on the map based on, thereby to prompting attention to the operator when the remote operation of the communication robot. As this, since the information of the robot environment such as environmental information and warning information is displayed together with the current position of the communication robot, it is possible to easily grasp the surrounding environment of the communication robot operator. Therefore, the operator can remotely control the robot efficiently and safely.

請求項2の発明は、請求項1の発明に従属し、環境表示手段は、オペレータの操作によって選択されている環境センサが検出した環境情報を表示する。 The invention of claim 2 is dependent on the invention of claim 1, and the environment display means displays the environment information detected by the environment sensor selected by the operation of the operator.

請求項2の発明では、地図上に表示されるロボットの位置および環境センサの位置をみながら、オペレータが環境センサを選択して必要な環境情報を表示することができる。
請求項3の発明は、地図表示手段は、環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ表示手段をさらに含む、請求項1または2記載のロボット制御システムである。
請求項3の発明では、複数種類の環境センサのそれぞれの設置位置が地図上に表示されるため、ロボットの遠隔操作にあたってオペレータの注意を喚起することができる。
請求項4の発明は、複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットをオペレータの指示に応じて遠隔操作するロボット制御システムのコンピュータによって実行されるプログラムであって、プログラムは、コンピュータを、複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および環境の一部または全体を示す地図を表示する地図表示手段として機能させ、さらに地図表示手段を、コミュニケーションロボットの現在位置を地図上に表示するロボット位置表示手段、環境センサの検出情報に基づいて検出された環境における注意情報を地図上に表示する注意情報表示手段、および環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段として機能させる、プログラムである。
In the invention of claim 2 , the operator can select the environmental sensor and display necessary environmental information while viewing the position of the robot and the position of the environmental sensor displayed on the map.
The invention according to claim 3 is the robot control system according to claim 1 or 2, wherein the map display means further includes environment sensor display means for displaying the positions of a plurality of types of environment sensors arranged in the environment. .
In the invention of claim 3, since the installation positions of the plurality of types of environmental sensors are displayed on the map , the operator's attention can be alerted when the robot is remotely operated.
According to a fourth aspect of the present invention, there is provided a program executed by a computer of a robot control system that remotely operates a communication robot existing in an environment provided with a plurality of types of environmental sensors in accordance with an instruction from an operator. Are operated as a plurality of environment display means for individually displaying environment information detected by using a plurality of types of environment sensors, and a map display means for displaying a map showing a part or the whole of the environment. is arranged the current position of the communication robot robot position display means to display on the map, note information display means a warning information in the detected environment displayed on the map on the basis of the detection information of the environmental sensors, and in the environment Environmental sensor position display hand that displays the position of each of multiple types of environmental sensors To function as a program.

この発明によれば、ロボットの周辺環境の情報が表示されるので、オペレータにロボットの周辺環境を容易に把握させることができる。したがって、オペレータに効率的よくかつ安全にロボットを遠隔操作させることができる。   According to the present invention, information on the surrounding environment of the robot is displayed, so that the operator can easily grasp the surrounding environment of the robot. Therefore, the robot can be remotely operated efficiently and safely by the operator.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のロボット制御システム(以下、単に「システム」とも言う。)10は、ロボット12および操作用コンピュータ14を含む。このシステム10はロボット12を操作用コンピュータ14から遠隔操作するためのものである。ロボット12と操作用コンピュータ14とは、無線LAN、インターネット等のようなネットワーク16を介して接続される。   Referring to FIG. 1, a robot control system (hereinafter also simply referred to as “system”) 10 of this embodiment includes a robot 12 and an operation computer 14. This system 10 is for remotely operating a robot 12 from an operation computer 14. The robot 12 and the operation computer 14 are connected via a network 16 such as a wireless LAN or the Internet.

ロボット12は、この実施例ではコミュニケーションロボットである。コミュニケーションロボット12は、主として人間のようなコミュニケーションの対象と相互作用することの可能なロボットであり、身振り手振りのような身体動作および発話の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。このロボット12は、一例として、博物館、科学館、イベント会場、会社、商店街、地下街等の所定の場所に配置される案内ロボットや受付ロボット等であってよい。ロボット12は、基本的には自律制御によって人間と相互作用したり所定の役割を果したりすることができるが、必要に応じてオペレータによって操作用コンピュータ14から遠隔操作される。   The robot 12 is a communication robot in this embodiment. The communication robot 12 is a robot capable of interacting mainly with a communication target such as a human being, and has a function of executing a communication action including at least one of body movement such as gesture and gesture. As an example, the robot 12 may be a guide robot, a reception robot, or the like disposed in a predetermined place such as a museum, a science museum, an event venue, a company, a shopping street, or an underground mall. The robot 12 can basically interact with humans or play a predetermined role by autonomous control, but is remotely operated by an operator from the operation computer 14 as necessary.

操作用コンピュータ14には、後述するように、ロボット12を遠隔操作するオペレータのために遠隔操作画面が表示される。この実施例の画面は、ロボット12の動作を指示するための操作画面(図6参照)とともに、当該ロボット12の配置される環境の情報を表示するセンサ情報画面(図5参照)を含む。このセンサ情報画面によって、ロボット12の周辺環境の情報がオペレータに提供される。オペレータはセンサ情報画面で環境情報を確認しつつ操作画面で操作コマンドを入力してロボット12を遠隔操作する。   As will be described later, a remote operation screen is displayed on the operation computer 14 for an operator who remotely operates the robot 12. The screen of this embodiment includes an operation screen (see FIG. 6) for instructing the operation of the robot 12 and a sensor information screen (see FIG. 5) for displaying information on the environment in which the robot 12 is arranged. This sensor information screen provides the operator with information on the surrounding environment of the robot 12. The operator remotely operates the robot 12 by inputting an operation command on the operation screen while confirming environmental information on the sensor information screen.

そのため、システム10は、ロボット12の配置される上述のような所定の場所に設けられて当該場所の環境情報を検出するセンサ(環境センサ)を含む。この実施例では、このような環境に埋め込まれるセンサとして、たとえば、複数のカメラ18、複数の無線タグリーダ20、複数の距離センサ22、および複数の騒音計24が設けられる。各環境センサ18、20、22、24には、当該センサで検出された情報を取得するコンピュータ18a、20a、22a、24aが接続される。各コンピュータ18a、20a、22a、24aは、通信装置を介して有線または無線でネットワーク16に接続される。また、各コンピュータ18a、20a、22a、24aは、各センサ18、20、22、24での検出情報を、たとえば一定時間ごとに取得してネットワーク16を介して操作用コンピュータ14に送信する。   Therefore, the system 10 includes a sensor (environment sensor) that is provided in a predetermined place as described above where the robot 12 is arranged and detects environmental information of the place. In this embodiment, for example, a plurality of cameras 18, a plurality of wireless tag readers 20, a plurality of distance sensors 22, and a plurality of sound level meters 24 are provided as sensors embedded in such an environment. Computers 18 a, 20 a, 22 a, 24 a that acquire information detected by the sensors are connected to the environmental sensors 18, 20, 22, 24. Each computer 18a, 20a, 22a, 24a is connected to the network 16 by wire or wireless via a communication device. The computers 18 a, 20 a, 22 a, and 24 a acquire information detected by the sensors 18, 20, 22, and 24 at regular intervals, for example, and transmit the information to the operation computer 14 via the network 16.

なお、他の実施例では、各環境センサ18、20、22、24の接続された各コンピュータ18a、20a、22a、24aは、ネットワーク16を介して他のコンピュータに環境センサ情報を送信し、当該他のコンピュータが環境センサ情報を操作用コンピュータ14に与えるようにしてもよい。また、ロボット12のセンサ情報も、同様に上記他のコンピュータを経由して操作用コンピュータ14に与えられてよい。また、操作用コンピュータ14の操作情報も、この他のコンピュータを経由してロボット12に与えられてもよい。   In another embodiment, each computer 18a, 20a, 22a, 24a to which each environmental sensor 18, 20, 22, 24 is connected transmits environmental sensor information to another computer via the network 16, and Another computer may provide the operation computer 14 with the environmental sensor information. Similarly, the sensor information of the robot 12 may be given to the operation computer 14 via the other computer. The operation information of the operation computer 14 may also be given to the robot 12 via another computer.

図2には、ロボット12が配置場所で活動する場面の一例が示される。図2では、ロボット12は展示物や案内板等の特定の物体26の説明を人間に対して行っている。なお、この図2においては、各環境センサ18、20、22、24の各コンピュータ18a、20a、22a、24aの図示は省略されている。   FIG. 2 shows an example of a scene in which the robot 12 is active at the placement location. In FIG. 2, the robot 12 explains a specific object 26 such as an exhibit or a guide board to a human. In FIG. 2, the computers 18a, 20a, 22a, 24a of the environmental sensors 18, 20, 22, 24 are not shown.

この図2も参照して、複数のカメラ18は、ロボット12の配置された空間内において分散して配置される。つまり、複数のカメラ18のそれぞれは、ロボット12の配置された環境において所定領域ないし範囲を撮影するように、天井、壁や台等の所定位置で所定方向へ向けて設置される。各環境カメラ18で撮影された所定領域の映像ないし画像は、各コンピュータ18aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各環境カメラ18の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。なお、ロボット12の配置される場所が小さかったり、ロボット12の活動範囲が小かったりする場合等には、環境のカメラ18は1つであってもよい。   Referring also to FIG. 2, the plurality of cameras 18 are arranged in a distributed manner in the space where the robot 12 is arranged. That is, each of the plurality of cameras 18 is installed in a predetermined direction at a predetermined position such as a ceiling, a wall, or a stand so as to photograph a predetermined region or range in the environment where the robot 12 is arranged. A video or image of a predetermined area captured by each environmental camera 18 is given from each computer 18 a to the operation computer 14. The operation computer 14 stores the positional information (coordinates, installed location or area, etc.) of each environmental camera 18 in association with the identification information. In addition, when the place where the robot 12 is arranged is small or the activity range of the robot 12 is small, the environment camera 18 may be one.

複数の無線タグリーダ20は、ロボット12の配置された空間内において分散して配置される。つまり、複数の無線タグリーダ20のそれぞれは、ロボット12の配置された環境において無線タグ(図示しない)の位置推定を行うために、天井、壁、床や台等の所定位置に設置される。この実施例では、無線タグを少なくとも3つの無線タグリーダ20で検出可能なように、各無線タグリーダ20の配置が決められる。無線タグリーダ20は、たとえば受信感度を段階的に制御することが可能であり、このため、無線タグリーダ20から無線タグまでのおおまかな距離を検出することが可能である。各環境無線タグリーダ20で検出された無線タグの識別情報および距離情報は、各コンピュータ20aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各無線タグリーダ20の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。無線タグが少なくとも3つの無線タグリーダ20によって同時に検出されれば、操作用コンピュータ14は、これら無線タグリーダ20の位置情報と検出距離情報とに基づいて当該無線タグの位置を推定することができる。この実施例では、無線タグはロボット12に装着され、したがって、ロボット12の現在位置が推定および把握される。なお、無線タグを人間に装着すれば、当該人間の位置も推定できる。   The plurality of RFID tag readers 20 are arranged in a distributed manner in the space where the robot 12 is arranged. That is, each of the plurality of wireless tag readers 20 is installed at a predetermined position such as a ceiling, a wall, a floor, or a stand in order to estimate the position of a wireless tag (not shown) in the environment where the robot 12 is arranged. In this embodiment, the arrangement of the wireless tag readers 20 is determined so that the wireless tags can be detected by at least three wireless tag readers 20. For example, the wireless tag reader 20 can control the reception sensitivity in a stepwise manner. Therefore, it is possible to detect a rough distance from the wireless tag reader 20 to the wireless tag. The identification information and distance information of the wireless tag detected by each environmental wireless tag reader 20 are given to the operation computer 14 from each computer 20a. The operation computer 14 stores the position information (coordinates, installed location or area, etc.) of each wireless tag reader 20 in association with the identification information. If the wireless tag is detected by at least three wireless tag readers 20 at the same time, the operation computer 14 can estimate the position of the wireless tag based on the position information and the detection distance information of the wireless tag reader 20. In this embodiment, the wireless tag is attached to the robot 12, so that the current position of the robot 12 is estimated and grasped. If the wireless tag is attached to a person, the position of the person can also be estimated.

なお、ロボット12の位置の検出方法は、上述の方法に限定されず適宜変更され得る。他の実施例では、たとえば、環境内に複数の赤外線カメラを設置するとともにロボット12に赤外線LEDを取り付けて、操作用コンピュータ14で赤外線カメラ画像の画像処理によってロボット12の位置を検出するようにしてもよい。また、ロボット12の配置される空間の床に、多数の検出素子(感圧センサ)を含む床センサを設けて、操作用コンピュータ14で床センサの検出圧力信号に基づいてロボット12の位置を検出するようにしてもよい。   Note that the method for detecting the position of the robot 12 is not limited to the above-described method, and may be changed as appropriate. In another embodiment, for example, a plurality of infrared cameras are installed in the environment and an infrared LED is attached to the robot 12 so that the operation computer 14 detects the position of the robot 12 by image processing of the infrared camera image. Also good. Further, a floor sensor including a large number of detection elements (pressure sensors) is provided on the floor of the space where the robot 12 is arranged, and the operation computer 14 detects the position of the robot 12 based on the detection pressure signal of the floor sensor. You may make it do.

複数の距離センサ22のそれぞれは、ロボット12の配置された環境において、たとえば展示物や案内板等の特定の物体26の前に人間が存在するか否かを検出するために、物体26の前等その近傍の所定の位置に設けられる。距離センサ22は、超音波距離センサまたは赤外線距離センサ等である。各環境距離センサ22で測定された距離情報は、各コンピュータ22aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各距離センサ22の位置情報(座標、設置された場所、領域ないし物体26等)を、その識別情報に対応付けて記憶している。なお、特定の物体26が環境に1つしか設けられない場合等には、環境距離センサ22は1つであってよい。あるいは、通路などの特定の領域に複数の距離センサ22を配置して、その領域にどれぐらいの人間が存在するかを検出するようにしてもよい。   Each of the plurality of distance sensors 22 is arranged in front of the object 26 in order to detect whether a human is present in front of a specific object 26 such as an exhibit or a guide board in the environment where the robot 12 is arranged. It is provided at a predetermined position in the vicinity thereof. The distance sensor 22 is an ultrasonic distance sensor or an infrared distance sensor. The distance information measured by each environmental distance sensor 22 is given to the operation computer 14 from each computer 22a. The operation computer 14 stores the position information (coordinates, installed location, area or object 26) of each distance sensor 22 in association with the identification information. In addition, when only one specific object 26 is provided in the environment, the environment distance sensor 22 may be one. Alternatively, a plurality of distance sensors 22 may be arranged in a specific area such as a passage to detect how many people exist in that area.

複数の騒音計24は、ロボット12の配置された空間内において分散して配置される。つまり、複数の騒音計24のそれぞれは、ロボット12の配置された環境において、所定の領域における騒音レベルを検出するために、天井、壁、台等の所定の位置に設けられる。各環境騒音計24で検出された騒音レベル情報は各コンピュータ24aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各騒音計24の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。なお、上述の環境カメラ18の場合と同様の理由で、環境騒音計24は1つであってもよい。   The plurality of sound level meters 24 are distributed in the space where the robot 12 is disposed. That is, each of the plurality of sound level meters 24 is provided at a predetermined position such as a ceiling, a wall, or a stand in order to detect a noise level in a predetermined region in the environment where the robot 12 is arranged. The noise level information detected by each environmental sound level meter 24 is given to the operation computer 14 from each computer 24a. The operation computer 14 stores the position information (coordinates, installed location or area, etc.) of each sound level meter 24 in association with the identification information. Note that there may be only one environmental sound level meter 24 for the same reason as in the case of the environmental camera 18 described above.

図3にはロボット12を正面から見た外観の一例が示され、図4にはロボット12の電気的な構成の一例が示される。図3を参照して、ロボット12は台車28を含み、この台車28の下面には、このロボット12を自律移動させる車輪30が設けられる。この車輪30は、車輪モータ(図4において参照番号「32」で示す。)によって駆動され、台車28すなわちロボット12を前後左右任意の方向に動かすことができる。なお、図3では示さないが、この台車28の前面には、衝突センサ(図4において参照番号「34」で示す。)が取り付けられ、この衝突センサ34は、台車28への人や他の障害物との接触を検知する。ロボット12の移動中に接触を検知すると、直ちに車輪30の駆動を停止することができる。   FIG. 3 shows an example of the appearance of the robot 12 as viewed from the front, and FIG. 4 shows an example of the electrical configuration of the robot 12. Referring to FIG. 3, the robot 12 includes a carriage 28, and wheels 30 for autonomously moving the robot 12 are provided on the lower surface of the carriage 28. The wheel 30 is driven by a wheel motor (indicated by reference numeral “32” in FIG. 4), and the carriage 28, that is, the robot 12 can be moved in any direction. Although not shown in FIG. 3, a collision sensor (indicated by reference numeral “34” in FIG. 4) is attached to the front surface of the carriage 28. Detects contact with obstacles. When contact is detected while the robot 12 is moving, the driving of the wheels 30 can be stopped immediately.

台車28の上には、多角形柱のセンサ取付パネル36が設けられ、このセンサ取付パネル36の各面には、超音波距離センサ38が取り付けられる。この超音波距離センサ38は、取付パネル36すなわちロボット12の周囲の主として人との間の距離を計測するためのものである。   A polygonal column sensor mounting panel 36 is provided on the carriage 28, and an ultrasonic distance sensor 38 is mounted on each surface of the sensor mounting panel 36. This ultrasonic distance sensor 38 is for measuring the distance between the mounting panel 36, that is, the person around the robot 12 mainly.

台車28の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル36に囲まれて、直立するように取り付けられる。この胴体は下部胴体40と上部胴体42とから構成され、これら下部胴体40および上部胴体42は、連結部44によって連結される。連結部44には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体42の高さすなわちロボット12の高さを変化させることができる。昇降機構は、腰モータ(図4において参照番号「46」で示す。)によって駆動される。   Further, the body of the robot 12 is mounted on the carriage 28 so that the lower part of the body is surrounded by the mounting panel 36 described above. The body includes a lower body 40 and an upper body 42, and the lower body 40 and the upper body 42 are connected by a connecting portion 44. Although not shown, the connecting portion 44 has a built-in lifting mechanism, and by using this lifting mechanism, the height of the upper body 42, that is, the height of the robot 12 can be changed. The lifting mechanism is driven by a waist motor (indicated by reference numeral “46” in FIG. 4).

上部胴体42には、1つの全方位カメラ48が設けられる。全方位カメラ48はたとえば背面側上端部のほぼ中央から延びる支柱50上に設置される。全方位カメラ48は、ロボット12の周囲を撮影するものであり、後述する眼カメラ52とは区別される。この全方位カメラ48としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体42の正面側のほぼ中央には、1つのマイク54が設けられる。マイク54は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ48およびマイク54の設置位置は上部胴体40に限られず適宜変更され得る。   One omnidirectional camera 48 is provided on the upper body 42. The omnidirectional camera 48 is installed, for example, on a column 50 extending from substantially the center of the upper end on the back side. The omnidirectional camera 48 captures the surroundings of the robot 12 and is distinguished from an eye camera 52 described later. As this omnidirectional camera 48, for example, a camera using a solid-state imaging device such as a CCD or a CMOS can be adopted. In addition, one microphone 54 is provided at approximately the center of the front side of the upper body 42. The microphone 54 captures ambient sounds, particularly human voices that are communication targets. The installation positions of the omnidirectional camera 48 and the microphone 54 are not limited to the upper body 40 and can be changed as appropriate.

上部胴体42の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。   Upper arms 58R and 58L are attached to both shoulders of the upper body 42 by shoulder joints 56R and 56L, respectively. The shoulder joints 56R and 56L each have three degrees of freedom. That is, the right shoulder joint 56R can control the angle of the upper arm 58R around each of the X, Y, and Z axes. The Y axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 58R, and the X axis and the Z axis are axes orthogonal to the Y axis from different directions. The left shoulder joint 56L can control the angle of the upper arm 58L around each of the A, B, and C axes. The B axis is an axis parallel to the longitudinal direction (or axis) of the upper arm 58L, and the A axis and the C axis are axes orthogonal to the B axis from different directions.

上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。   Forearms 62R and 62L are attached to the respective distal ends of upper arms 58R and 58L via elbow joints 60R and 60L. The elbow joints 60R and 60L can control the angles of the forearms 62R and 62L around the W axis and the D axis, respectively.

なお、上腕58Rおよび58Lならびに前腕62Rおよび62Lの変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。   In the X, Y, Z, W axes and A, B, C, and D axes that control the displacement of the upper arms 58R and 58L and the forearms 62R and 62L, “0 degree” is the home position. The upper arms 58R and 58L and the forearms 62R and 62L are directed downward.

また、図3では示さないが、上部胴体42の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図4において参照番号「64」で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。   Although not shown in FIG. 3, touch sensors (FIG. 4) are provided on the shoulder portion including the shoulder joints 56R and 56L of the upper body 42 and the arm portion including the upper arms 58R and 58L and the forearms 62R and 62L. The touch sensor 64 detects whether or not a person has touched these parts of the robot 12.

前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。   Spheres 66R and 66L corresponding to hands are fixedly attached to the tips of the forearms 62R and 62L, respectively. In place of the spheres 66R and 66L, a “hand” in the shape of a human hand can be used when a finger function is required unlike the robot 12 of this embodiment.

上部胴体42の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。なお、スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられてよい。また、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。   A head 70 is attached to an upper center of the upper body 42 via a neck joint 68. The neck joint 68 has three degrees of freedom and can be controlled in angle around each of the S, T, and U axes. The S-axis is an axis that goes directly from the neck, and the T-axis and the U-axis are axes that are orthogonal to the S-axis in different directions. The head 70 is provided with a speaker 72 at a position corresponding to a human mouth. The speaker 72 may be used for the robot 12 to communicate with the surrounding people by voice or voice. Further, the speaker 72 may be provided in another part of the robot 12, for example, the body.

また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ52Rおよび52Lを含む。なお、左右の眼球部74Rおよび74Lをまとめて参照符号「74」で示し、左右の眼カメラ52Rおよび52Lをまとめて参照符号「52」で示すこともある。眼カメラ52は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。   The head 70 is provided with eyeball portions 74R and 74L at positions corresponding to the eyes. Eyeball portions 74R and 74L include eye cameras 52R and 52L, respectively. Note that the left and right eyeball portions 74R and 74L may be collectively denoted by reference numeral “74”, and the left and right eye cameras 52R and 52L may be collectively denoted by reference numeral “52”. The eye camera 52 captures the video signal by photographing the face of the person approaching the robot 12 and other parts or objects.

なお、上述の全方位カメラ48および眼カメラ52のいずれも、たとえばCCDやCMOSのように固体撮像素子を用いるカメラであってよい。   Note that each of the omnidirectional camera 48 and the eye camera 52 described above may be a camera using a solid-state imaging device such as a CCD or a CMOS.

たとえば、眼カメラ52は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ52の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。   For example, the eye camera 52 is fixed in the eyeball part 74, and the eyeball part 74 is attached to a predetermined position in the head 70 via an eyeball support part (not shown). The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The α axis and the β axis are axes set with respect to the head 70, the α axis is an axis in a direction toward the top of the head 70, the β axis is orthogonal to the α axis and the front side of the head 70 It is an axis in a direction orthogonal to the direction in which (face) faces. In this embodiment, when the head 70 is at the home position, the α axis is set to be parallel to the S axis and the β axis is set to be parallel to the U axis. In such a head 70, when the eyeball support portion is rotated around each of the α axis and the β axis, the tip (front) side of the eyeball portion 74 or the eye camera 52 is displaced, and the camera axis, that is, the line-of-sight direction is changed. Moved.

なお、眼カメラ52の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、眼カメラ52のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。   In the α axis and β axis that control the displacement of the eye camera 52, “0 degree” is the home position, and at this home position, the camera axis of the eye camera 52 is the head 70 as shown in FIG. The direction of the front side (face) is directed, and the line of sight is in the normal viewing state.

図4を参照して、このロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。   Referring to FIG. 4, this robot 12 includes a microcomputer or CPU 76 for overall control, and this CPU 76 is connected to a memory 80, a motor control board 82, a sensor input / output board 84 and a voice through a bus 78. An input / output board 86 is connected.

メモリ80は、図示しないが、ROMやHDDおよびRAM等を含み、ROMまたはHDDには、このロボット12の動作を制御するためのプログラムおよびデータが予め格納されている。CPU76は、このプログラムに従って処理を実行する。プログラムには、たとえば、各センサによる検知情報を検出する検出プログラム、操作用コンピュータ14等の外部コンピュータと必要なデータを送受信するための通信プログラム、動作を自律制御する自律制御プログラムおよび受信した操作情報に基づいて動作を制御する遠隔制御プログラムがある。挨拶、頷き、指差し等の個々のコミュニケーション行動は、モジュール化された各行動プログラム(行動モジュール)によって実現され、メモリ80には複数の行動プログラムが各識別情報(操作コマンド)に対応付けて記憶されている。CPU76は複数のルールと現在の状況に基づいて次の行動を決定していくことでロボット12自身の動作を自律制御できる。また、メモリ80には各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。また、RAMは、バッファメモリやワーキングメモリとして使用される。   Although not shown, the memory 80 includes a ROM, an HDD, a RAM, and the like, and a program and data for controlling the operation of the robot 12 are stored in the ROM or the HDD in advance. The CPU 76 executes processing according to this program. Examples of the program include a detection program for detecting detection information by each sensor, a communication program for transmitting / receiving necessary data to / from an external computer such as the operation computer 14, an autonomous control program for autonomously controlling operation, and received operation information There is a remote control program that controls the operation based on this. Individual communication behaviors such as greeting, whispering, pointing, etc. are realized by each modularized behavior program (behavior module), and a plurality of behavior programs are stored in the memory 80 in association with each identification information (operation command). Has been. The CPU 76 can autonomously control the operation of the robot 12 itself by determining the next action based on a plurality of rules and the current situation. The memory 80 also stores voice data or voice data (speech synthesis data) to be generated when executing each action, angle data for presenting a predetermined gesture, and the like. The RAM is used as a buffer memory or a working memory.

モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図4ではまとめて「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図4ではまとめて「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ46および車輪30を駆動する2つのモータ(図4ではまとめて「車輪モータ」として示す。)32を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて「左眼球モータ」として示す。)96の回転角度を調節する。   The motor control board 82 is composed of, for example, a DSP (Digital Signal Processor) and controls a motor for driving body parts such as the right arm, the left arm, the head, and the eyes. That is, the motor control board 82 receives control data from the CPU 76, and controls the angles of the three motors for controlling the X, Y, and Z axes of the right shoulder joint 56R and the axis W of the right elbow joint 60R. The rotation angle of a total of four motors including one motor (collectively shown as “right arm motor” in FIG. 4) 88 is adjusted. The motor control board 82 includes a total of four motors including three motors that control the angles of the A, B, and C axes of the left shoulder joint 56L and one motor that controls the angle of the D axis of the left elbow joint 60L. The rotation angle of the motor (collectively shown as “left arm motor” in FIG. 4) 90 is adjusted. The motor control board 82 also adjusts the rotation angle of three motors (collectively shown as “head motors” in FIG. 4) 92 that control the angles of the S, T, and U axes of the neck joint 68. . The motor control board 82 also controls the waist motor 46 and the two motors 32 that drive the wheels 30 (collectively shown as “wheel motors” in FIG. 4). Furthermore, the motor control board 82 adjusts the rotation angle of two motors 94 (collectively shown as “right eyeball motors” in FIG. 4) that control the angles of the α axis and β axis of the right eyeball portion 74R. In addition, the rotation angle of two motors 96 that collectively control the angles of the α axis and β axis of the left eyeball portion 74L (collectively shown as “left eyeball motor” in FIG. 4) 96 is adjusted.

なお、この実施例の上述のモータは、車輪モータ32を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ32と同様に、直流モータであってよい。また、この実施例では、ロボット12の腕、頭、眼などの身体部位を駆動するアクチュエータとして電力を駆動源とするモータを用いた。しかしながら、このロボット12としては、たとえば空気圧(または負圧)、油圧、圧電素子あるいは形状記憶合金などによる他のアクチュエータによって身体部位を駆動するロボットが適用されてもよい。   The above-described motors of this embodiment are stepping motors or pulse motors, respectively, for simplifying the control except for the wheel motors 32. However, like the wheel motors 32, they may be DC motors. In this embodiment, a motor using electric power as a driving source is used as an actuator for driving a body part such as an arm, a head, and an eye of the robot 12. However, the robot 12 may be a robot that drives a body part by other actuators such as air pressure (or negative pressure), oil pressure, a piezoelectric element, or a shape memory alloy.

センサ入力/出力ボード84も、同様に、DSPで構成され、各センサからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ38の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ48からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ52からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64および衝突センサ34からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。また、関節角度センサ98からの角度情報がセンサ入力/出力ボードを介してCPU76に与えられる。関節角度センサ98は、各関節56、60、68の各軸の回転角度を検出するロータリエンコーダ、ポテンショメータ等である。   Similarly, the sensor input / output board 84 is configured by a DSP, and takes in signals from each sensor and gives them to the CPU 76. That is, data relating to the reflection time from each of the ultrasonic distance sensors 38 is input to the CPU 76 through the sensor input / output board 84. The video signal from the omnidirectional camera 48 is input to the CPU 76 after being subjected to predetermined processing by the sensor input / output board 84 as necessary. Similarly, the video signal from the eye camera 52 is also supplied to the CPU 76. Further, signals from the touch sensor 64 and the collision sensor 34 are given to the CPU 76 via the sensor input / output board 84. In addition, angle information from the joint angle sensor 98 is given to the CPU 76 via the sensor input / output board. The joint angle sensor 98 is a rotary encoder, a potentiometer, or the like that detects the rotation angle of each axis of each joint 56, 60, 68.

スピーカ72には音声入力/出力ボード86を介して、CPU76から音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク54からの音声入力が、音声入力/出力ボード86を介して音声データとしてCPU76に取り込まれる。   Audio data is given to the speaker 72 from the CPU 76 via the audio input / output board 86, and accordingly, audio or voice according to the data is output from the speaker 72. Also, the voice input from the microphone 54 is taken into the CPU 76 as voice data via the voice input / output board 86.

CPU76にはさらに通信LANボード100が接続される。通信LANボード100も同様にDSPで構成され、CPU76から与えられた送信データを無線通信装置102に与えて、当該データを無線通信装置102からネットワーク16を介して操作用コンピュータ14等の外部コンピュータに送信させる。また、通信LANボード100はネットワーク16および無線通信装置102を介して操作用コンピュータ14等の外部コンピュータからデータを受信し、当該受信データをCPU76に与える。   A communication LAN board 100 is further connected to the CPU 76. Similarly, the communication LAN board 100 is configured by a DSP, and sends transmission data given from the CPU 76 to the wireless communication device 102, and the data is sent from the wireless communication device 102 to an external computer such as the operation computer 14 via the network 16. Send it. Further, the communication LAN board 100 receives data from an external computer such as the operation computer 14 via the network 16 and the wireless communication device 102 and supplies the received data to the CPU 76.

操作用コンピュータ14は、図示は省略するがCPUを含み、CPUには、メモリ、表示装置、入力装置、スピーカおよび通信装置などが接続される。操作用コンピュータ14は、通信装置を介してネットワーク16に有線または無線で接続されている。   Although not shown, the operation computer 14 includes a CPU, and a memory, a display device, an input device, a speaker, a communication device, and the like are connected to the CPU. The operation computer 14 is connected to the network 16 via a communication device in a wired or wireless manner.

操作用コンピュータ14のメモリには、動作を制御するためのプログラムおよび必要なデータが記憶される。プログラムは、たとえば、ロボット12や各コンピュータ18a、20a、22a、24a等の外部コンピュータと必要なデータを送受信するための通信プログラム、環境の情報やロボット12の情報等をこの操作用コンピュータ14の表示装置に表示するための情報表示プログラム、この操作用コンピュータ14の入力装置からの入力に応じてオペレータによる操作を特定し操作情報をロボット12に送信する操作プログラム等を含む。また、各環境センサの位置情報、環境の地図情報等も記憶される。   The memory of the operation computer 14 stores a program for controlling the operation and necessary data. The program includes, for example, a communication program for transmitting / receiving necessary data to / from an external computer such as the robot 12 and each computer 18a, 20a, 22a, 24a, environment information, information on the robot 12, and the like. An information display program for displaying on the apparatus, an operation program for specifying an operation by an operator according to an input from the input device of the operation computer 14 and transmitting operation information to the robot 12 are included. In addition, position information of each environmental sensor, environmental map information, and the like are also stored.

操作用コンピュータ14の表示装置には、図5に示すようなセンサ情報画面および図6に示すような操作画面を含む遠隔操作画面が表示される。操作用コンピュータ14は、その通信装置を介して各コンピュータ18a、20a、22a、24aやロボット12からたとえば一定時間ごとにセンサ情報およびロボット12の行動状態等の必要な情報を取得して、遠隔操作画面を生成および更新する。操作用コンピュータ14の入力装置はマウス、キーボードまたはタッチパネル等であり、オペレータはこの入力装置を操作することによってロボット12を遠隔操作するための操作コマンドを操作画面で入力することができる。また、操作用コンピュータ14のスピーカからは、ロボット12のマイク54で取得した聴覚情報を必要に応じて出力するようにしてよい。   A remote operation screen including a sensor information screen as shown in FIG. 5 and an operation screen as shown in FIG. 6 is displayed on the display device of the operation computer 14. The operation computer 14 obtains necessary information such as sensor information and the action state of the robot 12 from the computers 18a, 20a, 22a, 24a and the robot 12 through the communication device at regular intervals, for example. Generate and update screens. An input device of the operation computer 14 is a mouse, a keyboard, a touch panel, or the like, and an operator can input an operation command for remotely operating the robot 12 on the operation screen by operating the input device. Further, the auditory information acquired by the microphone 54 of the robot 12 may be output from the speaker of the operation computer 14 as necessary.

図5のセンサ情報画面には、環境センサ18、20、22、24を用いて検出した環境情報が表示される。また、この実施例では、ロボット12のセンサ情報も表示される。具体的には、環境カメラウィンドウ110、ロボット距離センサウィンドウ112、ロボットモーションウィンドウ114、騒音計ウィンドウ116、環境距離センサウィンドウ118、地図ウィンドウ120等が表示される。環境カメラウィンドウ110、騒音計ウィンドウ116および環境距離センサウィンドウ118には、各環境センサによって検出された環境センサ情報が表示され、地図ウィンドウ120には、環境センサ情報に基づいて検出された当該環境での遠隔操作にあたり注意すべき情報が表示される。   The environmental information detected using the environmental sensors 18, 20, 22, 24 is displayed on the sensor information screen of FIG. In this embodiment, sensor information of the robot 12 is also displayed. Specifically, an environmental camera window 110, a robot distance sensor window 112, a robot motion window 114, a sound level meter window 116, an environmental distance sensor window 118, a map window 120, and the like are displayed. The environmental camera window 110, the sound level meter window 116, and the environmental distance sensor window 118 display environmental sensor information detected by each environmental sensor, and the map window 120 shows the environment detected based on the environmental sensor information. Information to be noted in remote control of is displayed.

なお、センサ情報画面上に表示する情報の種類は、初期設定によって予め決められており、また、図示しない表示設定メニューでオペレータによって選択され得る。初期設定またはオペレータによって選択された情報に関する表示フラグがオンにされ、表示フラグがオンである情報がセンサ情報画面上に表示される。したがって、ロボット12の遠隔操作に必要なセンサ情報および環境情報のみを、このセンサ情報画面上に表示することができるので、オペレータにロボット12の行動制御を効率よく行わせることができる。   Note that the type of information to be displayed on the sensor information screen is determined in advance by initial setting, and can be selected by an operator from a display setting menu (not shown). A display flag relating to information selected by the initial setting or the operator is turned on, and information on which the display flag is on is displayed on the sensor information screen. Therefore, only sensor information and environment information necessary for remote operation of the robot 12 can be displayed on the sensor information screen, so that the operator can efficiently control the behavior of the robot 12.

環境カメラウィンドウ110には、環境のカメラ18で撮影された環境の映像ないし画像が表示される。ウィンドウ110の上部タイトル欄には、環境カメラ18の名称ないし識別情報(EC1,EC2,…)が表示される。たとえば、ロボット12の現在位置に基づいて当該位置を撮影範囲に含む環境カメラ18が特定され、当該環境カメラ18に対応する表示フラグがオンにされてそのウィンドウ110が表示される。また、ロボット12の現在位置から所定距離内の環境カメラ18の表示フラグをオンにするようにしてもよい。なお、環境のカメラ18の総数が少ない場合等には、すべての環境のカメラ18の表示フラグがオンにされてもよい。また、オペレータは、図示しない表示設定メニューで、複数の環境カメラ18の中から、所望の環境カメラ18の表示を選択することができる。オペレータは、このウィンドウ110によって、ロボット12の存在する場所周辺や近辺の映像を見ることができるし、また、メニュー選択によって自分の見たい場所の映像を見ることができる。   The environment camera window 110 displays an image or image of the environment taken by the environment camera 18. In the upper title field of the window 110, the name or identification information (EC1, EC2,...) Of the environmental camera 18 is displayed. For example, based on the current position of the robot 12, the environmental camera 18 that includes the position in the imaging range is specified, the display flag corresponding to the environmental camera 18 is turned on, and the window 110 is displayed. Further, the display flag of the environmental camera 18 within a predetermined distance from the current position of the robot 12 may be turned on. If the total number of environment cameras 18 is small, the display flags of all environment cameras 18 may be turned on. In addition, the operator can select a desired display of the environmental camera 18 from a plurality of environmental cameras 18 using a display setting menu (not shown). The operator can view images around and near the place where the robot 12 is present through this window 110, and can view an image of a place he / she wants to see by menu selection.

ロボット距離センサウィンドウ112には、ロボット12の超音波距離センサ38で検出された距離情報が表示される。ロボット12では、たとえば、複数の距離センサ38がロボット12の全周囲にわたって所定の角度間隔で設けられている。したがって、オペレータは、このウィンドウ112によって、ロボット12の周囲に存在する物体(人間または障害物等)までの距離およびその方向を確認することができる。   In the robot distance sensor window 112, distance information detected by the ultrasonic distance sensor 38 of the robot 12 is displayed. In the robot 12, for example, a plurality of distance sensors 38 are provided at predetermined angular intervals all around the robot 12. Therefore, the operator can confirm the distance to the object (such as a human being or an obstacle) existing around the robot 12 and its direction through the window 112.

ロボットモーションウィンドウ114には、ロボット12の関節角度センサ98で検出された角度情報に基づくロボット12の姿勢または動きが、たとえば3次元CG画像で表示される。オペレータは、このウィンドウ114によって、ロボット12の現在の姿勢または動き、具体的には頭部70の向きおよび両腕(上腕58および前腕62)の向きを確認することができる。 In the robot motion window 114, the posture or movement of the robot 12 based on the angle information detected by the joint angle sensor 98 of the robot 12 is displayed as, for example, a three-dimensional CG image. The operator can confirm the current posture or movement of the robot 12, specifically, the orientation of the head 70 and the orientations of both arms (upper arm 58 and forearm 62) by this window 114.

騒音計ウィンドウ116には、環境の騒音計24で検出された騒音レベルが表示される。ウィンドウ116の上部タイトル欄には、環境の騒音計24の名称ないし識別情報(EN1,…)が表示される。たとえば、ロボット12の現在位置を含む領域の騒音を検出する騒音計24を特定し、当該騒音計24に対応する表示フラグをオンにしてそのウィンドウ116を表示する。また、ロボット12の現在位置から所定距離内の騒音計24の表示フラグをオンにするようにしてもよい。また、オペレータは、表示設定メニューで、複数の環境騒音計24の中から、所望の騒音計24を選択することができる。オペレータは、このウィンドウ116によって、ロボット12の存在する場所周辺や近辺の騒音レベルを確認することができるし、また、メニュー選択によって自分のチェックしたい場所の騒音レベルを確認することができる。   In the sound level meter window 116, the noise level detected by the environmental sound level meter 24 is displayed. In the upper title column of the window 116, the name or identification information (EN1,...) Of the environmental sound level meter 24 is displayed. For example, the sound level meter 24 that detects the noise in the area including the current position of the robot 12 is specified, the display flag corresponding to the sound level meter 24 is turned on, and the window 116 is displayed. Further, the display flag of the sound level meter 24 within a predetermined distance from the current position of the robot 12 may be turned on. In addition, the operator can select a desired sound level meter 24 from among a plurality of environmental sound level meters 24 using the display setting menu. The operator can confirm the noise level around or near the place where the robot 12 is present by using this window 116, and can confirm the noise level of the place he / she wants to check by selecting a menu.

環境距離センサウィンドウ118には、環境の距離センサ22で検出された距離情報が表示される。ウィンドウ118の上部タイトル欄には、環境の距離センサ22の名称ないし識別情報(ED1,…)が表示される。たとえば、ロボット12の現在位置に最も近いあるいは所定距離内の環境距離センサ22を特定し、当該環境距離センサ22に対応する表示フラグをオンにしてそのウィンドウ118を表示する。また、オペレータは、表示設定メニューで、複数の環境距離センサ22の中から、所望の環境距離センサ22を選択することができる。環境の距離センサ22が展示物等の物体26に関連して設置される場合には、選択リストには物体26の名称等が表示されてよい。また、環境の距離センサ22が通路など特定の場所ないし領域に関連して設置される場合には、当該場所の名称等を選択リストに含めるようにしてよい。環境距離センサ22によって、当該距離センサ22の前に人間が存在するか否かを検出することができるし、また、複数の環境距離センサ22を特定の場所ないし領域に設置する場合には、当該領域内にどれくらいの人間が存在するかを検出することができる。環境距離センサウィンドウ118では、たとえば、当該環境距離センサ22の検出領域内に存在する人間等を示すアイコンが、原点から検出方向に検出距離だけ離れた位置に表示される。オペレータは、このウィンドウ118によって、ロボット12の現在位置に近い物体26や場所等に人間等が存在するか否かや、どのくらいの人間が存在するかを確認することができるし、また、自分の知りたい物体26や場所について人間等の存在を確認することができる。   In the environmental distance sensor window 118, distance information detected by the environmental distance sensor 22 is displayed. In the upper title column of the window 118, the name or identification information (ED1,...) Of the environmental distance sensor 22 is displayed. For example, the environmental distance sensor 22 closest to the current position of the robot 12 or within a predetermined distance is specified, the display flag corresponding to the environmental distance sensor 22 is turned on, and the window 118 is displayed. In addition, the operator can select a desired environmental distance sensor 22 from the plurality of environmental distance sensors 22 using the display setting menu. When the environmental distance sensor 22 is installed in association with an object 26 such as an exhibit, the name of the object 26 may be displayed in the selection list. When the environmental distance sensor 22 is installed in association with a specific place or region such as a passage, the name of the place may be included in the selection list. The environmental distance sensor 22 can detect whether or not a person is present in front of the distance sensor 22, and when installing a plurality of environmental distance sensors 22 in a specific place or region, It is possible to detect how many people are in the area. In the environmental distance sensor window 118, for example, an icon indicating a person or the like existing in the detection area of the environmental distance sensor 22 is displayed at a position away from the origin by a detection distance in the detection direction. The window 118 allows the operator to check whether or not there is a person or the like in the object 26 or the place near the current position of the robot 12 and how many persons are present. It is possible to confirm the presence of a human or the like regarding the object 26 or place to be known.

地図ウィンドウ120には、たとえば博物館等のロボット12の配置された空間ないし場所を示す地図が表示される。この地図には、ロボット12の配置された環境の全体が示されてもよいし、一部が示されてもよい。そして、この地図上に、環境センサ情報に基づいて検出されたロボット12の配置された環境に関する情報が表示される。この実施例では、当該環境情報として、当該環境における注意情報が表示され、具体的には混雑領域および煩い領域が示される。   In the map window 120, for example, a map showing the space or place where the robot 12 such as a museum is arranged is displayed. This map may show the entire environment in which the robot 12 is arranged, or a part thereof. And the information regarding the environment where the robot 12 detected based on environmental sensor information is arrange | positioned is displayed on this map. In this embodiment, attention information in the environment is displayed as the environment information, and specifically, a congested area and a troublesome area are shown.

混雑領域は、各環境カメラ18の撮影画像に基づいて検出される。具体的には、各環境カメラ18は所定位置で所定方向に向けて固定的に設けられるので、常に一定の領域が撮影される。この撮影画像のうち特定領域に注目して、その特定領域における予め取得した背景画像と撮影画像との差分量をみることによって、その領域にどれぐらい人間もしくは物体が存在しているかを推定することができる。たとえば、差分発生領域が特定領域の所定割合(たとえば5割)以上であれば混雑している等の判別式を用いて混雑領域を算出する。地図上では、混雑領域は、地図背景色と異なりかつ他の環境情報を示す色とも異なる所定色(たとえば赤色)のマーク等を用いて表示される。図5では便宜上斜線模様付き円でこの混雑領域が示される。たとえば差分画像をそのままオペレータに提示した場合には、どの領域ないし場所が混雑しているのか、オペレータは瞬時に判断することは困難であるが、このような表示形態を用いることによって、オペレータは混雑している場所を極めて容易に知ることができる。   The crowded area is detected based on the captured image of each environmental camera 18. Specifically, since each environmental camera 18 is fixedly provided at a predetermined position and in a predetermined direction, a certain area is always photographed. By paying attention to a specific area in this captured image, and estimating the amount of difference between the background image acquired in advance in the specific area and the captured image, it is estimated how many people or objects exist in that area. Can do. For example, a congested area is calculated using a discriminant such as a congestion if the difference occurrence area is a predetermined ratio (for example, 50%) or more of the specific area. On the map, the congested area is displayed using a mark of a predetermined color (for example, red) that is different from the map background color and different from the color indicating other environmental information. In FIG. 5, this congested area is indicated by a circle with a hatched pattern for convenience. For example, when the difference image is presented to the operator as it is, it is difficult for the operator to instantly determine which area or place is congested. It is very easy to know where you are doing.

煩い領域は、各騒音計24で測定された騒音レベルに基づいて検出される。具体的には、騒音レベルが所定の閾値以上である場合には、当該騒音計24の設置された領域ないし場所は煩い領域であると判別される。地図上では、煩い領域は、地図背景色と異なりかつ他の環境情報を示す色とも異なる所定色(たとえば黄色)のマーク等を用いて表示される。図5では便宜上格子縞模様付き円でこの煩い領域が示される。たとえば騒音計24で測定された値(騒音レベル)をそのまま見るよりも、このような表示形態を用いることによって、オペレータは煩い場所を極めて容易に知ることができる。   The annoying area is detected based on the noise level measured by each sound level meter 24. Specifically, when the noise level is equal to or higher than a predetermined threshold, it is determined that the area or place where the sound level meter 24 is installed is a troublesome area. On the map, the troublesome area is displayed using a mark of a predetermined color (for example, yellow) that is different from the map background color and different from the color indicating other environmental information. In FIG. 5, this troublesome area is indicated by a circle with a checkered pattern for convenience. For example, rather than looking at the value (noise level) measured by the sound level meter 24 as it is, the operator can know the troublesome place very easily by using such a display form.

このようにして、ロボット12の存在する環境を示す地図を表示するともに、地図上で環境情報を表示するようにしたので、当該環境情報をオペレータに極めて分り易く提供することができる。また、この実施例では、環境情報として、混雑領域や煩い領域等のような当該環境においてロボット12の移動や身体動作に支障の出そうな場所が表示される。つまり、ロボット12の遠隔操作にあたってオペレータに注意を喚起しまたは注意を促すための情報が表示される。このように、ロボット12の存在する環境における注意情報を非常に分り易く提供することができる。 In this way, the map indicating the environment in which the robot 12 exists is displayed, and the environment information is displayed on the map. Therefore, the environment information can be provided to the operator in an easily understandable manner. Further, in this embodiment, as the environment information, a place that is likely to interfere with the movement of the robot 12 or the body movement in the environment such as a congested area or a troubled area is displayed. That is, information for alerting or prompting the operator to perform remote operation of the robot 12 is displayed. As described above, the caution information in the environment where the robot 12 exists can be provided very easily.

また、この地図上には、ロボット12の現在位置に対応する位置に当該ロボット12を示すマーク等(図5では黒三角)が表示される。この実施例では、上述のように、ロボット12に無線タグを取り付け、無線タグリーダ20で当該無線タグまでの距離情報を検出することによって、当該ロボット12の位置を推定することができる。オペレータは、地図上で上述の環境情報をロボット12の現在位置と一緒に見ることによって、現在のロボット12と混雑領域もしくは煩い領域との位置関係を一目で把握することができる。たとえば、オペレータは、ロボット12が混雑領域や煩い領域内に存在する場合には移動の操作コマンド入力を避けたり、ロボット12の現在のモーションをウィンドウ114で参照しつつその必要があると判断した場合には身体動作を含む操作コマンド入力を控えたり、また、ロボット12が混雑領域や煩い領域外に存在する場合には当該領域の方への移動を避けたりするといった遠隔操作の判断を容易に行うことができる。   Further, on this map, a mark or the like (black triangle in FIG. 5) indicating the robot 12 is displayed at a position corresponding to the current position of the robot 12. In this embodiment, as described above, the position of the robot 12 can be estimated by attaching the wireless tag to the robot 12 and detecting the distance information to the wireless tag by the wireless tag reader 20. The operator can grasp at a glance the positional relationship between the current robot 12 and the congested area or the troubled area by viewing the above-described environmental information together with the current position of the robot 12 on the map. For example, when the operator determines that it is necessary to avoid inputting a movement operation command when the robot 12 is present in a congested area or a troubled area or referring to the current motion of the robot 12 in the window 114. In this case, it is easy to make remote operation determinations such as refraining from input of operation commands including body movements, or avoiding movement toward the area when the robot 12 is outside a congested area or annoying area. be able to.

また、地図上には、環境に設置されたセンサ18、20、22、24の位置や、展示物等の物体26の位置等も表示するようにしてよい。図5では、無線タグリーダ20の設置位置が無線タグリーダ20を示すマーク(白四角)を用いて示される。図5では示さないが、マークには当該センサ18、20、22、24や物体26等の名称ないし識別情報等が付されてよい。このように、地図上に各センサ18、20、22、24や物体26等の位置を示す場合には、どのセンサ18、20、22、24のウィンドウ110、116、118をセンサ情報画面上に開くかをオペレータに決定させ易くすることが可能になる。たとえば、混雑領域や煩い領域を撮影する環境カメラ18の特定が容易に行えるので、オペレータは、当該環境カメラ18のウィンドウ110の表示を表示設定メニューで選択することによって、当該混雑領域や煩い領域の実際の様子を映像で確認することができる。   Further, on the map, the position of the sensors 18, 20, 22, 24 installed in the environment, the position of the object 26 such as an exhibit, etc. may be displayed. In FIG. 5, the installation position of the wireless tag reader 20 is indicated using a mark (white square) indicating the wireless tag reader 20. Although not shown in FIG. 5, names or identification information of the sensors 18, 20, 22, 24 and the object 26 may be attached to the marks. Thus, when the position of each sensor 18, 20, 22, 24, object 26, etc. is shown on the map, the window 110, 116, 118 of which sensor 18, 20, 22, 24 is displayed on the sensor information screen. It becomes possible to make it easy for the operator to decide whether to open the door. For example, since it is possible to easily identify the environmental camera 18 that captures a congested area or an annoying area, the operator selects the display of the window 110 of the environmental camera 18 from the display setting menu, so that the congested area or the annoying area is selected. You can check the actual situation on the video.

オペレータは、上述の図5のようなセンサ情報画面によって環境情報を容易に把握しながら、図6のような操作画面で操作コマンドを入力することによってロボット12を遠隔操作することができる。   The operator can remotely operate the robot 12 by inputting an operation command on the operation screen as shown in FIG. 6 while easily grasping the environmental information on the sensor information screen as shown in FIG.

操作画面は、現在のロボット12の状態を示す第1領域130および操作コマンドを示す第2領域132を含む。具体的には、第1領域130には、現在のロボット12の状況(状態)および実行中のコミュニケーション行動が文字で表示される。図6に示す例では、ロボット12は、その状態が「IDLE」であり、「ASOBO(遊ぼう)」のコミュニケーション行動を実行していることが示される。ロボット12がオペレータの指示によらないで自律行動している場合には、その状態は「IDLE」であり、逆にオペレータに指示に従ってコミュニケーション行動している場合には、その状態は「BUSY」である。コミュニケーション行動は、当該行動を実現するための行動モジュールと呼ばれるプログラムに従って実行される。第1領域130に表示されるコミュニケーション行動は、当該行動モジュールの名称ないし識別情報(すなわち操作コマンド)であってよい。ロボット12は、上述のように、たとえば一定時間ごとにセンサ情報とともに行動状態を操作用コンピュータ14に送信しており、第1領域130の表示は、受信した行動状態に基づいて行われる。   The operation screen includes a first area 130 indicating the current state of the robot 12 and a second area 132 indicating an operation command. Specifically, in the first area 130, the current state (state) of the robot 12 and the communication behavior being executed are displayed in characters. In the example illustrated in FIG. 6, the robot 12 is in the “IDLE” state, and it is indicated that the communication behavior “ASOBO” is being executed. When the robot 12 is acting autonomously without being instructed by the operator, the state is “IDLE”. Conversely, when the robot 12 is performing communication behavior according to the instruction to the operator, the state is “BUSY”. is there. The communication behavior is executed according to a program called a behavior module for realizing the behavior. The communication behavior displayed in the first area 130 may be the name or identification information (that is, the operation command) of the behavior module. As described above, the robot 12 transmits the behavior state together with the sensor information to the operation computer 14 at regular time intervals, for example, and the display of the first region 130 is performed based on the received behavior state.

また、第1領域130には、終了ボタン(アイコン)134が表示される。この終了ボタン134は、操作画面を閉じる、すなわち、ロボット12の遠隔操作を終了するためのものである。   Further, an end button (icon) 134 is displayed in the first area 130. The end button 134 is for closing the operation screen, that is, for ending the remote operation of the robot 12.

第2領域132には、オペレータによって指示される操作コマンドが表示される。たとえば、表示領域136、138、140、142が設けられる。表示領域136−140には、各コミュニケーション行動を指示するための操作コマンドが表示されている。すいているとき(ロボット12の周囲の人が少ないとき)の行動、混んでいるとき(ロボット12の周囲の人が多いとき)の行動、および通常動作の3つに分類して操作コマンド名が表示される。これによって、オペレータの選択の効率性を向上させている。ただし、分類せずに1つの表示領域ですべてのコミュニケーション行動の操作コマンドを表示するようにしてもよい。また、図面では省略するが、多数のコマンド名が表示されるため、実際には、表示内容をスクロールするためのスクロールバーが設けられる。他の表示領域も同様である。   In the second area 132, an operation command instructed by the operator is displayed. For example, display areas 136, 138, 140, 142 are provided. In the display area 136-140, operation commands for instructing each communication action are displayed. The operation command names are classified into three types: behavior when the robot 12 is busy (when there are few people around the robot 12), behavior when crowded (when there are many people around the robot 12), and normal operation. Is displayed. This improves the efficiency of operator selection. However, operation commands for all communication actions may be displayed in one display area without classification. Although omitted in the drawings, since many command names are displayed, a scroll bar for scrolling the display contents is actually provided. The same applies to other display areas.

表示領域142には、コマンド履歴が表示される。つまり、ロボット12に送信され、実行されたコミュニケーション行動についての操作コマンド名がたとえば時系列で表示される。これによって、オペレータは、遠隔操作によって実行させたロボット12の行動履歴を確認することができる。   In the display area 142, a command history is displayed. That is, the operation command name about the communication action transmitted to the robot 12 and executed is displayed in time series, for example. Thereby, the operator can confirm the action history of the robot 12 executed by remote operation.

第2領域132には、さらに、コマンド送信ボタン144,緊急停止ボタン146,左ボタン148,前ボタン150,右ボタン152が設けられる。また、移動コマンドに関するボタンとして、前進ボタン154,左回転ボタン156,右回転ボタン158,後退ボタン160,停止ボタン162が設けられる。また、ロボット12の稼働を終了させるための終了ボタン164も設けられる。   In the second area 132, a command transmission button 144, an emergency stop button 146, a left button 148, a front button 150, and a right button 152 are further provided. Further, as buttons relating to the movement command, a forward button 154, a left rotation button 156, a right rotation button 158, a backward button 160, and a stop button 162 are provided. An end button 164 for ending the operation of the robot 12 is also provided.

コマンド送信ボタン144は、オペレータによって選択された操作コマンドをロボット12に送信するためのものである。緊急停止ボタン146は、ロボット12の動きを緊急に停止させるためのものである。   The command transmission button 144 is for transmitting the operation command selected by the operator to the robot 12. The emergency stop button 146 is for urgently stopping the movement of the robot 12.

左ボタン148は、ロボット12の首関節68を左に所定角度だけ回動させるためのものである。たとえば、このボタン148がクリックされる度に、ロボット12の頭部70が左方向(S軸)に所定角度(たとえば5度)ずつ回動される。前ボタン150は、ロボット12の首関節68を正面の方向に向けるためのものである。このボタン150がクリックされると、ロボット12の顔(頭部70の正面)が正面方向を向くように、首関節68が制御される。右ボタン152は、ロボット12の首関節68を右に所定角度だけ回動させるためのものである。たとえば、このボタン152がクリックされる度に、ロボット12の頭部70が右方向(S軸)に所定角度(たとえば5度)ずつ回動される。   The left button 148 is for rotating the neck joint 68 of the robot 12 to the left by a predetermined angle. For example, each time this button 148 is clicked, the head 70 of the robot 12 is rotated by a predetermined angle (for example, 5 degrees) leftward (S axis). The front button 150 is for directing the neck joint 68 of the robot 12 in the front direction. When this button 150 is clicked, the neck joint 68 is controlled so that the face of the robot 12 (front of the head 70) faces the front. The right button 152 is for rotating the neck joint 68 of the robot 12 to the right by a predetermined angle. For example, each time this button 152 is clicked, the head 70 of the robot 12 is rotated by a predetermined angle (for example, 5 degrees) in the right direction (S axis).

また、前進ボタン154は、ロボット12を前進させるためのものである。たとえば、ロボット12は、このボタン154がクリックされると前進し、ボタン162がクリックされて停止命令が与えられると停止する。左回転ボタン156は、ロボット12を左旋回させるためのボタンである。たとえば、ロボット12は、このボタン156がクリックされると左旋回し、停止命令が与えられると停止する。右回転ボタン158は、ロボット12を右旋回させるためのものである。たとえば、ロボット12は、このボタン158がクリックされると右旋回し、停止命令が与えられると停止する。後退ボタン160は、ロボット12を後退させるためのものである。たとえば、ロボット12は、このボタン160がクリックされると後退し、停止命令が与えられると停止する。停止ボタン162は、移動しているロボット12に停止命令を与えるためのものである。たとえば、このボタン162がクリックされると、ロボット12は、前進、左回転、右回転または後退を停止する。   The advance button 154 is for advancing the robot 12. For example, the robot 12 moves forward when the button 154 is clicked, and stops when the button 162 is clicked and a stop command is given. The left rotation button 156 is a button for turning the robot 12 to the left. For example, the robot 12 turns left when the button 156 is clicked, and stops when a stop command is given. The right rotation button 158 is for turning the robot 12 to the right. For example, the robot 12 turns right when the button 158 is clicked, and stops when a stop command is given. The retreat button 160 is for retreating the robot 12. For example, the robot 12 moves backward when the button 160 is clicked, and stops when a stop command is given. The stop button 162 is for giving a stop command to the moving robot 12. For example, when this button 162 is clicked, the robot 12 stops moving forward, rotating left, rotating right, or moving backward.

また、終了ボタン164は、ロボット12の運転を終了(停止)させるためのものである。たとえば、このボタン164がクリックされるとロボット12に終了命令が与えられ、ロボット12は、各部位をホームポジションに戻した後、図4に示したような回路コンポーネントへの電源供給を停止する。   The end button 164 is for ending (stopping) the operation of the robot 12. For example, when the button 164 is clicked, an end command is given to the robot 12, and the robot 12 stops supplying power to the circuit components as shown in FIG. 4 after returning each part to the home position.

図7および図8に、操作用コンピュータ14のCPUの情報表示処理における動作の一例が示される。この情報表示処理は一定時間ごとに繰り返し実行される。また、情報表示処理は図9の操作処理など他の処理と並列的に実行される。   FIG. 7 and FIG. 8 show an example of the operation in the information display process of the CPU of the operation computer 14. This information display process is repeatedly executed at regular intervals. The information display process is executed in parallel with other processes such as the operation process of FIG.

情報表示処理を開始すると、まず、ステップS1で、環境に設置された各センサ18、20、22、24の情報を、各コンピュータ18a、20a、22a、24aからネットワーク16を介して取得する。次に、ステップS3で、ロボット12に設置された各センサの情報をネットワーク16を介して取得する。たとえば、ロボット12に設けられた超音波距離センサ38の情報、および関節角度センサ98の情報を取得する。ただし、他のセンサ34、48、52、54、64の情報も取得してよい。   When the information display process is started, first, in step S1, information of each sensor 18, 20, 22, 24 installed in the environment is acquired from each computer 18a, 20a, 22a, 24a via the network 16. Next, in step S <b> 3, information about each sensor installed in the robot 12 is acquired via the network 16. For example, the information of the ultrasonic distance sensor 38 provided in the robot 12 and the information of the joint angle sensor 98 are acquired. However, information on other sensors 34, 48, 52, 54, and 64 may also be acquired.

ステップS5では、ロボット12の位置を推定する。つまり、上述のように、環境に設けられた無線タグリーダ20の検出情報と予め記憶しておいた位置情報とに基づいて、ロボット12に取り付けられた無線タグの現在位置を算出する。   In step S5, the position of the robot 12 is estimated. That is, as described above, the current position of the wireless tag attached to the robot 12 is calculated based on the detection information of the wireless tag reader 20 provided in the environment and the position information stored in advance.

続いて、ステップS7で、環境情報としての注意情報(この実施例では、混雑領域および煩い領域)を検出する。つまり、上述のように、混雑領域は、環境カメラ18の撮影画像の差分画像に基づいて検出され、煩い領域は、環境の騒音計24で検出された騒音レベルに基づいて検出される。なお、複数の環境距離センサ22を配置した通路などの所定領域がある場合には、当該所定領域が混雑しているか否かを当該複数の環境距離センサ22で検出された情報に基づいて判定するようにしてもよい。   Subsequently, in step S7, attention information (congested area and troublesome area in this embodiment) as environment information is detected. That is, as described above, the congested area is detected based on the difference image of the captured image of the environmental camera 18, and the troublesome area is detected based on the noise level detected by the environmental sound level meter 24. When there is a predetermined area such as a passage where a plurality of environmental distance sensors 22 are arranged, it is determined based on information detected by the plurality of environmental distance sensors 22 whether or not the predetermined area is congested. You may do it.

また、ステップS9では、表示フラグの設定を実行する。たとえば、情報表示処理の開始時には、予めメモリに記憶されている初期設定データに基づいて、各ウィンドウ110−120の表示フラグを設定する。また、表示設定メニューの選択操作が行われたときには、図示しない設定画面を表示装置に表示して、センサ情報画面内にウィンドウ110−120で表示する各センサ情報および地図情報の選択をオペレータに行わせる。オペレータの選択に応じて、当該選択されたセンサ情報または地図情報に対応する表示フラグがオンにされる。また、ステップS5で推定されたロボット12の現在位置と予めメモリに記憶された各環境センサの位置情報とに基づいて、自動的に表示フラグの設定を行うようにしてもよい。たとえば、ロボット12の現在位置がその撮影領域に含まれる環境カメラ18を特定し、当該環境カメラ18のウィンドウ110の表示フラグをオンにする。あるいは、ロボット12の現在位置から所定距離内に存在する各センサ18、22、24を特定し、当該センサのウィンドウ110−118の表示フラグをオンにしてもよい。   In step S9, a display flag is set. For example, at the start of the information display process, the display flag of each window 110-120 is set based on the initial setting data stored in advance in the memory. When a display setting menu selection operation is performed, a setting screen (not shown) is displayed on the display device, and each sensor information and map information displayed on the window 110-120 in the sensor information screen is selected by the operator. Make it. In response to the operator's selection, a display flag corresponding to the selected sensor information or map information is turned on. The display flag may be automatically set based on the current position of the robot 12 estimated in step S5 and the position information of each environmental sensor stored in advance in the memory. For example, the environmental camera 18 in which the current position of the robot 12 is included in the imaging region is specified, and the display flag of the window 110 of the environmental camera 18 is turned on. Alternatively, each sensor 18, 22, and 24 existing within a predetermined distance from the current position of the robot 12 may be specified, and the display flag of the sensor window 110-118 may be turned on.

続くステップS11からS43で、表示フラグに従って、ウィンドウ110−120の表示処理を行う。具体的には、ステップS11で、現時刻の各環境カメラ18の情報を受信したか否かを判断する。ステップS11で“YES”であれば、ステップS13で、表示フラグがオンである環境カメラ18の撮影画像を示す環境カメラウィンドウ110を表示する。   In subsequent steps S11 to S43, display processing of the window 110-120 is performed according to the display flag. Specifically, in step S11, it is determined whether information of each environmental camera 18 at the current time has been received. If “YES” in the step S11, an environmental camera window 110 showing a captured image of the environmental camera 18 whose display flag is on is displayed in a step S13.

ステップS11で“NO”の場合、または、ステップS13を終了すると、ステップS15で、現時刻の各環境距離センサ22の情報を受信したか否かを判断する。ステップS15で“YES”であれば、ステップS17で、表示フラグがオンである環境距離センサ22の距離情報を示す環境距離センサウィンドウ118を表示する。   If “NO” in the step S11, or when the step S13 is ended, it is determined whether or not the information of each environmental distance sensor 22 at the current time is received in a step S15. If “YES” in the step S15, an environmental distance sensor window 118 showing the distance information of the environmental distance sensor 22 whose display flag is turned on is displayed in a step S17.

ステップS15で“NO”の場合、または、ステップS17を終了すると、ステップS19で、現時刻の各環境騒音計24の情報を受信したか否かを判断する。ステップS19で“YES”であれば、ステップS21で、表示フラグがオンである環境騒音計24の騒音レベルを示す騒音計ウィンドウ116を表示する。ステップS19で“NO”の場合、または、ステップS21を終了すると、処理は図8のステップS23へ進む。   If “NO” in the step S15, or when the step S17 is ended, it is determined whether or not the information of the environmental noise meters 24 at the current time is received in a step S19. If “YES” in the step S19, a sound level meter window 116 indicating the noise level of the environmental sound level meter 24 whose display flag is turned on is displayed in a step S21. If “NO” in the step S19, or when the step S21 is ended, the process proceeds to a step S23 in FIG.

図8のステップS23では、現時刻のロボット12の関節角度センサ98の情報を受信したか否かを判断する。ステップS23で“YES”であれば、ステップS25で、ロボット12の動きに関する表示フラグはオンであるか否かを判断する。ステップS25で“YES”であれば、ステップS27で、ロボット12の動きを示すロボットモーションウィンドウ114を表示する。   In step S23 of FIG. 8, it is determined whether or not the information of the joint angle sensor 98 of the robot 12 at the current time has been received. If “YES” in the step S23, it is determined whether or not a display flag related to the movement of the robot 12 is turned on in a step S25. If “YES” in the step S25, a robot motion window 114 showing the movement of the robot 12 is displayed in a step S27.

ステップS23もしくはS25で“NO”の場合、または、ステップS27を終了すると、ステップS29で、現時刻のロボット12の超音波距離センサ38の情報を受信したか否かを判断する。ステップS29で“YES”であれば、ステップS31で、ロボット12の距離センサ情報に関する表示フラグはオンであるか否かを判断する。ステップS31で“YES”であれば、ステップS33で、ロボット12の距離センサ情報を示すロボット距離センサウィンドウ112を表示する。   If “NO” in step S23 or S25, or when step S27 ends, it is determined in step S29 whether information of the ultrasonic distance sensor 38 of the robot 12 at the current time has been received. If “YES” in the step S29, it is determined whether or not a display flag regarding the distance sensor information of the robot 12 is turned on in a step S31. If “YES” in the step S31, the robot distance sensor window 112 showing the distance sensor information of the robot 12 is displayed in a step S33.

ステップS29もしくはS31で“NO”の場合、または、ステップS33を終了すると、ステップS35で、地図に関する表示フラグはオンであるか否かを判断する。ステップS35で“YES”であれば、ステップS37で、地図ウィンドウ120を表示して、ロボット12の存在する環境の地図を表示する。   If “NO” in step S29 or S31, or when step S33 ends, it is determined in step S35 whether the display flag relating to the map is on. If “YES” in the step S35, the map window 120 is displayed in a step S37, and a map of the environment where the robot 12 exists is displayed.

続いて、ステップS39で、地図上において、ステップS5で算出された現在位置に対応する位置に、ロボット12のマーク(図5では黒三角)を表示する。   Subsequently, in step S39, the mark of the robot 12 (black triangle in FIG. 5) is displayed on the map at a position corresponding to the current position calculated in step S5.

そして、ステップS41で、環境の情報に関する表示フラグがオンであるか否かを判断する。ステップS41で“YES”であれば、ステップS43で、地図上に環境の情報、この実施例では環境における注意情報を表示する。具体的には、地図上において、ステップS7で検出された混雑領域に対応する位置に、混雑領域を示すマーク(図5では斜線模様付き円)等を表示する。また、ステップS7で検出された煩い領域に対応する位置に、煩い領域を示すマーク(図5では格子模様付き円)等を表示する。   In step S41, it is determined whether or not a display flag relating to environmental information is on. If “YES” in the step S41, environmental information, in this embodiment, environmental caution information is displayed on the map in a step S43. Specifically, on the map, a mark indicating a congested area (a circle with a diagonal line pattern in FIG. 5) or the like is displayed at a position corresponding to the congested area detected in step S7. Further, a mark indicating a troublesome area (circle with a lattice pattern in FIG. 5) or the like is displayed at a position corresponding to the troublesome area detected in step S7.

ステップS35で“NO”の場合、ステップS41で“NO”の場合、またはステップS43を終了すると、ステップS45で、終了指示が行われた否かを判断する。つまり、オペレータの入力装置の操作によってセンサ情報画面の表示の終了を指示するメニューが選択されたか否かを判断する。ステップS45で“NO”であれば、図7のステップS1に戻って処理を繰り返し、センサ情報画面を更新する。一方、ステップS45で“YES”であれば、センサ情報画面を閉じて、この情報表示処理を終了する。なお、センサ情報画面で終了指示が行われた場合には、図9の操作処理も終了する。   If “NO” in the step S35, if “NO” in the step S41, or when the step S43 is ended, it is determined whether or not an end instruction is issued in a step S45. That is, it is determined whether or not a menu for instructing to end the display of the sensor information screen is selected by the operator's operation of the input device. If “NO” in the step S45, the process returns to the step S1 in FIG. 7 to repeat the process, and the sensor information screen is updated. On the other hand, if “YES” in the step S45, the sensor information screen is closed and the information display processing is ended. Note that when an end instruction is given on the sensor information screen, the operation process of FIG. 9 is also ended.

図9には、操作用コンピュータ14のCPUの操作処理における動作の一例が示される。操作処理を開始すると、まず、ステップS61で、図6に示すような操作画面を表示する。なお、操作画面とセンサ情報画面とは、表示装置上にたとえば並べて表示される。   FIG. 9 shows an example of the operation in the operation process of the CPU of the operation computer 14. When the operation process is started, first, in step S61, an operation screen as shown in FIG. 6 is displayed. The operation screen and the sensor information screen are displayed side by side on the display device, for example.

続くステップS63からS71の処理を一定時間ごとに繰り返し実行する。すなわち、ステップS63で、ロボット12の行動状態をネットワーク16を介して取得して、操作画面の第1領域130に、動作状態および実行中のコミュニケーション行動等を表示する。   The subsequent steps S63 to S71 are repeatedly executed at regular intervals. That is, in step S63, the action state of the robot 12 is acquired via the network 16, and the operation state, the communication action being executed, and the like are displayed in the first area 130 of the operation screen.

続いて、ステップS65で、入力装置からの入力データとメモリに記憶された操作コマンドおよびボタン配置データとに基づいて、操作コマンドが選択されたか否かを判断する。具体的には、コミュニケーション行動を指示するコマンドの場合には、表示領域136、138、140で当該コマンドが選択された状態で、コマンド送信ボタン144が選択されたか否かを判断する。また、各ボタン146―164に割り当てられたコマンドの場合には、当該ボタン146−164が選択されたか否かを判断する。   Subsequently, in step S65, it is determined whether or not an operation command has been selected based on the input data from the input device and the operation command and button arrangement data stored in the memory. Specifically, in the case of a command instructing a communication action, it is determined whether or not the command transmission button 144 is selected in a state where the command is selected in the display areas 136, 138 and 140. In the case of a command assigned to each button 146-164, it is determined whether or not the button 146-164 has been selected.

ステップS65で“YES”であれば、ステップS67で、選択された操作コマンドを特定し、当該操作コマンドをネットワーク16を介してロボット12に送信する。続いて、ステップS69で、送信した操作コマンドを表示領域142に追加して、コマンド履歴を時系列で表示する。   If “YES” in the step S65, the selected operation command is specified in a step S67, and the operation command is transmitted to the robot 12 via the network 16. Subsequently, in step S69, the transmitted operation command is added to the display area 142, and the command history is displayed in time series.

ステップS65で“NO”の場合、または、ステップS69を終了すると、ステップS71で、終了指示が行われたか否かを判断する。具体的には、終了ボタン134が選択されたか否かを判断する。ステップS71で“NO”であれば、ステップS63に戻って処理を繰り返して、上述のように、操作画面の第1領域130の表示を更新し、オペレータの選択に応じて操作コマンドを送信する。一方、ステップS71で“YES”であれば、操作画面を閉じてこの操作処理を終了する。なお、操作画面で終了指示が行われた場合には、図7および図8の情報表示処理も終了する。   If “NO” in the step S65, or when the step S69 is ended, it is determined whether or not an end instruction is issued in a step S71. Specifically, it is determined whether or not the end button 134 has been selected. If “NO” in the step S71, the process returns to the step S63 to repeat the process, update the display of the first area 130 of the operation screen as described above, and transmit the operation command according to the selection of the operator. On the other hand, if “YES” in the step S71, the operation screen is closed and the operation process is ended. Note that when an end instruction is given on the operation screen, the information display processing in FIGS. 7 and 8 is also ended.

この実施例によれば、ロボット12のセンサ情報だけでなく、ロボット12の存在する環境のセンサ情報を表示するようにしたので、ロボット12の周辺環境の情報をオペレータに提供することができる。また、混雑領域や煩い領域のような当該環境における注意情報をたとえば地図上に表示する等、環境情報を分り易く表示するようにしたので、ロボット12の周辺環境を極めて容易にかつ瞬時にオペレータに把握させることができる。このため、たとえば、オペレータがロボット12の行動制御を決定するまでの時間が減少することが期待できる。したがって、オペレータに効率よくロボット12の遠隔操作を行わせることができる。   According to this embodiment, since not only the sensor information of the robot 12 but also the sensor information of the environment where the robot 12 exists is displayed, the information on the surrounding environment of the robot 12 can be provided to the operator. In addition, since the environmental information is displayed in an easy-to-understand manner, for example, the caution information in the environment such as a congested area or a troubled area is displayed on a map, the surrounding environment of the robot 12 can be very easily and instantly displayed to the operator. It can be grasped. For this reason, for example, it can be expected that the time until the operator decides the behavior control of the robot 12 is reduced. Accordingly, the operator can efficiently perform remote operation of the robot 12.

また、混雑領域や煩い領域等の環境における注意情報の表示によって、ロボット12が移動や身体動作に支障のある状況にあるのかどうかを容易に把握させることができるし、あるいは、身体動作や移動に支障のありそうな場所がどこなのかを容易に把握させることができる。このように、オペレータにロボット12の周辺環境およびその状況を的確に把握させてその行動を制御させることができるので、ロボット12の遠隔操作の効率性とともに安全性を向上することができる。   In addition, by displaying caution information in an environment such as a congested area or an annoying area, it is possible to easily grasp whether or not the robot 12 is in a situation that hinders movement or physical movement, or for physical movement or movement. It is possible to easily grasp where the trouble is likely to be. As described above, since the operator can accurately grasp the surrounding environment and the situation of the robot 12 and control the action thereof, the efficiency of the remote operation of the robot 12 and the safety can be improved.

さらに、上述のように自律制御可能なロボット12の遠隔制御の効率性および安全性を向上できるので、たとえば1人のオペレータが同時に複数のロボット12の遠隔操作を担当することも可能になる。つまり、少数のオペレータが多くのロボット12を同時に制御することも可能になる。   Furthermore, since the efficiency and safety of remote control of the autonomously controllable robot 12 can be improved as described above, for example, one operator can take charge of remote operation of a plurality of robots 12 at the same time. That is, a small number of operators can control many robots 12 simultaneously.

なお、上述の実施例では、操作用コンピュータ14は、各環境センサ18、20、22、24の接続された各コンピュータ18a、20a、22a、24aから各環境センサ情報を受信し、また、ロボット12からそのセンサ情報を受信するようにしていた。しかし、他の実施例では、ネットワーク16に接続された中央制御装置等の他のコンピュータが環境センサ情報またはロボット12のセンサ情報を取得するようにして、当該コンピュータがこれらセンサ情報を操作用コンピュータ14に与えるようにしてもよい。   In the above-described embodiment, the operation computer 14 receives each environment sensor information from each computer 18a, 20a, 22a, 24a to which each environment sensor 18, 20, 22, 24 is connected, and the robot 12 The sensor information was received from. However, in another embodiment, another computer such as a central control device connected to the network 16 acquires the environmental sensor information or the sensor information of the robot 12, and the computer uses the sensor information as the operation computer 14. You may make it give to.

また、上述の各実施例では、操作用コンピュータ14が、ロボット12の現在位置、混雑領域、煩い領域などを算出するようにしていた。しかし、他の実施例では、上記中央制御装置等の他のコンピュータが、センサ情報画面の表示に必要なこれらの情報を算出して、操作用コンピュータ14に与えるようにしてもよい。   Further, in each of the above-described embodiments, the operation computer 14 calculates the current position of the robot 12, a congested area, a troublesome area, and the like. However, in another embodiment, another computer such as the central control device may calculate the information necessary for displaying the sensor information screen and give it to the operation computer 14.

この発明の一実施例のロボット制御システムの構成を示す図解図である。It is an illustration figure which shows the structure of the robot control system of one Example of this invention. 図1実施例のロボットの活動場面の一例を示す図解図である。It is an illustration figure which shows an example of the activity scene of the robot of FIG. 1 Example. 図1実施例のロボットを正面から見た外観の一例を示す図解図である。It is an illustration figure which shows an example of the external appearance which looked at the robot of FIG. 1 Example from the front. 図1実施例のロボットの電気的な構成の一例を示すブロック図である。It is a block diagram which shows an example of the electrical structure of the robot of FIG. 1 Example. 操作用コンピュータに表示されるセンサ情報画面の一例を示す図解図である。It is an illustration figure which shows an example of the sensor information screen displayed on the computer for operation. 操作用コンピュータに表示される操作画面の一例を示す図解図である。It is an illustration figure which shows an example of the operation screen displayed on the computer for operation. 操作用コンピュータにおける情報表示処理の動作の一例の一部を示すフロー図である。It is a flowchart which shows a part of example of operation | movement of the information display process in the computer for operation. 図7の続きを示すフロー図である。FIG. 8 is a flowchart showing a continuation of FIG. 7. 操作用コンピュータにおける操作処理の動作の一例を示すフロー図である。It is a flowchart which shows an example of the operation | movement process in an operation computer.

符号の説明Explanation of symbols

10 …ロボット制御システム
12 …コミュニケーションロボット
14 …操作用コンピュータ
16 …ネットワーク
18 …カメラ
20 …無線タグリーダ
22 …距離センサ
24 …騒音計
DESCRIPTION OF SYMBOLS 10 ... Robot control system 12 ... Communication robot 14 ... Operation computer 16 ... Network 18 ... Camera 20 ... Wireless tag reader 22 ... Distance sensor 24 ... Sound level meter

Claims (4)

複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットと、入力装置を備える操作用コンピュータとを含み、前記操作用コンピュータは、前記入力装置からの入力に応じてオペレータによる操作を特定して当該操作のための操作情報を前記ロボットに送信する、ロボット制御システムであって、
前記複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および前記環境の一部または全体を示す地図を表示する地図表示手段を備え、
前記地図表示手段は、前記コミュニケーションロボットの現在位置を前記地図上に表示するロボット位置表示手段、前記環境センサの検出情報に基づいて検出された前記環境における注意情報を前記地図上に表示する注意情報表示手段、および前記環境中に配置された前記複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段を含む、ロボット制御システム。
A communication robot that exists in an environment provided with a plurality of types of environmental sensors, and an operation computer including an input device, the operation computer specifying an operation by an operator in response to an input from the input device A robot control system for transmitting operation information for the operation to the robot,
A plurality of environment display means for individually displaying environment information detected using the plurality of types of environment sensors, and a map display means for displaying a map showing a part or the whole of the environment;
Said map display means displays the warning information at the current position the robot position display means to display on said map, said detected environment based on the detected information before Symbol environment sensor of the communication robot on the map A robot control system comprising: attention information display means ; and environmental sensor position display means for displaying the positions of the plurality of types of environmental sensors arranged in the environment .
前記環境表示手段は、前記オペレータの操作によって選択されている環境センサが検出した環境情報を表示する、請求項1記載のロボット制御システム。 The robot control system according to claim 1 , wherein the environment display unit displays environment information detected by an environment sensor selected by the operation of the operator . 前記地図表示手段は、前記環境中に配置された前記複数種類の環境センサのそれぞれの位置を表示する環境センサ表示手段をさらに含む、請求項1または2記載のロボット制御システム。 It said map display means further comprises, according to claim 1 or 2 the robot control system according to environmental sensor display means for displaying the position of each of the plurality of types of environmental sensors disposed in the environment. 複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットをオペレータの指示に応じて遠隔操作するロボット制御システムのコンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータを、
前記複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および
前記環境の一部または全体を示す地図を表示する地図表示手段として機能させ、さらに
前記地図表示手段を、前記コミュニケーションロボットの現在位置を前記地図上に表示するロボット位置表示手段、前記環境センサの検出情報に基づいて検出された前記環境における注意情報を前記地図上に表示する注意情報表示手段、および前記環境中に配置された前記複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段として機能させる、プログラム。
A program executed by a computer of a robot control system for remotely operating a communication robot existing in an environment provided with a plurality of types of environmental sensors in accordance with an instruction from an operator, the program comprising:
A plurality of environment display means for individually displaying environment information detected using the plurality of types of environment sensors; and a map display means for displaying a map showing a part or the whole of the environment, and further the map display means the current position robot position display means to display on said map, note information display means a warning information in the environment detected based on the detection information before Symbol environment sensor to display on the map of the communication robot And a program for functioning as environmental sensor position display means for displaying the respective positions of the plurality of types of environmental sensors arranged in the environment .
JP2006014964A 2006-01-24 2006-01-24 Robot control system Active JP5028568B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006014964A JP5028568B2 (en) 2006-01-24 2006-01-24 Robot control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006014964A JP5028568B2 (en) 2006-01-24 2006-01-24 Robot control system

Publications (2)

Publication Number Publication Date
JP2007196300A JP2007196300A (en) 2007-08-09
JP5028568B2 true JP5028568B2 (en) 2012-09-19

Family

ID=38451405

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006014964A Active JP5028568B2 (en) 2006-01-24 2006-01-24 Robot control system

Country Status (1)

Country Link
JP (1) JP5028568B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101408657B1 (en) 2007-12-18 2014-06-17 삼성전자주식회사 Apparatus and method for user interface of remote control system for Robot
KR101031815B1 (en) 2008-11-14 2011-04-29 에프엠전자(주) Remote control unit and communications method of using the same
KR101080977B1 (en) * 2009-05-22 2011-11-09 영진전문대학 산학협력단 Pipe route detecting System
KR101080978B1 (en) * 2009-05-22 2011-11-09 영진전문대학 산학협력단 System and method for processing pipe ditecting data
JP5546214B2 (en) * 2009-11-19 2014-07-09 株式会社日立産機システム Mobile robot
KR101151787B1 (en) 2009-11-30 2012-05-31 재단법인대구경북과학기술원 Remotely controlled robot system with enhanced heading determination performance and remote controller in the system
US8918213B2 (en) * 2010-05-20 2014-12-23 Irobot Corporation Mobile human interface robot
JP5732633B2 (en) * 2011-02-09 2015-06-10 株式会社国際電気通信基礎技術研究所 Communication robot
CN104765380B (en) * 2014-01-03 2017-04-19 科沃斯商用机器人有限公司 Light spot indication robot and light spot indication method thereof
CN104133398B (en) * 2014-07-10 2017-01-11 杭州电子科技大学 Control circuit inside supermarket shopping robot
CN104898674A (en) * 2015-05-26 2015-09-09 中国安全生产科学研究院 Mobile environment monitoring robot for hazardous chemical leakage accident and monitoring system
WO2022164793A1 (en) 2021-01-29 2022-08-04 Boston Dynamics, Inc. Object-based robot control

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001062766A (en) * 1999-08-26 2001-03-13 Matsushita Electric Works Ltd User interface system for remote control of bipedal walking robot
JP2002244736A (en) * 2001-02-21 2002-08-30 Matsushita Electric Ind Co Ltd Mobile work robot
US6633232B2 (en) * 2001-05-14 2003-10-14 Koninklijke Philips Electronics N.V. Method and apparatus for routing persons through one or more destinations based on a least-cost criterion
JP2003006532A (en) * 2001-06-27 2003-01-10 Fujitsu Ltd Movable robot and service providing system through server using the acquired image
JP3945279B2 (en) * 2002-03-15 2007-07-18 ソニー株式会社 Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus
JP3713021B2 (en) * 2003-02-17 2005-11-02 松下電器産業株式会社 Article handling system and robot operating device for living space
JP4409980B2 (en) * 2004-02-10 2010-02-03 株式会社日立製作所 Information providing apparatus, system including the same, operation program thereof, and information providing method

Also Published As

Publication number Publication date
JP2007196300A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP5028568B2 (en) Robot control system
JP4386367B2 (en) Communication robot improvement system
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP4639343B2 (en) Robot remote control system
JP5318623B2 (en) Remote control device and remote control program
JP2007118129A (en) Communication robot and caution control system using the same
JP2007190641A (en) Communication robot
JP2003340764A (en) Guide robot
CN111614919B (en) Image recording device and head-mounted display
JP5145569B2 (en) Object identification method and apparatus
JP5326794B2 (en) Remote operation system and remote operation method
JP2018190391A (en) Portable mobile robot and operation method thereof
JP7272825B2 (en) robot system
JP2020196060A (en) Teaching method
JP2015066624A (en) Robot control system, robot control program, and explanation robot
JP2007160427A (en) Robot control system
JP4793904B2 (en) Communication robot system and communication robot
JP6142307B2 (en) Attention target estimation system, robot and control program
JP2021064064A (en) Robot system, robot, and operation terminal
JP6142306B2 (en) Robot control system, robot, output control program, and output control method
KR20190091870A (en) Robot control system using motion sensor and VR
JP6005496B2 (en) Remote monitoring device and remote monitoring method
JP3657854B2 (en) Remote location observation equipment
JP4878462B2 (en) Communication robot
WO2021220614A1 (en) Control device, control method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120321

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120424

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120502

R150 Certificate of patent or registration of utility model

Ref document number: 5028568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250