JP5028568B2 - Robot control system - Google Patents
Robot control system Download PDFInfo
- Publication number
- JP5028568B2 JP5028568B2 JP2006014964A JP2006014964A JP5028568B2 JP 5028568 B2 JP5028568 B2 JP 5028568B2 JP 2006014964 A JP2006014964 A JP 2006014964A JP 2006014964 A JP2006014964 A JP 2006014964A JP 5028568 B2 JP5028568 B2 JP 5028568B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- environment
- information
- sensor
- environmental
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000007613 environmental effect Effects 0.000 claims description 99
- 238000001514 detection method Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 3
- 230000033001 locomotion Effects 0.000 description 22
- 238000000034 method Methods 0.000 description 21
- 230000006399 behavior Effects 0.000 description 18
- 210000003128 head Anatomy 0.000 description 18
- 230000008569 process Effects 0.000 description 18
- 210000005252 bulbus oculi Anatomy 0.000 description 13
- 210000001508 eye Anatomy 0.000 description 13
- 230000009471 action Effects 0.000 description 12
- 230000015654 memory Effects 0.000 description 10
- 210000000245 forearm Anatomy 0.000 description 7
- 210000000323 shoulder joint Anatomy 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 4
- 210000002310 elbow joint Anatomy 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 229910001285 shape-memory alloy Inorganic materials 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Description
この発明はロボット制御システムに関し、特にたとえば、自律制御可能なコミュニケーションロボットを必要に応じてオペレータが遠隔操作する、ロボット制御システムに関する。 The present invention relates to a robot control system, and more particularly to a robot control system in which an operator remotely operates a communication robot capable of autonomous control as required.
たとえば特許文献1に従来のロボット制御システムの一例が開示される。特許文献1の技術では、ユーザの操作するパーソナルコンピュータのモニタにコントロールパネルが表示される。このコンロトールパネルには、ロボットのカメラで撮影された画像、ロボットの距離センサで検出された画像上の物体までの距離、およびロボットの現在の姿勢と同じ姿勢の3次元CG画像等が表示される。また、ロボットのタッチセンサが触られたときには、3次元CG画像上の対応する部位が青く表示される。
従来技術では、コントロールパネルには、ロボットに設けられたセンサによって検出された情報しか表示されなかったので、オペレータはロボットの置かれている場所の環境をすぐに把握することが不可能であった。たとえば人と対話したり触れ合ったりするなど人の近くで動作することの多いコミュニケーションロボットを遠隔操作するような場合には、安全確保のためにロボットの周辺環境を把握することが重要である。しかし、従来技術では、オペレータが遠隔操作によってカメラの設けられた頭部を動かしたとしても、ロボットの視点から見た画像が順次表示されるだけである。したがって、従来技術では、ロボットの周辺環境を瞬時に把握することができず、非効率的であり、また、環境の変化に対してすぐに対処することができなかった。このように、ロボットに設置されたセンサの情報を提示するだけでは、ロボットの周辺環境を把握することは困難であり、ロボットの遠隔操作の効率性や安全性が良くなかった。 In the prior art, since only the information detected by the sensor provided on the robot was displayed on the control panel, the operator could not immediately grasp the environment where the robot was placed. . For example, in the case of remotely controlling a communication robot that often operates near a person, such as interacting with or touching a person, it is important to grasp the surrounding environment of the robot to ensure safety. However, in the prior art, even if the operator moves the head provided with the camera by remote control, only the images viewed from the viewpoint of the robot are sequentially displayed. Therefore, in the prior art, the surrounding environment of the robot cannot be grasped instantaneously, it is inefficient, and it has not been possible to immediately cope with changes in the environment. Thus, it is difficult to grasp the surrounding environment of the robot only by presenting information on the sensors installed in the robot, and the efficiency and safety of remote operation of the robot are not good.
それゆえに、この発明の主たる目的は、効率的よくロボットを遠隔操作することができる、ロボット制御システムを提供することである。 Therefore, a main object of the present invention is to provide a robot control system capable of efficiently operating a robot remotely.
この発明の他の目的は、ロボットの遠隔操作の安全性を向上できる、ロボット制御システムを提供することである。 Another object of the present invention is to provide a robot control system that can improve the safety of remote operation of a robot.
請求項1の発明は、複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットと、入力装置を備える操作用コンピュータとを含み、操作用コンピュータは、入力装置からの入力に応じてオペレータによる操作を特定して当該操作のための操作情報をロボットに送信する、ロボット制御システムであって、複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および環境の一部または全体を示す地図を表示する地図表示手段を備え、地図表示手段は、コミュニケーションロボットの現在位置を地図上に表示するロボット位置表示手段、環境センサの検出情報に基づいて検出された環境における注意情報を地図上に表示する注意情報表示手段、および環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段を含む、ロボット制御システムである。
The invention of
請求項1の発明では、ロボット制御システムは、環境センサを設けた環境中に存在するコミュニケーションロボットをオペレータの指示に応じて遠隔操作する。後述する実施例では、環境センサは、カメラ、距離センサ、騒音計、無線タグリーダ等を含む。環境表示手段は、環境センサを用いて検出した環境情報を表示する。環境情報は、たとえば、たとえば環境センサによって検出されたセンサ情報であり、これによって、所定領域のカメラ画像、所定領域の騒音レベル、展示物等の特定物体から人間までの距離情報などが表示される。地図表示手段は、このような環境の一部または全部を示す地図を表示し、ロボット位置表示手段は、コミュニケーションロボットの現在位置を地図中に表示し、注意情報表示手段は、環境センサの検出情報に基づいて検出された環境における注意情報を地図中に表示し、これによって、コミュニケーションロボットの遠隔操作にあたってオペレータに注意を促す。このように、環境情報や注意情報のようなロボットの周辺環境の情報がコミュニケーションロボットの現在位置とともに表示されるので、オペレータにコミュニケーションロボットの周辺環境を容易に把握させることができる。したがって、オペレータは効率よくかつ安全にロボットを遠隔制御することができる。 According to the first aspect of the present invention, the robot control system remotely operates the communication robot existing in the environment provided with the environment sensor in accordance with an instruction from the operator . In an embodiment described later, the environmental sensor includes a camera, a distance sensor, a sound level meter, a wireless tag reader, and the like. The environment display means displays the environment information detected using the environment sensor. The environmental information is, for example, sensor information detected by an environmental sensor, for example, and displays a camera image of a predetermined area, a noise level of the predetermined area, distance information from a specific object such as an exhibit to a person, and the like. . The map display means displays a map showing part or all of such an environment, the robot position display means displays the current position of the communication robot on the map, and the caution information display means displays detection information of the environment sensor. the warning information in the detected environment is displayed on the map based on, thereby to prompting attention to the operator when the remote operation of the communication robot. As this, since the information of the robot environment such as environmental information and warning information is displayed together with the current position of the communication robot, it is possible to easily grasp the surrounding environment of the communication robot operator. Therefore, the operator can remotely control the robot efficiently and safely.
請求項2の発明は、請求項1の発明に従属し、環境表示手段は、オペレータの操作によって選択されている環境センサが検出した環境情報を表示する。
The invention of
請求項2の発明では、地図上に表示されるロボットの位置および環境センサの位置をみながら、オペレータが環境センサを選択して必要な環境情報を表示することができる。
請求項3の発明は、地図表示手段は、環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ表示手段をさらに含む、請求項1または2記載のロボット制御システムである。
請求項3の発明では、複数種類の環境センサのそれぞれの設置位置が地図上に表示されるため、ロボットの遠隔操作にあたってオペレータの注意を喚起することができる。
請求項4の発明は、複数種類の環境センサを設けた環境中に存在するコミュニケーションロボットをオペレータの指示に応じて遠隔操作するロボット制御システムのコンピュータによって実行されるプログラムであって、プログラムは、コンピュータを、複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および環境の一部または全体を示す地図を表示する地図表示手段として機能させ、さらに地図表示手段を、コミュニケーションロボットの現在位置を地図上に表示するロボット位置表示手段、環境センサの検出情報に基づいて検出された環境における注意情報を地図上に表示する注意情報表示手段、および環境中に配置された複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段として機能させる、プログラムである。
In the invention of
The invention according to
In the invention of
According to a fourth aspect of the present invention, there is provided a program executed by a computer of a robot control system that remotely operates a communication robot existing in an environment provided with a plurality of types of environmental sensors in accordance with an instruction from an operator. Are operated as a plurality of environment display means for individually displaying environment information detected by using a plurality of types of environment sensors, and a map display means for displaying a map showing a part or the whole of the environment. is arranged the current position of the communication robot robot position display means to display on the map, note information display means a warning information in the detected environment displayed on the map on the basis of the detection information of the environmental sensors, and in the environment Environmental sensor position display hand that displays the position of each of multiple types of environmental sensors To function as a program.
この発明によれば、ロボットの周辺環境の情報が表示されるので、オペレータにロボットの周辺環境を容易に把握させることができる。したがって、オペレータに効率的よくかつ安全にロボットを遠隔操作させることができる。 According to the present invention, information on the surrounding environment of the robot is displayed, so that the operator can easily grasp the surrounding environment of the robot. Therefore, the robot can be remotely operated efficiently and safely by the operator.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のロボット制御システム(以下、単に「システム」とも言う。)10は、ロボット12および操作用コンピュータ14を含む。このシステム10はロボット12を操作用コンピュータ14から遠隔操作するためのものである。ロボット12と操作用コンピュータ14とは、無線LAN、インターネット等のようなネットワーク16を介して接続される。
Referring to FIG. 1, a robot control system (hereinafter also simply referred to as “system”) 10 of this embodiment includes a
ロボット12は、この実施例ではコミュニケーションロボットである。コミュニケーションロボット12は、主として人間のようなコミュニケーションの対象と相互作用することの可能なロボットであり、身振り手振りのような身体動作および発話の少なくとも一方を含むコミュニケーション行動を実行する機能を備えている。このロボット12は、一例として、博物館、科学館、イベント会場、会社、商店街、地下街等の所定の場所に配置される案内ロボットや受付ロボット等であってよい。ロボット12は、基本的には自律制御によって人間と相互作用したり所定の役割を果したりすることができるが、必要に応じてオペレータによって操作用コンピュータ14から遠隔操作される。
The
操作用コンピュータ14には、後述するように、ロボット12を遠隔操作するオペレータのために遠隔操作画面が表示される。この実施例の画面は、ロボット12の動作を指示するための操作画面(図6参照)とともに、当該ロボット12の配置される環境の情報を表示するセンサ情報画面(図5参照)を含む。このセンサ情報画面によって、ロボット12の周辺環境の情報がオペレータに提供される。オペレータはセンサ情報画面で環境情報を確認しつつ操作画面で操作コマンドを入力してロボット12を遠隔操作する。
As will be described later, a remote operation screen is displayed on the
そのため、システム10は、ロボット12の配置される上述のような所定の場所に設けられて当該場所の環境情報を検出するセンサ(環境センサ)を含む。この実施例では、このような環境に埋め込まれるセンサとして、たとえば、複数のカメラ18、複数の無線タグリーダ20、複数の距離センサ22、および複数の騒音計24が設けられる。各環境センサ18、20、22、24には、当該センサで検出された情報を取得するコンピュータ18a、20a、22a、24aが接続される。各コンピュータ18a、20a、22a、24aは、通信装置を介して有線または無線でネットワーク16に接続される。また、各コンピュータ18a、20a、22a、24aは、各センサ18、20、22、24での検出情報を、たとえば一定時間ごとに取得してネットワーク16を介して操作用コンピュータ14に送信する。
Therefore, the
なお、他の実施例では、各環境センサ18、20、22、24の接続された各コンピュータ18a、20a、22a、24aは、ネットワーク16を介して他のコンピュータに環境センサ情報を送信し、当該他のコンピュータが環境センサ情報を操作用コンピュータ14に与えるようにしてもよい。また、ロボット12のセンサ情報も、同様に上記他のコンピュータを経由して操作用コンピュータ14に与えられてよい。また、操作用コンピュータ14の操作情報も、この他のコンピュータを経由してロボット12に与えられてもよい。
In another embodiment, each
図2には、ロボット12が配置場所で活動する場面の一例が示される。図2では、ロボット12は展示物や案内板等の特定の物体26の説明を人間に対して行っている。なお、この図2においては、各環境センサ18、20、22、24の各コンピュータ18a、20a、22a、24aの図示は省略されている。
FIG. 2 shows an example of a scene in which the
この図2も参照して、複数のカメラ18は、ロボット12の配置された空間内において分散して配置される。つまり、複数のカメラ18のそれぞれは、ロボット12の配置された環境において所定領域ないし範囲を撮影するように、天井、壁や台等の所定位置で所定方向へ向けて設置される。各環境カメラ18で撮影された所定領域の映像ないし画像は、各コンピュータ18aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各環境カメラ18の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。なお、ロボット12の配置される場所が小さかったり、ロボット12の活動範囲が小かったりする場合等には、環境のカメラ18は1つであってもよい。
Referring also to FIG. 2, the plurality of
複数の無線タグリーダ20は、ロボット12の配置された空間内において分散して配置される。つまり、複数の無線タグリーダ20のそれぞれは、ロボット12の配置された環境において無線タグ(図示しない)の位置推定を行うために、天井、壁、床や台等の所定位置に設置される。この実施例では、無線タグを少なくとも3つの無線タグリーダ20で検出可能なように、各無線タグリーダ20の配置が決められる。無線タグリーダ20は、たとえば受信感度を段階的に制御することが可能であり、このため、無線タグリーダ20から無線タグまでのおおまかな距離を検出することが可能である。各環境無線タグリーダ20で検出された無線タグの識別情報および距離情報は、各コンピュータ20aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各無線タグリーダ20の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。無線タグが少なくとも3つの無線タグリーダ20によって同時に検出されれば、操作用コンピュータ14は、これら無線タグリーダ20の位置情報と検出距離情報とに基づいて当該無線タグの位置を推定することができる。この実施例では、無線タグはロボット12に装着され、したがって、ロボット12の現在位置が推定および把握される。なお、無線タグを人間に装着すれば、当該人間の位置も推定できる。
The plurality of
なお、ロボット12の位置の検出方法は、上述の方法に限定されず適宜変更され得る。他の実施例では、たとえば、環境内に複数の赤外線カメラを設置するとともにロボット12に赤外線LEDを取り付けて、操作用コンピュータ14で赤外線カメラ画像の画像処理によってロボット12の位置を検出するようにしてもよい。また、ロボット12の配置される空間の床に、多数の検出素子(感圧センサ)を含む床センサを設けて、操作用コンピュータ14で床センサの検出圧力信号に基づいてロボット12の位置を検出するようにしてもよい。
Note that the method for detecting the position of the
複数の距離センサ22のそれぞれは、ロボット12の配置された環境において、たとえば展示物や案内板等の特定の物体26の前に人間が存在するか否かを検出するために、物体26の前等その近傍の所定の位置に設けられる。距離センサ22は、超音波距離センサまたは赤外線距離センサ等である。各環境距離センサ22で測定された距離情報は、各コンピュータ22aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各距離センサ22の位置情報(座標、設置された場所、領域ないし物体26等)を、その識別情報に対応付けて記憶している。なお、特定の物体26が環境に1つしか設けられない場合等には、環境距離センサ22は1つであってよい。あるいは、通路などの特定の領域に複数の距離センサ22を配置して、その領域にどれぐらいの人間が存在するかを検出するようにしてもよい。
Each of the plurality of
複数の騒音計24は、ロボット12の配置された空間内において分散して配置される。つまり、複数の騒音計24のそれぞれは、ロボット12の配置された環境において、所定の領域における騒音レベルを検出するために、天井、壁、台等の所定の位置に設けられる。各環境騒音計24で検出された騒音レベル情報は各コンピュータ24aから操作用コンピュータ14に与えられる。操作用コンピュータ14は、各騒音計24の位置情報(座標、設置された場所ないし領域等)を、その識別情報に対応付けて記憶している。なお、上述の環境カメラ18の場合と同様の理由で、環境騒音計24は1つであってもよい。
The plurality of
図3にはロボット12を正面から見た外観の一例が示され、図4にはロボット12の電気的な構成の一例が示される。図3を参照して、ロボット12は台車28を含み、この台車28の下面には、このロボット12を自律移動させる車輪30が設けられる。この車輪30は、車輪モータ(図4において参照番号「32」で示す。)によって駆動され、台車28すなわちロボット12を前後左右任意の方向に動かすことができる。なお、図3では示さないが、この台車28の前面には、衝突センサ(図4において参照番号「34」で示す。)が取り付けられ、この衝突センサ34は、台車28への人や他の障害物との接触を検知する。ロボット12の移動中に接触を検知すると、直ちに車輪30の駆動を停止することができる。
FIG. 3 shows an example of the appearance of the
台車28の上には、多角形柱のセンサ取付パネル36が設けられ、このセンサ取付パネル36の各面には、超音波距離センサ38が取り付けられる。この超音波距離センサ38は、取付パネル36すなわちロボット12の周囲の主として人との間の距離を計測するためのものである。
A polygonal column
台車28の上には、さらに、ロボット12の胴体が、その下部が上述の取付パネル36に囲まれて、直立するように取り付けられる。この胴体は下部胴体40と上部胴体42とから構成され、これら下部胴体40および上部胴体42は、連結部44によって連結される。連結部44には、図示しないが、昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体42の高さすなわちロボット12の高さを変化させることができる。昇降機構は、腰モータ(図4において参照番号「46」で示す。)によって駆動される。
Further, the body of the
上部胴体42には、1つの全方位カメラ48が設けられる。全方位カメラ48はたとえば背面側上端部のほぼ中央から延びる支柱50上に設置される。全方位カメラ48は、ロボット12の周囲を撮影するものであり、後述する眼カメラ52とは区別される。この全方位カメラ48としては、たとえばCCDやCMOSのような固体撮像素子を用いるカメラを採用することができる。また、上部胴体42の正面側のほぼ中央には、1つのマイク54が設けられる。マイク54は、周囲の音、とりわけコミュニケーション対象である人間の声を取り込む。なお、これら全方位カメラ48およびマイク54の設置位置は上部胴体40に限られず適宜変更され得る。
One
上部胴体42の両肩には、それぞれ、肩関節56Rおよび56Lによって、上腕58Rおよび58Lが取り付けられる。肩関節56Rおよび56Lは、それぞれ3軸の自由度を有する。すなわち、右肩関節56Rは、X軸,Y軸およびZ軸の各軸廻りにおいて上腕58Rの角度を制御できる。Y軸は、上腕58Rの長手方向(または軸)に平行な軸であり、X軸およびZ軸は、そのY軸に、それぞれ異なる方向から直交する軸である。左肩関節56Lは、A軸,B軸およびC軸の各軸廻りにおいて上腕58Lの角度を制御できる。B軸は、上腕58Lの長手方向(または軸)に平行な軸であり、A軸およびC軸は、そのB軸に、それぞれ異なる方向から直交する軸である。
上腕58Rおよび58Lのそれぞれの先端には、肘関節60Rおよび60Lを介して、前腕62Rおよび62Lが取り付けられる。肘関節60Rおよび60Lは、それぞれ、W軸およびD軸の軸廻りにおいて、前腕62Rおよび62Lの角度を制御できる。
なお、上腕58Rおよび58Lならびに前腕62Rおよび62Lの変位を制御するX,Y,Z,W軸およびA,B,C,D軸では、「0度」がホームポジションであり、このホームポジションでは、上腕58Rおよび58Lならびに前腕62Rおよび62Lは下方向に向けられる。
In the X, Y, Z, W axes and A, B, C, and D axes that control the displacement of the
また、図3では示さないが、上部胴体42の肩関節56Rおよび56Lを含む肩の部分や上述の上腕58Rおよび58Lならびに前腕62Rおよび62Lを含む腕の部分には、それぞれ、タッチセンサ(図4において参照番号「64」で包括的に示す。)が設けられていて、これらのタッチセンサ64は、人がロボット12のこれらの部位に接触したかどうかを検知する。
Although not shown in FIG. 3, touch sensors (FIG. 4) are provided on the shoulder portion including the
前腕62Rおよび62Lのそれぞれの先端には、手に相当する球体66Rおよび66Lがそれぞれ固定的に取り付けられる。なお、この球体66Rおよび66Lに代えて、この実施例のロボット12と異なり指の機能が必要な場合には、人の手の形をした「手」を用いることも可能である。
上部胴体42の中央上方には、首関節68を介して、頭部70が取り付けられる。この首関節68は、3軸の自由度を有し、S軸,T軸およびU軸の各軸廻りに角度制御可能である。S軸は首から真上に向かう軸であり、T軸およびU軸は、それぞれ、このS軸に対して異なる方向で直交する軸である。頭部70には、人の口に相当する位置に、スピーカ72が設けられる。なお、スピーカ72は、ロボット12が、それの周囲の人に対して音声または声によってコミュニケーションを図るために用いられてよい。また、スピーカ72は、ロボット12の他の部位たとえば胴体に設けられてもよい。
A
また、頭部70には、目に相当する位置に眼球部74Rおよび74Lが設けられる。眼球部74Rおよび74Lは、それぞれ眼カメラ52Rおよび52Lを含む。なお、左右の眼球部74Rおよび74Lをまとめて参照符号「74」で示し、左右の眼カメラ52Rおよび52Lをまとめて参照符号「52」で示すこともある。眼カメラ52は、ロボット12に接近した人の顔や他の部分ないし物体等を撮影してその映像信号を取り込む。
The
なお、上述の全方位カメラ48および眼カメラ52のいずれも、たとえばCCDやCMOSのように固体撮像素子を用いるカメラであってよい。
Note that each of the
たとえば、眼カメラ52は眼球部74内に固定され、眼球部74は眼球支持部(図示せず)を介して頭部70内の所定位置に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。α軸およびβ軸は頭部70に対して設定される軸であり、α軸は頭部70の上へ向かう方向の軸であり、β軸はα軸に直交しかつ頭部70の正面側(顔)が向く方向に直交する方向の軸である。この実施例では、頭部70がホームポジションにあるとき、α軸はS軸に平行し、β軸はU軸に平行するように設定されている。このような頭部70において、眼球支持部がα軸およびβ軸の各軸廻りに回転されることによって、眼球部74ないし眼カメラ52の先端(正面)側が変位され、カメラ軸すなわち視線方向が移動される。
For example, the
なお、眼カメラ52の変位を制御するα軸およびβ軸では、「0度」がホームポジションであり、このホームポジションでは、図3に示すように、眼カメラ52のカメラ軸は頭部70の正面側(顔)が向く方向に向けられ、視線は正視状態となる。
In the α axis and β axis that control the displacement of the
図4を参照して、このロボット12は、全体の制御のためにマイクロコンピュータまたはCPU76を含み、このCPU76には、バス78を通して、メモリ80,モータ制御ボード82,センサ入力/出力ボード84および音声入力/出力ボード86が接続される。
Referring to FIG. 4, this
メモリ80は、図示しないが、ROMやHDDおよびRAM等を含み、ROMまたはHDDには、このロボット12の動作を制御するためのプログラムおよびデータが予め格納されている。CPU76は、このプログラムに従って処理を実行する。プログラムには、たとえば、各センサによる検知情報を検出する検出プログラム、操作用コンピュータ14等の外部コンピュータと必要なデータを送受信するための通信プログラム、動作を自律制御する自律制御プログラムおよび受信した操作情報に基づいて動作を制御する遠隔制御プログラムがある。挨拶、頷き、指差し等の個々のコミュニケーション行動は、モジュール化された各行動プログラム(行動モジュール)によって実現され、メモリ80には複数の行動プログラムが各識別情報(操作コマンド)に対応付けて記憶されている。CPU76は複数のルールと現在の状況に基づいて次の行動を決定していくことでロボット12自身の動作を自律制御できる。また、メモリ80には各行動を実行する際に発生すべき音声または声の音声データ(音声合成データ)および所定の身振りを提示するための角度データ等も記憶される。また、RAMは、バッファメモリやワーキングメモリとして使用される。
Although not shown, the
モータ制御ボード82は、たとえばDSP(Digital Signal Processor)で構成され、右腕、左腕、頭および眼等の身体部位を駆動するためのモータを制御する。すなわち、モータ制御ボード82は、CPU76からの制御データを受け、右肩関節56RのX,YおよびZ軸のそれぞれの角度を制御する3つのモータと右肘関節60Rの軸Wの角度を制御する1つのモータを含む計4つのモータ(図4ではまとめて「右腕モータ」として示す。)88の回転角度を調節する。また、モータ制御ボード82は、左肩関節56LのA,BおよびC軸のそれぞれの角度を制御する3つのモータと左肘関節60LのD軸の角度を制御する1つのモータとを含む計4つのモータ(図4ではまとめて「左腕モータ」として示す。)90の回転角度を調節する。モータ制御ボード82は、また、首関節68のS,TおよびU軸のそれぞれの角度を制御する3つのモータ(図4ではまとめて「頭部モータ」として示す。)92の回転角度を調節する。モータ制御ボード82は、また、腰モータ46および車輪30を駆動する2つのモータ(図4ではまとめて「車輪モータ」として示す。)32を制御する。さらに、モータ制御ボード82は、右眼球部74Rのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて「右眼球モータ」として示す。)94の回転角度を調節し、また、左眼球部74Lのα軸およびβ軸のそれぞれの角度を制御する2つのモータ(図4ではまとめて「左眼球モータ」として示す。)96の回転角度を調節する。
The
なお、この実施例の上述のモータは、車輪モータ32を除いて、制御を簡単化するためにそれぞれステッピングモータまたはパルスモータであるが、車輪モータ32と同様に、直流モータであってよい。また、この実施例では、ロボット12の腕、頭、眼などの身体部位を駆動するアクチュエータとして電力を駆動源とするモータを用いた。しかしながら、このロボット12としては、たとえば空気圧(または負圧)、油圧、圧電素子あるいは形状記憶合金などによる他のアクチュエータによって身体部位を駆動するロボットが適用されてもよい。
The above-described motors of this embodiment are stepping motors or pulse motors, respectively, for simplifying the control except for the
センサ入力/出力ボード84も、同様に、DSPで構成され、各センサからの信号を取り込んでCPU76に与える。すなわち、超音波距離センサ38の各々からの反射時間に関するデータがこのセンサ入力/出力ボード84を通して、CPU76に入力される。また、全方位カメラ48からの映像信号が、必要に応じてこのセンサ入力/出力ボード84で所定の処理が施された後、CPU76に入力される。眼カメラ52からの映像信号も、同様にして、CPU76に与えられる。また、タッチセンサ64および衝突センサ34からの信号がセンサ入力/出力ボード84を介してCPU76に与えられる。また、関節角度センサ98からの角度情報がセンサ入力/出力ボードを介してCPU76に与えられる。関節角度センサ98は、各関節56、60、68の各軸の回転角度を検出するロータリエンコーダ、ポテンショメータ等である。
Similarly, the sensor input /
スピーカ72には音声入力/出力ボード86を介して、CPU76から音声データが与えられ、それに応じて、スピーカ72からはそのデータに従った音声または声が出力される。また、マイク54からの音声入力が、音声入力/出力ボード86を介して音声データとしてCPU76に取り込まれる。
Audio data is given to the
CPU76にはさらに通信LANボード100が接続される。通信LANボード100も同様にDSPで構成され、CPU76から与えられた送信データを無線通信装置102に与えて、当該データを無線通信装置102からネットワーク16を介して操作用コンピュータ14等の外部コンピュータに送信させる。また、通信LANボード100はネットワーク16および無線通信装置102を介して操作用コンピュータ14等の外部コンピュータからデータを受信し、当該受信データをCPU76に与える。
A
操作用コンピュータ14は、図示は省略するがCPUを含み、CPUには、メモリ、表示装置、入力装置、スピーカおよび通信装置などが接続される。操作用コンピュータ14は、通信装置を介してネットワーク16に有線または無線で接続されている。
Although not shown, the
操作用コンピュータ14のメモリには、動作を制御するためのプログラムおよび必要なデータが記憶される。プログラムは、たとえば、ロボット12や各コンピュータ18a、20a、22a、24a等の外部コンピュータと必要なデータを送受信するための通信プログラム、環境の情報やロボット12の情報等をこの操作用コンピュータ14の表示装置に表示するための情報表示プログラム、この操作用コンピュータ14の入力装置からの入力に応じてオペレータによる操作を特定し操作情報をロボット12に送信する操作プログラム等を含む。また、各環境センサの位置情報、環境の地図情報等も記憶される。
The memory of the
操作用コンピュータ14の表示装置には、図5に示すようなセンサ情報画面および図6に示すような操作画面を含む遠隔操作画面が表示される。操作用コンピュータ14は、その通信装置を介して各コンピュータ18a、20a、22a、24aやロボット12からたとえば一定時間ごとにセンサ情報およびロボット12の行動状態等の必要な情報を取得して、遠隔操作画面を生成および更新する。操作用コンピュータ14の入力装置はマウス、キーボードまたはタッチパネル等であり、オペレータはこの入力装置を操作することによってロボット12を遠隔操作するための操作コマンドを操作画面で入力することができる。また、操作用コンピュータ14のスピーカからは、ロボット12のマイク54で取得した聴覚情報を必要に応じて出力するようにしてよい。
A remote operation screen including a sensor information screen as shown in FIG. 5 and an operation screen as shown in FIG. 6 is displayed on the display device of the
図5のセンサ情報画面には、環境センサ18、20、22、24を用いて検出した環境情報が表示される。また、この実施例では、ロボット12のセンサ情報も表示される。具体的には、環境カメラウィンドウ110、ロボット距離センサウィンドウ112、ロボットモーションウィンドウ114、騒音計ウィンドウ116、環境距離センサウィンドウ118、地図ウィンドウ120等が表示される。環境カメラウィンドウ110、騒音計ウィンドウ116および環境距離センサウィンドウ118には、各環境センサによって検出された環境センサ情報が表示され、地図ウィンドウ120には、環境センサ情報に基づいて検出された当該環境での遠隔操作にあたり注意すべき情報が表示される。
The environmental information detected using the
なお、センサ情報画面上に表示する情報の種類は、初期設定によって予め決められており、また、図示しない表示設定メニューでオペレータによって選択され得る。初期設定またはオペレータによって選択された情報に関する表示フラグがオンにされ、表示フラグがオンである情報がセンサ情報画面上に表示される。したがって、ロボット12の遠隔操作に必要なセンサ情報および環境情報のみを、このセンサ情報画面上に表示することができるので、オペレータにロボット12の行動制御を効率よく行わせることができる。
Note that the type of information to be displayed on the sensor information screen is determined in advance by initial setting, and can be selected by an operator from a display setting menu (not shown). A display flag relating to information selected by the initial setting or the operator is turned on, and information on which the display flag is on is displayed on the sensor information screen. Therefore, only sensor information and environment information necessary for remote operation of the
環境カメラウィンドウ110には、環境のカメラ18で撮影された環境の映像ないし画像が表示される。ウィンドウ110の上部タイトル欄には、環境カメラ18の名称ないし識別情報(EC1,EC2,…)が表示される。たとえば、ロボット12の現在位置に基づいて当該位置を撮影範囲に含む環境カメラ18が特定され、当該環境カメラ18に対応する表示フラグがオンにされてそのウィンドウ110が表示される。また、ロボット12の現在位置から所定距離内の環境カメラ18の表示フラグをオンにするようにしてもよい。なお、環境のカメラ18の総数が少ない場合等には、すべての環境のカメラ18の表示フラグがオンにされてもよい。また、オペレータは、図示しない表示設定メニューで、複数の環境カメラ18の中から、所望の環境カメラ18の表示を選択することができる。オペレータは、このウィンドウ110によって、ロボット12の存在する場所周辺や近辺の映像を見ることができるし、また、メニュー選択によって自分の見たい場所の映像を見ることができる。
The
ロボット距離センサウィンドウ112には、ロボット12の超音波距離センサ38で検出された距離情報が表示される。ロボット12では、たとえば、複数の距離センサ38がロボット12の全周囲にわたって所定の角度間隔で設けられている。したがって、オペレータは、このウィンドウ112によって、ロボット12の周囲に存在する物体(人間または障害物等)までの距離およびその方向を確認することができる。
In the robot
ロボットモーションウィンドウ114には、ロボット12の関節角度センサ98で検出された角度情報に基づくロボット12の姿勢または動きが、たとえば3次元CG画像で表示される。オペレータは、このウィンドウ114によって、ロボット12の現在の姿勢または動き、具体的には頭部70の向きおよび両腕(上腕58および前腕62)の向きを確認することができる。
In the
騒音計ウィンドウ116には、環境の騒音計24で検出された騒音レベルが表示される。ウィンドウ116の上部タイトル欄には、環境の騒音計24の名称ないし識別情報(EN1,…)が表示される。たとえば、ロボット12の現在位置を含む領域の騒音を検出する騒音計24を特定し、当該騒音計24に対応する表示フラグをオンにしてそのウィンドウ116を表示する。また、ロボット12の現在位置から所定距離内の騒音計24の表示フラグをオンにするようにしてもよい。また、オペレータは、表示設定メニューで、複数の環境騒音計24の中から、所望の騒音計24を選択することができる。オペレータは、このウィンドウ116によって、ロボット12の存在する場所周辺や近辺の騒音レベルを確認することができるし、また、メニュー選択によって自分のチェックしたい場所の騒音レベルを確認することができる。
In the sound
環境距離センサウィンドウ118には、環境の距離センサ22で検出された距離情報が表示される。ウィンドウ118の上部タイトル欄には、環境の距離センサ22の名称ないし識別情報(ED1,…)が表示される。たとえば、ロボット12の現在位置に最も近いあるいは所定距離内の環境距離センサ22を特定し、当該環境距離センサ22に対応する表示フラグをオンにしてそのウィンドウ118を表示する。また、オペレータは、表示設定メニューで、複数の環境距離センサ22の中から、所望の環境距離センサ22を選択することができる。環境の距離センサ22が展示物等の物体26に関連して設置される場合には、選択リストには物体26の名称等が表示されてよい。また、環境の距離センサ22が通路など特定の場所ないし領域に関連して設置される場合には、当該場所の名称等を選択リストに含めるようにしてよい。環境距離センサ22によって、当該距離センサ22の前に人間が存在するか否かを検出することができるし、また、複数の環境距離センサ22を特定の場所ないし領域に設置する場合には、当該領域内にどれくらいの人間が存在するかを検出することができる。環境距離センサウィンドウ118では、たとえば、当該環境距離センサ22の検出領域内に存在する人間等を示すアイコンが、原点から検出方向に検出距離だけ離れた位置に表示される。オペレータは、このウィンドウ118によって、ロボット12の現在位置に近い物体26や場所等に人間等が存在するか否かや、どのくらいの人間が存在するかを確認することができるし、また、自分の知りたい物体26や場所について人間等の存在を確認することができる。
In the environmental
地図ウィンドウ120には、たとえば博物館等のロボット12の配置された空間ないし場所を示す地図が表示される。この地図には、ロボット12の配置された環境の全体が示されてもよいし、一部が示されてもよい。そして、この地図上に、環境センサ情報に基づいて検出されたロボット12の配置された環境に関する情報が表示される。この実施例では、当該環境情報として、当該環境における注意情報が表示され、具体的には混雑領域および煩い領域が示される。
In the
混雑領域は、各環境カメラ18の撮影画像に基づいて検出される。具体的には、各環境カメラ18は所定位置で所定方向に向けて固定的に設けられるので、常に一定の領域が撮影される。この撮影画像のうち特定領域に注目して、その特定領域における予め取得した背景画像と撮影画像との差分量をみることによって、その領域にどれぐらい人間もしくは物体が存在しているかを推定することができる。たとえば、差分発生領域が特定領域の所定割合(たとえば5割)以上であれば混雑している等の判別式を用いて混雑領域を算出する。地図上では、混雑領域は、地図背景色と異なりかつ他の環境情報を示す色とも異なる所定色(たとえば赤色)のマーク等を用いて表示される。図5では便宜上斜線模様付き円でこの混雑領域が示される。たとえば差分画像をそのままオペレータに提示した場合には、どの領域ないし場所が混雑しているのか、オペレータは瞬時に判断することは困難であるが、このような表示形態を用いることによって、オペレータは混雑している場所を極めて容易に知ることができる。
The crowded area is detected based on the captured image of each
煩い領域は、各騒音計24で測定された騒音レベルに基づいて検出される。具体的には、騒音レベルが所定の閾値以上である場合には、当該騒音計24の設置された領域ないし場所は煩い領域であると判別される。地図上では、煩い領域は、地図背景色と異なりかつ他の環境情報を示す色とも異なる所定色(たとえば黄色)のマーク等を用いて表示される。図5では便宜上格子縞模様付き円でこの煩い領域が示される。たとえば騒音計24で測定された値(騒音レベル)をそのまま見るよりも、このような表示形態を用いることによって、オペレータは煩い場所を極めて容易に知ることができる。
The annoying area is detected based on the noise level measured by each
このようにして、ロボット12の存在する環境を示す地図を表示するともに、地図上で環境情報を表示するようにしたので、当該環境情報をオペレータに極めて分り易く提供することができる。また、この実施例では、環境情報として、混雑領域や煩い領域等のような当該環境においてロボット12の移動や身体動作に支障の出そうな場所が表示される。つまり、ロボット12の遠隔操作にあたってオペレータに注意を喚起しまたは注意を促すための情報が表示される。このように、ロボット12の存在する環境における注意情報を非常に分り易く提供することができる。
In this way, the map indicating the environment in which the
また、この地図上には、ロボット12の現在位置に対応する位置に当該ロボット12を示すマーク等(図5では黒三角)が表示される。この実施例では、上述のように、ロボット12に無線タグを取り付け、無線タグリーダ20で当該無線タグまでの距離情報を検出することによって、当該ロボット12の位置を推定することができる。オペレータは、地図上で上述の環境情報をロボット12の現在位置と一緒に見ることによって、現在のロボット12と混雑領域もしくは煩い領域との位置関係を一目で把握することができる。たとえば、オペレータは、ロボット12が混雑領域や煩い領域内に存在する場合には移動の操作コマンド入力を避けたり、ロボット12の現在のモーションをウィンドウ114で参照しつつその必要があると判断した場合には身体動作を含む操作コマンド入力を控えたり、また、ロボット12が混雑領域や煩い領域外に存在する場合には当該領域の方への移動を避けたりするといった遠隔操作の判断を容易に行うことができる。
Further, on this map, a mark or the like (black triangle in FIG. 5) indicating the
また、地図上には、環境に設置されたセンサ18、20、22、24の位置や、展示物等の物体26の位置等も表示するようにしてよい。図5では、無線タグリーダ20の設置位置が無線タグリーダ20を示すマーク(白四角)を用いて示される。図5では示さないが、マークには当該センサ18、20、22、24や物体26等の名称ないし識別情報等が付されてよい。このように、地図上に各センサ18、20、22、24や物体26等の位置を示す場合には、どのセンサ18、20、22、24のウィンドウ110、116、118をセンサ情報画面上に開くかをオペレータに決定させ易くすることが可能になる。たとえば、混雑領域や煩い領域を撮影する環境カメラ18の特定が容易に行えるので、オペレータは、当該環境カメラ18のウィンドウ110の表示を表示設定メニューで選択することによって、当該混雑領域や煩い領域の実際の様子を映像で確認することができる。
Further, on the map, the position of the
オペレータは、上述の図5のようなセンサ情報画面によって環境情報を容易に把握しながら、図6のような操作画面で操作コマンドを入力することによってロボット12を遠隔操作することができる。
The operator can remotely operate the
操作画面は、現在のロボット12の状態を示す第1領域130および操作コマンドを示す第2領域132を含む。具体的には、第1領域130には、現在のロボット12の状況(状態)および実行中のコミュニケーション行動が文字で表示される。図6に示す例では、ロボット12は、その状態が「IDLE」であり、「ASOBO(遊ぼう)」のコミュニケーション行動を実行していることが示される。ロボット12がオペレータの指示によらないで自律行動している場合には、その状態は「IDLE」であり、逆にオペレータに指示に従ってコミュニケーション行動している場合には、その状態は「BUSY」である。コミュニケーション行動は、当該行動を実現するための行動モジュールと呼ばれるプログラムに従って実行される。第1領域130に表示されるコミュニケーション行動は、当該行動モジュールの名称ないし識別情報(すなわち操作コマンド)であってよい。ロボット12は、上述のように、たとえば一定時間ごとにセンサ情報とともに行動状態を操作用コンピュータ14に送信しており、第1領域130の表示は、受信した行動状態に基づいて行われる。
The operation screen includes a
また、第1領域130には、終了ボタン(アイコン)134が表示される。この終了ボタン134は、操作画面を閉じる、すなわち、ロボット12の遠隔操作を終了するためのものである。
Further, an end button (icon) 134 is displayed in the
第2領域132には、オペレータによって指示される操作コマンドが表示される。たとえば、表示領域136、138、140、142が設けられる。表示領域136−140には、各コミュニケーション行動を指示するための操作コマンドが表示されている。すいているとき(ロボット12の周囲の人が少ないとき)の行動、混んでいるとき(ロボット12の周囲の人が多いとき)の行動、および通常動作の3つに分類して操作コマンド名が表示される。これによって、オペレータの選択の効率性を向上させている。ただし、分類せずに1つの表示領域ですべてのコミュニケーション行動の操作コマンドを表示するようにしてもよい。また、図面では省略するが、多数のコマンド名が表示されるため、実際には、表示内容をスクロールするためのスクロールバーが設けられる。他の表示領域も同様である。
In the
表示領域142には、コマンド履歴が表示される。つまり、ロボット12に送信され、実行されたコミュニケーション行動についての操作コマンド名がたとえば時系列で表示される。これによって、オペレータは、遠隔操作によって実行させたロボット12の行動履歴を確認することができる。
In the display area 142, a command history is displayed. That is, the operation command name about the communication action transmitted to the
第2領域132には、さらに、コマンド送信ボタン144,緊急停止ボタン146,左ボタン148,前ボタン150,右ボタン152が設けられる。また、移動コマンドに関するボタンとして、前進ボタン154,左回転ボタン156,右回転ボタン158,後退ボタン160,停止ボタン162が設けられる。また、ロボット12の稼働を終了させるための終了ボタン164も設けられる。
In the
コマンド送信ボタン144は、オペレータによって選択された操作コマンドをロボット12に送信するためのものである。緊急停止ボタン146は、ロボット12の動きを緊急に停止させるためのものである。
The
左ボタン148は、ロボット12の首関節68を左に所定角度だけ回動させるためのものである。たとえば、このボタン148がクリックされる度に、ロボット12の頭部70が左方向(S軸)に所定角度(たとえば5度)ずつ回動される。前ボタン150は、ロボット12の首関節68を正面の方向に向けるためのものである。このボタン150がクリックされると、ロボット12の顔(頭部70の正面)が正面方向を向くように、首関節68が制御される。右ボタン152は、ロボット12の首関節68を右に所定角度だけ回動させるためのものである。たとえば、このボタン152がクリックされる度に、ロボット12の頭部70が右方向(S軸)に所定角度(たとえば5度)ずつ回動される。
The
また、前進ボタン154は、ロボット12を前進させるためのものである。たとえば、ロボット12は、このボタン154がクリックされると前進し、ボタン162がクリックされて停止命令が与えられると停止する。左回転ボタン156は、ロボット12を左旋回させるためのボタンである。たとえば、ロボット12は、このボタン156がクリックされると左旋回し、停止命令が与えられると停止する。右回転ボタン158は、ロボット12を右旋回させるためのものである。たとえば、ロボット12は、このボタン158がクリックされると右旋回し、停止命令が与えられると停止する。後退ボタン160は、ロボット12を後退させるためのものである。たとえば、ロボット12は、このボタン160がクリックされると後退し、停止命令が与えられると停止する。停止ボタン162は、移動しているロボット12に停止命令を与えるためのものである。たとえば、このボタン162がクリックされると、ロボット12は、前進、左回転、右回転または後退を停止する。
The
また、終了ボタン164は、ロボット12の運転を終了(停止)させるためのものである。たとえば、このボタン164がクリックされるとロボット12に終了命令が与えられ、ロボット12は、各部位をホームポジションに戻した後、図4に示したような回路コンポーネントへの電源供給を停止する。
The
図7および図8に、操作用コンピュータ14のCPUの情報表示処理における動作の一例が示される。この情報表示処理は一定時間ごとに繰り返し実行される。また、情報表示処理は図9の操作処理など他の処理と並列的に実行される。
FIG. 7 and FIG. 8 show an example of the operation in the information display process of the CPU of the
情報表示処理を開始すると、まず、ステップS1で、環境に設置された各センサ18、20、22、24の情報を、各コンピュータ18a、20a、22a、24aからネットワーク16を介して取得する。次に、ステップS3で、ロボット12に設置された各センサの情報をネットワーク16を介して取得する。たとえば、ロボット12に設けられた超音波距離センサ38の情報、および関節角度センサ98の情報を取得する。ただし、他のセンサ34、48、52、54、64の情報も取得してよい。
When the information display process is started, first, in step S1, information of each
ステップS5では、ロボット12の位置を推定する。つまり、上述のように、環境に設けられた無線タグリーダ20の検出情報と予め記憶しておいた位置情報とに基づいて、ロボット12に取り付けられた無線タグの現在位置を算出する。
In step S5, the position of the
続いて、ステップS7で、環境情報としての注意情報(この実施例では、混雑領域および煩い領域)を検出する。つまり、上述のように、混雑領域は、環境カメラ18の撮影画像の差分画像に基づいて検出され、煩い領域は、環境の騒音計24で検出された騒音レベルに基づいて検出される。なお、複数の環境距離センサ22を配置した通路などの所定領域がある場合には、当該所定領域が混雑しているか否かを当該複数の環境距離センサ22で検出された情報に基づいて判定するようにしてもよい。
Subsequently, in step S7, attention information (congested area and troublesome area in this embodiment) as environment information is detected. That is, as described above, the congested area is detected based on the difference image of the captured image of the
また、ステップS9では、表示フラグの設定を実行する。たとえば、情報表示処理の開始時には、予めメモリに記憶されている初期設定データに基づいて、各ウィンドウ110−120の表示フラグを設定する。また、表示設定メニューの選択操作が行われたときには、図示しない設定画面を表示装置に表示して、センサ情報画面内にウィンドウ110−120で表示する各センサ情報および地図情報の選択をオペレータに行わせる。オペレータの選択に応じて、当該選択されたセンサ情報または地図情報に対応する表示フラグがオンにされる。また、ステップS5で推定されたロボット12の現在位置と予めメモリに記憶された各環境センサの位置情報とに基づいて、自動的に表示フラグの設定を行うようにしてもよい。たとえば、ロボット12の現在位置がその撮影領域に含まれる環境カメラ18を特定し、当該環境カメラ18のウィンドウ110の表示フラグをオンにする。あるいは、ロボット12の現在位置から所定距離内に存在する各センサ18、22、24を特定し、当該センサのウィンドウ110−118の表示フラグをオンにしてもよい。
In step S9, a display flag is set. For example, at the start of the information display process, the display flag of each window 110-120 is set based on the initial setting data stored in advance in the memory. When a display setting menu selection operation is performed, a setting screen (not shown) is displayed on the display device, and each sensor information and map information displayed on the window 110-120 in the sensor information screen is selected by the operator. Make it. In response to the operator's selection, a display flag corresponding to the selected sensor information or map information is turned on. The display flag may be automatically set based on the current position of the
続くステップS11からS43で、表示フラグに従って、ウィンドウ110−120の表示処理を行う。具体的には、ステップS11で、現時刻の各環境カメラ18の情報を受信したか否かを判断する。ステップS11で“YES”であれば、ステップS13で、表示フラグがオンである環境カメラ18の撮影画像を示す環境カメラウィンドウ110を表示する。
In subsequent steps S11 to S43, display processing of the window 110-120 is performed according to the display flag. Specifically, in step S11, it is determined whether information of each
ステップS11で“NO”の場合、または、ステップS13を終了すると、ステップS15で、現時刻の各環境距離センサ22の情報を受信したか否かを判断する。ステップS15で“YES”であれば、ステップS17で、表示フラグがオンである環境距離センサ22の距離情報を示す環境距離センサウィンドウ118を表示する。
If “NO” in the step S11, or when the step S13 is ended, it is determined whether or not the information of each
ステップS15で“NO”の場合、または、ステップS17を終了すると、ステップS19で、現時刻の各環境騒音計24の情報を受信したか否かを判断する。ステップS19で“YES”であれば、ステップS21で、表示フラグがオンである環境騒音計24の騒音レベルを示す騒音計ウィンドウ116を表示する。ステップS19で“NO”の場合、または、ステップS21を終了すると、処理は図8のステップS23へ進む。
If “NO” in the step S15, or when the step S17 is ended, it is determined whether or not the information of the
図8のステップS23では、現時刻のロボット12の関節角度センサ98の情報を受信したか否かを判断する。ステップS23で“YES”であれば、ステップS25で、ロボット12の動きに関する表示フラグはオンであるか否かを判断する。ステップS25で“YES”であれば、ステップS27で、ロボット12の動きを示すロボットモーションウィンドウ114を表示する。
In step S23 of FIG. 8, it is determined whether or not the information of the
ステップS23もしくはS25で“NO”の場合、または、ステップS27を終了すると、ステップS29で、現時刻のロボット12の超音波距離センサ38の情報を受信したか否かを判断する。ステップS29で“YES”であれば、ステップS31で、ロボット12の距離センサ情報に関する表示フラグはオンであるか否かを判断する。ステップS31で“YES”であれば、ステップS33で、ロボット12の距離センサ情報を示すロボット距離センサウィンドウ112を表示する。
If “NO” in step S23 or S25, or when step S27 ends, it is determined in step S29 whether information of the
ステップS29もしくはS31で“NO”の場合、または、ステップS33を終了すると、ステップS35で、地図に関する表示フラグはオンであるか否かを判断する。ステップS35で“YES”であれば、ステップS37で、地図ウィンドウ120を表示して、ロボット12の存在する環境の地図を表示する。
If “NO” in step S29 or S31, or when step S33 ends, it is determined in step S35 whether the display flag relating to the map is on. If “YES” in the step S35, the
続いて、ステップS39で、地図上において、ステップS5で算出された現在位置に対応する位置に、ロボット12のマーク(図5では黒三角)を表示する。 Subsequently, in step S39, the mark of the robot 12 (black triangle in FIG. 5) is displayed on the map at a position corresponding to the current position calculated in step S5.
そして、ステップS41で、環境の情報に関する表示フラグがオンであるか否かを判断する。ステップS41で“YES”であれば、ステップS43で、地図上に環境の情報、この実施例では環境における注意情報を表示する。具体的には、地図上において、ステップS7で検出された混雑領域に対応する位置に、混雑領域を示すマーク(図5では斜線模様付き円)等を表示する。また、ステップS7で検出された煩い領域に対応する位置に、煩い領域を示すマーク(図5では格子模様付き円)等を表示する。 In step S41, it is determined whether or not a display flag relating to environmental information is on. If “YES” in the step S41, environmental information, in this embodiment, environmental caution information is displayed on the map in a step S43. Specifically, on the map, a mark indicating a congested area (a circle with a diagonal line pattern in FIG. 5) or the like is displayed at a position corresponding to the congested area detected in step S7. Further, a mark indicating a troublesome area (circle with a lattice pattern in FIG. 5) or the like is displayed at a position corresponding to the troublesome area detected in step S7.
ステップS35で“NO”の場合、ステップS41で“NO”の場合、またはステップS43を終了すると、ステップS45で、終了指示が行われた否かを判断する。つまり、オペレータの入力装置の操作によってセンサ情報画面の表示の終了を指示するメニューが選択されたか否かを判断する。ステップS45で“NO”であれば、図7のステップS1に戻って処理を繰り返し、センサ情報画面を更新する。一方、ステップS45で“YES”であれば、センサ情報画面を閉じて、この情報表示処理を終了する。なお、センサ情報画面で終了指示が行われた場合には、図9の操作処理も終了する。 If “NO” in the step S35, if “NO” in the step S41, or when the step S43 is ended, it is determined whether or not an end instruction is issued in a step S45. That is, it is determined whether or not a menu for instructing to end the display of the sensor information screen is selected by the operator's operation of the input device. If “NO” in the step S45, the process returns to the step S1 in FIG. 7 to repeat the process, and the sensor information screen is updated. On the other hand, if “YES” in the step S45, the sensor information screen is closed and the information display processing is ended. Note that when an end instruction is given on the sensor information screen, the operation process of FIG. 9 is also ended.
図9には、操作用コンピュータ14のCPUの操作処理における動作の一例が示される。操作処理を開始すると、まず、ステップS61で、図6に示すような操作画面を表示する。なお、操作画面とセンサ情報画面とは、表示装置上にたとえば並べて表示される。
FIG. 9 shows an example of the operation in the operation process of the CPU of the
続くステップS63からS71の処理を一定時間ごとに繰り返し実行する。すなわち、ステップS63で、ロボット12の行動状態をネットワーク16を介して取得して、操作画面の第1領域130に、動作状態および実行中のコミュニケーション行動等を表示する。
The subsequent steps S63 to S71 are repeatedly executed at regular intervals. That is, in step S63, the action state of the
続いて、ステップS65で、入力装置からの入力データとメモリに記憶された操作コマンドおよびボタン配置データとに基づいて、操作コマンドが選択されたか否かを判断する。具体的には、コミュニケーション行動を指示するコマンドの場合には、表示領域136、138、140で当該コマンドが選択された状態で、コマンド送信ボタン144が選択されたか否かを判断する。また、各ボタン146―164に割り当てられたコマンドの場合には、当該ボタン146−164が選択されたか否かを判断する。
Subsequently, in step S65, it is determined whether or not an operation command has been selected based on the input data from the input device and the operation command and button arrangement data stored in the memory. Specifically, in the case of a command instructing a communication action, it is determined whether or not the
ステップS65で“YES”であれば、ステップS67で、選択された操作コマンドを特定し、当該操作コマンドをネットワーク16を介してロボット12に送信する。続いて、ステップS69で、送信した操作コマンドを表示領域142に追加して、コマンド履歴を時系列で表示する。
If “YES” in the step S65, the selected operation command is specified in a step S67, and the operation command is transmitted to the
ステップS65で“NO”の場合、または、ステップS69を終了すると、ステップS71で、終了指示が行われたか否かを判断する。具体的には、終了ボタン134が選択されたか否かを判断する。ステップS71で“NO”であれば、ステップS63に戻って処理を繰り返して、上述のように、操作画面の第1領域130の表示を更新し、オペレータの選択に応じて操作コマンドを送信する。一方、ステップS71で“YES”であれば、操作画面を閉じてこの操作処理を終了する。なお、操作画面で終了指示が行われた場合には、図7および図8の情報表示処理も終了する。
If “NO” in the step S65, or when the step S69 is ended, it is determined whether or not an end instruction is issued in a step S71. Specifically, it is determined whether or not the
この実施例によれば、ロボット12のセンサ情報だけでなく、ロボット12の存在する環境のセンサ情報を表示するようにしたので、ロボット12の周辺環境の情報をオペレータに提供することができる。また、混雑領域や煩い領域のような当該環境における注意情報をたとえば地図上に表示する等、環境情報を分り易く表示するようにしたので、ロボット12の周辺環境を極めて容易にかつ瞬時にオペレータに把握させることができる。このため、たとえば、オペレータがロボット12の行動制御を決定するまでの時間が減少することが期待できる。したがって、オペレータに効率よくロボット12の遠隔操作を行わせることができる。
According to this embodiment, since not only the sensor information of the
また、混雑領域や煩い領域等の環境における注意情報の表示によって、ロボット12が移動や身体動作に支障のある状況にあるのかどうかを容易に把握させることができるし、あるいは、身体動作や移動に支障のありそうな場所がどこなのかを容易に把握させることができる。このように、オペレータにロボット12の周辺環境およびその状況を的確に把握させてその行動を制御させることができるので、ロボット12の遠隔操作の効率性とともに安全性を向上することができる。
In addition, by displaying caution information in an environment such as a congested area or an annoying area, it is possible to easily grasp whether or not the
さらに、上述のように自律制御可能なロボット12の遠隔制御の効率性および安全性を向上できるので、たとえば1人のオペレータが同時に複数のロボット12の遠隔操作を担当することも可能になる。つまり、少数のオペレータが多くのロボット12を同時に制御することも可能になる。
Furthermore, since the efficiency and safety of remote control of the autonomously
なお、上述の実施例では、操作用コンピュータ14は、各環境センサ18、20、22、24の接続された各コンピュータ18a、20a、22a、24aから各環境センサ情報を受信し、また、ロボット12からそのセンサ情報を受信するようにしていた。しかし、他の実施例では、ネットワーク16に接続された中央制御装置等の他のコンピュータが環境センサ情報またはロボット12のセンサ情報を取得するようにして、当該コンピュータがこれらセンサ情報を操作用コンピュータ14に与えるようにしてもよい。
In the above-described embodiment, the
また、上述の各実施例では、操作用コンピュータ14が、ロボット12の現在位置、混雑領域、煩い領域などを算出するようにしていた。しかし、他の実施例では、上記中央制御装置等の他のコンピュータが、センサ情報画面の表示に必要なこれらの情報を算出して、操作用コンピュータ14に与えるようにしてもよい。
Further, in each of the above-described embodiments, the
10 …ロボット制御システム
12 …コミュニケーションロボット
14 …操作用コンピュータ
16 …ネットワーク
18 …カメラ
20 …無線タグリーダ
22 …距離センサ
24 …騒音計
DESCRIPTION OF
Claims (4)
前記複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および前記環境の一部または全体を示す地図を表示する地図表示手段を備え、
前記地図表示手段は、前記コミュニケーションロボットの現在位置を前記地図上に表示するロボット位置表示手段、前記環境センサの検出情報に基づいて検出された前記環境における注意情報を前記地図上に表示する注意情報表示手段、および前記環境中に配置された前記複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段を含む、ロボット制御システム。 A communication robot that exists in an environment provided with a plurality of types of environmental sensors, and an operation computer including an input device, the operation computer specifying an operation by an operator in response to an input from the input device A robot control system for transmitting operation information for the operation to the robot,
A plurality of environment display means for individually displaying environment information detected using the plurality of types of environment sensors, and a map display means for displaying a map showing a part or the whole of the environment;
Said map display means displays the warning information at the current position the robot position display means to display on said map, said detected environment based on the detected information before Symbol environment sensor of the communication robot on the map A robot control system comprising: attention information display means ; and environmental sensor position display means for displaying the positions of the plurality of types of environmental sensors arranged in the environment .
前記複数種類の環境センサを用いて検出した環境情報を個別に表示する複数の環境表示手段、および
前記環境の一部または全体を示す地図を表示する地図表示手段として機能させ、さらに
前記地図表示手段を、前記コミュニケーションロボットの現在位置を前記地図上に表示するロボット位置表示手段、前記環境センサの検出情報に基づいて検出された前記環境における注意情報を前記地図上に表示する注意情報表示手段、および前記環境中に配置された前記複数種類の環境センサのそれぞれの位置を表示する環境センサ位置表示手段として機能させる、プログラム。 A program executed by a computer of a robot control system for remotely operating a communication robot existing in an environment provided with a plurality of types of environmental sensors in accordance with an instruction from an operator, the program comprising:
A plurality of environment display means for individually displaying environment information detected using the plurality of types of environment sensors; and a map display means for displaying a map showing a part or the whole of the environment, and further the map display means the current position robot position display means to display on said map, note information display means a warning information in the environment detected based on the detection information before Symbol environment sensor to display on the map of the communication robot And a program for functioning as environmental sensor position display means for displaying the respective positions of the plurality of types of environmental sensors arranged in the environment .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006014964A JP5028568B2 (en) | 2006-01-24 | 2006-01-24 | Robot control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006014964A JP5028568B2 (en) | 2006-01-24 | 2006-01-24 | Robot control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007196300A JP2007196300A (en) | 2007-08-09 |
JP5028568B2 true JP5028568B2 (en) | 2012-09-19 |
Family
ID=38451405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006014964A Active JP5028568B2 (en) | 2006-01-24 | 2006-01-24 | Robot control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5028568B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101408657B1 (en) | 2007-12-18 | 2014-06-17 | 삼성전자주식회사 | Apparatus and method for user interface of remote control system for Robot |
KR101031815B1 (en) | 2008-11-14 | 2011-04-29 | 에프엠전자(주) | Remote control unit and communications method of using the same |
KR101080977B1 (en) * | 2009-05-22 | 2011-11-09 | 영진전문대학 산학협력단 | Pipe route detecting System |
KR101080978B1 (en) * | 2009-05-22 | 2011-11-09 | 영진전문대학 산학협력단 | System and method for processing pipe ditecting data |
JP5546214B2 (en) * | 2009-11-19 | 2014-07-09 | 株式会社日立産機システム | Mobile robot |
KR101151787B1 (en) | 2009-11-30 | 2012-05-31 | 재단법인대구경북과학기술원 | Remotely controlled robot system with enhanced heading determination performance and remote controller in the system |
US8918213B2 (en) * | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
JP5732633B2 (en) * | 2011-02-09 | 2015-06-10 | 株式会社国際電気通信基礎技術研究所 | Communication robot |
CN104765380B (en) * | 2014-01-03 | 2017-04-19 | 科沃斯商用机器人有限公司 | Light spot indication robot and light spot indication method thereof |
CN104133398B (en) * | 2014-07-10 | 2017-01-11 | 杭州电子科技大学 | Control circuit inside supermarket shopping robot |
CN104898674A (en) * | 2015-05-26 | 2015-09-09 | 中国安全生产科学研究院 | Mobile environment monitoring robot for hazardous chemical leakage accident and monitoring system |
WO2022164793A1 (en) | 2021-01-29 | 2022-08-04 | Boston Dynamics, Inc. | Object-based robot control |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001062766A (en) * | 1999-08-26 | 2001-03-13 | Matsushita Electric Works Ltd | User interface system for remote control of bipedal walking robot |
JP2002244736A (en) * | 2001-02-21 | 2002-08-30 | Matsushita Electric Ind Co Ltd | Mobile work robot |
US6633232B2 (en) * | 2001-05-14 | 2003-10-14 | Koninklijke Philips Electronics N.V. | Method and apparatus for routing persons through one or more destinations based on a least-cost criterion |
JP2003006532A (en) * | 2001-06-27 | 2003-01-10 | Fujitsu Ltd | Movable robot and service providing system through server using the acquired image |
JP3945279B2 (en) * | 2002-03-15 | 2007-07-18 | ソニー株式会社 | Obstacle recognition apparatus, obstacle recognition method, obstacle recognition program, and mobile robot apparatus |
JP3713021B2 (en) * | 2003-02-17 | 2005-11-02 | 松下電器産業株式会社 | Article handling system and robot operating device for living space |
JP4409980B2 (en) * | 2004-02-10 | 2010-02-03 | 株式会社日立製作所 | Information providing apparatus, system including the same, operation program thereof, and information providing method |
-
2006
- 2006-01-24 JP JP2006014964A patent/JP5028568B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2007196300A (en) | 2007-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5028568B2 (en) | Robot control system | |
JP4386367B2 (en) | Communication robot improvement system | |
JP5186723B2 (en) | Communication robot system and communication robot gaze control method | |
JP4639343B2 (en) | Robot remote control system | |
JP5318623B2 (en) | Remote control device and remote control program | |
JP2007118129A (en) | Communication robot and caution control system using the same | |
JP2007190641A (en) | Communication robot | |
JP2003340764A (en) | Guide robot | |
CN111614919B (en) | Image recording device and head-mounted display | |
JP5145569B2 (en) | Object identification method and apparatus | |
JP5326794B2 (en) | Remote operation system and remote operation method | |
JP2018190391A (en) | Portable mobile robot and operation method thereof | |
JP7272825B2 (en) | robot system | |
JP2020196060A (en) | Teaching method | |
JP2015066624A (en) | Robot control system, robot control program, and explanation robot | |
JP2007160427A (en) | Robot control system | |
JP4793904B2 (en) | Communication robot system and communication robot | |
JP6142307B2 (en) | Attention target estimation system, robot and control program | |
JP2021064064A (en) | Robot system, robot, and operation terminal | |
JP6142306B2 (en) | Robot control system, robot, output control program, and output control method | |
KR20190091870A (en) | Robot control system using motion sensor and VR | |
JP6005496B2 (en) | Remote monitoring device and remote monitoring method | |
JP3657854B2 (en) | Remote location observation equipment | |
JP4878462B2 (en) | Communication robot | |
WO2021220614A1 (en) | Control device, control method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101028 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110711 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20111220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120321 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20120329 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120502 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5028568 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150706 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |