JP2005271094A - Robot remote control system - Google Patents

Robot remote control system Download PDF

Info

Publication number
JP2005271094A
JP2005271094A JP2004084536A JP2004084536A JP2005271094A JP 2005271094 A JP2005271094 A JP 2005271094A JP 2004084536 A JP2004084536 A JP 2004084536A JP 2004084536 A JP2004084536 A JP 2004084536A JP 2005271094 A JP2005271094 A JP 2005271094A
Authority
JP
Japan
Prior art keywords
robot
remote control
omnidirectional
control system
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004084536A
Other languages
Japanese (ja)
Other versions
JP4517085B2 (en
Inventor
Keiko Miyashita
敬宏 宮下
Hiroshi Ishiguro
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004084536A priority Critical patent/JP4517085B2/en
Publication of JP2005271094A publication Critical patent/JP2005271094A/en
Application granted granted Critical
Publication of JP4517085B2 publication Critical patent/JP4517085B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot remote control system, which looks round the environment in the whole periphery of a robot, easily operates the robot, and improves the safety. <P>SOLUTION: This remote control system 10 includes: the robot 12; and a remote control device 16. The robot 12 includes a omnibearing visual sensor 18, thereby obtaining an omnibearing image of the periphery of the robot 12 before starting to act and transmitting the image to a control computer 92. The remote control device 16 functions as an omnibearing display, and the control computer 92 gives the received omnibearing image to a projector 100 to be projected on a semi-spherical mirror 98, and projects the omnibearing image on the inner surface of a spherical screen 96. An operator 14 operates a console part 94 while watching the omnibearing image inside the spherical screen 96, and the control computer 96 transmits the operation input data to the robot 12. The robot controls its operation according to the received operation input data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明はロボット遠隔制御システムに関し、特にたとえば、ロボットと遠隔制御装置とを含み、ロボットの周囲の様子を表示する、ロボット遠隔制御システムに関する。   The present invention relates to a robot remote control system, and more particularly to a robot remote control system that includes, for example, a robot and a remote control device and displays a situation around the robot.

この種の従来のロボット遠隔操作システムの一例が非特許文献1に開示される。この非特許文献1では、人間型ロボットHRP−1Sを遠隔操作し、着座して運転を行うタイプの建設機械の代行運転操作を行うシステムが紹介される。ロボットが操作される可搬型遠隔操作装置では、操作者の前方に3つのディスプレイが設置され、操作者はこれらのディスプレイの少なくとも1つに表示されるロボット搭載カメラからの映像を見ながら、ロボットを操作する。   An example of this type of conventional robot remote control system is disclosed in Non-Patent Document 1. This Non-Patent Document 1 introduces a system for performing a surrogate operation of a construction machine of a type in which a humanoid robot HRP-1S is remotely operated and seated and operated. In a portable remote control device in which a robot is operated, three displays are installed in front of the operator, and the operator moves the robot while watching images from a robot-mounted camera displayed on at least one of these displays. Manipulate.

また、非特許文献2では、ロボットに対する遠隔操作プラットフォームとして『スーパーコックピット』と呼ばれるシステムが紹介されている。このシステムでは、ロボットの頭部には内蔵ステレオカメラのほか計8つのCCDカメラが設けられ、水平視野角150度、垂直視野角117度をカバーする9面の大型スクリーンが操作者の前方に設けられ、そのスクリーンにロボットの視点からの3次元映像が表示される。
“プレス・リリース (4)人間型ロボットによる建設機械の代行運転の実現”、ホーム>プレス・リリース>働く人間型ロボット、[online]、2002年4月10日、産業技術総合研究所、[平成16年3月16日検索]、インタネット<URL:http://www.aist.go.jp/aist_j/press_release/pr20020410/hrp/pr20020410_4.html> “MSTC、人間協調・共存型ロボットの研究プロジェクトのプラットフォームを公開”、ASCII24/ニュース/テクノロジー/デバイス、[online]、2000年4月7日、アスキー株式会社、[平成16年3月13日検索]、インタネット<URL:http://ascii24.com/news/i/tech/article/2000/04/07/608220-000.html>
Non-Patent Document 2 introduces a system called “super cockpit” as a remote operation platform for a robot. In this system, the robot's head is equipped with a built-in stereo camera and a total of eight CCD cameras, and a nine large screen covering a horizontal viewing angle of 150 degrees and a vertical viewing angle of 117 degrees is provided in front of the operator. 3D video from the viewpoint of the robot is displayed on the screen.
"Press Release (4) Realization of construction machinery surrogate operation by humanoid robot", Home> Press Release> Working humanoid robot [online], April 10, 2002, National Institute of Advanced Industrial Science and Technology, [Heisei Search on March 16, 2016], Internet <URL: http://www.aist.go.jp/aist_j/press_release/pr20020410/hrp/pr20020410_4.html> “MSTC releases platform for research project on human cooperation / coexistence robot”, ASCII24 / News / Technology / Device, [online], April 7, 2000, ASCII, [March 13, 2004] ] Internet <URL: http://ascii24.com/news/i/tech/article/2000/04/07/608220-000.html>

上述の非特許文献1および2のシステムでは、いずれも、ロボットの前方の眺めを操作者の前方に設けたディスプレイまたはスクリーンに表示するだけである。したがって、操作者はロボットの前方以外の周囲の様子を見るためには、たとえばロボットを移動または旋回させてカメラの視野範囲を変更しなければならなかったので、操作が面倒であった。また、この場合、周囲の状況が把握できていないので、周囲の危険度も分からず、ロボットの操作に危険性があった。特にコミュニケーションロボット等のように周りに人間が存在する可能性が高い場合には、周囲の状況を把握できていないと人間とぶつかってしまうおそれが強かった。   In the systems of Non-Patent Documents 1 and 2 described above, the view in front of the robot is only displayed on a display or screen provided in front of the operator. Therefore, in order to see the surroundings other than the front of the robot, the operator has to change the field of view of the camera by moving or turning the robot, for example, and the operation is troublesome. Further, in this case, since the surrounding situation is not grasped, the surrounding danger level is not known, and there is a danger in the operation of the robot. In particular, when there is a high possibility that a person exists around, such as a communication robot, there is a strong possibility that the person may collide with a person unless the surrounding situation is grasped.

それゆえに、この発明の主たる目的は、ロボットを操作し易い、ロボット遠隔制御システムを提供することである。   Therefore, a main object of the present invention is to provide a robot remote control system that is easy to operate a robot.

この発明の他の目的は、安全性を向上できる、ロボット遠隔制御システムを提供することである。   Another object of the present invention is to provide a robot remote control system capable of improving safety.

請求項1の発明は、ロボットと遠隔制御装置とを含むロボット遠隔制御システムであって、ロボットは、当該ロボットの周囲の全方位の視覚情報を取得する全方位視覚センサと、全方位視覚センサで取得した視覚情報を遠隔制御装置へ送信する第1送信手段と、遠隔制御装置から送信された操作入力情報を受信する第1受信手段と、受信した操作入力情報に基づいて当該ロボットの動作を制御する制御手段とを含み、遠隔制御装置は、送信された視覚情報を受信する第2受信手段と、受信した視覚情報に基づいて全方位画像を表示する全方位表示手段と、全方位表示手段が見える位置に配置され操作者によって操作される操作手段と、操作手段の操作による操作入力情報をロボットへ送信する第2送信手段とを含む、ロボット遠隔制御システムである。   The invention of claim 1 is a robot remote control system including a robot and a remote control device, and the robot includes an omnidirectional visual sensor for acquiring visual information in all directions around the robot, and an omnidirectional visual sensor. A first transmission unit that transmits the acquired visual information to the remote control device, a first reception unit that receives the operation input information transmitted from the remote control device, and controls the operation of the robot based on the received operation input information The remote control device includes: a second receiving unit that receives the transmitted visual information; an omnidirectional display unit that displays an omnidirectional image based on the received visual information; and an omnidirectional display unit. A robot remote control system comprising: operating means arranged at a visible position and operated by an operator; and second transmitting means for transmitting operation input information obtained by operating the operating means to the robot It is.

請求項1の発明では、ロボット遠隔制御システムはロボットと遠隔制御装置とを含む。ロボットは全方位視覚センサを含み、この全方位視覚センサは当該ロボットの周囲の全方位の視覚情報を取得する。第1送信手段は、全方位視覚センサで取得した視覚情報を遠隔制御装置へ送信する。遠隔制御装置では、第2受信手段が送信された視覚情報を受信する。そして、全方位表示手段は、受信した視覚情報に基づいて全方位画像を表示する。操作手段は操作者によって操作されるものであり、全方位表示手段の見える位置に配置される。したがって、操作者はこの全方位表示手段に表示されたロボットの周囲の全方位画像を見て、操作手段を操作することができる。そして、第2送信手段は操作手段の操作による操作入力情報をロボットへ送信する。ロボットでは、第1受信手段が送信された操作入力情報を受信する。そして、制御手段は、受信した操作入力情報に基づいて当該ロボットの動作を制御する。したがって、請求項1の発明によれば、操作者はロボットの全周囲の様子をロボットの視点から見渡すようしてロボットを制御することができるので、ロボットを容易に操作することができる。   In the invention of claim 1, the robot remote control system includes a robot and a remote control device. The robot includes an omnidirectional visual sensor, and the omnidirectional visual sensor obtains visual information in all directions around the robot. The first transmission means transmits visual information acquired by the omnidirectional visual sensor to the remote control device. In the remote control device, the second receiving means receives the transmitted visual information. Then, the omnidirectional display means displays an omnidirectional image based on the received visual information. The operation means is operated by an operator and is disposed at a position where the omnidirectional display means can be seen. Therefore, the operator can operate the operation means by looking at the omnidirectional image around the robot displayed on the omnidirectional display means. Then, the second transmission means transmits operation input information by operation of the operation means to the robot. In the robot, the operation input information transmitted from the first receiving means is received. The control means controls the operation of the robot based on the received operation input information. Therefore, according to the first aspect of the invention, the operator can control the robot so that the state of the entire periphery of the robot can be viewed from the viewpoint of the robot, and therefore, the robot can be easily operated.

請求項2の発明は、請求項1の発明に従属し、ロボットは、制御手段によって動作を制御する前に、全方位視覚センサで視覚情報を取得し、該視覚情報を前記第1送信手段によって送信する。   The invention of claim 2 is dependent on the invention of claim 1, and the robot acquires visual information with an omnidirectional visual sensor before controlling the operation by the control means, and the visual information is obtained by the first transmission means. Send.

請求項2の発明では、ロボットでは、制御手段によって操作入力情報に基づく当該ロボットの動作制御を行う前に、全方位視覚センサで視覚情報が取得され、該視覚情報を第1送信手段によって送信する。したがって、請求項2の発明によれば、遠隔制御装置では、ロボットの行動が開始される前に、全方位表示手段によってロボットの周囲の全方位画像が表示される。したがって、操作者はロボットを操作する前に、ロボットの存在する周囲の状況を確認することができるので、たとえばロボットが周囲の人間や物体とぶつかったり転倒したりすることを回避でき、安全性を向上できる。   According to the invention of claim 2, in the robot, the visual information is acquired by the omnidirectional visual sensor and the visual information is transmitted by the first transmitting means before the control means performs the motion control of the robot based on the operation input information. . Therefore, according to the invention of claim 2, in the remote control device, the omnidirectional image around the robot is displayed by the omnidirectional display means before the action of the robot is started. Therefore, the operator can check the surrounding situation of the robot before operating the robot, so that it is possible to avoid, for example, the robot from colliding with the surrounding human beings and objects or falling down, thereby improving safety. It can be improved.

請求項3の発明は、請求項1または2の発明に従属し、ロボットは、身振りおよび音声の少なくとも一方を用いてコミュニケーションを図る機能を備えたコミュニケーションロボットを含む。   The invention of claim 3 is dependent on the invention of claim 1 or 2, and the robot includes a communication robot having a function of performing communication using at least one of gesture and voice.

請求項3の発明では、身振りおよび音声の少なくとも一方を用いてコミュニケーションを図る機能を備えたコミュニケーションロボットが適用され得る。したがって、請求項3の発明によれば、操作者はコミュニケーションロボットの視点からその全周囲の様子を見渡して操作できるので、ロボットの気持ちになって人間などとコミュニケーションを行うことができる。したがって、操作がし易く、しかもコミュニケーションし易い。   In the invention of claim 3, a communication robot having a function of performing communication using at least one of gesture and voice can be applied. Therefore, according to the third aspect of the present invention, the operator can look over the entire surroundings from the viewpoint of the communication robot and operate, so that it can communicate with a human or the like in the feeling of the robot. Therefore, operation is easy and communication is easy.

請求項4の発明は、請求項1ないし3の発明のいずれかに従属し、全方位表示手段は全方位画像の表示される全面スクリーンを含み、操作手段は全面スクリーンの内部空間に配置される。   The invention of claim 4 is dependent on any one of the inventions of claims 1 to 3, wherein the omnidirectional display means includes a full screen on which an omnidirectional image is displayed, and the operation means is disposed in an internal space of the full screen. .

請求項4の発明では、全方位表示手段はたとえば球面スクリーンなどの全面スクリーンを含み、操作手段は全面スクリーンの内部空間に配置される。したがって、請求項4の発明によれば、操作者は全方位画像の表示された全面スクリーンの内部で操作手段を操作することができる。したがって、操作者は自分の周りに映し出されるロボットの全周囲の様子を見渡すようしてまるでロボットの場所に存在しているかのような感覚でロボットを制御することができるので、ロボットを容易に操作することができる。   In the invention of claim 4, the omnidirectional display means includes a full screen such as a spherical screen, and the operation means is disposed in the internal space of the full screen. Therefore, according to the invention of claim 4, the operator can operate the operation means inside the full screen on which the omnidirectional image is displayed. Therefore, the operator can control the robot as if it is present at the robot's place by looking over the entire surroundings of the robot displayed around him, so that the robot can be operated easily. can do.

この発明によれば、ロボットに設けられた全方位視覚センサによって取得された全方位画像を、操作手段の配置される全方位表示手段に表示するようにしたので、操作者はロボットの存在する環境の全周囲を、そのロボットの視点から見渡して当該ロボットを制御することができる。したがって、操作者はあたかもロボットに乗り移ったような状態で操作することになるので、ロボットを容易に制御することができる。また、ロボットの周囲の状況を把握してから操作することができるので、安全性を向上できる。   According to the present invention, the omnidirectional image acquired by the omnidirectional visual sensor provided in the robot is displayed on the omnidirectional display unit on which the operation unit is arranged. The robot can be controlled by looking around the entire periphery of the robot from the viewpoint of the robot. Accordingly, since the operator operates as if he / she has transferred to the robot, the robot can be easily controlled. In addition, since the robot can be operated after grasping the situation around the robot, safety can be improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例の遠隔制御システム10は、操作対象であるロボット12と、このロボット12を操作者14が操作するための遠隔制御装置16とを含む。   Referring to FIG. 1, a remote control system 10 of this embodiment includes a robot 12 that is an operation target, and a remote control device 16 for an operator 14 to operate the robot 12.

このロボット12には円周方向360度の全方位の撮像が可能である全方位視覚センサ18が設けられている。この全方位視覚センサ18によって取得した全方位画像がロボット12から遠隔制御装置16へ送信され、遠隔制御装置16では操作者14にロボット12の全周囲の様子を映し出す映像が提供されることとなる。   This robot 12 is provided with an omnidirectional visual sensor 18 capable of imaging in all directions in the circumferential direction of 360 degrees. The omnidirectional image acquired by the omnidirectional visual sensor 18 is transmitted from the robot 12 to the remote control device 16, and the remote control device 16 provides the operator 14 with an image showing the entire surroundings of the robot 12. .

ロボット12は、たとえば主として人間1などのコミュニケーションの対象とコミュニケーションすることを目的とした相互作用指向のコミュニケーションロボットであり、身振りおよび音声の少なくとも一方を用いて人間1とコミュニケーションを行う機能を備えている。   The robot 12 is an interaction-oriented communication robot mainly intended to communicate with a communication target such as the human 1, and has a function of communicating with the human 1 using at least one of gesture and voice. .

なお、ロボット12はコミュニケーションロボットに限られるものではなく、他の実施例では、たとえば働く人間型ロボットのようなコミュニケーションする機能を備えないもの等であってもよい。   The robot 12 is not limited to a communication robot. In other embodiments, the robot 12 may be a robot that does not have a communication function such as a working humanoid robot.

より詳しくは、図2を参照して、ロボット12は台車20を含み、この台車20の下面にはロボット12を移動させる車輪22が設けられる。車輪22は車輪モータ24(図3参照)によって駆動され、台車20すなわちロボット12を前後左右任意の方向に動かすことができる。   More specifically, referring to FIG. 2, the robot 12 includes a carriage 20, and wheels 22 for moving the robot 12 are provided on the lower surface of the carriage 20. The wheel 22 is driven by a wheel motor 24 (see FIG. 3), and the carriage 20, that is, the robot 12, can be moved in any direction, front, back, left, and right.

なお、図2においては省略するが、台車20の前面には衝突センサ26(図3参照)が取り付けられ、この衝突センサ26は台車20への人や他の障害物の接触を検知する。つまり、ロボット12の移動中に障害物との接触を検知すると、直ちに車輪22の駆動を停止してロボット12の移動を急停止させる。   Although omitted in FIG. 2, a collision sensor 26 (see FIG. 3) is attached to the front surface of the carriage 20, and the collision sensor 26 detects contact of a person and other obstacles with the carriage 20. That is, when contact with an obstacle is detected while the robot 12 is moving, the driving of the wheels 22 is immediately stopped and the movement of the robot 12 is suddenly stopped.

台車20の上には、多角形柱のセンサ取付パネル28が設けられ、このセンサ取付パネル28の各面には超音波距離センサ30が取り付けられる。この実施例では24個の超音波距離センサ30が周囲360度にわたるように設けられる。この超音波距離センサ30は、ロボット12の周囲の主として人との距離を計測するものである。   A polygonal column sensor mounting panel 28 is provided on the carriage 20, and an ultrasonic distance sensor 30 is mounted on each surface of the sensor mounting panel 28. In this embodiment, 24 ultrasonic distance sensors 30 are provided so as to extend around 360 degrees. The ultrasonic distance sensor 30 measures a distance mainly from a person around the robot 12.

また、台車20の上には、さらに、その下部がセンサ取付パネル28に囲まれて、ロボット12の胴体が直立するように設けられる。この胴体は、下部胴体32と上部胴体34とによって構成され、下部胴体32および上部胴体34は、連結部36によって互いに連結される。図示は省略するが、連結部36には昇降機構が内蔵されていて、この昇降機構を用いることによって、上部胴体32の高さすなわちロボット12の背の高さを変化させることができる。昇降機構は、後述するように、腰モータ38(図3参照)によって駆動される。   Further, on the carriage 20, the lower part is surrounded by the sensor mounting panel 28 so that the body of the robot 12 stands upright. This body is composed of a lower body 32 and an upper body 34, and the lower body 32 and the upper body 34 are connected to each other by a connecting portion 36. Although illustration is omitted, the connecting portion 36 has a built-in lifting mechanism, and the height of the upper body 32, that is, the height of the back of the robot 12 can be changed by using this lifting mechanism. The lifting mechanism is driven by a waist motor 38 (see FIG. 3), as will be described later.

上部胴体34のほぼ中央には、マイク40が設けられる。マイク40は、周囲の音、とりわけコミュニケーション対象である人の声を取り込む。なお、マイク40の設置位置は上部胴体34に限られず適宜変更され得る。   A microphone 40 is provided substantially at the center of the upper body 34. The microphone 40 captures ambient sounds, particularly voices of people who are communication targets. The installation position of the microphone 40 is not limited to the upper body 34 and can be changed as appropriate.

また、上部胴体34のたとえば背面には、全方位の視覚情報を一度に検知できる全方位視覚センサ18が棒状の取付具によって設けられ、ロボット10の周囲の状況を撮像可能なように頭頂部よりも上方に配置される。全方位視覚センサ18は、たとえば、周方向360度を映し出す双曲面鏡を円筒ガラスで支持する構造を有し、鏡面上の中心部には円筒ガラスによる内面反射を解消するための円錐状の突起が下向きに取り付けられる。突起の先の下方にはカメラ用ののぞき穴が設けられ、レンズを介してたとえばCCDやCMOSのような固体撮像素子を用いるカメラが設けられる。この全方位視覚センサ18では、双曲面鏡で反射された周囲360度の画像がのぞき穴およびレンズを介してカメラによって取得される。円筒ガラスによる内面反射は鏡面上の突起によって解消することができるので、ゴースト画像を解消して実画像を取得することが可能である。この全方位視覚センサ18はたとえばヴイストン株式会社(http://www.vstone.co.jp/)の製品を使用することができる。   Further, an omnidirectional visual sensor 18 capable of detecting omnidirectional visual information at a time is provided on the back surface of the upper body 34 by means of a rod-shaped fixture, and from the top of the head so that the situation around the robot 10 can be imaged. Is also disposed above. The omnidirectional visual sensor 18 has a structure in which, for example, a hyperboloid mirror that reflects 360 ° in the circumferential direction is supported by cylindrical glass, and a conical protrusion for eliminating internal reflection by the cylindrical glass at the center of the mirror surface. Is mounted downward. A peephole for a camera is provided below the tip of the protrusion, and a camera using a solid-state image sensor such as a CCD or CMOS is provided via a lens. In this omnidirectional visual sensor 18, an image of 360 ° surrounding reflected by the hyperboloid mirror is acquired by the camera through the peephole and the lens. Since the internal reflection by the cylindrical glass can be eliminated by the projection on the mirror surface, it is possible to eliminate the ghost image and obtain an actual image. The omnidirectional visual sensor 18 can use, for example, a product of Viston Co., Ltd. (http://www.vstone.co.jp/).

上部胴体34の両肩には、それぞれ、肩関節42Rおよび42Lによって、上腕44Rおよび44Lが胴体部分に対して変位自在に設けられる。肩関節42Rおよび42Lは3軸の自由度を有する。肩関節42Rは、X軸、Y軸およびZ軸のそれぞれの軸廻りにおいて上腕44Rの角度を制御できる。他方、肩関節42Lは、A軸、B軸およびC軸のそれぞれの軸廻りにおいて上腕44Lの角度を制御できる。また、上腕44Rおよび44Lのそれぞれの先端には、1軸の肘関節46Rおよび46Lを介して、前腕48Rおよび48Lが設けられる。肘関節46Rおよび46LはそれぞれW軸およびD軸の軸廻りにおいて前腕48Rおよび48Lの角度を制御できる。また、前腕48Rおよび48Lのそれぞれの先端には、手50Rおよび50Lがそれぞれ固定的に設けられる。ただし、指や掌の機能が必要な場合には、球形に代えて人の手の形状をしたものを用いることも可能である。これら右腕および左腕の各関節における各軸はここでは図示しないモータによってそれぞれ制御される。すなわち、右腕および左腕のそれぞれ4個のモータが、図3において、それぞれ右腕モータ52および左腕モータ54として表される。   Upper arms 44R and 44L are provided on both shoulders of the upper trunk 34 so as to be displaceable with respect to the trunk by shoulder joints 42R and 42L, respectively. The shoulder joints 42R and 42L have three axes of freedom. The shoulder joint 42R can control the angle of the upper arm 44R around each of the X axis, the Y axis, and the Z axis. On the other hand, the shoulder joint 42L can control the angle of the upper arm 44L around each of the A axis, the B axis, and the C axis. Also, forearms 48R and 48L are provided at the tips of the upper arms 44R and 44L via uniaxial elbow joints 46R and 46L, respectively. The elbow joints 46R and 46L can control the angles of the forearms 48R and 48L around the axes of the W axis and the D axis, respectively. Hands 50R and 50L are fixedly provided at the tips of the forearms 48R and 48L, respectively. However, when a finger or palm function is required, it is possible to use a human hand instead of a spherical shape. Each axis in each joint of the right arm and the left arm is controlled by a motor (not shown). That is, four motors for each of the right arm and the left arm are represented as a right arm motor 52 and a left arm motor 54, respectively, in FIG.

また、図2では省略するが、上部胴体34の肩関節42Rおよび42Lを含む肩の部分や上述の上腕44Rおよび44Lならびに前腕48Rおよび48Lには、それぞれ、タッチセンサ56(図3で包括的に示す)が設けられていて、これらのタッチセンサ56は、人がロボット10の当該各部位に触れたかどうかを検知する。   Although not shown in FIG. 2, a touch sensor 56 (inclusively in FIG. 3) is provided on the shoulder portion of the upper body 34 including the shoulder joints 42R and 42L, the upper arms 44R and 44L, and the forearms 48R and 48L. These touch sensors 56 detect whether or not a person has touched each part of the robot 10.

上部胴体34の中央上方には、首関節58を介して頭部60が、人間の頭と同様に俯仰・回転可能に取付けられる。首関節58は3軸の自由度を有し、S軸、T軸およびU軸の各軸廻りに角度制御可能である。この3軸の首関節58は、3つのモータ、すなわち、図3に示す頭部モータ62によって制御される。   Above the center of the upper body 34, a head 60 is attached via a neck joint 58 so as to be able to be elevated and rotated like a human head. The neck joint 58 has three degrees of freedom, and the angle can be controlled around each of the S, T, and U axes. The three-axis neck joint 58 is controlled by three motors, that is, a head motor 62 shown in FIG.

また、頭部60には、人の口に相当する位置にスピーカ64が設けられる。スピーカ64は、ロボット12が、それの周辺の人に対して音声によってコミュニケーションを図るために用いられる。   The head 60 is provided with a speaker 64 at a position corresponding to a human mouth. The speaker 64 is used for the robot 12 to communicate by voice to people around it.

また、頭部60の前面の「目」に相当する位置には、2つの眼球部66Rおよび66Lが設けられる。眼球部66Rおよび66Lは、それぞれ眼カメラ68Rおよび68Lを含む。なお、眼球部66Rと眼球部66Lはまとめて眼球部66で示すこともある。また、眼カメラ68Rと眼カメラ68Lは図3ではまとめて眼カメラ68で示される。   In addition, two eyeball portions 66R and 66L are provided at positions corresponding to “eyes” on the front surface of the head 60. Eyeball portions 66R and 66L include eye cameras 68R and 68L, respectively. The eyeball part 66R and the eyeball part 66L may be collectively indicated by the eyeball part 66. Further, the eye camera 68R and the eye camera 68L are collectively shown as an eye camera 68 in FIG.

眼カメラ68は、ロボット10に接近した人の顔や他の部分ないし物体等を撮影して、その映像信号を取り込む。眼カメラ68としては、上述した全方位視覚センサ18と同様のカメラを用いることができる。眼カメラ68は眼球部66内に固定され、眼球部66は眼球支持部(図示せず)を介して頭部60内の所定位置に俯仰・回転可能に取り付けられる。眼球支持部は、2軸の自由度を有し、α軸およびβ軸の各軸廻りに角度制御可能である。眼球部66Rおよび66Lの2軸の眼球支持部は、それぞれ2つのモータ、すなわち、図3に示す右眼球モータ70および左眼球モータ72によって制御される。   The eye camera 68 takes a picture of a person's face and other parts or objects approaching the robot 10 and captures the video signal. As the eye camera 68, a camera similar to the omnidirectional visual sensor 18 described above can be used. The eye camera 68 is fixed in the eyeball part 66, and the eyeball part 66 is attached to a predetermined position in the head 60 via an eyeball support part (not shown) so as to be able to be elevated and rotated. The eyeball support unit has two degrees of freedom and can be controlled in angle around each of the α axis and the β axis. The two-axis eyeball support portions of the eyeball portions 66R and 66L are respectively controlled by two motors, that is, the right eyeball motor 70 and the left eyeball motor 72 shown in FIG.

図3はロボット12の電気的な構成を示すブロック図であり、この図3を参照して、ロボット12はCPU74を含む。CPU74はマイクロコンピュータ或いはプロセサとも呼ばれ、ロボット12の全体的な制御を担当する。CPU74は、バス76を介して、メモリ78、モータ制御ボード80、センサ入力/出力ボード82、音声入力/出力ボード84および通信LANボード86に接続される。   FIG. 3 is a block diagram showing an electrical configuration of the robot 12. With reference to FIG. 3, the robot 12 includes a CPU 74. The CPU 74 is also called a microcomputer or a processor, and is responsible for overall control of the robot 12. The CPU 74 is connected to the memory 78, the motor control board 80, the sensor input / output board 82, the audio input / output board 84, and the communication LAN board 86 via the bus 76.

メモリ78は、図示は省略するが、ROMもしくはHDDおよびRAMを含み、ROMやHDDにはロボット12の制御プログラムが予め記憶され、RAMはワークメモリやバッファメモリとして用いられる。制御プログラムは、たとえば各センサまたはカメラによる検知情報を検出するプログラム、外部のコンピュータすなわち遠隔制御装置16の制御用コンピュータ92と通信するためのプログラム、受信した操作入力情報に基づいてコミュニケーション行動や移動などの動作を制御するためのプログラム等を含む。メモリ78にはまた、コミュニケーション行動などの動作を実行するためのデータが記憶され、そのデータは、たとえば、個々の行動を実行する際に、スピーカ64から発生すべき音声または声の音声データ(音声合成データ)、および所定の身振りを提示するための角度データ等を含む。なお、所定のコミュニケーション行動などの各動作の角度データおよび音声データ等は、それぞれの識別子に対応付けられてメモリ78に記憶されている。   Although not shown, the memory 78 includes a ROM, an HDD, and a RAM. The ROM and HDD store a control program for the robot 12 in advance, and the RAM is used as a work memory and a buffer memory. The control program is, for example, a program for detecting information detected by each sensor or camera, a program for communicating with an external computer, that is, a control computer 92 of the remote control device 16, communication behavior or movement based on the received operation input information, etc. Including a program for controlling the operation. The memory 78 also stores data for executing an operation such as a communication action. The data is, for example, voice data or voice data (voice data) to be generated from the speaker 64 when executing each action. Composite data) and angle data for presenting a predetermined gesture. Note that angle data and audio data of each operation such as predetermined communication behavior are stored in the memory 78 in association with each identifier.

ロボット12は、所定のコミュニケーション行動の一例として次に挙げるような種々の行動を取ることが可能である。たとえば、「こんにちは」と話しかける。「握手しよう」と言って一方の腕を前方に差し出す。「抱っこしてね」と言って両腕を広げ、前方で輪をつくって抱きつく。   The robot 12 can take various actions as follows as an example of the predetermined communication action. For example, say "Hello". Say "Let's shake hands" and push one arm forward. Say “Hug me” and spread your arms and hug them in front of you.

モータ制御ボード80は、たとえばDSPで構成され、各腕や頭部および眼球部等の各モータの駆動を制御する。すなわち、モータ制御ボード80は、CPU74からの制御データを受け、右眼球部66Rの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「右眼球モータ」として示す。)70の回転角度を制御する。同様に、モータ制御ボード80は、CPU74からの制御データを受け、左眼球部66Lの2軸のそれぞれの角度を制御する2つのモータ(図3では、まとめて「左眼球モータ」として示す。)72の回転角度を制御する。また、モータ制御ボード80は、CPU74からの制御データを受け、右肩関節42Rの3軸のそれぞれの角度を制御する3つのモータと右肘関節46Rの1軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「右腕モータ」として示す。)52の回転角度を調節する。同様に、モータ制御ボード80は、CPU74からの制御データを受け、左肩関節42Lの3軸のそれぞれの角度を制御する3つのモータと左肘関節46Lの1軸の角度を制御する1つのモータとの計4つのモータ(図3では、まとめて「左腕モータ」として示す。)54の回転角度を調整する。さらに、モータ制御ボード80は、CPU74からの制御データを受け、首関節58の3軸のそれぞれの角度を制御する3つのモータ(図3では、まとめて「頭部モータ」として示す。)62の回転角度を制御する。さらにまた、モータ制御ボード80は、CPU74からの制御データを受け、腰モータ38および車輪22を駆動する2つのモータ(図3では、まとめて「車輪モータ」と示す。)24の回転角度を制御する。   The motor control board 80 is configured by a DSP, for example, and controls driving of each motor such as each arm, head, and eyeball. That is, the motor control board 80 receives two control data from the CPU 74 and controls two motors for controlling the respective angles of the two axes of the right eyeball portion 66R (in FIG. 3, collectively shown as “right eyeball motor”) 70. Control the rotation angle. Similarly, the motor control board 80 receives control data from the CPU 74, and controls two angles of the two axes of the left eyeball portion 66L (in FIG. 3, collectively shown as “left eyeball motor”). The rotation angle of 72 is controlled. The motor control board 80 receives control data from the CPU 74, and controls three motors for controlling the angles of the three axes of the right shoulder joint 42R and one motor for controlling the angles of the one axis of the right elbow joint 46R. The rotational angles of the four motors (collectively shown as “right arm motor” in FIG. 3) 52 are adjusted. Similarly, the motor control board 80 receives control data from the CPU 74, three motors for controlling the angles of the three axes of the left shoulder joint 42L, and one motor for controlling the angles of the one axis of the left elbow joint 46L. The rotational angles of the four motors (collectively shown as “left arm motor” in FIG. 3) 54 are adjusted. Further, the motor control board 80 receives control data from the CPU 74, and controls three motors 62 that collectively control the angles of the three axes of the neck joint 58 (shown collectively as "head motors" in FIG. 3) 62. Control the rotation angle. Furthermore, the motor control board 80 receives control data from the CPU 74 and controls the rotation angle of two motors 24 (hereinafter collectively referred to as “wheel motors”) 24 that drive the waist motor 38 and the wheels 22. To do.

なお、この実施例の上述のモータは、車輪モータ24を除いて、制御を簡単化するためにそれぞれステッピングモータ或いはパルスモータであるが、車輪モータ24と同様に、直流モータであってもよい。   Note that the motors described above in this embodiment are stepping motors or pulse motors, respectively, in order to simplify the control, except for the wheel motors 24. However, like the wheel motors 24, they may be direct current motors.

センサ入力/出力ボード82も、同様に、DSPで構成され、各センサやカメラからの信号を取り込んでCPU74に与える。すなわち、全方位視覚センサ18からの映像信号が、必要に応じてこのセンサ入力/出力ボード82で所定の処理を施された後、CPU74に入力される。また、超音波距離センサ30のそれぞれからの反射時間(距離情報)に関するデータがこのセンサ入力/出力ボード82を通してCPU74に入力される。眼カメラ68からの映像信号も、同様に、必要に応じて所定の処理を施された後、CPU74に入力される。また、複数のタッチセンサ56からの信号がセンサ入力/出力ボード82を介してCPU74に与えられる。さらに、衝突センサ26からの信号も、同様に、CPU74に与えられる。   Similarly, the sensor input / output board 82 is constituted by a DSP, and takes in signals from each sensor and camera and gives them to the CPU 74. That is, the video signal from the omnidirectional visual sensor 18 is subjected to predetermined processing by the sensor input / output board 82 as required, and then input to the CPU 74. Further, data relating to the reflection time (distance information) from each of the ultrasonic distance sensors 30 is input to the CPU 74 through the sensor input / output board 82. Similarly, the video signal from the eye camera 68 is input to the CPU 74 after being subjected to predetermined processing as necessary. Further, signals from the plurality of touch sensors 56 are given to the CPU 74 via the sensor input / output board 82. Further, a signal from the collision sensor 26 is also given to the CPU 74 in the same manner.

音声入力/出力ボード84も、同様に、DSPで構成され、CPU74から与えられる音声合成データに従った音声または声がスピーカ64から出力される。また、マイク40からの音声入力が、音声入力/出力ボード82を介してCPU74に取り込まれる。   Similarly, the voice input / output board 84 is configured by a DSP, and voice or voice in accordance with voice synthesis data provided from the CPU 74 is output from the speaker 64. Also, the voice input from the microphone 40 is taken into the CPU 74 via the voice input / output board 82.

通信LANボード86も、同様に、DSPで構成され、無線通信装置88と接続される。通信LANボード86および無線通信装置88は、図示しない無線LANアクセスポイントを介してLAN、インタネットのようなネットワーク90(図1)に接続される。ロボット12はこの実施例ではネットワーク90を介して遠隔制御装置16と通信を行うことができる。具体的には、通信LANボード86は、全方位視覚センサ18によって検知した視覚情報を遠隔制御装置16に送信させる。また、通信LANボード86は遠隔制御装置16から制御情報を受信して、受信したデータをCPU74に与える。なお、ロボット12と遠隔制御装置16とが無線により直接通信するように構成してもよい。   Similarly, the communication LAN board 86 is configured by a DSP and connected to the wireless communication device 88. The communication LAN board 86 and the wireless communication device 88 are connected to a network 90 (FIG. 1) such as a LAN or the Internet via a wireless LAN access point (not shown). In this embodiment, the robot 12 can communicate with the remote control device 16 via the network 90. Specifically, the communication LAN board 86 transmits visual information detected by the omnidirectional visual sensor 18 to the remote control device 16. The communication LAN board 86 receives control information from the remote control device 16 and provides the received data to the CPU 74. Note that the robot 12 and the remote control device 16 may be configured to directly communicate with each other wirelessly.

図1に戻って、遠隔制御装置16は操作者14がロボット12の遠隔操作を行うためのインタフェースであり、この装置16の全体的な動作を制御する制御用コンピュータ92を含む。この制御用コンピュータ92には、操作者によって実際に操作される操作部94が接続される。また、この遠隔制御装置16は、離れたところにいるロボット12の全周囲の映像を操作者14に提示する全方位ディスプレイとしても機能するものである。全方位ディスプレイは、没入型ディスプレイの1つであり、たとえば「Personal Omnidirectional Visualizer」(http://ed-02.ams.eng.osaka-u.ac.jp/orig/homepages2/japanese/projects/key_devices/html/pov.htm)が適用される。つまり、遠隔制御装置16は、人間がその内部に入れる大きさ(たとえば直径2m程度)を有しその内面が全面スクリーンとなるFRP製等の球面スクリーン96を含む。この球面スクリーン96の内部空間にはステンレス製等の半球ミラー98およびプロジェクタ100が設けられる。   Returning to FIG. 1, the remote control device 16 is an interface for the operator 14 to remotely operate the robot 12, and includes a control computer 92 that controls the overall operation of the device 16. An operation unit 94 that is actually operated by an operator is connected to the control computer 92. The remote control device 16 also functions as an omnidirectional display that presents an image of the entire periphery of the robot 12 at a remote location to the operator 14. The omnidirectional display is one of the immersive displays. For example, “Personal Omnidirectional Visualizer” (http://ed-02.ams.eng.osaka-u.ac.jp/orig/homepages2/japanese/projects/key_devices /html/pov.htm) applies. That is, the remote control device 16 includes a spherical screen 96 made of FRP or the like that has a size (for example, a diameter of about 2 m) that a human can enter therein and whose inner surface is a full screen. A hemispherical mirror 98 made of stainless steel and the projector 100 are provided in the internal space of the spherical screen 96.

制御用コンピュータ92はPCやワークステーション等であってよい。制御用コンピュータ92は、図示は省略するがCPUを含み、CPUにはメモリや入出力インタフェース等が接続され、さらに入出力インタフェースを介して操作部94、プロジェクタ100および通信装置等が接続される。メモリにはこの制御用コンピュータ92の動作を制御するためのプログラムおよび必要なデータが記憶される。プログラムは、たとえば操作部94からの操作入力を検出するプログラム、ロボット12と通信するためのプログラム、プロジェクタ100を用いて画像を表示させるためのプログラム等を含む。この制御用コンピュータ92は入出力インタフェースおよび通信装置を介してたとえばインタネットのようなネットワーク90と接続されており、ロボット12との間でデータを送受信することができる。具体的には、制御用コンピュータ92は、操作部94からの操作入力データを含む制御情報をロボット12に送信する。また、制御用コンピュータ92は、ロボット12からの全方位画像データを含む視覚情報を受信する。   The control computer 92 may be a PC or a workstation. Although not shown, the control computer 92 includes a CPU. A memory, an input / output interface, and the like are connected to the CPU, and an operation unit 94, the projector 100, a communication device, and the like are connected to the CPU via the input / output interface. The memory stores a program for controlling the operation of the control computer 92 and necessary data. The program includes, for example, a program for detecting an operation input from the operation unit 94, a program for communicating with the robot 12, and a program for displaying an image using the projector 100. The control computer 92 is connected to a network 90 such as the Internet via an input / output interface and a communication device, and can transmit / receive data to / from the robot 12. Specifically, the control computer 92 transmits control information including operation input data from the operation unit 94 to the robot 12. Further, the control computer 92 receives visual information including omnidirectional image data from the robot 12.

操作部94は、操作者14によって操作される操作スイッチ、操作ボタンまたはジョイスティックなどの手段を含む。操作部94は、球面スクリーン96の内部空間に配置され、つまり、全方位画像を見ることができる位置に配置される。ただし、操作部94は、操作者14によって持ち運び可能または携帯可能に形成されてよいし、球面スクリーン96内に固定的に設けられてもよい。また、操作部94は制御用コンピュータ92に有線または無線のどちらで接続されてもよい。操作部94は操作者14による操作に応じた操作入力信号を制御用コンピュータ92に与える。操作者14はこの操作部94を操作することによって、ロボット12を操作することができる。たとえば、ロボット12の各関節の各軸の角度や車輪モータ24による移動などを制御することができる。あるいは、予め設定しておいた身振りや発話を含む所定のコミュニケーション行動を実行させることも可能である。   The operation unit 94 includes means such as operation switches, operation buttons, or joysticks operated by the operator 14. The operation unit 94 is arranged in the internal space of the spherical screen 96, that is, arranged at a position where an omnidirectional image can be seen. However, the operation unit 94 may be formed so as to be portable or portable by the operator 14 or may be fixedly provided in the spherical screen 96. Further, the operation unit 94 may be connected to the control computer 92 either by wire or wirelessly. The operation unit 94 gives an operation input signal corresponding to the operation by the operator 14 to the control computer 92. The operator 14 can operate the robot 12 by operating the operation unit 94. For example, the angle of each axis of each joint of the robot 12 and the movement by the wheel motor 24 can be controlled. Alternatively, it is possible to execute predetermined communication behavior including preset gestures and utterances.

プロジェクタ100は球面スクリーン96内においてたとえば操作者14の座る椅子の背後などの所定位置に配置される。半球ミラー98は球面スクリーン96の上方の内面の所定位置に設置される。プロジェクタ100は、制御用コンピュータ92と有線または無線で接続されており、制御用コンピュータ92によって画像データが与えられる。この画像データは、ロボット12に設けられた全方位視覚センサ18によって取得されたロボット12の周囲の全方位画像である。プロジェクタ100は、与えられた画像データに基づいてその画像(全方位画像)を半球ミラー98へ投影する。そして、半球ミラー98によって反射された投影光は球面スクリーン96の内面に映し出される。すなわち、球面スクリーン96には、ロボット12の周方向360度の眺めがそのまま表示される。したがって、操作者14は、自分の周囲360度の球面スクリーン96に映し出された、ロボット12の周方向360度の全方位画像を見ながら操作部94を操作して、ロボット12を操作することができる。   The projector 100 is disposed in a predetermined position in the spherical screen 96, for example, behind a chair on which the operator 14 sits. The hemispherical mirror 98 is installed at a predetermined position on the inner surface above the spherical screen 96. The projector 100 is connected to the control computer 92 by wire or wirelessly, and image data is given by the control computer 92. This image data is an omnidirectional image around the robot 12 acquired by the omnidirectional visual sensor 18 provided in the robot 12. Projector 100 projects the image (omnidirectional image) onto hemispherical mirror 98 based on the given image data. The projection light reflected by the hemispherical mirror 98 is projected on the inner surface of the spherical screen 96. That is, the 360-degree view of the robot 12 in the circumferential direction is displayed on the spherical screen 96 as it is. Accordingly, the operator 14 can operate the robot 12 by operating the operation unit 94 while viewing the 360-degree omnidirectional image of the robot 12 projected on the spherical screen 96 around 360 degrees. it can.

なお、半球ミラー98とプロジェクタ100の配置は球面スクリーン96上の解像度が最適になるように調整されている。また、球面スクリーン96に映し出される投影画像に歪が生じないように、制御コンピュータ92ではロボット12からの画像情報を補正するようにしている。つまり、球面スクリーン96には、ロボット12の周囲の眺めがそのまま、歪なく映し出される。   The arrangement of the hemispherical mirror 98 and the projector 100 is adjusted so that the resolution on the spherical screen 96 is optimal. Further, the control computer 92 corrects the image information from the robot 12 so that the projected image displayed on the spherical screen 96 is not distorted. That is, the view around the robot 12 is displayed on the spherical screen 96 without distortion.

この遠隔制御システム10では、ロボット12と遠隔制御装置16とは互いに離れた場所に配置される。ロボット12は、たとえば会議場、仕事場、あるいは観光地などの、操作者14が行けない場所に代わりに配置される。そして、操作者14は遠隔制御装置16の球面スクリーン96内に入ってロボット12の操作を行う。操作者14は、ロボット12に設けられた全方位視覚センサ18によって取得されて球面スクリーン96に映し出される画像から、ロボット12の存在する場の状況を視覚的に体験することができる。   In the remote control system 10, the robot 12 and the remote control device 16 are arranged at locations separated from each other. The robot 12 is disposed instead of a place where the operator 14 cannot go, such as a conference hall, a work place, or a sightseeing spot. Then, the operator 14 enters the spherical screen 96 of the remote control device 16 and operates the robot 12. The operator 14 can visually experience the situation of the place where the robot 12 exists from the image acquired by the omnidirectional visual sensor 18 provided in the robot 12 and displayed on the spherical screen 96.

ロボット12の遠隔操作を行う際には、操作入力に基づいたコミュニケーション行動などの動作を開始する前に、まず、ロボット12(CPU74)が、全方位視覚センサ18でロボット12の周囲の全方位画像を取得する。そして、ロボット12は取得した全方位画像データを遠隔制御装置16の制御用コンピュータ92へ送信する。この全方位画像の取得および送信はたとえば一定周期で繰り返し実行される。   When performing remote operation of the robot 12, first, the robot 12 (CPU 74) uses the omnidirectional visual sensor 18 to display an omnidirectional image around the robot 12 before starting an operation such as a communication action based on the operation input. To get. Then, the robot 12 transmits the acquired omnidirectional image data to the control computer 92 of the remote control device 16. The acquisition and transmission of this omnidirectional image is repeatedly executed, for example, at a constant cycle.

ロボット12のデータ送信に応じて、制御用コンピュータ92は全方位画像データを受信する。そして、制御用コンピュータ92は受信した全方位画像データを補正し、その画像データをプロジェクタ100に与える。プロジェクタ100は与えられた画像データに基づいてその画像を半球ミラー98に投影する。   In response to the data transmission of the robot 12, the control computer 92 receives the omnidirectional image data. Then, the control computer 92 corrects the received omnidirectional image data and gives the image data to the projector 100. The projector 100 projects the image on the hemispherical mirror 98 based on the given image data.

このようにして、球面スクリーン96には、ロボット12の全方位視覚センサ18で取得したロボット12の周囲の全方位の映像がリアルタイムで映し出される。したがって、操作者14は球面スクリーン96に映し出されるロボット12の全周囲の様子をリアルタイムで見渡すことができるとともに、ロボット12の周りの環境をリアルタイムで見ながらロボット12の操作を行うことができる。   In this way, on the spherical screen 96, images of all directions around the robot 12 acquired by the omnidirectional visual sensor 18 of the robot 12 are displayed in real time. Therefore, the operator 14 can look over the entire surroundings of the robot 12 displayed on the spherical screen 96 in real time, and can operate the robot 12 while looking at the environment around the robot 12 in real time.

制御用コンピュータ92は操作部92からの操作入力があったとき、操作入力データを検出する。そして、制御用コンピュータ92は操作入力データを含む制御情報をロボット12に送信する。たとえば、操作者14がロボット12の各部位などを直接操作した場合には、各モータの角度制御データを含む操作入力データが送信される。また、所定のコミュニケーション行動の実行を指示する操作が行われた場合には、その行動の識別子を含む操作入力データが送信される。   When there is an operation input from the operation unit 92, the control computer 92 detects operation input data. Then, the control computer 92 transmits control information including operation input data to the robot 12. For example, when the operator 14 directly operates each part of the robot 12, operation input data including angle control data of each motor is transmitted. When an operation for instructing execution of a predetermined communication action is performed, operation input data including the identifier of the action is transmitted.

制御用コンピュータ92のデータ送信に応じて、ロボット12は制御情報を受信する。そして、ロボット12は制御情報(操作入力データ)に基づいて、その動作を制御する。たとえば、各モータの制御データを受信した場合には、ロボット12のCPU74は、そのデータに基づいて各モータを制御して、各部位または車輪22等を動作させる。また、所定のコミュニケーション行動の実行指示データを受信した場合には、ロボット12のCPU74は、識別子に基づいてメモリ78から該当するコミュニケーション行動を実行するためのデータを読み出してその行動を実行し、各部位等を動作させたりスピーカ64から所定の音声を出力させたりする。   In response to data transmission from the control computer 92, the robot 12 receives control information. Then, the robot 12 controls the operation based on the control information (operation input data). For example, when the control data of each motor is received, the CPU 74 of the robot 12 controls each motor based on the data and operates each part or wheel 22 or the like. Further, when the execution instruction data of the predetermined communication action is received, the CPU 74 of the robot 12 reads out data for executing the corresponding communication action from the memory 78 based on the identifier and executes the action. A part or the like is operated, or a predetermined sound is output from the speaker 64.

このようにして、操作者14は球面スクリーン96に映されたロボット12の全周囲の環境をロボット12の視点から見渡してロボット12の操作を行うことができる。したがって、操作者14は、まるでロボット12の居る場所に存在するような感覚で、あるいは、あたかもロボットに乗り移ったような状態で操作することになるので、ロボット12を容易に操作することができる。   In this way, the operator 14 can operate the robot 12 while looking around the environment around the robot 12 displayed on the spherical screen 96 from the viewpoint of the robot 12. Therefore, the operator 14 can operate the robot 12 easily because the operator 14 operates as if the robot 12 is in the place where the robot 12 is present, or as if the operator 14 was transferred to the robot.

また、ロボット12が行動を開始する前に、まず全方位画像を取得して全方位ディスプレイに表示するようにしているので、操作者14は、操作部94を操作してロボット12を実際に移動させたり周囲の状況確認のために旋回させたりあるいはコミュニケーション行動を実行させたりする前に、ロボット12の存在する環境や周囲の状況を確認することができる。したがって、たとえばロボット12が周囲の人間や物体とぶつかってしまうことや、転倒なども回避することができ、安全性を向上することができる。   Further, since the omnidirectional image is first acquired and displayed on the omnidirectional display before the robot 12 starts to act, the operator 14 actually moves the robot 12 by operating the operation unit 94. It is possible to confirm the environment in which the robot 12 is present and the surrounding situation before making it turn, turning for confirmation of the surrounding situation, or executing a communication action. Therefore, for example, it is possible to avoid the robot 12 from colliding with surrounding humans or objects, or to fall, and the safety can be improved.

さらにまた、ロボット12がコミュニケーションロボットである場合には、操作者14は全方位ディスプレイの空間の中でロボット12の視点からの全周囲の映像を見渡してロボット12を操作することができるので、自分があたかもロボット12になったかのように、ロボット12の気持ちになって人間などとコミュニケーションを行うことができる。したがって、操作がし易く、しかもコミュニケーションがし易くなる。   Furthermore, when the robot 12 is a communication robot, the operator 14 can operate the robot 12 by looking over the entire image from the viewpoint of the robot 12 in the space of the omnidirectional display. It is possible to communicate with a human or the like with the feeling of the robot 12 as if it were the robot 12. Therefore, it is easy to operate and communication is facilitated.

図4にはこの遠隔制御システム10の動作が示される。この図4を参照して、ロボット12のCPU74は、まず、ステップS1で、全方位視覚センサ18で検出した全方位画像をセンサ入力/出力ボード82を介して取得してメモリ78に一時記憶する。次に、ステップS3で、ロボット12は、取得した全方位画像データを通信LANボード86および無線通信装置88を用いてネットワーク90を介して遠隔制御装置16へ送信する。   FIG. 4 shows the operation of the remote control system 10. Referring to FIG. 4, CPU 74 of robot 12 first acquires an omnidirectional image detected by omnidirectional visual sensor 18 via sensor input / output board 82 and temporarily stores it in memory 78 in step S1. . Next, in step S <b> 3, the robot 12 transmits the acquired omnidirectional image data to the remote control device 16 via the network 90 using the communication LAN board 86 and the wireless communication device 88.

これに応じて、ステップS21で、遠隔制御装置16の制御用コンピュータ92のCPUは、全方位画像データを受信してメモリに一時記憶する。そして、ステップS23で、全方位画像を投影する。具体的には、制御用コンピュータ92は、受信した全方位画像データを補正してからプロジェクタ100にその全方位画像データを与え、プロジェクタ100によってその全方位画像を半球ミラー98に投影させる。これによって、球面スクリーン96の内面には全方位画像が映し出される。   In response to this, in step S21, the CPU of the control computer 92 of the remote control device 16 receives the omnidirectional image data and temporarily stores it in the memory. In step S23, an omnidirectional image is projected. Specifically, the control computer 92 corrects the received omnidirectional image data, gives the omnidirectional image data to the projector 100, and causes the projector 100 to project the omnidirectional image onto the hemispherical mirror 98. As a result, an omnidirectional image is displayed on the inner surface of the spherical screen 96.

続いて、制御用コンピュータ92は、操作部94からの操作入力があった場合、ステップS25で、操作入力データを検出してメモリに一時記憶する。そして、ステップS27で、操作入力データを含む制御データをネットワーク90を介してロボット12へ送信する。   Subsequently, when there is an operation input from the operation unit 94, the control computer 92 detects the operation input data and temporarily stores it in the memory in step S25. In step S27, control data including operation input data is transmitted to the robot 12 via the network 90.

これに応じて、ステップS5で、ロボット12は、無線通信装置88および通信LANボード86を用いて操作入力データを受信してメモリ78に一時記憶する。そして、ステップS7で、ロボット12は、受信した操作入力データに基づいて動作を制御する。たとえば、操作入力データがコミュニケーション行動の実行指示データであった場合には、CPU74は、当該コミュニケーション行動の識別子に基づいて、メモリ78から該当する角度制御データおよび音声データを読み出して、モータ制御ボード80を介して各モータを制御するとともに、音声入力/出力ボード84を介してスピーカ64からその音声を出力する。一方、操作入力データが直接入力された角度制御データであった場合は、CPU74は、その角度制御データに基づいてモータ制御ボード80を介して各モータを制御する。   In response to this, the robot 12 receives operation input data using the wireless communication device 88 and the communication LAN board 86 and temporarily stores them in the memory 78 in step S5. In step S7, the robot 12 controls the operation based on the received operation input data. For example, when the operation input data is communication action execution instruction data, the CPU 74 reads out the corresponding angle control data and audio data from the memory 78 based on the identifier of the communication action, and the motor control board 80. The motors are controlled via the voice and the voice is output from the speaker 64 via the voice input / output board 84. On the other hand, if the operation input data is directly input angle control data, the CPU 74 controls each motor via the motor control board 80 based on the angle control data.

また、遠隔制御装置16の制御用コンピュータ92では、ステップS29で終了と判断されるまで、ステップS21からステップS27の処理を繰り返す。たとえば操作者14が遠隔操作の終了を指示する操作をした場合等にステップS29で“YES”と判断される。また、ロボット12では、ステップS9で終了と判断されるまでステップS1からステップS7の処理を繰り返す。たとえば制御用コンピュータ92から終了を指示する操作入力データを受信した場合等にステップS9で“YES”と判断される。   Further, the control computer 92 of the remote control device 16 repeats the processing from step S21 to step S27 until it is determined in step S29 that the process is terminated. For example, when the operator 14 performs an operation for instructing the end of the remote operation, “YES” is determined in the step S29. Further, the robot 12 repeats the processing from step S1 to step S7 until it is determined in step S9 that the process is finished. For example, when operation input data for instructing termination is received from the control computer 92, “YES” is determined in the step S9.

この発明の一実施例の遠隔制御システムの概要を示す図解図である。It is an illustration figure which shows the outline | summary of the remote control system of one Example of this invention. 図1のロボットの一例を示す外観図である。It is an external view which shows an example of the robot of FIG. 図2のロボットの電気的構成を示すブロック図である。FIG. 3 is a block diagram illustrating an electrical configuration of the robot of FIG. 2. 図1実施例の遠隔制御システムの動作を示すフロー図である。It is a flowchart which shows operation | movement of the remote control system of FIG. 1 Example.

符号の説明Explanation of symbols

10 …ロボット遠隔制御システム
12 …ロボット
16 …遠隔制御装置
18 …全方位視覚センサ
74 …CPU
78 …メモリ
80 …モータ制御ボード
82 …センサ入力/出力ボード
84 …音声入力/出力ボード
86 …通信LANボード
92 …制御用コンピュータ
94 …操作部
96 …球面スクリーン
98 …半球ミラー
100 …プロジェクタ
DESCRIPTION OF SYMBOLS 10 ... Robot remote control system 12 ... Robot 16 ... Remote control apparatus 18 ... Omnidirectional visual sensor 74 ... CPU
DESCRIPTION OF SYMBOLS 78 ... Memory 80 ... Motor control board 82 ... Sensor input / output board 84 ... Audio | voice input / output board 86 ... Communication LAN board 92 ... Control computer 94 ... Operation part 96 ... Spherical screen 98 ... Hemispherical mirror 100 ... Projector

Claims (4)

ロボットと遠隔制御装置とを含むロボット遠隔制御システムであって、
前記ロボットは、
当該ロボットの周囲の全方位の視覚情報を取得する全方位視覚センサと、
前記全方位視覚センサで取得した視覚情報を前記遠隔制御装置へ送信する第1送信手段と、
前記遠隔制御装置から送信された操作入力情報を受信する第1受信手段と、
受信した前記操作入力情報に基づいて当該ロボットの動作を制御する制御手段とを含み、
前記遠隔制御装置は、
送信された前記視覚情報を受信する第2受信手段と、
受信した前記視覚情報に基づいて全方位画像を表示する全方位表示手段と、
前記全方位表示手段が見える位置に配置され操作者によって操作される操作手段と、
前記操作手段の操作による操作入力情報を前記ロボットへ送信する第2送信手段とを含む、ロボット遠隔制御システム。
A robot remote control system including a robot and a remote control device,
The robot is
An omnidirectional visual sensor for acquiring visual information in all directions around the robot;
First transmission means for transmitting visual information acquired by the omnidirectional visual sensor to the remote control device;
First receiving means for receiving operation input information transmitted from the remote control device;
Control means for controlling the operation of the robot based on the received operation input information,
The remote control device is:
Second receiving means for receiving the transmitted visual information;
Omnidirectional display means for displaying an omnidirectional image based on the received visual information;
Operation means arranged at a position where the omnidirectional display means can be seen and operated by an operator;
A robot remote control system, comprising: second transmission means for transmitting operation input information by operation of the operation means to the robot.
前記ロボットは、前記制御手段によって動作を制御する前に、前記全方位視覚センサで前記視覚情報を取得し、該視覚情報を前記第1送信手段によって送信する、請求項1記載のロボット遠隔制御システム。   The robot remote control system according to claim 1, wherein the robot acquires the visual information by the omnidirectional visual sensor and transmits the visual information by the first transmission unit before controlling the operation by the control unit. . 前記ロボットは、身振りおよび音声の少なくとも一方を用いてコミュニケーションを図る機能を備えたコミュニケーションロボットを含む、請求項1または2記載のロボット遠隔制御システム。   The robot remote control system according to claim 1, wherein the robot includes a communication robot having a function of performing communication using at least one of gesture and voice. 前記全方位表示手段は全方位画像の表示される全面スクリーンを含み、
前記操作手段は前記全面スクリーンの内部空間に配置される、請求項1ないし3のいずれかに記載のロボット遠隔制御システム。
The omnidirectional display means includes a full screen on which an omnidirectional image is displayed,
The robot remote control system according to any one of claims 1 to 3, wherein the operation means is disposed in an internal space of the entire screen.
JP2004084536A 2004-03-23 2004-03-23 Robot remote control system Expired - Lifetime JP4517085B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004084536A JP4517085B2 (en) 2004-03-23 2004-03-23 Robot remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004084536A JP4517085B2 (en) 2004-03-23 2004-03-23 Robot remote control system

Publications (2)

Publication Number Publication Date
JP2005271094A true JP2005271094A (en) 2005-10-06
JP4517085B2 JP4517085B2 (en) 2010-08-04

Family

ID=35171281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004084536A Expired - Lifetime JP4517085B2 (en) 2004-03-23 2004-03-23 Robot remote control system

Country Status (1)

Country Link
JP (1) JP4517085B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160427A (en) * 2005-12-12 2007-06-28 Advanced Telecommunication Research Institute International Robot control system
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
JP2014506023A (en) * 2010-11-12 2014-03-06 クロスウイング・インコーポレーテッド Customizable robot system
CN107272725A (en) * 2017-08-08 2017-10-20 广州衍信息科技有限公司 Ball shape robot kinetic control system and motion control method with visual feedback
CN109278015A (en) * 2018-12-03 2019-01-29 仇国璘 A kind of industrial all-dimensional multi-angle robot
CN111736694A (en) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 Holographic presentation method, storage medium and system for teleconference

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160427A (en) * 2005-12-12 2007-06-28 Advanced Telecommunication Research Institute International Robot control system
JP5140889B2 (en) * 2006-08-10 2013-02-13 サンリツオートメイション株式会社 Image display method by fluctuation correction and moving object remote control system using the method
JP2014506023A (en) * 2010-11-12 2014-03-06 クロスウイング・インコーポレーテッド Customizable robot system
CN107272725A (en) * 2017-08-08 2017-10-20 广州衍信息科技有限公司 Ball shape robot kinetic control system and motion control method with visual feedback
CN107272725B (en) * 2017-08-08 2020-08-25 广州一衍信息科技有限公司 Spherical robot motion control system with visual feedback and motion control method
CN109278015A (en) * 2018-12-03 2019-01-29 仇国璘 A kind of industrial all-dimensional multi-angle robot
CN111736694A (en) * 2020-06-11 2020-10-02 上海境腾信息科技有限公司 Holographic presentation method, storage medium and system for teleconference

Also Published As

Publication number Publication date
JP4517085B2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
JP4822319B2 (en) Communication robot and attention control system using the same
JP4386367B2 (en) Communication robot improvement system
JP5186723B2 (en) Communication robot system and communication robot gaze control method
JP5033994B2 (en) Communication robot
JP6340301B2 (en) Head mounted display, portable information terminal, image processing apparatus, display control program, display control method, and display system
JP4639343B2 (en) Robot remote control system
WO2015180497A1 (en) Motion collection and feedback method and system based on stereoscopic vision
KR20110055062A (en) Robot system and method for controlling the same
JP2006272471A (en) Communication robot
JP4565196B2 (en) Communication robot
JP2007196300A (en) Robot control system
JP4962940B2 (en) Route guidance system
JP4517085B2 (en) Robot remote control system
JP2007160427A (en) Robot control system
JP2006205343A (en) Communication robot system, and robot control device
JP3942599B2 (en) Communication robot
JP2007130691A (en) Communication robot
JP4798581B2 (en) Robot system
JP2004042151A (en) Communication robot
JP7242448B2 (en) VIRTUAL REALITY CONTROL DEVICE, VIRTUAL REALITY CONTROL METHOD AND PROGRAM
JP2006263873A (en) Communication robot system and communication robot
JP6558764B2 (en) Telepresence robot
JP2004227276A (en) Human communication behavior recording system and method
JP2021180496A (en) Remote control system, remote work device, video processing device and program
US11518036B2 (en) Service providing system, service providing method and management apparatus for service providing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090220

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100315

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4517085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140528

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250