JP4558682B2 - Manipulator remote control method for mobile robot system - Google Patents

Manipulator remote control method for mobile robot system Download PDF

Info

Publication number
JP4558682B2
JP4558682B2 JP2006165836A JP2006165836A JP4558682B2 JP 4558682 B2 JP4558682 B2 JP 4558682B2 JP 2006165836 A JP2006165836 A JP 2006165836A JP 2006165836 A JP2006165836 A JP 2006165836A JP 4558682 B2 JP4558682 B2 JP 4558682B2
Authority
JP
Japan
Prior art keywords
manipulator
mobile robot
obstacle
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006165836A
Other languages
Japanese (ja)
Other versions
JP2007331061A (en
Inventor
充 高橋
一彦 日野
義之 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006165836A priority Critical patent/JP4558682B2/en
Publication of JP2007331061A publication Critical patent/JP2007331061A/en
Application granted granted Critical
Publication of JP4558682B2 publication Critical patent/JP4558682B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラと距離計測センサとを備えたマニピュレータを有する移動型ロボットシステムを操縦システムから遠隔操作するマニピュレータ遠隔操作方法に関し、特に障害物がカメラ画像内に映し出されるようにマニピュレータを遠隔操作して該障害物の3次元形状について距離計測センサを用いて計測する移動型ロボットシステムにおけるマニピュレータ遠隔操作方法に関する。   The present invention relates to a manipulator remote operation method for remotely operating a mobile robot system having a manipulator having a camera and a distance measurement sensor from a control system, and in particular, remotely operating the manipulator so that an obstacle is displayed in a camera image. The present invention relates to a manipulator remote control method in a mobile robot system that measures a three-dimensional shape of the obstacle using a distance measurement sensor.

マニピュレータとは、人間の腕を模擬した多関節を有する機械である。あらかじめ動作内容をマニピュレータまたはマニピュレータに接続されたコンピュータに記憶させておくことで、決められた動作を行うことができる。精密な作業を高速で繰り返し行うことができるので、工場など生産ラインの現場などで利用されている。また、医療分野においては、医師がマニピュレータを遠隔操作し、手術などを行う利用方法もある。   A manipulator is a machine having a multi-joint that simulates a human arm. By storing the operation content in advance in a manipulator or a computer connected to the manipulator, a predetermined operation can be performed. Because it can repeat precise work at high speed, it is used in production lines such as factories. In the medical field, there is also a utilization method in which a doctor remotely operates a manipulator to perform an operation or the like.

人が近づけない場所へロボットを移動させ、マニピュレータを遠隔操作することで、本来人間に及ぶ危険を未然に回避するといった利用法が提案されている。   There has been proposed a usage method in which a robot is moved to a place where a person cannot approach and a manipulator is remotely controlled to avoid dangers inherent to humans.

遠隔操作を行う場合、オペレータはマニピュレータが見える位置にいるか、またはロボットの有するカメラから映し出される画像や映像を見ながら操作することになる。例えば、ロボットに装着されたセンサが走行中に障害となる物体を検知したときに、オペレータはカメラ画像を見て障害物を判断する。このとき、カメラ画像を元にロボットに障害物の除去や回避などの行動を指示することができる。   When performing a remote operation, the operator is operating at a position where the manipulator can be seen or while viewing an image or video projected from the camera of the robot. For example, when a sensor attached to the robot detects an object that becomes an obstacle during traveling, the operator looks at the camera image and determines an obstacle. At this time, it is possible to instruct the robot to take an action such as removing or avoiding an obstacle based on the camera image.

しかし、オペレータがカメラ画像から障害物を正確に確認できない場合がある。カメラ画像はあくまで二次元表示であるため距離感が分りづらく、また立体的形状を把握することが難しい。そこで、カメラ画像に映し出された基準となる物体の大きさから他の物体の大きさを推定するか、ロボットにレーザレーダセンサなどの距離計測装置を搭載し、障害物の大きさを測定する方法が用いられている。   However, the operator may not be able to accurately confirm the obstacle from the camera image. Since the camera image is a two-dimensional display to the last, it is difficult to understand the sense of distance, and it is difficult to grasp the three-dimensional shape. Therefore, a method of estimating the size of an obstacle by estimating the size of another object from the size of the reference object displayed in the camera image or mounting a distance measuring device such as a laser radar sensor on the robot Is used.

特許文献1(特開2004−257927号公報)は、遠隔操作によって物体の3次元形状を計測できる装置について記載している。この方法では、マニピュレータ先端部に3次元形状計測装置を備え、測定装置を所望の位置に移動させて、所望位置から測定対象物の3次元形状を計測できる。   Japanese Patent Application Laid-Open No. 2004-257927 describes an apparatus that can measure the three-dimensional shape of an object by remote control. In this method, a three-dimensional shape measuring device is provided at the tip of the manipulator, and the three-dimensional shape of the measurement object can be measured from the desired position by moving the measuring device to the desired position.

特許文献2(特開2002−84531号公報)では、ロボットにカメラを取り付けて、遠隔操縦可能な移動型ロボットシステムを実現している。この方法では、オペレータは遠隔地点の情報についてカメラ画像を通じて取得できる。   In Patent Document 2 (Japanese Patent Laid-Open No. 2002-84531), a mobile robot system capable of remote control is realized by attaching a camera to a robot. In this method, the operator can acquire information on a remote location through a camera image.

特許文献3(特開2003−256025号公報)には、目的作業の要件から決まる幾何要素間の空間的な拘束を含んだ形式で軌道などの幾何要素を予めパラメトリックモデリング手法によって定義し、ライブラリ化及びメニュー化しておくことで、実際の教示段階では少ないステップで様々な拘束条件を設定できるようにしたロボット動作教示技術が記載されている。   In Patent Document 3 (Japanese Patent Application Laid-Open No. 2003-256025), a geometric element such as a trajectory is defined in advance by a parametric modeling method in a form including spatial constraints between geometric elements determined from the requirements of the target work, and is made into a library. In addition, a robot motion teaching technique is described in which various constraint conditions can be set with fewer steps in the actual teaching stage by creating a menu.

特開2004−257927号公報JP 2004-257927 A 特開2002−84531号公報JP 2002-84531 A 特開2003−256025号公報Japanese Patent Laid-Open No. 2003-256025

従来のロボットシステムでは、単純にカメラを備えて画像を取得したり、非移動型ロボットのマニピュレータにカメラや3次元形状計測装置を個別に備えたりするのみである。このため、離れた地点でロボット本体を移動させた後にカメラ画像を取得し、同時に障害物の3次元形状を把握することは難しい。また、3次元形状を把握したのちにロボットの自己位置と障害物との位置関係を視覚的に把握することも難しい。   In a conventional robot system, a camera is simply provided to acquire an image, or a camera and a three-dimensional shape measuring device are individually provided in a manipulator of a non-moving robot. For this reason, it is difficult to acquire a camera image after moving the robot body at a remote point and simultaneously grasp the three-dimensional shape of the obstacle. It is also difficult to visually grasp the positional relationship between the robot's own position and the obstacle after grasping the three-dimensional shape.

本発明の目的は、上記課題を解決すべく、移動型ロボットシステムにおいて、マニピュレータに設置した距離計測装置を用いて、障害物の3次元形状や大きさをオペレータが視認できるようにして、遠隔ロボット操作による障害物の除去や回避行動が行えるようにした移動型ロボットシステムにおけるマニピュレータ遠隔操作方法を提供することにある。   In order to solve the above problems, an object of the present invention is to enable a remote robot to make it possible for an operator to visually recognize the three-dimensional shape and size of an obstacle using a distance measuring device installed in a manipulator in a mobile robot system. An object is to provide a manipulator remote control method in a mobile robot system that can perform obstacle removal and avoidance behavior by operation.

上記目的を達成するために、本発明は、カメラと距離計測装置を備えたマニピュレータを設置した移動型ロボットシステムと、入力装置と表示装置とを備えた操縦システムとの間を通信により送受信できるように構成し、前記移動型ロボットシステムの前記マニピュレータを前記操縦システムから前記通信を用いて遠隔操作する方法であって、前記カメラで撮像したカメラ画像(平面的な濃淡画像又はカラー画像)の情報を前記移動型ロボットシステムから前記操縦システムに送信して前記カメラ画像を前記表示装置に表示する第1の表示過程と、該第1の表示過程で前記表示装置に表示されたカメラ画像を見ながら少なくとも障害物が前記カメラ画像内に映し出されるように、前記入力装置に入力された操作指示を前記操縦システムから前記通信によって前記移動型ロボットシステムに送信して前記マニピュレータを遠隔操作する操作過程と、該操作過程での前記マニピュレータの遠隔操作によって前記表示装置に表示されたカメラ画像内に映し出された少なくとも障害物についての3次元形状を前記距離計測装置により計測する計測過程とを有することを特徴とする。   In order to achieve the above-mentioned object, the present invention enables communication between a mobile robot system having a manipulator having a camera and a distance measuring device and a control system having an input device and a display device by communication. Configured to remotely control the manipulator of the mobile robot system from the control system using the communication, and information on a camera image (planar grayscale image or color image) captured by the camera. A first display step of transmitting the mobile robot system to the control system and displaying the camera image on the display device, and at least while viewing the camera image displayed on the display device in the first display step An operation instruction input to the input device is forwarded from the steering system so that an obstacle is projected in the camera image. An operation process that is transmitted to the mobile robot system by communication to remotely operate the manipulator, and at least an obstacle displayed in the camera image displayed on the display device by the remote operation of the manipulator in the operation process And a measuring process for measuring the three-dimensional shape of the distance by the distance measuring device.

また、本発明は、更に、前記計測過程で計測した少なくとも障害物についての3次元形状の情報を前記移動型ロボットシステムから前記操縦システムに送信して前記障害物についての3次元形状(立体画像)を前記表示装置に表示する第2の表示過程を有することを特徴とする。   Further, the present invention further transmits three-dimensional shape information about at least an obstacle measured in the measurement process from the mobile robot system to the control system, thereby obtaining a three-dimensional shape (stereoscopic image) about the obstacle. It has the 2nd display process which displays on the said display apparatus, It is characterized by the above-mentioned.

また、本発明は、前記第2の表示過程において、前記表示装置に表示する前記障害物についての3次元形状(立体画像)に対して、前記第1の表示過程で前記表示装置に表示するカメラ画像(平面的な濃淡画像又はカラー画像)を重ねて表示することを特徴とする。   Further, the present invention provides a camera that displays a three-dimensional shape (stereoscopic image) about the obstacle displayed on the display device in the second display process on the display device in the first display process. An image (planar gray image or color image) is superimposed and displayed.

また、本発明は、前記第2の表示過程において、更に、前記移動型ロボットシステムにおける前記マニピュレータを含む移動型ロボット本体の3次元形状(立体画像)を重ねて表示することを特徴とする。   Further, the present invention is characterized in that, in the second display step, the three-dimensional shape (stereoscopic image) of the mobile robot body including the manipulator in the mobile robot system is displayed in an overlapping manner.

即ち、本発明は、カメラ画像を基に移動型ロボットの障害物となる物体を発見したとき、操作指示によりマニピュレータを移動させてカメラの角度を変え、所望の角度で取得されるカメラ画像で障害物を確認し、該確認された障害物までの距離を距離計測装置によって計測する。このとき、距離計測装置にはカメラ画像で映し出される物体を計測できるように計測範囲をプログラムしておく。さらに、マニピュレータの各関節軸回転角度はセンサ(エンコーダ)によって既知であるため、距離計測装置から障害物までの直線距離L、水平方向角度α、奥行方向角度βが測定できる。そして、計測した距離と角度に三角関数を用いることによって、距離計測装置と対象物までの水平方向及び奥行方向の距離を求めることができる。すなわち、3次元における距離計測装置と障害物との位置関係が求まることになり、障害物の形状を立体的に表現することができる。さらに、マニピュレータは移動できるため、障害物に対して複数の角度から立体的形状を把握することができる。   That is, according to the present invention, when an object that becomes an obstacle of a mobile robot is found based on the camera image, the manipulator is moved by an operation instruction to change the angle of the camera, and the obstacle is detected by the camera image acquired at a desired angle. An object is confirmed, and the distance to the confirmed obstacle is measured by a distance measuring device. At this time, the measurement range is programmed in the distance measurement device so that an object projected by the camera image can be measured. Furthermore, since each joint axis rotation angle of the manipulator is known by the sensor (encoder), the linear distance L from the distance measuring device to the obstacle, the horizontal direction angle α, and the depth direction angle β can be measured. Then, by using a trigonometric function for the measured distance and angle, the distance in the horizontal direction and the depth direction between the distance measuring device and the object can be obtained. That is, the positional relationship between the three-dimensional distance measuring device and the obstacle is obtained, and the shape of the obstacle can be expressed in three dimensions. Furthermore, since the manipulator can move, the three-dimensional shape can be grasped from a plurality of angles with respect to the obstacle.

また、本発明は、求まった立体的形状(立体画像)とカメラ画像(平面的な濃淡画像又はカラー画像)を重ね合わせることにより、障害物の表面模様とその立体的形状を同時に把握することができる。   In addition, the present invention can simultaneously grasp the surface pattern of an obstacle and its three-dimensional shape by superimposing the obtained three-dimensional shape (three-dimensional image) and a camera image (planar grayscale image or color image). it can.

また、本発明は、移動型ロボットシステムの本体の3次元形状(立体画像)を加えることで、オペレータは障害物との位置関係を明確に把握することが可能である。   Further, according to the present invention, by adding the three-dimensional shape (stereoscopic image) of the main body of the mobile robot system, the operator can clearly grasp the positional relationship with the obstacle.

本発明によれば、遠隔操作可能な移動型ロボットシステムのマニピュレータを操縦システムにより操作し、所望の角度でカメラ画像を見ながら障害物や調査対象物の表面画像と距離計測装置による3次元形状を把握することができるため、人が近づけないような危険地帯においても遠隔からロボット操作によって、人間に及ぶ危険を回避しながら安全に現地の詳細な3次元情報を収集することが可能となる。   According to the present invention, a manipulator of a mobile robot system that can be remotely operated is operated by a steering system, and a surface image of an obstacle or an object to be investigated and a three-dimensional shape by a distance measuring device are viewed while viewing a camera image at a desired angle. Since it can be grasped, it is possible to safely collect detailed three-dimensional information on the site while avoiding danger to human beings by remotely operating a robot even in a dangerous zone where people cannot approach.

本発明に係る移動型ロボットシステム及び移動型ロボットシステムにおけるマニピュレータ遠隔操作方法の実施の形態について図面を用いて詳細に説明する。   Embodiments of a mobile robot system and a manipulator remote control method in the mobile robot system according to the present invention will be described in detail with reference to the drawings.

図1は本発明に係る移動型ロボットシステムの一実施の形態を示す図であって、本発明に係る移動型ロボットシステムは、遠隔ロボット操作可能な操縦システム20とロボット本体システム1とから構成される。操縦システム20は、遠隔地から通信を使用して移動型(走行)ロボット本体5を操作可能に構成され、移動型ロボット本体5に備えられたマニピュレータ9やカメラ13及び距離計測装置10等を、通信装置27、8を介して制御可能である。マニピュレータ9は、例えば、肩部9d、上腕9a、前腕9b及び手首9c等を備えて構成される。オペレータ25は、遠隔地から操縦システム20を通じて移動型ロボット本体5の操縦を行い、移動型ロボット本体5から情報を受け取る。   FIG. 1 is a diagram showing an embodiment of a mobile robot system according to the present invention. The mobile robot system according to the present invention comprises a control system 20 capable of operating a remote robot and a robot body system 1. The The control system 20 is configured to be able to operate the mobile (running) robot body 5 using communication from a remote location. The manipulator 9, the camera 13, the distance measuring device 10, and the like provided in the mobile robot body 5 are Control is possible via the communication devices 27 and 8. The manipulator 9 includes, for example, a shoulder portion 9d, an upper arm 9a, a forearm 9b, a wrist 9c, and the like. The operator 25 controls the mobile robot body 5 from a remote location through the control system 20 and receives information from the mobile robot body 5.

操縦システム20は、オペレータ25が遠隔地から画像表示装置23に映し出されるカメラ画像を基にして、入力装置22を用いて移動型ロボット本体5を移動させたり、マニピュレータ9を構成する各関節軸の角度を与えることで距離計測装置10及びカメラ13を搭載したマニピュレータ9の位置を移動させたり、具体的なマニピュレータ9を含めたロボット本体5に関する操作指示を行う。指示処理装置21は、入力装置22で入力されたオペレータ25の操作情報28を受け取り、通信用操作データに変換すると共に、該変換された操作データを通信装置27からロボット本体システム1の通信装置8に送信することになる。   In the control system 20, the operator 25 moves the mobile robot body 5 using the input device 22 on the basis of the camera image displayed on the image display device 23 from a remote place, and each joint axis constituting the manipulator 9. By giving an angle, the position of the manipulator 9 on which the distance measuring device 10 and the camera 13 are mounted is moved, or an operation instruction regarding the robot body 5 including the specific manipulator 9 is given. The instruction processing device 21 receives the operation information 28 of the operator 25 input by the input device 22 and converts it into communication operation data, and the converted operation data is transmitted from the communication device 27 to the communication device 8 of the robot body system 1. Will be sent to.

ロボット本体システム1は、操縦システム側と通信を行う通信装置8と、ロボット側へ送信された操作データを基に、移動型(走行)ロボット本体5の走行も含めてマニピュレータ9並びに該マニピュレータ9に搭載された距離計測装置10やカメラ13を動作させるための駆動制御データを生成すると共に距離計測装置10で計測される距離データを基にマニピュレータ9の座標系(カメラ座標系)での例えば障害物30の3次元立体形状を算出する信号処理装置11と、カメラ13から撮像したカメラ画像データを取得し、該取得されたカメラ画像データを通信用カメラ画像データに変換する画像処理装置12とを備えて構成される。信号処理装置11は、さらに移動型ロボット本体5の各種装置(例えばエンコーダ)からの一部フィードバック情報も受けて上記駆動制御データを生成することになる。そして、画像処理装置12で変換された通信用カメラ画像データや信号処理装置11で生成したロボット本体の動作情報は、通信装置8を介して操縦システム側の通信装置27に送信され、指示処理装置21から画像情報29として画像表示装置23に表示されてオペレータ25へ伝えられることになる。その結果、遠隔地から入力装置22を用いて操作情報28を入力することによって、移動型ロボット本体5として障害になる障害物30の外形情報(カメラ画像)が画像表示装置23に表示されて得られるように、マニピュレータ9やカメラ13の角度を操作することが可能となる。   The robot body system 1 includes a communication device 8 that communicates with the maneuvering system side, and operation data transmitted to the robot side, the manipulator 9 including the travel of the mobile robot body 5 and the manipulator 9. For example, an obstacle in the coordinate system (camera coordinate system) of the manipulator 9 based on the distance data measured by the distance measuring device 10 while generating drive control data for operating the mounted distance measuring device 10 and the camera 13. A signal processing device 11 that calculates 30 three-dimensional solid shapes, and an image processing device 12 that acquires camera image data captured from the camera 13 and converts the acquired camera image data into communication camera image data. Configured. The signal processing device 11 also receives partial feedback information from various devices (for example, an encoder) of the mobile robot body 5 and generates the drive control data. Then, the communication camera image data converted by the image processing device 12 and the operation information of the robot body generated by the signal processing device 11 are transmitted to the communication device 27 on the steering system side via the communication device 8, and the instruction processing device. 21 is displayed on the image display device 23 as image information 29 and is transmitted to the operator 25. As a result, by inputting the operation information 28 from the remote place using the input device 22, external information (camera image) of the obstacle 30 that becomes an obstacle as the mobile robot body 5 is displayed on the image display device 23. As can be seen, the angles of the manipulator 9 and the camera 13 can be manipulated.

即ち、本発明は、障害物30などの対象物体までの距離を計測することが可能な距離計測装置10を搭載したマニピュレータ9を有する移動型ロボット本体5において、マニピュレータ9に装着されたカメラ13からのカメラ画像(平面的な濃淡画像又はカラー画像)を基にしてマニピュレータ9を移動させ、マニピュレータ9に設置した距離計測装置10を用いてカメラ画像内に映し出された障害物30までの距離を計測することにより少なくとも障害物30等の3次元立体形状を取得することにある。   That is, the present invention relates to a mobile robot body 5 having a manipulator 9 equipped with a distance measuring device 10 capable of measuring a distance to a target object such as an obstacle 30 from a camera 13 attached to the manipulator 9. The manipulator 9 is moved based on the camera image (planar grayscale image or color image), and the distance to the obstacle 30 displayed in the camera image is measured using the distance measuring device 10 installed in the manipulator 9. This is to acquire at least a three-dimensional solid shape such as the obstacle 30.

ところで、距離計測装置10は、その正面側に位置する障害物等の対象物体の3次元表面形状を、レーザ光を用いて3角測量法に従って自身の座標系(x,y,z)で計測すると共に、該計測した対象物体の3次元形状を表す情報を出力して信号処理装置11に送信するように構成される。即ち、距離計測装置10は、レーザ光源(図示せず)から対象物体に向けて出射されるレーザ光の進行方向にほぼ垂直な仮想平面を想定すると共に、該仮想平面上にて互に直交するx軸方向及びy軸方向に沿って分割した多数の微小エリアを想定する。そして、距離計測装置10は、上記多数の微小エリアにレーザ光を順次照射し、対象物体からの反射光によって上記微小エリアを規定する対象物体の表面までの距離をz軸方向距離として順次検出し、対象物体の表面を微小エリアに分割した各分割エリア位置を表わすx,y,z座標に関する情報(データ)を得て距離計測装置に面した対象物体の表面形状を計測するものである。従って、距離計測装置10は、出射レーザ光の向きをx軸方向に変化させるx軸方向走査器(偏向器)(図示せず)と、出射レーザ光の向きをy軸方向に変化させるy軸方向走査器(偏向器)(図示せず)と、対象物体の表面から反射された反射レーザ光を受光して対象物体の表面までの距離を検出する距離検出器(図示せず)とを備えて構成される。距離検出器としては、出射レーザ光の光路に追従して回転し、対象物体の表面にて反射された反射レーザ光を集光する結像レンズ及び該集光したレーザ光を受光するCCDなどの複数の受光素子を一列に配列したラインセンサからなり、ラインセンサによる反射光の受光位置によって対象物体の表面までの距離を検出できるように構成される。   By the way, the distance measuring device 10 measures the three-dimensional surface shape of a target object such as an obstacle located on the front side thereof with its own coordinate system (x, y, z) using a laser beam according to a triangulation method. At the same time, information representing the three-dimensional shape of the measured target object is output and transmitted to the signal processing device 11. That is, the distance measuring device 10 assumes a virtual plane substantially perpendicular to the traveling direction of laser light emitted from a laser light source (not shown) toward the target object, and is orthogonal to each other on the virtual plane. A large number of minute areas divided along the x-axis direction and the y-axis direction are assumed. Then, the distance measuring device 10 sequentially irradiates the plurality of minute areas with laser light, and sequentially detects the distance to the surface of the target object that defines the minute area by reflected light from the target object as the z-axis direction distance. The surface shape of the target object facing the distance measuring device is obtained by obtaining information (data) relating to the x, y, z coordinates representing the divided area positions obtained by dividing the surface of the target object into minute areas. Accordingly, the distance measuring device 10 includes an x-axis direction scanner (deflector) (not shown) that changes the direction of the outgoing laser light in the x-axis direction, and a y-axis that changes the direction of the outgoing laser light in the y-axis direction. A direction scanner (deflector) (not shown) and a distance detector (not shown) that receives a reflected laser beam reflected from the surface of the target object and detects a distance to the surface of the target object. Configured. As a distance detector, an imaging lens that rotates following the optical path of the outgoing laser beam and collects the reflected laser beam reflected on the surface of the target object, and a CCD that receives the collected laser beam, etc. It consists of a line sensor in which a plurality of light receiving elements are arranged in a line, and is configured such that the distance to the surface of the target object can be detected by the light receiving position of the reflected light by the line sensor.

次に、本発明に係るロボットシステム全体の処理の流れについて図2に示すフローチャートを用いて説明する。まず、オペレータ25は入力装置22を用いて遠隔地にある操縦システム20から、ロボット本体システム1の移動型ロボット本体5に対してカメラ画像の取得を指示する(S1)。カメラ13は常に最新の画像を取得し続けるものとして、その後、特に画像取得の指示を行う必要はない。オペレータ25が入力装置22を用いて画像取得を指示すると、該指示は操作情報28として指示処理装置21へ送信される。指示処理装置21は、操作情報28を通信形式の操作データに変換する。通常、通信情報量を削減するために指示処理装置21にて情報の圧縮変換を行う。データを圧縮変換後、指示処理装置21に具備された通信装置27にデータが送信される。操縦システム20の通信装置27は、離れた地点にある移動型ロボット本体5に具備された通信装置8に対して情報を伝送する。このときの通信方式は、代表的には無線LANなどが挙げられるが、これに限定するものではない。   Next, the processing flow of the entire robot system according to the present invention will be described with reference to the flowchart shown in FIG. First, the operator 25 instructs the mobile robot body 5 of the robot body system 1 to acquire a camera image from the remote control system 20 using the input device 22 (S1). Since the camera 13 continues to acquire the latest image, it is not necessary to give an instruction to acquire an image. When the operator 25 instructs image acquisition using the input device 22, the instruction is transmitted as operation information 28 to the instruction processing device 21. The instruction processing device 21 converts the operation information 28 into communication-type operation data. Usually, in order to reduce the amount of communication information, the instruction processing device 21 performs compression conversion of information. After compressing and converting the data, the data is transmitted to the communication device 27 included in the instruction processing device 21. The communication device 27 of the control system 20 transmits information to the communication device 8 provided in the mobile robot body 5 at a remote point. A typical communication method at this time is a wireless LAN or the like, but is not limited thereto.

移動型ロボット本体5の通信装置8はデータ受信後、連結されている信号処理装置11へデータを送る。信号処理装置11は、圧縮されたデータを解凍した後、指示対象の移動型ロボット本体5が動作できるようなデータに変換して移動型ロボット本体へ送信する。例えば、カメラ13に画像取得指示を行う場合には、カメラ13に対して取得指示が出され、カメラ13は画像取得を実行する。取得した画像は画像処理装置12へ送信され、圧縮などの変換が行われる。一般的に画像データの場合、操作情報に比べるとファイルサイズは大きなものとなる。さらに、画像取得頻度が時間当たりで多くなるよう設定すれば、通信量は膨大となる。従って、画像処理装置12を信号処理装置11とは別で利用することで、信号処理装置11へかかる負荷を減らしている。ただし、画像ファイルサイズが非常に小さく、取得頻度も少ない場合、この限りではない。   After receiving the data, the communication device 8 of the mobile robot body 5 sends the data to the connected signal processing device 11. After decompressing the compressed data, the signal processing device 11 converts the data into data that allows the mobile robot body 5 to be designated to operate, and transmits the data to the mobile robot body. For example, when an image acquisition instruction is given to the camera 13, an acquisition instruction is issued to the camera 13, and the camera 13 executes image acquisition. The acquired image is transmitted to the image processing apparatus 12, and conversion such as compression is performed. In general, in the case of image data, the file size is larger than the operation information. Further, if the image acquisition frequency is set to increase per time, the communication amount becomes enormous. Therefore, by using the image processing device 12 separately from the signal processing device 11, the load on the signal processing device 11 is reduced. However, this is not the case when the image file size is very small and the acquisition frequency is low.

カメラ13で取得された画像データは画像処理装置12で圧縮後、移動型ロボット本体5の通信装置8へ送信されて、操縦システム側の通信装置27へ転送される。指示処理装置21は圧縮された画像データを解凍し、画像情報29として画像表示装置23に表示する(S2)。   The image data acquired by the camera 13 is compressed by the image processing device 12, transmitted to the communication device 8 of the mobile robot body 5, and transferred to the communication device 27 on the steering system side. The instruction processing device 21 decompresses the compressed image data and displays it as image information 29 on the image display device 23 (S2).

以上の処理の流れから、オペレータ25は画像表示装置23によりカメラ画像を観測することができる。このとき、カメラ画像のほかにカメラのステータス情報、例えばカメラ13のパン・チルト/ズームなどの各数値が移動型ロボット本体5から送信されていれば、この情報もオペレータは確認することができる。ロボット本体及び具備された各装置をオペレータが操作し、取得した情報をフィードバックさせてオペレータが確認できる手順は同様の処理の流れとなる。これ以降、同様のデータフローについては省略する。   From the above processing flow, the operator 25 can observe the camera image by the image display device 23. At this time, in addition to the camera image, if the camera status information, for example, each numerical value such as pan / tilt / zoom of the camera 13 is transmitted from the mobile robot body 5, the operator can also confirm this information. A procedure in which the operator operates the robot body and each of the devices provided and feeds back the acquired information so that the operator can confirm is the same processing flow. Hereinafter, the same data flow is omitted.

次に、カメラ画像表示後、距離計測装置10のキャリブレーションを行う(S3)。図3にはキャリブレーション開始(S31)からのフローを示す。キャリブレーションでは、距離計測装置10が例えば障害物30の3次元情報を計測する際の基本的な設定を行う。カメラ13の水平方向視野角は既知であり、この視野角を距離計測装置10の水平方向角度の最大値に割付けることで、距離計測装置10での水平方向の3次元形状計測範囲が定まる(S32)。次に、同様にカメラ13の高さ−奥行方向(仰方向)視野角を距離計測装置10の高さ方向角度の最大値に割付ける(S33)。距離計測の範囲を決定した後、計測座標(微小エリア)の数を設定する。ここでは、水平方向座標数をm、高さ方向座標数をnとして、計測座標数はn×m点となる(S34)。nおよびmは、利用する距離計測装置に依存する場合もあるが、計測座標数が多いほど詳細な3次元形状を計測することができる。オペレータが座標数を指定するか、あらかじめ設定した値を読み込む。   Next, after displaying the camera image, the distance measuring device 10 is calibrated (S3). FIG. 3 shows a flow from the start of calibration (S31). In the calibration, the distance measurement device 10 performs basic settings when measuring the three-dimensional information of the obstacle 30, for example. The horizontal viewing angle of the camera 13 is known, and the horizontal three-dimensional shape measurement range in the distance measuring device 10 is determined by assigning this viewing angle to the maximum horizontal angle of the distance measuring device 10 ( S32). Next, similarly, the height-depth direction (elevation direction) viewing angle of the camera 13 is assigned to the maximum value of the height direction angle of the distance measuring device 10 (S33). After determining the range of distance measurement, the number of measurement coordinates (small area) is set. Here, m is the number of horizontal coordinates, and n is the number of height direction coordinates, and the number of measurement coordinates is n × m points (S34). Although n and m may depend on the distance measuring device to be used, a more detailed three-dimensional shape can be measured as the number of measurement coordinates increases. The operator specifies the number of coordinates or reads a preset value.

キャリブレーション後、オペレータ25は画像表示装置23に映し出された画像を見ながら、入力装置22にてマニピュレータ9及びカメラ13の角度を変更する(S4)。マニピュレータ9は複数の関節軸を備え、関節軸に対して角度を指定すればその角度へ移動する。カメラ13については、パン・チルト/ズーム機能を備えたものを利用すれば、オペレータは入力装置22からカメラ13の角度を変更可能となる。ただし、カメラ13の角度を変更した場合、キャリブレーションをやり直す必要がある。その場合は、距離計測装置10の計測範囲について、カメラ13の角度変更分を加算すればよい。   After the calibration, the operator 25 changes the angles of the manipulator 9 and the camera 13 with the input device 22 while viewing the image displayed on the image display device 23 (S4). The manipulator 9 has a plurality of joint axes, and if an angle is designated with respect to the joint axes, the manipulator 9 moves to that angle. If a camera having a pan / tilt / zoom function is used as the camera 13, the operator can change the angle of the camera 13 from the input device 22. However, when the angle of the camera 13 is changed, it is necessary to perform calibration again. In that case, the angle change of the camera 13 may be added to the measurement range of the distance measuring device 10.

この後、距離計測装置10に対して距離計測を指示すれば(S5)、3次元形状の計測が開始される(S51)。距離計測のフローを図4に示す。まず、距離計測装置10は、カメラ画像の範囲内において、障害物30の表面の座標までの距離Lと、マニピュレータ9のエンコーダから検出される各関節軸の角度から水平−奥行方向の角度αを計測する(S6)。計測される二つの値L,αについては、同時に得られるものとする。次に、これら値L,αと、マニピュレータ9のエンコーダから得られる高さ−奥行方向の角度βを基に、障害物30の表面座標(x,y,z)を計算する(S7)。   Thereafter, when the distance measurement device 10 is instructed to measure distance (S5), measurement of a three-dimensional shape is started (S51). The distance measurement flow is shown in FIG. First, the distance measuring device 10 calculates the angle α in the horizontal-depth direction from the distance L to the coordinates of the surface of the obstacle 30 and the angle of each joint axis detected from the encoder of the manipulator 9 within the range of the camera image. Measure (S6). The two values L and α to be measured are obtained simultaneously. Next, the surface coordinates (x, y, z) of the obstacle 30 are calculated based on these values L, α and the height-depth angle β obtained from the encoder of the manipulator 9 (S7).

座標の計算フローを図5に示す。図5では、座標計算を開始すると(S71)、図7に示すように距離計測装置10によって計測される障害物30までの直線距離L(F5)と、マニピュレータ9のエンコーダから得られる角度α(F3)を用いて、三角関数によって水平方向の座標x=−Lcosαを計算する(S72)。座標xの値は、距離計測装置10の計測結果から求めることができる。次に、マニピュレータ9のエンコーダから得られる角度β(F4)を用いて高さ方向の座標y=−Lcos(90°−α)cosβを求める(S73)。さらに、直線距離Lと角度βから、奥行方向の座標z=Lcos(90°−α)sinβを求める(S74)。βはマニピュレータ9の各関節軸の角度から既知である。例えば、信号処理装置11はこれら計算結果として、障害物30の表面の座標である(x,y,z)をロボット本体5に設けられた記憶装置(図示せず)に保存する(S75)。以上より、ロボット本体システム1のロボット本体5は障害物30の座標を求め、記憶装置(図示せず)に記憶することができる。このときのイメージを図7に示す。9はマニピュレータで、その上に距離計測装置10を具備し、x−L平面上での水平軸とLのなす角度αをF3、y−z平面上での高さ方向軸とLのなす角度βをF4、直線距離をF5、障害物を30、障害物表面の座標(x,y,z)をF7、カメラを13、障害物30までの距離Lをy−z平面に投影させたときの距離をA(F9)で示す。   The coordinate calculation flow is shown in FIG. In FIG. 5, when the coordinate calculation is started (S71), as shown in FIG. 7, the linear distance L (F5) to the obstacle 30 measured by the distance measuring device 10 and the angle α (from the encoder of the manipulator 9) Using F3), the horizontal coordinate x = −Lcosα is calculated by a trigonometric function (S72). The value of the coordinate x can be obtained from the measurement result of the distance measuring device 10. Next, using the angle β (F4) obtained from the encoder of the manipulator 9, the height coordinate y = −Lcos (90 ° −α) cosβ is obtained (S73). Further, the coordinate z = Lcos (90 ° −α) sinβ in the depth direction is obtained from the straight line distance L and the angle β (S74). β is known from the angle of each joint axis of the manipulator 9. For example, the signal processing device 11 stores (x, y, z), which are the coordinates of the surface of the obstacle 30, as a result of these calculations in a storage device (not shown) provided in the robot body 5 (S75). From the above, the robot body 5 of the robot body system 1 can obtain the coordinates of the obstacle 30 and store them in the storage device (not shown). An image at this time is shown in FIG. Reference numeral 9 denotes a manipulator having a distance measuring device 10 thereon. An angle α formed by the horizontal axis and L on the xL plane is defined as F3, and an angle formed by L and the height direction axis on the yz plane. When β is F4, the linear distance is F5, the obstacle is 30, the obstacle surface coordinates (x, y, z) are F7, the camera is 13, and the distance L to the obstacle 30 is projected onto the yz plane. Is indicated by A (F9).

図4に示すように、ステップS7の後、例えばロボット本体5の信号処理装置11は座標を逐次計算して障害物30の表面全体の形状を求める。障害物30に対して、例えばx軸方向走査器(偏向器)を用いて水平方向に距離計測の対象座標を移動させる(S76)。具体的には、例えばx軸方向走査器(偏向器)を用いて距離計測装置10の放射する計測レーザ光の照射角度を変更する。水平方向の終端まで距離計測を行った後、例えばy軸方向走査器(偏向器)を用いて障害物30に対して高さ方向に距離計測の対象座標を移動させる(S77)。また、これは、マニピュレータ9の角度を高さ方向に動かすことでも実現することは可能である。あとは、高さ方向の終端まで同様の計測を繰り返す(S78)。   As shown in FIG. 4, after step S <b> 7, for example, the signal processing device 11 of the robot body 5 sequentially calculates coordinates to obtain the shape of the entire surface of the obstacle 30. For example, an x-axis direction scanner (deflector) is used to move the distance measurement target coordinates with respect to the obstacle 30 (S76). Specifically, for example, the irradiation angle of the measurement laser light emitted from the distance measuring device 10 is changed using an x-axis direction scanner (deflector). After measuring the distance to the end in the horizontal direction, for example, the y-axis direction scanner (deflector) is used to move the distance measurement target coordinate in the height direction with respect to the obstacle 30 (S77). This can also be realized by moving the angle of the manipulator 9 in the height direction. After that, the same measurement is repeated until the end in the height direction (S78).

以上、ロボット本体5の例えば信号処理装置11で求まった障害物30の表面座標(x,y,z)の集合を、ロボット本体システム1から通信装置8及び27を介して操縦システム20の指示処理装置21に送信することによって、画像表示装置23に障害物30の3次元の形状を表示することができる(S8)。なお、形状表示には、求まった3次元座標点同士を面として捉えるモデリング技法であるサーフェスモデルなどを利用することで視覚効果を高めることもできる。   As described above, the set of the surface coordinates (x, y, z) of the obstacle 30 obtained by, for example, the signal processing device 11 of the robot main body 5 is processed from the robot main body system 1 through the communication devices 8 and 27 to the instruction processing of the control system 20. By transmitting to the device 21, the three-dimensional shape of the obstacle 30 can be displayed on the image display device 23 (S8). For the shape display, the visual effect can be enhanced by using a surface model that is a modeling technique for capturing the obtained three-dimensional coordinate points as a surface.

さらに、画像表示装置23に障害物と移動型ロボット本体との相対関係を3次元で表示することで、オペレータの操作性が向上する(S9)。図8(c)に示すような移動型ロボット本体5についての3次元画像82については、モデリングソフトなどを用いて、予め移動型ロボット本体5の形状を作成し、ロボット本体システム1に設けられた記憶装置(図示せず)又は操縦システム20に設けられた記憶装置(図示せず)に記憶しておく。また、図8(c)に示すようなマニピュレータ9の座標と障害物30との相対位置は、マニピュレータ9と距離計測装置10との相対的位置関係が決まっているので、距離計測装置10を用いて計測される距離L、並びにマニピュレータ9のエンコーダから検出される水平−奥行方向の角度α、高さ−奥行方向の角度βを基に把握することが可能となる。また、マニピュレータ9の各関節軸はセンサ(エンコーダ)により既知であるため、移動型ロボット本体5の座標やマニピュレータ9の関節軸を含めた形状(配置も含む)は、例えば信号処理装置11又は指示処理装置21内のCPUによって計算することが可能である。   Further, the operability of the operator is improved by displaying the relative relationship between the obstacle and the mobile robot body in three dimensions on the image display device 23 (S9). For the three-dimensional image 82 of the mobile robot body 5 as shown in FIG. 8C, the shape of the mobile robot body 5 is created in advance using modeling software or the like and provided in the robot body system 1. The data is stored in a storage device (not shown) or a storage device (not shown) provided in the control system 20. Further, the relative position between the coordinates of the manipulator 9 and the obstacle 30 as shown in FIG. 8C is determined by the relative positional relationship between the manipulator 9 and the distance measuring device 10, so the distance measuring device 10 is used. It is possible to ascertain based on the distance L measured in this manner, the angle α in the horizontal-depth direction detected from the encoder of the manipulator 9, and the angle β in the height-depth direction. In addition, since each joint axis of the manipulator 9 is known by a sensor (encoder), the coordinates including the joint axis of the mobile robot main body 5 and the joint axis of the manipulator 9 are included in the signal processing device 11 or the instruction It can be calculated by the CPU in the processing device 21.

次に、遠隔地にある操縦システム20の指示処理装置21は、カメラ画像を重畳するか否かを判断し(S10)、重畳する場合には、図8(a)に示すカメラ13で撮像したカメラ画像の上に、図8(b)に示すロボット本体システム1から操縦システム20に送信して画像表示装置23に障害物30や移動型ロボット本体5等の3次元形状を、図8(c)に示すように重畳させて画像表示装置23に表示する(S11)。その後、オペレータ25は画像表示装置23に表示された重畳画像を見ながら、別の視点から障害物の外形情報を取得するか否かの判断を行い(S12)、移動型ロボット本体5が視点を変えて障害物の外形情報を取得する(障害物の形状計測を行う)場合には、オペレータ25が入力装置22を用いて移動型ロボット本体5に対して視点を変える指示を出し、移動型ロボット本体5は該指示に従ってマニピュレータ9の角度を変更して、障害物30の3次元形状計測を行って外形形状を取得して記憶装置(図示せず)に記憶する。そして、ロボット本体システム1から操縦システム20に通信を用いて送信することによって、操縦システム20の指示処理装置21は、画像表示装置23に別の視点からの障害物の外形情報(3次元形状)を表示することが可能となる。   Next, the instruction processing device 21 of the control system 20 at a remote location determines whether or not to superimpose the camera image (S10), and in the case of superimposing, the image is captured by the camera 13 shown in FIG. On the camera image, the robot body system 1 shown in FIG. 8B transmits to the control system 20 and the image display device 23 displays the three-dimensional shape of the obstacle 30, the mobile robot body 5, etc., as shown in FIG. ) And displayed on the image display device 23 (S11). Thereafter, the operator 25 determines whether or not to acquire the outline information of the obstacle from another viewpoint while viewing the superimposed image displayed on the image display device 23 (S12), and the mobile robot body 5 changes the viewpoint. When the obstacle outline information is obtained by changing (obstructing the obstacle shape measurement), the operator 25 uses the input device 22 to instruct the mobile robot body 5 to change the viewpoint, and the mobile robot. The main body 5 changes the angle of the manipulator 9 in accordance with the instruction, measures the three-dimensional shape of the obstacle 30, acquires the outer shape, and stores it in a storage device (not shown). Then, by transmitting from the robot body system 1 to the control system 20 using communication, the instruction processing device 21 of the control system 20 sends the obstacle information (three-dimensional shape) of the obstacle from another viewpoint to the image display device 23. Can be displayed.

以上説明したように、遠隔地にある操縦システム20の画像表示装置23において、移動型ロボット本体5のカメラ13から取得した画像を3次元の障害物形状画像に重ねて表示することで、障害物の表面や周辺情報を詳しく把握することができる。即ち、図8(b)に示す障害物レイヤーの上に図8(a)に示すカメラ画像レイヤーを重畳することによって図8(c)に示す重畳画像が得られ、障害物の表面や周辺情報を詳しく把握することができる。   As described above, in the image display device 23 of the control system 20 in a remote place, the image acquired from the camera 13 of the mobile robot body 5 is displayed on the three-dimensional obstacle shape image so as to obstruct the obstacle. You can grasp the surface and surrounding information in detail. That is, the superimposed image shown in FIG. 8C is obtained by superimposing the camera image layer shown in FIG. 8A on the obstacle layer shown in FIG. Can be understood in detail.

次に、重畳画像作成のフローについて図6を用いて説明する。即ち、重畳開始後(S111)、カメラ画像と3次元形状画像を対応付けるため、例えば距離計測装置10の信号処理を行う信号処理装置11とカメラ13で撮像したカメラ画像の処理を行う画像処理装置12との間において距離計測装置10でのキャリブレーションで計算したn×mの計測座標を、カメラ13で撮像したカメラ画像のサイズに均等に割り当てる(S112)。その後、例えば信号処理装置11は、画像処理装置12で処理するカメラ画像と同サイズの3次元空間において、例えば距離計測装置10で計測した3次元座標をプロットする(S113)。次に、信号処理装置11と画像処理装置12との間においてカメラ画像を3次元プロット画像のテクスチャとして上に重ね合わせて重畳を行う(S114)。このように重ね合わされた重畳画像を移動型ロボット本体5から通信を用いて操縦システム20の指示処理装置21に送信することによって、画像表示装置23は図8(c)に示す重畳画像を表示することができることになる。これにより、オペレータ25は、移動型ロボット本体と障害物の相対的な位置関係を把握し、全体像を見ながら入力装置22を用いてマニピュレータ操作を行うための指示などを行うことができる。   Next, the flow of creating a superimposed image will be described with reference to FIG. That is, after superimposition is started (S111), in order to associate the camera image with the three-dimensional shape image, for example, the signal processing device 11 that performs signal processing of the distance measurement device 10 and the image processing device 12 that performs processing of the camera image captured by the camera 13. N × m measurement coordinates calculated by calibration in the distance measuring device 10 are equally allocated to the size of the camera image captured by the camera 13 (S112). Thereafter, for example, the signal processing device 11 plots the three-dimensional coordinates measured by, for example, the distance measuring device 10 in a three-dimensional space having the same size as the camera image processed by the image processing device 12 (S113). Next, the camera image is superimposed on the signal processing device 11 and the image processing device 12 as a texture of a three-dimensional plot image and superimposed (S114). By transmitting the superimposed image superimposed in this way from the mobile robot body 5 to the instruction processing device 21 of the control system 20 using communication, the image display device 23 displays the superimposed image shown in FIG. Will be able to. Thereby, the operator 25 can grasp the relative positional relationship between the mobile robot body and the obstacle, and can give an instruction for manipulator operation using the input device 22 while viewing the whole image.

以上説明したように、本実施の形態によれば、遠隔操作可能な移動型ロボットのマニピュレータを、遠隔地においてカメラ画像を見ながら操作することによって、障害物や調査対象物の表面画像と3次元形状とを把握することができるため、人が近づけないような危険地帯においても遠隔からロボット操作によって、人間に及ぶ危険を回避しながら安全に現地の詳細な3次元情報を収集することが可能となる。   As described above, according to the present embodiment, the manipulator of the mobile robot that can be remotely operated is operated while viewing the camera image at a remote location, so that the surface image of the obstacle or the object to be investigated can be three-dimensionally displayed. Because it can grasp the shape, it is possible to safely collect detailed three-dimensional information of the site safely while avoiding danger to humans by operating the robot remotely even in a dangerous zone where people cannot approach Become.

本発明に係る遠隔操作可能なロボットシステムの実施の形態を示した概略構成図である。1 is a schematic configuration diagram showing an embodiment of a remotely operable robot system according to the present invention. 本発明に係る3次元形状計測時のフローの一実施例を示す図である。It is a figure which shows one Example of the flow at the time of the three-dimensional shape measurement which concerns on this invention. 本発明に係る3次元形状計測時の初期設定のフローの一実施例を示す図である。It is a figure which shows one Example of the flow of the initial setting at the time of the three-dimensional shape measurement which concerns on this invention. 本発明に係る距離計測時のフローの一実施例を示す図である。It is a figure which shows one Example of the flow at the time of the distance measurement which concerns on this invention. 本発明に係る3次元形状計測時の座標計算フローの一実施例を示す図である。It is a figure which shows one Example of the coordinate calculation flow at the time of the three-dimensional shape measurement which concerns on this invention. 本発明に係る画像重畳のフローの一実施例を示す図である。It is a figure which shows one Example of the flow of the image superimposition which concerns on this invention. 本発明に係る3次元形状計測時のマニピュレータと障害物の位置関係を示す図である。It is a figure which shows the positional relationship of the manipulator at the time of the three-dimensional shape measurement which concerns on this invention, and an obstruction. 本発明に係る画像重畳のイメージを示す図である。It is a figure which shows the image of the image superimposition which concerns on this invention.

符号の説明Explanation of symbols

1…ロボット本体システム、5…移動型ロボット本体、8…通信装置、9…マニピュレータ、10…距離計測装置、11…信号処理装置、12…画像処理装置、13…カメラ、20…操縦システム、21…指示処理装置、22…入力装置、23…画像表示装置、25…オペレータ、27…通信装置、30…障害物。
DESCRIPTION OF SYMBOLS 1 ... Robot main body system, 5 ... Mobile robot main body, 8 ... Communication apparatus, 9 ... Manipulator, 10 ... Distance measuring device, 11 ... Signal processing apparatus, 12 ... Image processing apparatus, 13 ... Camera, 20 ... Steering system, 21 ... instruction processing device, 22 ... input device, 23 ... image display device, 25 ... operator, 27 ... communication device, 30 ... obstacle.

Claims (4)

カメラと距離計測装置を備えたマニピュレータを設置した移動型ロボットシステムと、入力装置と表示装置とを備えた操縦システムとの間を通信により送受信できるように構成し、前記移動型ロボットシステムの前記マニピュレータを前記操縦システムから前記通信を用いて遠隔操作する方法であって、
前記カメラで撮像したカメラ画像の情報を前記移動型ロボットシステムから前記操縦システムに送信して前記カメラ画像を前記表示装置に表示する第1の表示過程と、
該第1の表示過程で前記表示装置に表示された障害物のカメラ画像とに基づいて設定され前記入力装置に入力された前記距離計測装置の前記障害物の水平方向の計測範囲、高さ―奥行方向の計測範囲、計測対象の微小エリアの数を含む操作指示を前記操縦システムから前記通信によって前記移動型ロボットシステムに送信して前記マニピュレータを遠隔操作する操作過程と、
該操作過程での前記マニピュレータの遠隔操作によって前記表示装置に表示されたカメラ画像内に映し出された少なくとも障害物についての3次元形状を前記マニピュレータのエンコーダから検出される各関節軸の角度から水平−奥行方向の角度および高さ−奥行方向の角度を基に、前記全微小エリアに対応する前記障害物表面座標を計算し、前記各座標について前記距離計測装置により距離を計測する計測過程とを有することを特徴とする移動型ロボットシステムにおけるマニピュレータ遠隔操作方法。
A mobile robot system having a camera and a manipulator having a distance measuring device and a maneuvering system having an input device and a display device are configured to be able to transmit and receive by communication, and the manipulator of the mobile robot system Using the communication to remotely control the steering system,
A first display process of transmitting information of a camera image captured by the camera from the mobile robot system to the control system and displaying the camera image on the display device;
The horizontal measuring range and height of the obstacle of the distance measuring device set based on the camera image of the obstacle displayed on the display device in the first display process and inputted to the input device An operation process of remotely operating the manipulator by transmitting an operation instruction including a measurement range in the depth direction and the number of minute areas to be measured from the steering system to the mobile robot system by the communication;
The three-dimensional shape of at least the obstacle displayed in the camera image displayed on the display device by the remote operation of the manipulator during the operation process is horizontal from the angle of each joint axis detected from the encoder of the manipulator. A step of calculating the obstacle surface coordinates corresponding to the entire minute area based on the angle in the depth direction and the height-angle in the depth direction, and measuring the distance with the distance measuring device for each of the coordinates. A manipulator remote control method in a mobile robot system characterized by the above.
更に、前記計測過程で計測した少なくとも障害物についての3次元形状の情報を前記移動型ロボットシステムから前記操縦システムに送信して前記障害物についての3次元形状を前記表示装置に表示する第2の表示過程を有することを特徴とする請求項1に記載の移動型ロボットシステムにおけるマニピュレータ遠隔操作方法。   Further, a second information for transmitting at least three-dimensional shape information about the obstacle measured in the measurement process from the mobile robot system to the control system and displaying the three-dimensional shape about the obstacle on the display device. 2. The manipulator remote control method for a mobile robot system according to claim 1, further comprising a display process. 前記第2の表示過程において、前記表示装置に表示する前記障害物についての3次元形状に対して、前記第1の表示過程で前記表示装置に表示するカメラ画像を重ねて表示することを特徴とする請求項2に記載の移動型ロボットシステムにおけるマニピュレータ遠隔操作方法。   In the second display process, the camera image displayed on the display device in the first display process is displayed in a superimposed manner on the three-dimensional shape of the obstacle displayed on the display device. The manipulator remote control method in the mobile robot system according to claim 2. 前記第2の表示過程において、更に、前記移動型ロボットシステムにおける前記マニピュレータを含む移動型ロボット本体の3次元形状を重ねて表示することを特徴とする請求項3に記載の移動型ロボットシステムにおけるマニピュレータ遠隔操作方法。   4. The manipulator in the mobile robot system according to claim 3, wherein in the second display step, the three-dimensional shape of the mobile robot body including the manipulator in the mobile robot system is further displayed in an overlapping manner. Remote operation method.
JP2006165836A 2006-06-15 2006-06-15 Manipulator remote control method for mobile robot system Active JP4558682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006165836A JP4558682B2 (en) 2006-06-15 2006-06-15 Manipulator remote control method for mobile robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006165836A JP4558682B2 (en) 2006-06-15 2006-06-15 Manipulator remote control method for mobile robot system

Publications (2)

Publication Number Publication Date
JP2007331061A JP2007331061A (en) 2007-12-27
JP4558682B2 true JP4558682B2 (en) 2010-10-06

Family

ID=38931029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006165836A Active JP4558682B2 (en) 2006-06-15 2006-06-15 Manipulator remote control method for mobile robot system

Country Status (1)

Country Link
JP (1) JP4558682B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105965486A (en) * 2016-07-22 2016-09-28 广东电网有限责任公司电力科学研究院 Electric operation robot system
JP2020157394A (en) * 2019-03-25 2020-10-01 株式会社Ihi Robot device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5201341B2 (en) * 2008-09-09 2013-06-05 富士電機株式会社 Remote operation support device
JP2013111672A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Obtaining system for environment information using unmanned traveling body
JP6127925B2 (en) * 2013-11-11 2017-05-17 株式会社安川電機 Robot simulation apparatus, robot simulation method, and robot simulation program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179668A (en) * 1999-12-28 2001-07-03 Toshiba Corp Robot system for coping with accident
JP2002254361A (en) * 2001-02-27 2002-09-10 National Institute Of Advanced Industrial & Technology Moving manipulator remote operating device
JP2003251581A (en) * 2002-03-03 2003-09-09 Tmsuk Co Ltd Robot device, and robot remotely operating system
JP2003299674A (en) * 2002-04-12 2003-10-21 Masasuke Shiraishi Operation table device
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6471691A (en) * 1987-09-14 1989-03-16 Ishikawajima Harima Heavy Ind Display system for manipulator
JPH05126521A (en) * 1991-11-08 1993-05-21 Toshiba Corp Position-measuring device for remote-controlled manipulator
JPH1034570A (en) * 1996-07-19 1998-02-10 Fujitsu Ltd Robot remote control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001179668A (en) * 1999-12-28 2001-07-03 Toshiba Corp Robot system for coping with accident
JP2002254361A (en) * 2001-02-27 2002-09-10 National Institute Of Advanced Industrial & Technology Moving manipulator remote operating device
JP2003251581A (en) * 2002-03-03 2003-09-09 Tmsuk Co Ltd Robot device, and robot remotely operating system
JP2003299674A (en) * 2002-04-12 2003-10-21 Masasuke Shiraishi Operation table device
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105965486A (en) * 2016-07-22 2016-09-28 广东电网有限责任公司电力科学研究院 Electric operation robot system
JP2020157394A (en) * 2019-03-25 2020-10-01 株式会社Ihi Robot device
JP7230626B2 (en) 2019-03-25 2023-03-01 株式会社Ihi robot equipment

Also Published As

Publication number Publication date
JP2007331061A (en) 2007-12-27

Similar Documents

Publication Publication Date Title
JP4167954B2 (en) Robot and robot moving method
US10730180B2 (en) User interface for a teleoperated robot
EP1985416B1 (en) Mobile robot
JP6445092B2 (en) Robot system displaying information for teaching robots
JP3343682B2 (en) Robot operation teaching device and operation teaching method
US11420335B2 (en) Information processing apparatus, information processing method, and information processing system
JP2006113858A (en) Method and system for supporting remote operation for mobile object
JP5390813B2 (en) Spatial information display device and support device
JP4558682B2 (en) Manipulator remote control method for mobile robot system
JP2016099257A (en) Information processing device and information processing method
JP2008254150A (en) Teaching method and teaching device of robot
JP6445151B2 (en) Robot apparatus and movement control method of robot apparatus
KR102452924B1 (en) Force-sense visualization apparatus, robot, and force-sense visualization program
JP7272825B2 (en) robot system
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP2010131751A (en) Mobile robot
JPH05318361A (en) Method for manipulating object
US11926064B2 (en) Remote control manipulator system and remote control assistance system
EP3465362A1 (en) User interface for a teleoperated robot
WO2023013740A1 (en) Robot control device, robot control system, and robot control method
JP3376029B2 (en) Robot remote control device
JPH0430981A (en) Control unit for television camera of remote control type robot
JP2003271993A (en) Monitor image processing method, image monitoring system, and maintenance work system
CN116945157A (en) Information processing system and method, robot system and control method, article manufacturing method, and recording medium
JP2022178396A (en) Guiding type remote operation method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100721

R150 Certificate of patent or registration of utility model

Ref document number: 4558682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3