WO1998021631A1 - Remote controller for mobile station - Google Patents

Remote controller for mobile station Download PDF

Info

Publication number
WO1998021631A1
WO1998021631A1 PCT/JP1997/004083 JP9704083W WO9821631A1 WO 1998021631 A1 WO1998021631 A1 WO 1998021631A1 JP 9704083 W JP9704083 W JP 9704083W WO 9821631 A1 WO9821631 A1 WO 9821631A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance image
time
image
distance
moving
Prior art date
Application number
PCT/JP1997/004083
Other languages
French (fr)
Japanese (ja)
Inventor
Seiichi Mizui
Original Assignee
Komatsu Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd. filed Critical Komatsu Ltd.
Priority to AU48867/97A priority Critical patent/AU4886797A/en
Publication of WO1998021631A1 publication Critical patent/WO1998021631A1/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room

Definitions

  • the present invention relates to a remote control device for remotely controlling a moving body such as an unmanned dump truck, and more particularly to a device for performing a remote control while detecting an obstacle existing along a traveling road surface in front of the moving body.
  • unmanned vehicles such as unmanned dump trucks cannot be driven completely unattended in terms of safety, etc.
  • obstacles existing on the road in front of the vehicles are detected and detected.
  • the results are sent to a monitoring station, and the monitoring station remotely controls the mobile unit with the intervention of an operator.
  • Image information is very effective in realizing remote control with high operability, and ideally, a monitoring station can obtain continuous image information from a remote location in real time, such as a television broadcast.
  • the present invention has been made in view of such a situation, and predicts, with extremely high accuracy, the previous image transmitted from the mobile unit to the monitoring station and the image in the middle of the next transmitted image.
  • real-time images can be displayed at the monitoring station while compensating for the low transmission capacity, and the operability of remote operation is improved. Its primary purpose is to improve it dramatically.
  • the image transmission from the mobile unit to the monitoring station requires time, the image is displayed at the monitoring station with a delay corresponding to the transmission delay time.
  • a second object of the present invention is to compensate for the delay time of image transmission and display the current image as a predicted image.
  • the camera viewpoint when remotely controlling a power shovel, if the camera viewpoint can be moved in the horizontal direction of the work surface according to the work situation and an image corresponding to it can be displayed, it can be used for slope work, etc. Improvement of workability can be expected.
  • the camera is usually fixed at a fixed position, and displaying a free-viewpoint image by moving the camera position requires a complicated mechanism. This is often difficult to achieve.
  • a third object of the present invention is to enable an image of a desired viewpoint to be displayed only by simple processing without providing a complicated mechanism.
  • a captured image of an imaging device mounted on a moving object and imaging the outside of the moving object is monitored at regular intervals.
  • a remote control device for the mobile unit which transmits to the station and remotely controls the mobile unit based on the captured image received by the monitoring station;
  • a distance image generating unit that measures a distance from a reference position to an object outside the moving object and generates a distance image of the object is provided,
  • Predicted distance image generating means for generating a distance image
  • the distance from the reference position of the moving body 10 to the object outside the moving body 10 is measured.
  • a distance image 40 of the object is generated.
  • the position change V of the moving body 10 is measured.
  • the distance data d of each pixel 50 of the distance image 40 is changed for a fixed time ⁇ from the time when the previous distance image 40 was generated.
  • Predicted distance images 42 (43, 44, 45, 46) during the passage of t are generated.
  • Predicted distance image 4 2 (4 3, 4 4, 4 5, 4 6) force generated in this way Force between the previous distance image 40 and the next distance image 41 transmitted from the moving object 10 force It is inserted and displayed between them.
  • the present invention based on the movement information of a moving object, image processing for changing the distance data or the three-dimensional coordinate position of the pixel of the previous distance image by an amount corresponding to the movement information is performed.
  • the previous distance image (the latest distance image) and the predicted distance image in the middle of the next transmitted distance image are generated extremely accurately and at high speed.
  • the predicted distance image generated in this way is inserted between the previous distance image and the next transmitted distance image, thereby compensating for the low image transmission capability and real-time image (eg, video rate). , 30 frames / sec) are displayed on the monitoring station.
  • Remote control based on this real-time image dramatically improves remote controllability.
  • the predicted distance image 62 at the time t 1 + t is displayed when the time t ⁇ Td has elapsed since the previous distance image 60 was displayed on the display means 23 of the monitoring station 20 at the time t 1 + Td. ing.
  • the delay time of the image transmission from the mobile unit 10 to the monitoring station 20 is compensated, and the image at the current time t1 + t can be displayed as the predicted distance image 62 (63, 64, 65).
  • the origin position of the vehicle body coordinate system XYZ is shifted by a predetermined amount in a predetermined coordinate axis direction.
  • a changing process for example, changing by H in the vertical Y-axis direction
  • the viewpoint of the distance image displayed on the display means 23 is moved upward by H0.
  • FIG. 1 is a block diagram showing a configuration example of a mobile remote control device according to an embodiment of the present invention.
  • FIG. 2 is a flowchart showing a procedure of processing executed by the monitoring station shown in FIG.
  • FIG. 3 is a diagram schematically showing a relationship between a distance image transmitted from a moving object and a predicted distance image.
  • FIG. 4 is a diagram showing a state in which the moving body travels from above.
  • 5 (a), 5 (b) and 5 (c) are diagrams showing a distance image and a predicted distance image obtained when the moving object travels on the traveling path shown in FIG.
  • FIG. 6 is a diagram showing a relationship between a vehicle body coordinate system at a certain time and a vehicle body coordinate system at a time when a predetermined time has elapsed from this time.
  • FIG. 7 is a diagram showing a state in which the moving object travels from above.
  • FIG. 5 is a diagram showing a distance image and a predicted distance image to be obtained.
  • FIG. 9 is a flowchart showing the procedure of another process executed by the monitoring station shown in FIG.
  • FIG. 10 is a diagram used to explain a process of displaying a current image as a predicted distance image at a monitoring station.
  • a moving object 10 such as an unmanned dump truck travels on the traveling path 31, a tree 32, a house 33, and other vehicles 34 seen in front of the traveling object 31. It is assumed that the travel of the mobile unit 10 is remotely controlled by generating a distance image composed of the following, and determining the presence or the like of an obstacle by the monitoring station operator based on the distance image.
  • the content of the remote operation is optional, not only when the traveling of the moving body is remotely controlled, but also when the moving body that travels while performing a predetermined work with a predetermined work machine is remotely controlled. Is also applicable.
  • applying the present invention makes it possible to obtain information on the distance to the excavated object during and after movement, its shape, and its shape in real time.
  • the remote controllability of the machine operation lever can be dramatically improved.
  • FIG. 6 indicates a vehicle body coordinate system that moves together with the moving body 10.
  • X is a coordinate axis corresponding to the vehicle width direction of the moving body 10
  • Z is a coordinate axis corresponding to the traveling direction of the moving body 10 (the traveling path 31)
  • Y is a vertical coordinate axis.
  • FIG. 1 shows a configuration of a remote control device for a mobile object according to an embodiment of the present invention. As shown in FIG. 1, this remote device is roughly composed of an on-board device mounted on a mobile object 10 and a monitoring station 20.
  • the on-board device of the moving body 10 is configured to move from the reference position (reference plane) on the moving body 10 to each object in front of the moving body 10 in the traveling direction based on the imaging result of the camera mounted on the moving body 10.
  • the distance image generation unit 1 measures the distance at a distance, and generates a three-dimensional distance image in which the distance data d indicating the distance from the reference position and the two-dimensional coordinate position data (i, j) are associated with each pixel.
  • an image transmitter 13 that wirelessly transmits the distance image generated by the distance image generation unit 11 to the monitoring station 20 via the antenna 15 at regular time intervals ⁇ t
  • a mobile unit 1 A measuring unit 12 that measures the position change or the position and posture change of the moving object 10 and monitors the measurement results of the measuring unit 12 via the antenna 16. And a sensor signal transmitter 14 for wirelessly transmitting to the station 20.
  • the monitoring station 20 receives the distance image and the sensor signal transmitted from the on-board device of the mobile object 10 via the antenna 24, and based on the received content, the previous distance image was generated.
  • the moving object 10 moves from the time t1 until a predetermined time t smaller than the fixed time ⁇ t, which is the interval of the transmission of the distance image, elapses.
  • the force that performs the process of calculating the moving distance L1 that changes in the distance direction indicated as the distance data d, or the vehicle body coordinate system X—Y_Z at the time t1 when the previous distance image was generated, is calculated as the time t1 Is converted to the body coordinate system X—Y—Z at the time t 1 + t when the predetermined time t that is smaller than the fixed time ⁇ t has elapsed, and the body coordinate system at the time t 1 + t at which the predetermined time t has passed X _ Y — 3D coordinate position of each pixel in the previous range image in Z
  • a calculation unit 21 that performs a process of calculating the distance image d of each pixel of the distance image by the moving distance L1 based on the calculation result, thereby obtaining a time tl at which the previous distance image was generated.
  • a predicted distance image generation unit 22 that generates a predicted distance image at a time t 1 + t during which the image transmission interval ⁇ t elapses from the time t 1 at which the previous distance image was generated based on the three-dimensional coordinate position;
  • a display unit 23 such as a CRT display that inserts and displays the generated predicted distance image between the previous distance image and the next distance image transmitted from the moving object 10 is displayed. Have been.
  • the operator determines whether there is an obstacle present in front of the moving object 10 and the like, and the drive control is performed.
  • the mobile unit 10 is remotely controlled, and the traveling of the mobile unit 10 is drive-controlled.
  • the measurement unit 12 can be configured by a speed sensor that detects the speed V of the moving body 10.
  • the measuring unit 12 detects a three-dimensional position of the moving body 10 such as a global positioning sensor (GPS) or a three-dimensional velocity of the moving body 10.
  • Speed sensor and an angular speed sensor such as a gyro.
  • it can be composed of a gyroscope that detects the tilting angle of the moving body 10 in one direction and two inclinometers that detect the pitching angle and the rolling angle of the vehicle. As shown in Fig.
  • Vx, Vy, Vz can also be obtained as the output of a position sensor such as GPS.
  • a distance image 40 composed of a traveling road surface 31 as shown in FIG. 5A and a tree 32, a house 33, and other vehicles 34 existing along the traveling road surface 31.
  • Each pixel 50 of the distance image 40 has three dimensions: i, j; a two-dimensional coordinate position (i, j) in the two-dimensional coordinate system, and a distance d from the reference position (reference plane) of the moving object 10.
  • the data (i, j, d) are associated with each other, and the pixel of each position j of the distance image 40 has brightness corresponding to the distance d.
  • the brightness of the pixel 50 increases as the distance d decreases, and the brightness increases (the screen becomes whiter).
  • Japanese Patent Application No. Hei 7—2009 A method using a multi-lens lens (multi-eye lens) described in No. 9 can be used.
  • the moving body 10 is traveling straight on a straight running path 31.
  • this embodiment is suitable when the vehicle is traveling straight ahead, and can generate a predicted distance image by a simple process with a simple configuration.
  • the measuring unit 12 can be constituted only by the speed sensor.
  • the monitoring station 20 receives a distance image 40 (referred to as a previous distance image) at time t1.
  • the next distance image 41 is received (step 101: see FIGS. 5 (a) and 5 (b)).
  • Step 10 2 The distance image when the time t has elapsed from the previous distance image 40 should be closer to the entire distance L 1 than the previous distance image 40 as a whole.
  • the predicted distance image 42 may be generated not only as one frame but also as two or more frames at different times t as the predicted distance images 42, 43, 44,.
  • the predicted distance image generated in this way for example, a predicted distance image composed of 5 frames 4 2, 4 3, 4 4, 4 5, 4 6 Force As shown in Fig. 3, the previous distance image 40 and then the moving object It is inserted between the distance image 41 transmitted from 10 and the distance image 41 and displayed on the display unit 23.
  • a real-time image of, for example, a video rate of 30 frames / second is displayed on the display unit 23, which can sufficiently compensate for the low image transmission capability (image transmission at At intervals). .
  • the remote operation by the operator based on this real-time image greatly improves the remote operability of the mobile unit 10.
  • the measurement unit 12 is configured by a sensor that detects a position change in each direction and a posture change in each direction, such as a speed sensor (or a position sensor) and an angular velocity sensor.
  • a sensor that detects a position change in each direction and a posture change in each direction
  • a speed sensor or a position sensor
  • an angular velocity sensor
  • the monitoring station 20 receives the distance image 60 at time t1.
  • the next distance image 61 is received (step 201: see FIGS. 8 (a) and 8 (b)).
  • the vehicle body coordinate system X—Y—Z at the time t1 when the previous distance image 60 was generated is calculated as the time t1 + t at which the predetermined time t has elapsed from the time.
  • Is converted to the body coordinate system X—Y—Z at, and the three-dimensional coordinate position of each pixel of the previous distance image 60 in the body coordinate system X—Y—Z at the time t 1 + t at which the predetermined time t has elapsed Is calculated based on the three-dimensional coordinate position of each pixel of the previous distance image 60 in the body coordinate system X—Y—Z at this time t 1 + t.
  • a process of generating the predicted distance image 62 at the time t1 + t during the elapse of the image transmission interval ⁇ t from the time t1 is executed.
  • this pixel is represented by the distance image data (i, j, d).
  • Each pixel 50 to be moved is moved together with the moving body 10 as shown in FIGS. 6 and 7, and the three-dimensional coordinate position data ( ⁇ ) on the vehicle body coordinate system X—Y—Z having the predetermined position of the moving body 10 as the origin. , ⁇ , ⁇ ) can be converted into each pixel.
  • each pixel 50 (point ⁇ in FIG. 6) of the distance image 60 is represented by a three-dimensional coordinate position (XP (t 1), YP (t 1) on the body coordinate system X— ⁇ —Z at time t1. , ZP (t1)) (step 202).
  • the origin position (Vx * t, Vy ⁇ Vz ⁇ t) of the body coordinate system X—Y—Z at + t is obtained.
  • the amount of change (Vx-t, Vyt, Vzt) between the time t1 and the time t1 + t is the output V (Vx, Vy, Vz) of the speed sensor at the time t1 + t. ) May be calculated based on the position at time t1 and the position at time t1 + t output from a position sensor such as GPS (step 203).
  • MRO is a rotation matrix of the vehicle body coordinate system, and is represented by the following equation (2) using the rotation angles (RX0, RY0, RZ0) of the vehicle body.
  • MRO -SIN (RXO) COS (RXO) 0 0 1 0
  • the coordinate position (XP (tl), YP (tl), ZP (tl)) of the pixel 50 (point P) in the vehicle body coordinate system at the time t1 is calculated at the time tl + t. It can be converted into the coordinate position of the body coordinate system (XP (t l + t), YP (tl + t), ZP (t 1 + t)) as follows.
  • the predicted distance image 62 may be generated not only as one frame but also as two or more frames at different times t as the predicted distance images 62, 63, 64,.
  • the predicted distance image generated in this way for example, a predicted distance image composed of 5 frames 62, 63, 64, 65, 66 As shown in Fig. 3, the previous distance image 60 and the moving object It is inserted between the distance image 61 transmitted from 10 and the distance image 61 and displayed on the display unit 23.
  • a real-time image of, for example, a video rate of 30 frames / second is displayed on the display unit 23, and the low image transmission capability (image transmission at the At interval) can be sufficiently compensated. .
  • the remote operation by the operator based on this real-time image greatly improves the remote operability of the mobile unit 10.
  • the monitoring station 20 generates a predicted distance image 62 at a time t 1 + t at which a time t has elapsed from the time t 1 in consideration of the transmission delay time Td. Then, when the time t-Td has elapsed since the previous distance image 60 was displayed on the display unit 23 of the monitoring station 20 at time tij + td, the predicted distance image at the above time t1 + t 6 Display 2.
  • the other predicted distance images 63, 64, and 65 are displayed in the same manner. As a result, the current distance images 62, 63, 64, 65 are displayed at the monitoring station 20, and the remote control of the moving object 10 by the operator is further improved.
  • a process of changing the origin position of the vehicle body coordinate system XY at time t 1 + t before conversion into the distance image 62 by a desired amount in the desired coordinate axis direction may be performed.
  • the viewpoint of the distance image displayed on the display unit 23 is raised by ⁇ , and the If you want to raise the point of view of the data by H, the following expression (4) should be added to the right side of the above expression (3).

Abstract

A remote controller for a mobile station, whose operability is remarkably improved by predicting an image between two consecutive images transmitted to a monitor station from the mobile station with extremely high accuracy, inserting the predicted image between the two images and displaying a real-time image at the monitor station while compensating the low transmission ability. The distance to an object outside the mobile station from the reference position of the mobile station is measured and a distance image of the object is generated. In addition, the positional variation of the mobile station is measured. The distance image and positional variation are transmitted to the monitor station. At the monitor station, the distance of movement of the mobile station until a prescribed period of time shorter than a fixed period of time elapses from the point of time when the distance image is generated. Then, a predicted distance image until the fixed period of time elapses from the point of time when the distance image is generated by changing the distance data on each picture element of the distance image by the distance of movement. The predicted distance image thus generated is inserted between the distance image and the previous distance image transmitted from the mobile station and displayed.

Description

明細書  Specification
移動体の遠隔操作装置 Mobile remote control device
技術分野 Technical field
本発明は、 無人ダンプトラック等の移動体を遠隔操作する遠隔操作装置に関し、 特に移動体前方の走行路面に沿って存在する障害物を検出しつつ遠隔操作を行う 装置に関する。  The present invention relates to a remote control device for remotely controlling a moving body such as an unmanned dump truck, and more particularly to a device for performing a remote control while detecting an obstacle existing along a traveling road surface in front of the moving body.
背景技術 Background art
無人ダンプトラック等の無人の移動体においては、 安全性の面等において完全 な無人運転は不可能であることから、 移動体前方の走行路面上に存在する障害物 を検出しつつ、 その検出された結果を監視局に送り、 オペレータの判断を介在さ せて監視局より移動体を遠隔操作することが行われている。  Since unmanned vehicles such as unmanned dump trucks cannot be driven completely unattended in terms of safety, etc., obstacles existing on the road in front of the vehicles are detected and detected. The results are sent to a monitoring station, and the monitoring station remotely controls the mobile unit with the intervention of an operator.
従来の障害物検出装置としては、 超音波センサ、 レーザレーダ、 ミリ波センサ を用いて移動体進行方向前方の障害物を検出する装置があるが、 これらは得られ る情報量が少なく、 視野角が狭く、 広範囲で障害物を検出することができないと レヽう ffi力 ぁる。  Conventional obstacle detection devices use ultrasonic sensors, laser radars, and millimeter-wave sensors to detect obstacles ahead of the moving object in the traveling direction. It is difficult to detect obstacles in a wide area because it is narrow.
そこで、 上記超音波センサ、 レーザレーダ、 ミリ波センサを用いた障害物検出 装置と比較して、 得られる情報量が多く、 視野角が広く広範囲で障害物を検出で きるという利点があることから、 移動体前方を撮像し、 その撮像画像を処理する ことにより障害物を検出する装置が使用されるに至っている。  Therefore, as compared with the obstacle detection devices using the ultrasonic sensor, laser radar, and millimeter wave sensor, there is an advantage that the amount of information that can be obtained is large, the viewing angle is wide, and obstacles can be detected over a wide range. Devices that detect an obstacle by capturing an image in front of a moving object and processing the captured image have been used.
操作性の高い遠隔操作を実現するために、 画像情報は非常に有効であり、 テレ ビジョン放送のようにリアルタイムで遠方の連続した画像情報を、 監視局で取得 できるのが理想的である。  Image information is very effective in realizing remote control with high operability, and ideally, a monitoring station can obtain continuous image information from a remote location in real time, such as a television broadcast.
しかし、 建設機械などの移動体を遠隔操作したり、 監視したりする目的のため だけに、 大規模な放送局を移動体に搭載することは、 スペース的にもコスト的に も無理があり、 現実的には不可能である。 このため、 スペース的、 コスト的に兼 ね合いのつく画像送信機を移動体に搭載して、 この画像送信機によつて監視局に 画像を送信するようにしている。 近年、 スペク トラム拡散通信方式などが採用さ れている。 However, mounting large-scale broadcasting stations on mobiles only for the purpose of remotely controlling and monitoring mobiles such as construction equipment is not only space-saving but also cost-effective. Is impossible, and it is impossible in practice. For this reason, an image transmitter that balances space and cost is mounted on a mobile object, and the image transmitter is used to transmit an image to a monitoring station. In recent years, spread spectrum communication systems and the like have been adopted.
しかし、 こうした移動体に搭載可能な画像送信機の画像伝送能力は現状では低 く、 リアルタイムに画像を送信するには至っておらず、 一秒間に送信できる画像 (フレーム) の数は限られている。 このため、 オペレータは、 あたかもコマ送り のような画像を頼りに遠隔操作せざるを得なく、 操作性は著しく損なわれること になっていた。  However, the image transmission capabilities of image transmitters that can be mounted on such moving objects are currently low, and they have not been able to transmit images in real time, and the number of images (frames) that can be transmitted per second is limited. . For this reason, the operator had to rely on images like frame-by-frame for remote control, and the operability was severely impaired.
本発明はこうした実状に鑑みてなされたものであり、 移動体から監視局に送ら れてきた前回の画像とつぎに送信されてくる画像の途中の画像をきわめて高い精 度で予測し、 この予測画像を、 前回の画像とつぎに送られてくる画像との間に揷 入することで、 伝送能力の低さを補いつつリアルタイムな画像を監視局で表示さ せて、 遠隔操作の操作性を飛躍的に向上させることを第 1の目的とするものであ る。  The present invention has been made in view of such a situation, and predicts, with extremely high accuracy, the previous image transmitted from the mobile unit to the monitoring station and the image in the middle of the next transmitted image. By inserting an image between the previous image and the next image to be transmitted, real-time images can be displayed at the monitoring station while compensating for the low transmission capacity, and the operability of remote operation is improved. Its primary purpose is to improve it dramatically.
さらに、 移動体から監視局への画像伝送には時間を要することから、 その伝送 遅れ時間分だけ、 監視局で画像が遅れて表示されることになる。  Furthermore, since the image transmission from the mobile unit to the monitoring station requires time, the image is displayed at the monitoring station with a delay corresponding to the transmission delay time.
本発明は、 この画像伝送の遅れ時間を補償し、 現時点での画像を予測画像とし て表示させることを第 2の目的とするものである。  A second object of the present invention is to compensate for the delay time of image transmission and display the current image as a predicted image.
また、 無人ダンプトラックの遠隔操作性を向上させるには、 走行状況に応じて 撮像装置たるカメラの視点を自由に変えて、 走行状況に応じた視点の画像を監視 局で表示できるようにすることが望ましい。  In addition, to improve the remote operability of unmanned dump trucks, it is necessary to freely change the viewpoint of the camera, which is the imaging device, according to the driving situation so that the monitoring station can display the image of the viewpoint according to the driving situation. Is desirable.
また、 パワーショベルを遠隔操縦するような場合、 カメラ視点を、 作業の状況 に応じて作業面の横方向に移動させて、 それに応じた画像を表示させることがで きれば、 のり面作業などの作業性の向上が期待できる。  Also, when remotely controlling a power shovel, if the camera viewpoint can be moved in the horizontal direction of the work surface according to the work situation and an image corresponding to it can be displayed, it can be used for slope work, etc. Improvement of workability can be expected.
しかし、 カメラは通常一定箇所に固定されており、 カメラの位置を動かすこと によって自由な視点の画像を表示させるのは、 複雑な機構を設けるなどする必要 もあって実現が困難なことが多い。 However, the camera is usually fixed at a fixed position, and displaying a free-viewpoint image by moving the camera position requires a complicated mechanism. This is often difficult to achieve.
本発明は、 複雑な機構を設けることなく簡単な処理のみで、 所望の視点の画像 を表示できるようにすることを第 3の目的とするものである。  A third object of the present invention is to enable an image of a desired viewpoint to be displayed only by simple processing without providing a complicated mechanism.
発明の開示 Disclosure of the invention
そこで、 第 1の目的を達成するために、 本発明の第 1発明の主たる発明では、 移動体に搭載され、 当該移動体の外部を撮像する撮像装置の撮像画像を、 一定時 間毎に監視局に送信し、 当該監視局で受信された撮像画像に基づいて移動体を遠 隔操作するようにした移動体の遠隔操作装置において、  Therefore, in order to achieve the first object, in the main invention of the first invention of the present invention, a captured image of an imaging device mounted on a moving object and imaging the outside of the moving object is monitored at regular intervals. A remote control device for the mobile unit, which transmits to the station and remotely controls the mobile unit based on the captured image received by the monitoring station;
前記撮像装置として、 基準位置から、 移動体外部の物体までの距離を計測し、 当該物体の距離画像を生成する距離画像生成手段を設けるとともに、  As the imaging device, a distance image generating unit that measures a distance from a reference position to an object outside the moving object and generates a distance image of the object is provided,
前記移動体に、 当該移動体の位置変化を計測する計測手段と、 この計測手段の 計測結果を前記監視局に送信する送信手段とを設け、 さらに、 前記監視局に、 前記計測手段の計測結果に基づいて、 前記距離画像生成手段で前回の距離画像 が生成された時点から前記一定時間よりも小さい所定時間が経過するまでの間の 移動体の移動距離を演算する演算手段と、  A measuring means for measuring a change in position of the moving body; and a transmitting means for transmitting a measurement result of the measuring means to the monitoring station, further comprising: a measuring result of the measuring means in the monitoring station. Calculating means for calculating the moving distance of the moving body from the time when the previous distance image is generated by the distance image generating means until a predetermined time smaller than the predetermined time elapses, based on
前記演算手段の演算結果に基づいて、 前記距離画像の各画素の距離データを、 前記移動距離だけ変化させることによって、 前回の距離画像が生成された時点か ら前記一定時間が経過する途中の予測距離画像を生成する予測距離画像生成手段 と、  By changing the distance data of each pixel of the distance image by the moving distance based on the calculation result of the calculation means, the prediction of the elapse of the predetermined time from the time when the previous distance image was generated is performed. Predicted distance image generating means for generating a distance image;
前記予測距離画像生成手段で生成された予測距離画像を、 前回の距離画像と次 に、 移動体から送信されてくる距離画像との間に挿入して表示する表示手段と を設けるようにしている。  Display means for inserting and displaying the predicted distance image generated by the predicted distance image generation means between the previous distance image and the distance image transmitted from the moving object. .
すなわち、 この発明の構成によれば、 図 1、 図 3、 図 4、 図 5に示すように、 移動体 1 0の基準位置から、 移動体 1 0外部の物体までの距離が計測され、 当該 物体の距離画像 4 0が生成される。 また、 移動体 1 0の位置変化 Vが計測される。 これらが監視局 2 0に送信される。 監視局 2 0では、 送信された内容に基づいて、 前回の距離画像 4 0が生成され た時点から一定時間 Δ tよりも小さい所定時間 tが経過するまでの間の移動体 1 0の移動距離 L 1 = V * tが演算される。 そして、 距離画像 4 0の各画素 5 0の距 離データ dを、 移動距離 L 1だけ変化 (d— L 1) させることによって、 前回の距 離画像 4 0が生成された時点から一定時間 Δ tが経過する途中の予測距離画像 4 2 ( 4 3、 4 4、 4 5、 4 6 ) が生成される。 こうして生成された予測距離画像 4 2 ( 4 3、 4 4、 4 5、 4 6 ) 力 前回の距離画像 4 0と次に、 移動体 1 0力、 ら送信されてくる距離画像 4 1との間に挿入されて表示される。 That is, according to the configuration of the present invention, as shown in FIGS. 1, 3, 4, and 5, the distance from the reference position of the moving body 10 to the object outside the moving body 10 is measured. A distance image 40 of the object is generated. In addition, the position change V of the moving body 10 is measured. These are transmitted to the monitoring station 20. In the monitoring station 20, based on the transmitted content, the moving distance of the moving body 10 from the time when the previous distance image 40 was generated until a predetermined time t smaller than the predetermined time Δt has elapsed. L 1 = V * t is calculated. Then, by changing the distance data d of each pixel 50 of the distance image 40 by the moving distance L1 (d−L1), the distance data d is changed for a fixed time Δ from the time when the previous distance image 40 was generated. Predicted distance images 42 (43, 44, 45, 46) during the passage of t are generated. Predicted distance image 4 2 (4 3, 4 4, 4 5, 4 6) force generated in this way Force between the previous distance image 40 and the next distance image 41 transmitted from the moving object 10 force It is inserted and displayed between them.
また、 本発明の第 1発明の別の発明によれば、 移動体 1 0の各方向の位置 ·姿 勢変化を示す情報を利用することによって、 図 7、 図 8に示すように、 上記所定 時間 tが経過した時点における車体座標系 X— Y—Zの距離画像 6 0の各画素 5 0の 3次元座標位置が求められ、 この 3次元座標位置に基づき予測距離画像 6 2 が生成される。  Further, according to another aspect of the first invention of the present invention, by utilizing the information indicating the position / posture change of the moving body 10 in each direction, as shown in FIG. 7 and FIG. The three-dimensional coordinate position of each pixel 50 of the distance image 60 of the vehicle body coordinate system X—Y—Z at the time when the time t has elapsed is obtained, and a predicted distance image 62 is generated based on the three-dimensional coordinate position. .
以上のように本発明によれば、 移動体の移動情報に基づき前回の距離画像の画 素の距離データないしは 3次元座標位置を、 移動情報に応じた分だけ変化させる 画像処理が施されることによって、 前回の距離画像 (最新の距離画像) とつぎに 送信される距離画像の途中の予測距離画像がきわめて正確に、 しかも高速に生成 される。 こうして生成された予測距離画像が、 前回の距離画像とつぎに送信され てくる距離画像との間に挿入されることで、 画像の伝送能力の低さが補われつつ リアルタイムな画像 (たとえばビデオレート、 3 0フレーム/秒) が監視局で表示 される。 このリアルタイムな画像に基づき遠隔操作することで遠隔操作性が飛躍 的に向上する。  As described above, according to the present invention, based on the movement information of a moving object, image processing for changing the distance data or the three-dimensional coordinate position of the pixel of the previous distance image by an amount corresponding to the movement information is performed. As a result, the previous distance image (the latest distance image) and the predicted distance image in the middle of the next transmitted distance image are generated extremely accurately and at high speed. The predicted distance image generated in this way is inserted between the previous distance image and the next transmitted distance image, thereby compensating for the low image transmission capability and real-time image (eg, video rate). , 30 frames / sec) are displayed on the monitoring station. Remote control based on this real-time image dramatically improves remote controllability.
また、 第 2の目的を達成するために、 本発明の第 2発明では、 上記第 1発明の 構成において、 図 1、 図 1 0に示すように、 移動体 1 0から監視局 2 0に距離画 像 6 0を送信するに要する送信遅延時間を T dとし、 前回の距離画像 6 0が生成さ れた時刻を t 1としたとき、 送信遅延時間 Tdを見込んだ時刻 t 1から時間 tだけ経 過した時刻 t 1 + tにおける予測距離画像 6 2 ( 6 3、 6 4、 6 5 ) を生成してお き、 前回の距離画像 60が監視局 20の表示手段 23で時刻 t 1+Tdにおいて表 示されてから時間 t—Td経過した時点で時刻 t 1+ tにおける予測距離画像 62 を表示するようにしている。 Further, in order to achieve the second object, according to the second invention of the present invention, in the configuration of the first invention, as shown in FIGS. 1 and 10, a distance from the mobile object 10 to the monitoring station 20 is increased. When the transmission delay time required to transmit the image 60 is Td and the time when the previous distance image 60 was generated is t1, only the time t from the time t1 that allows for the transmission delay time Td The predicted distance image 6 2 (63, 64, 65) at the elapsed time t 1 + t is generated. In this case, the predicted distance image 62 at the time t 1 + t is displayed when the time t−Td has elapsed since the previous distance image 60 was displayed on the display means 23 of the monitoring station 20 at the time t 1 + Td. ing.
このように、 移動体 10から監視局 20への画像伝送の遅れ時間が補償され、 現時点 t 1+ tでの画像を予測距離画像 62 (63、 64、 65) として表示させ ることができる。  In this way, the delay time of the image transmission from the mobile unit 10 to the monitoring station 20 is compensated, and the image at the current time t1 + t can be displayed as the predicted distance image 62 (63, 64, 65).
また、 第 3の目的を達成するために、 本発明の第 2発明では、 上記第 1発明の 別の発明において、 車体座標系 X— Y— Zの原点位置を、 所定座標軸方向に所定 量だけ変化させる処理 (たとえば、 鉛直 Y軸方向に Hだけ変化させる) を行うこ とによって、 表示手段 23に表示される距離画像の視点を上方に H0け移動させる ようにしている。  Further, in order to achieve a third object, according to a second aspect of the present invention, in the second aspect of the first aspect, the origin position of the vehicle body coordinate system XYZ is shifted by a predetermined amount in a predetermined coordinate axis direction. By performing a changing process (for example, changing by H in the vertical Y-axis direction), the viewpoint of the distance image displayed on the display means 23 is moved upward by H0.
このようにカメラの位置を動かすための複雑な機構を設けることなく簡単な処 理のみで、 所望の視点の画像を表示することができるようになる。 図面の簡単な説明  As described above, an image of a desired viewpoint can be displayed only by simple processing without providing a complicated mechanism for moving the position of the camera. BRIEF DESCRIPTION OF THE FIGURES
図 1は本発明に係る移動体の遠隔操作装置の実施の形態における構成例を示す ブロック図である。  FIG. 1 is a block diagram showing a configuration example of a mobile remote control device according to an embodiment of the present invention.
図 2は図 1に示す監視局で実行される処理の手順を示すフローチヤ一トである。 図 3は移動体から送信される距離画像と予測距離画像との関係を概略的に示す 図である。  FIG. 2 is a flowchart showing a procedure of processing executed by the monitoring station shown in FIG. FIG. 3 is a diagram schematically showing a relationship between a distance image transmitted from a moving object and a predicted distance image.
図 4は移動体が走行する様子を上面から示す図である。  FIG. 4 is a diagram showing a state in which the moving body travels from above.
図 5 (a) 、 (b) 、 (c) は図 4に示す走行路を移動体が走行した場合に得 られる距離画像と予測距離画像とを示す図である。  5 (a), 5 (b) and 5 (c) are diagrams showing a distance image and a predicted distance image obtained when the moving object travels on the traveling path shown in FIG.
図 6はある時刻における車体座標系とこの時刻から所定時間が経過した時刻に おける車体座標系との関係を示す図である。  FIG. 6 is a diagram showing a relationship between a vehicle body coordinate system at a certain time and a vehicle body coordinate system at a time when a predetermined time has elapsed from this time.
図 7は移動体が走行する様子を上面から示す図である。  FIG. 7 is a diagram showing a state in which the moving object travels from above.
図 8 (a) 、 (b) 、 (c) は図 7に示す走行路を移動体が走行した場合に得 られる距離画像と予測距離画像とを示す図である。 Figs. 8 (a), (b) and (c) are obtained when the moving object travels on the travel path shown in Fig. 7. FIG. 5 is a diagram showing a distance image and a predicted distance image to be obtained.
図 9は図 1に示す監視局で実行される他の処理の手順を示すフローチヤ一トで ある。  FIG. 9 is a flowchart showing the procedure of another process executed by the monitoring station shown in FIG.
図 1 0は現時点での画像を監視局で予測距離画像として表示させる処理を説明 するために用いた図である。 発明を実施するための最良の形態  FIG. 10 is a diagram used to explain a process of displaying a current image as a predicted distance image at a monitoring station. BEST MODE FOR CARRYING OUT THE INVENTION
以下、 図面を参照して本発明の実施の形態について説明する。  Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本実施の形態では、 図 4に示すように無人ダンプトラック等の移動体 1 0が走 行路 3 1を走行する場合に、 その前方にみえる木 3 2、 家 3 3、 他の車両 3 4等 からなる距離画像を生成し、 この距離画像に基づき監視局のオペレータが障害物 の存在等を判断することで、 移動体 1 0の走行が遠隔操作される場合を想定して いる。  In the present embodiment, as shown in FIG. 4, when a moving object 10 such as an unmanned dump truck travels on the traveling path 31, a tree 32, a house 33, and other vehicles 34 seen in front of the traveling object 31. It is assumed that the travel of the mobile unit 10 is remotely controlled by generating a distance image composed of the following, and determining the presence or the like of an obstacle by the monitoring station operator based on the distance image.
なお、 本発明としては、 遠隔操作の内容は任意であり、 移動体の走行を遠隔操 作する場合だけでなく、 所定の作業機で所定の作業をしながら走行する移動体を 遠隔操作する場合にも適用可能である。 たとえば、 パワーショベルで対象物を掘 削する場合に、 本発明を適用すれば、 移動中や移動後の掘削対象物までの距離、 その形状といつた情報をリアルタイムに得ることができるので、 作業機用操作レ バーの遠隔操縦性を飛躍的に高めることができる。  Note that, in the present invention, the content of the remote operation is optional, not only when the traveling of the moving body is remotely controlled, but also when the moving body that travels while performing a predetermined work with a predetermined work machine is remotely controlled. Is also applicable. For example, when excavating an object with a power shovel, applying the present invention makes it possible to obtain information on the distance to the excavated object during and after movement, its shape, and its shape in real time. The remote controllability of the machine operation lever can be dramatically improved.
図 6において、 X— Y— Zは、 移動体 1 0とともに移動する車体座標系を示し ている。 Xは移動体 1 0の車幅方向に対応する座標軸であり、 Zは移動体 1 0の 進行方向 (走行路 3 1 ) に対応する座標軸であり、 Yは鉛直方向の座標軸である。 図 1は、 本発明の実施形態である移動体の遠隔操作装置の構成を示している。 同図 1に示すように、 この遠隔装置は、 大きくは移動体 1 0に搭載される車上 装置と、 監視局 2 0とからなっている。  In FIG. 6, X—Y—Z indicates a vehicle body coordinate system that moves together with the moving body 10. X is a coordinate axis corresponding to the vehicle width direction of the moving body 10, Z is a coordinate axis corresponding to the traveling direction of the moving body 10 (the traveling path 31), and Y is a vertical coordinate axis. FIG. 1 shows a configuration of a remote control device for a mobile object according to an embodiment of the present invention. As shown in FIG. 1, this remote device is roughly composed of an on-board device mounted on a mobile object 10 and a monitoring station 20.
移動体 1 0の車上装置は、 移動体 1 0搭載のカメラの撮像結果に基づき、 移動 体 1 0上の基準位置 (基準面) から、 その移動体 1 0の進行方向前方の各物体ま での距離を計測し、 基準位置からの距離を示す距離データ dおよび 2次元座標位 置データ ( i、 j ) が各画素に対応付けられた 3次元の距離画像を生成する距離 画像生成部 1 1と、 この距離画像生成部 1 1で生成された距離画像を、 一定時間 Δ t毎に監視局 2 0にアンテナ 1 5を介して無線にて送信する画像送信機 1 3と、 移動体 1 0の内界センサで構成され、 移動体 1 0の位置変化ないしは各方向の位 置 ·姿勢変化を計測する計測部 1 2と、 この計測部 1 2の計測結果をアンテナ 1 6を介して監視局 2 0に無線にて送信するセンサ信号送信機 1 4とから構成され ている。 The on-board device of the moving body 10 is configured to move from the reference position (reference plane) on the moving body 10 to each object in front of the moving body 10 in the traveling direction based on the imaging result of the camera mounted on the moving body 10. The distance image generation unit 1 measures the distance at a distance, and generates a three-dimensional distance image in which the distance data d indicating the distance from the reference position and the two-dimensional coordinate position data (i, j) are associated with each pixel. 1, an image transmitter 13 that wirelessly transmits the distance image generated by the distance image generation unit 11 to the monitoring station 20 via the antenna 15 at regular time intervals Δt, and a mobile unit 1 A measuring unit 12 that measures the position change or the position and posture change of the moving object 10 and monitors the measurement results of the measuring unit 12 via the antenna 16. And a sensor signal transmitter 14 for wirelessly transmitting to the station 20.
一方、 監視局 2 0は、 移動体 1 0の車上装置から送信された距離画像およびセ ンサ信号をアンテナ 2 4を介して受信し、 受信内容に基づいて、 前回の距離画像 が生成された時刻 t 1から上記距離画像の送信の間隔である一定時間 Δ tよりも小 さい所定時間 tが経過するまでの間に移動体 1 0が移動することによって、 前回 の距離画像の各画素が上記距離データ dとして示される距離方向に変化する移動 距離 L 1を演算する処理を行う力、 あるいは前回の距離画像が生成された時刻 t 1 における車体座標系 X— Y _ Zを、 当該時刻 t 1から一定時間 Δ tよりも小さい所 定時間 tが経過した時刻 t 1 + tにおける車体座標系 X— Y—Zに変換し、 この所 定時間 tが経過した時刻 t 1 + tの車体座標系 X _ Y— Zにおける前回の距離画像 の各画素の 3次元座標位置を演算する処理を行う演算部 2 1と、 この演算結果に 基づいて、 距離画像の各画素の距離データ dを、 上記移動距離 L 1だけ変化させる ことによって、 前回の距離画像が生成された時刻 t lから画像送信間隔 Δ tが経過 する途中の時刻 t 1 + tにおける予測距離画像を生成するか、 あるいは、 時刻 t 1 + tの車体座標系 X _ Y— Zにおける前回の距離画像の各画素の 3次元座標位置 に基づいて前回の距離画像が生成された時刻 t 1から画像送信間隔 Δ tが経過する 途中の時刻 t 1 + tにおける予測距離画像を生成する予測距離画像生成部 2 2と、 この生成された予測距離画像を、 前回の距離画像と次に、 移動体 1 0から送信さ れてくる距離画像との間に挿入して表示する C R Tディスプレイ等からなる表示 部 2 3とから構成されている。 監視局 20では、 表示部 23に表示された距離画像に基づき、 あるいは距離画 像を更に画像処理したものに基づき、 移動体 10前方に存在する障害物の有無等 がオペレータによって判断され、 駆動制御信号がアンテナ 24を介して送信され ることによって移動体 10が遠隔操作され、 移動体 10の走行が駆動制御される。 ここで、 計測部 12は、 移動体 10の速度 Vを検出する速度センサで構成する ことができる。 On the other hand, the monitoring station 20 receives the distance image and the sensor signal transmitted from the on-board device of the mobile object 10 via the antenna 24, and based on the received content, the previous distance image was generated. The moving object 10 moves from the time t1 until a predetermined time t smaller than the fixed time Δt, which is the interval of the transmission of the distance image, elapses. The force that performs the process of calculating the moving distance L1 that changes in the distance direction indicated as the distance data d, or the vehicle body coordinate system X—Y_Z at the time t1 when the previous distance image was generated, is calculated as the time t1 Is converted to the body coordinate system X—Y—Z at the time t 1 + t when the predetermined time t that is smaller than the fixed time Δt has elapsed, and the body coordinate system at the time t 1 + t at which the predetermined time t has passed X _ Y — 3D coordinate position of each pixel in the previous range image in Z A calculation unit 21 that performs a process of calculating the distance image d of each pixel of the distance image by the moving distance L1 based on the calculation result, thereby obtaining a time tl at which the previous distance image was generated. Generates a predicted distance image at time t1 + t during the image transmission interval Δt elapses from A predicted distance image generation unit 22 that generates a predicted distance image at a time t 1 + t during which the image transmission interval Δt elapses from the time t 1 at which the previous distance image was generated based on the three-dimensional coordinate position; A display unit 23 such as a CRT display that inserts and displays the generated predicted distance image between the previous distance image and the next distance image transmitted from the moving object 10 is displayed. Have been. In the monitoring station 20, based on the distance image displayed on the display unit 23 or based on a further image processing of the distance image, the operator determines whether there is an obstacle present in front of the moving object 10 and the like, and the drive control is performed. By transmitting the signal via the antenna 24, the mobile unit 10 is remotely controlled, and the traveling of the mobile unit 10 is drive-controlled. Here, the measurement unit 12 can be configured by a speed sensor that detects the speed V of the moving body 10.
また、 別の実施形態では、 計測部 1 2は、 GP S (グロ一バル 'ポジショニン グ ·センサ) などの移動体 10の 3次元位置を検出する位置センサあるいは移動 体 10の 3次元速度を検出する速度センサと、 ジャイロなどの角速度センサ等で 構成することができる。 たとえば、 移動体 10の車体のョ一方向のョ一イング角 度を検出するョーレイ トジャイロと、 車体のピッチング角とローリング角を検出 する 2つの傾斜計とから構成することができ、 これら検出結果に基づき、 図 6に 示すように、 時刻 t 1における車体座標系 X— Y— Zの座標軸に対する時刻 t 1か ら時間 tだけ経過した時刻 t 1+ tにおける車体座標系 X— Y_Zの座標軸の回転 角を表す車体の回転角 (RX0、 RY0、 RZ0) が出力される。 時刻 t lにおける 車体座標系 X -Y-Zでみた時刻 t 1 + tにおける車体座標系 X -Y-Zの原点位 置 (Vx · t、 Vy · t、 Vz · t ) は、 時刻 t 1+ tにおける速度センサの出力 V In another embodiment, the measuring unit 12 detects a three-dimensional position of the moving body 10 such as a global positioning sensor (GPS) or a three-dimensional velocity of the moving body 10. Speed sensor and an angular speed sensor such as a gyro. For example, it can be composed of a gyroscope that detects the tilting angle of the moving body 10 in one direction and two inclinometers that detect the pitching angle and the rolling angle of the vehicle. As shown in Fig. 6, the rotation of the coordinate axes of the body coordinate system X—Y_Z at time t1 + t at time t1 after time t1 with respect to the coordinate axes of the body coordinate system X—Y—Z at time t1 The rotation angle (RX0, RY0, RZ0) of the vehicle body indicating the angle is output. The origin position (Vx · t, Vy · t, Vz · t) of the body coordinate system X-YZ at time t1 + t as viewed in body coordinate system X-YZ at time tl is the speed sensor at time t1 + t Output V
(Vx、 Vy、 Vz) から求めることができる。 また、 G P Sなどの位置センサの出 力として取得することができる。 (Vx, Vy, Vz). It can also be obtained as the output of a position sensor such as GPS.
距離画像生成部 1 1では、 例えば図 5 (a) に示すような走行路面 3 1と、 こ の走行路面 31に沿って存在する木 32、 家 33、 他の車両 34からなる距離画 像 40が生成される。 距離画像 40の各画素 50には、 i一; j 2次元座標系にお ける 2次元座標位置 ( i、 j ) 、 移動体 10の基準位置 (基準面) からの距離 d を示す 3次元のデータ ( i、 j、 d) が対応づけられており、 距離画像 40の各 位置し jの画素は、 距離 dに応じた明度を有している。 画素 50の明度は、 距 離 dが小さいほど大きく、 明るくなる (画面では白くなる) 。 こうした 3次元の 距離画像を生成するための距離計測の方法としては、 例えば特願平 7— 2009 9 9号に示される多眼レンズ (多眼力メラ) を使用した方法を用いることができ る。 In the distance image generation unit 11, for example, a distance image 40 composed of a traveling road surface 31 as shown in FIG. 5A and a tree 32, a house 33, and other vehicles 34 existing along the traveling road surface 31. Is generated. Each pixel 50 of the distance image 40 has three dimensions: i, j; a two-dimensional coordinate position (i, j) in the two-dimensional coordinate system, and a distance d from the reference position (reference plane) of the moving object 10. The data (i, j, d) are associated with each other, and the pixel of each position j of the distance image 40 has brightness corresponding to the distance d. The brightness of the pixel 50 increases as the distance d decreases, and the brightness increases (the screen becomes whiter). As a method of distance measurement for generating such a three-dimensional distance image, for example, Japanese Patent Application No. Hei 7—2009 A method using a multi-lens lens (multi-eye lens) described in No. 9 can be used.
以下、 監視局 2 0の演算部 2 1、 予測距離画像生成部 2 2で行われる処理につ いて、 図 2のフローチャートを参照して説明する。  Hereinafter, the processing performed by the calculation unit 21 and the predicted distance image generation unit 22 of the monitoring station 20 will be described with reference to the flowchart of FIG.
•第 1の実施形態  • First Embodiment
この実施形態では、 図 4に示すように、 移動体 1 0が直線路である走行路 3 1 を直進している場合を想定する。 特に、 直進走行している場合に好適であり、 簡 易な構成により簡易な処理で予測距離画像を生成することができる実施形態であ る。 この実施形態では、 計測部 1 2は、 速度センサのみで構成することができる。 図 5に示すように、 監視局 2 0には、 時刻 t 1で距離画像 4 0 (前回の距離画像 という) が受信される。 なお、 この時刻 t 1から Δ tだけ時間が経過した時刻 t 2 で、 つぎの距離画像 4 1が受信される (ステップ 1 0 1 :図 5 ( a ) 、 ( b ) 参 照) 。  In this embodiment, as shown in FIG. 4, it is assumed that the moving body 10 is traveling straight on a straight running path 31. In particular, this embodiment is suitable when the vehicle is traveling straight ahead, and can generate a predicted distance image by a simple process with a simple configuration. In this embodiment, the measuring unit 12 can be constituted only by the speed sensor. As shown in FIG. 5, the monitoring station 20 receives a distance image 40 (referred to as a previous distance image) at time t1. At time t2 when a time Δt has elapsed from time t1, the next distance image 41 is received (step 101: see FIGS. 5 (a) and 5 (b)).
つぎに、 受信されたセンサ信号、 つまり速度センサの出力 Vに基づいて、 前回 の距離画像 4 0が生成された時点から所定時間 t (く Δ t ) が経過するまでの間 の移動体 1 0の移動距離 L 1が下式によって演算される。  Next, based on the received sensor signal, that is, based on the output V of the speed sensor, the moving object 10 from the time when the previous distance image 40 was generated until a predetermined time t (ΔΔt) elapses. Is calculated by the following equation.
L 1 = V · t ··· ( 5 )  L 1 = Vt (5)
(ステップ 1 0 2 ) 前回の距離画像 4 0から時間 tだけ経過したときの距離画像は、 前回の距離画 像 4 0と比較して全体として上記移動距離 L 1だけ近づいているはずである。  (Step 10 2) The distance image when the time t has elapsed from the previous distance image 40 should be closer to the entire distance L 1 than the previous distance image 40 as a whole.
そこで、 前回の距離画像 4 0の画素 5 0の距離データ dから、 上記演算移動距 離 L 1だけ減算する処理がなされ、 画素 5 0の距離データが dから d— L 1へと変 化される。 この減算処理は全画素について行われる。 なお、 距離データが負の値 に変化する場合には、 距離データを 0に設定すればよい。 この結果、 図 5 ( c ) に示すように、 前回の距離画像 4 0が生成された時刻 t 1から画像送信間隔 Δ tが 経過する途中の時刻 t 1 + tにおける予測距離画像 4 2が生成される  Therefore, a process of subtracting the calculated moving distance L1 from the distance data d of the pixel 50 of the previous distance image 40 is performed, and the distance data of the pixel 50 is changed from d to d-L1. You. This subtraction process is performed for all pixels. When the distance data changes to a negative value, the distance data may be set to 0. As a result, as shown in FIG. 5 (c), a predicted distance image 42 at a time t1 + t at which the image transmission interval Δt elapses from the time t1 when the previous distance image 40 was generated is generated. Be done
0 3 ) 。 上記予測距離画像 4 2は 1フレームだけではなく、 時間 tを異ならせて 2フレ— ーム以上を、 予測距離画像 4 2、 4 3、 4 4…として生成してもよレ、。 0 3). The predicted distance image 42 may be generated not only as one frame but also as two or more frames at different times t as the predicted distance images 42, 43, 44,.
こうして生成された予測距離画像、 たとえば 5フレームからなる予測距離画像 4 2、 4 3、 4 4、 4 5、 4 6力 図 3に示すように、 前回の距離画像 4 0と次 に、 移動体 1 0から送信されてくる距離画像 4 1との間に挿入されて表示部 2 3 に表示される。  The predicted distance image generated in this way, for example, a predicted distance image composed of 5 frames 4 2, 4 3, 4 4, 4 5, 4 6 Force As shown in Fig. 3, the previous distance image 40 and then the moving object It is inserted between the distance image 41 transmitted from 10 and the distance image 41 and displayed on the display unit 23.
この結果、 表示部 2 3に、 たとえばビデオレート、 3 0フレーム/秒のリアルタ ィムな画像が表示され、 画像の伝送能力の低さ (A t間隔の画像伝送) を十分補 うことができる。 そして、 このリアルタイムな画像に基づきオペレータが遠隔操 作することで、 移動体 1 0の遠隔操作性が飛躍的に向上することになる。  As a result, a real-time image of, for example, a video rate of 30 frames / second is displayed on the display unit 23, which can sufficiently compensate for the low image transmission capability (image transmission at At intervals). . Then, the remote operation by the operator based on this real-time image greatly improves the remote operability of the mobile unit 10.
•第 2の実施形態  • Second embodiment
この実施形態では、 図 7に示すように、 移動体 1 0がカーブ路である走行路 3 1を走行している場合を想定する。  In this embodiment, as shown in FIG. 7, it is assumed that a moving body 10 is traveling on a traveling path 31 which is a curved road.
この実施形態では、 計測部 1 2は、 速度センサ (あるいは位置センサ) および 角速度センサ等の各方向の位置変化および各方向の姿勢変化を検出するセンサで 構成される。 以下、 図 9に示すフローチャートを参照して説明する。  In this embodiment, the measurement unit 12 is configured by a sensor that detects a position change in each direction and a posture change in each direction, such as a speed sensor (or a position sensor) and an angular velocity sensor. Hereinafter, description will be made with reference to the flowchart shown in FIG.
図 8に示すように、 監視局 2 0には、 時刻 t 1で距離画像 6 0が受信される。 な お、 この時刻 t 1から Δ tだけ時間が経過した時刻 t 2で、 つぎの距離画像 6 1が 受信される (ステップ 2 0 1 :図 8 ( a ) 、 (b ) 参照) 。  As shown in FIG. 8, the monitoring station 20 receives the distance image 60 at time t1. At the time t2 when a time Δt has elapsed from the time t1, the next distance image 61 is received (step 201: see FIGS. 8 (a) and 8 (b)).
以下、 受信されたセンサ信号に基づいて、 前回の距離画像 6 0が生成された時 刻 t 1における車体座標系 X— Y— Zを、 当該時刻 から所定時間 tが経過した 時刻 t 1 + tにおける車体座標系 X— Y— Zに変換し、 この所定時間 tが経過した 時刻 t 1 + tの車体座標系 X— Y— Zにおける前回の距離画像 6 0の各画素の 3次 元座標位置を演算し、 この時刻 t 1 + tの車体座標系 X— Y— Zにおける前回の距 離画像 6 0の各画素の 3次元座標位置に基づいて、 前回の距離画像 6 0が生成さ れた時刻 t 1から画像送信間隔 Δ tが経過する途中の時刻 t 1 + tにおける予測距 離画像 6 2を生成する処理が実行される。 まず、 距離画像 60の各画素 50には、 上述したように ( i、 j、 d) の 3次 元の情報が対応づけられているので、 この距離画像データ ( i、 j、 d) で示さ れる各画素 50を、 図 6、 図 7に示すように、 移動体 10とともに移動し、 移動 体 10の所定位置を原点とする車体座標系 X— Y— Z上の 3次元座標位置データ (Χ、 Υ、 Ζ) に対応づけられた各画素に変換することができる。 この結果、 距 離画像 60の各画素 50 (図 6の Ρ点) は、 時刻 t 1における車体座標系 X— Υ— Z上の 3次元座標位置 (XP ( t 1) 、 YP ( t 1) 、 Z P ( t 1) ) で表される ( ステップ 202) 。 Hereinafter, based on the received sensor signal, the vehicle body coordinate system X—Y—Z at the time t1 when the previous distance image 60 was generated is calculated as the time t1 + t at which the predetermined time t has elapsed from the time. Is converted to the body coordinate system X—Y—Z at, and the three-dimensional coordinate position of each pixel of the previous distance image 60 in the body coordinate system X—Y—Z at the time t 1 + t at which the predetermined time t has elapsed Is calculated based on the three-dimensional coordinate position of each pixel of the previous distance image 60 in the body coordinate system X—Y—Z at this time t 1 + t. A process of generating the predicted distance image 62 at the time t1 + t during the elapse of the image transmission interval Δt from the time t1 is executed. First, since the three-dimensional information of (i, j, d) is associated with each pixel 50 of the distance image 60 as described above, this pixel is represented by the distance image data (i, j, d). Each pixel 50 to be moved is moved together with the moving body 10 as shown in FIGS. 6 and 7, and the three-dimensional coordinate position data (Χ) on the vehicle body coordinate system X—Y—Z having the predetermined position of the moving body 10 as the origin. , Υ, Ζ) can be converted into each pixel. As a result, each pixel 50 (point 画像 in FIG. 6) of the distance image 60 is represented by a three-dimensional coordinate position (XP (t 1), YP (t 1) on the body coordinate system X—Υ—Z at time t1. , ZP (t1)) (step 202).
さらに、 受信されたセンサ信号に基づいて、 上述した時刻 t 1から時刻 t 1+ t までの間の車体の回転角 (RX0、 RY0、 RZO) 、 時刻 t 1における車体座標系 からみた時刻 t 1+ tにおける車体座標系 X— Y— Zの原点位置 (Vx* t、 Vy · Vz · t ) が求められる。 この時刻 t 1から時刻 t 1+ tの間の位置の変化量 ( Vx - t、 Vy · t、 Vz · t ) は、 時刻 t 1+ tにおける速度センサの出力 V (V x、 Vy、 Vz) に基づく演算によって求めてもよく、 GP Sなどの位置センサから 出力される時刻 t 1での位置と時刻 t 1+ tでの位置とに基づき求めるようにして もよい (ステップ 203) 。  Further, based on the received sensor signal, the rotation angle (RX0, RY0, RZO) of the vehicle body from time t1 to time t1 + t described above, and the time t1 viewed from the vehicle body coordinate system at time t1. The origin position (Vx * t, Vy · Vz · t) of the body coordinate system X—Y—Z at + t is obtained. The amount of change (Vx-t, Vyt, Vzt) between the time t1 and the time t1 + t is the output V (Vx, Vy, Vz) of the speed sensor at the time t1 + t. ) May be calculated based on the position at time t1 and the position at time t1 + t output from a position sensor such as GPS (step 203).
つぎに、 これら時刻 t 1から時刻 t 1+ tまでの間の車体の回転角 (RXO、 RY 0、 RZO) 、 時刻 t 1における車体座標系からみた時刻 t 1+ tにおける車体座標 系 X— Y—Zの原点位置 (Vx. t、 Vy - t、 Vz - t ) を用いて、 図 6に示すよ うに、 時刻 t 1における車体座標系上の画素 50 (P点) の座標位置(XP (tl) 、 YP (t l) 、 Z P (tl) ) と、 時刻 t 1+ tにおける車体座標系の同画素 50 ( P点) の座標位置(XP (t l+ t) 、 YP (t l+ t) 、 Z P (tl+ t) ) との 関係が、 次式 (1) のようにして求められる。  Next, the rotation angle (RXO, RY0, RZO) of the vehicle body between time t1 and time t1 + t, the vehicle body coordinate system X at time t1 + t viewed from the vehicle body coordinate system at time t1 Using the origin position of Y—Z (Vx.t, Vy-t, Vz-t), as shown in Fig. 6, the coordinate position of pixel 50 (point P) on the body coordinate system at time t1 (XP (tl), YP (tl), ZP (tl)) and the coordinate position (XP (t l + t), YP (t l + t) of the same pixel 50 (point P) in the vehicle body coordinate system at time t 1+ t , ZP (tl + t)) is obtained as in the following equation (1).
(0(0
Figure imgf000013_0001
ただし、 上記 (1) 式において MROは、 車体座標系の回転マトリ ックスであり 車体の回転角 (RX0、 RY0、 RZ0) を用いて、 次式 (2) のように表される。
Figure imgf000013_0001
However, in the above equation (1), MRO is a rotation matrix of the vehicle body coordinate system, and is represented by the following equation (2) using the rotation angles (RX0, RY0, RZ0) of the vehicle body.
COS(RXO) SIN(RXO) 0 COS(RYO) 0 -SIN(RYO)COS (RXO) SIN (RXO) 0 COS (RYO) 0 -SIN (RYO)
MRO = -SIN(RXO) COS(RXO) 0 0 1 0 MRO = -SIN (RXO) COS (RXO) 0 0 1 0
0 0 1 SIN(RYO) 0 COS(RYO)  0 0 1 SIN (RYO) 0 COS (RYO)
Figure imgf000014_0001
よって、 上記 (1) 式より、 時刻 t 1における車体座標系における画素 50 (点 P) の座標位置 (XP (t l) 、 YP (t l) 、 ZP (t l) ) を、 時刻 t l+ tに おける車体座標系の座標位置 (XP (t l+ t) 、 YP (tl+ t) 、 Z P ( t 1+ t) ) に、 以下のように変換することができる。
Figure imgf000014_0001
Therefore, from the above equation (1), the coordinate position (XP (tl), YP (tl), ZP (tl)) of the pixel 50 (point P) in the vehicle body coordinate system at the time t1 is calculated at the time tl + t. It can be converted into the coordinate position of the body coordinate system (XP (t l + t), YP (tl + t), ZP (t 1 + t)) as follows.
(3)
Figure imgf000014_0002
上記変換は距離画像 60のすベての画素について実行される (テツプ 204) 。 つぎに、 上記求められた時刻 t l+ tにおける車体座標系の 3次元座標位置 (X P (t l+ t) 、 YP (t l+ t) 、 Z P (t l+ t) ) を、 距離画像データ ( i、 j、 d) に再び変換し直す処理が実行される。 この場合、 カメラの画角内に存在 する 3次元座標のみが選択され、 その選択された 3次元座標が距離画像データに 戻される。 こうして各画素 50の 3次元座標位置が、 距離 dと画面内での座標 i、 jに変換され、 この結果、 図 8 (c) に示すように、 前回の距離画像 60が生成 された時刻 t 1から画像送信間隔 Δ tが経過する途中の時刻 t 1+ tにおける予測 距離画像 62が生成される (ステップ 205) 。
(3)
Figure imgf000014_0002
The above conversion is performed for all the pixels of the range image 60 (Step 204). Next, the three-dimensional coordinate positions (XP (t l + t), YP (t l + t), ZP (t l + t)) of the vehicle body coordinate system at the time t l + t obtained above are converted into the distance image data (i, The process of converting it back to j and d) is performed. In this case, only the three-dimensional coordinates existing within the angle of view of the camera are selected, and the selected three-dimensional coordinates are returned to the distance image data. In this way, the three-dimensional coordinate position of each pixel 50 is converted into the distance d and the coordinates i and j on the screen. As a result, as shown in FIG. 8 (c), the time t when the previous distance image 60 was generated A predicted distance image 62 is generated at time t 1 + t in the middle of the elapse of the image transmission interval Δt from 1 (step 205).
上記予測距離画像 62は 1フレームだけではなく、 時間 tを異ならせて 2フレ —ム以上を、 予測距離画像 62、 63、 64…として生成してもよレ、。 こうして生成された予測距離画像、 たとえば 5フレームからなる予測距離画像 6 2、 6 3、 6 4、 6 5、 6 6力 図 3に示すように、 前回の距離画像 6 0と次 に、 移動体 1 0から送信されてくる距離画像 6 1との間に挿入されて表示部 2 3 に表示される。 The predicted distance image 62 may be generated not only as one frame but also as two or more frames at different times t as the predicted distance images 62, 63, 64,. The predicted distance image generated in this way, for example, a predicted distance image composed of 5 frames 62, 63, 64, 65, 66 As shown in Fig. 3, the previous distance image 60 and the moving object It is inserted between the distance image 61 transmitted from 10 and the distance image 61 and displayed on the display unit 23.
この結果、 表示部 2 3に、 たとえばビデオレート、 3 0フレーム/秒のリアルタ ィムな画像が表示され、 画像の伝送能力の低さ (A t間隔の画像伝送) を十分補 うことができる。 そして、 このリアルタイムな画像に基づきオペレータが遠隔操 作することで、 移動体 1 0の遠隔操作性が飛躍的に向上することになる。  As a result, a real-time image of, for example, a video rate of 30 frames / second is displayed on the display unit 23, and the low image transmission capability (image transmission at the At interval) can be sufficiently compensated. . Then, the remote operation by the operator based on this real-time image greatly improves the remote operability of the mobile unit 10.
ところで、 図 1 0に示すように、 移動体 1 0から監視局 2 0へ距離画像を送信 する際、 実際には送信に要する送信遅延時間 Tdが存在する。 よって、 この遅延時 間 Tdを考慮して現時点での画像を予測距離画像として表示部 2 3に表示させるこ ともできる。  By the way, as shown in FIG. 10, when a distance image is transmitted from the mobile object 10 to the monitoring station 20, there is actually a transmission delay time Td required for transmission. Therefore, the image at the present time can be displayed on the display unit 23 as the predicted distance image in consideration of the delay time Td.
すなわち、 図 1 0に示すように、 前回の距離画像 6 0が移動体 1 0にて時刻 t 1で生成されたものとすると、 この距離画像 6 0に基づき、 前述したような処理に よって、 送信遅延時間 Tdを見込んだ時刻 t 1から時間 tだけ経過した時刻 t 1 + t における予測距離画像 6 2を監視局 2 0にて生成する。 そして、 前回の距離画像 6 0が監視局 2 0の表示部 2 3で時亥 ij t 1 + Tdにおいて表示されてから時間 t - Td経過した時点で、 上記時刻 t 1 + tにおける予測距離画像 6 2を表示する。 他 の予測距離画像 6 3、 6 4、 6 5も同様にして表示する。 この結果、 現時点での 距離画像 6 2、 6 3、 6 4、 6 5力 監視局 2 0で表示されることとなり、 オペ レータによる移動体 1 0の遠隔操作性がさらに向上する。  That is, as shown in FIG. 10, assuming that the previous distance image 60 was generated at time t1 by the moving object 10, based on the distance image 60, The monitoring station 20 generates a predicted distance image 62 at a time t 1 + t at which a time t has elapsed from the time t 1 in consideration of the transmission delay time Td. Then, when the time t-Td has elapsed since the previous distance image 60 was displayed on the display unit 23 of the monitoring station 20 at time tij + td, the predicted distance image at the above time t1 + t 6 Display 2. The other predicted distance images 63, 64, and 65 are displayed in the same manner. As a result, the current distance images 62, 63, 64, 65 are displayed at the monitoring station 20, and the remote control of the moving object 10 by the operator is further improved.
なお、 前述した第 1の実施形態にこの方法を適用してもよい。  Note that this method may be applied to the above-described first embodiment.
また、 監視局 2 0の表示部 2 3で表示される距離画像の視点を、 所望の視点に 変える実施も可能である。  It is also possible to change the viewpoint of the distance image displayed on the display unit 23 of the monitoring station 20 to a desired viewpoint.
この場合、 距離画像 6 2に変換する前の時刻 t 1 + tにおける車体座標系 X— Y 一 Ζの原点位置を、 所望の座標軸方向に所望量だけ変化させる処理を行えばよレ、。 具体的には、 表示部 2 3に表示される距離画像の視点を Ηだけ上げ、 オペレー タの視点を Hだけ上げたいときには、 上記第 (3 ) 式の右辺に、 下記 (4 ) 式を カロえればよレヽ。 In this case, a process of changing the origin position of the vehicle body coordinate system XY at time t 1 + t before conversion into the distance image 62 by a desired amount in the desired coordinate axis direction may be performed. Specifically, the viewpoint of the distance image displayed on the display unit 23 is raised by Η, and the If you want to raise the point of view of the data by H, the following expression (4) should be added to the right side of the above expression (3).
Figure imgf000016_0001
このように時刻 t 1 + tにおける車体座標系 X— Y—Zの原点位置が、 鉛直 Υ軸 方向に Ηだけ変化されることによって、 表示部 2 3に表示される距離画像の視点、 つまりオペレータの視点が上方に Ηだけ移動される。
Figure imgf000016_0001
By changing the origin position of the vehicle body coordinate system X—Y—Z at time t 1 + t by に in the vertical Υ-axis direction, the viewpoint of the distance image displayed on the display unit 23, that is, the operator Is moved upward by Η.
この方法を適用すれば、 カメラの位置を動かすための複雑な機構を設けること なく簡単な処理のみで、 所望の視点の画像を表示することができる。 このため、 オペレータによる移動体 1 0の遠隔操作性はさらに向上する。  If this method is applied, an image of a desired viewpoint can be displayed with simple processing without providing a complicated mechanism for moving the position of the camera. Therefore, the remote operability of the moving body 10 by the operator is further improved.

Claims

請求の範囲 The scope of the claims
1 . 移動体に搭載され、 当該移動体の外部を撮像する撮像装置の撮像画 像を、 一定時間毎に監視局に送信し、 当該監視局で受信された撮像画像に基づい て移動体を遠隔操作するようにした移動体の遠隔操作装置において、  1. An image captured by an imaging device mounted on the moving body and capturing an image of the outside of the moving body is transmitted to the monitoring station at regular time intervals, and the moving body is remotely controlled based on the captured image received by the monitoring station. In a remote control device of a moving body to be operated,
前記撮像装置として、 基準位置から、 移動体外部の物体までの距離を計測し、 当該物体の距離画像を生成する距離画像生成手段を設けるとともに、  As the imaging device, a distance image generating unit that measures a distance from a reference position to an object outside the moving object and generates a distance image of the object is provided,
前記移動体に、 当該移動体の位置変化を計測する計測手段と、 この計測手段の 計測結果を前記監視局に送信する送信手段とを設け、 さらに、 前記監視局に、 前記計測手段の計測結果に基づいて、 前記距離画像生成手段で前回の距離画像 が生成された時点から前記一定時間よりも小さい所定時間が経過するまでの間の 移動体の移動距離を演算する演算手段と、  A measuring means for measuring a change in position of the moving body; and a transmitting means for transmitting a measurement result of the measuring means to the monitoring station, further comprising: a measuring result of the measuring means in the monitoring station. Calculating means for calculating the moving distance of the moving body from the time when the previous distance image is generated by the distance image generating means until a predetermined time smaller than the predetermined time elapses, based on
前記演算手段の演算結果に基づいて、 前記距離画像の各画素の距離データを、 前記移動距離だけ変化させることによって、 前回の距離画像が生成された時点か ら前記一定時間が経過する途中の予測距離画像を生成する予測距離画像生成手段 と、  By changing the distance data of each pixel of the distance image by the moving distance based on the calculation result of the calculation means, the prediction of the elapse of the predetermined time from the time when the previous distance image was generated is performed. Predicted distance image generating means for generating a distance image;
前記予測距離画像生成手段で生成された予測距離画像を、 前回の距離画像と次 に、 移動体から送信されてくる距離画像との間に挿入して表示する表示手段と を設けるようにした移動体の遠隔操作装置。  Display means for inserting and displaying the predicted distance image generated by the predicted distance image generation means between the previous distance image and the distance image transmitted from the moving object. Remote control of the body.
2 . 移動体に搭載され、 当該移動体の外部を撮像する撮像装置の撮像画 像を、 一定時間毎に監視局に送信し、 当該監視局で受信された撮像画像に基づい て移動体を遠隔操作するようにした移動体の遠隔操作装置において、  2. An image captured by an imaging device that is mounted on the moving body and captures an image of the outside of the moving body is transmitted to the monitoring station at regular intervals, and the moving body is remotely controlled based on the captured image received by the monitoring station. In a remote control device of a moving body to be operated,
前記撮像装置として、 基準位置から、 移動体外部の物体までの距離を計測し、 各画素が、 移動体とともに移動する車体座標系の 3次元座標位置に対応づけられ ている距離画像を生成する距離画像生成手段を設けるとともに、  The imaging device measures a distance from a reference position to an object outside a moving object, and generates a distance image in which each pixel is associated with a three-dimensional coordinate position of a vehicle body coordinate system that moves with the moving object. In addition to providing image generation means,
前記移動体に、 当該移動体の各方向の位置 ·姿勢変化を計測する計測手段と、 この計測手段の計測結果を前記監視局に送信する送信手段とを設け、 さらに、 前 記監視局に、 前記計測手段の計測結果に基づいて、 前記距離画像生成手段で前回の距離画像 が生成された時点における車体座標系を、 当該時点から前記一定時間よりも小さ い所定時間が経過した時点における車体座標系に変換し、 この所定時間が経過し た時点の車体座標系における前回の距離画像の各画素の 3次元座標位置を演算す る演算手段と、 The moving body is provided with measuring means for measuring a change in position and orientation in each direction of the moving body, and transmitting means for transmitting a measurement result of the measuring means to the monitoring station. Based on the measurement result of the measuring means, the vehicle body coordinate system at the time when the previous distance image was generated by the distance image generating means is changed to the vehicle body coordinate at the time when a predetermined time smaller than the predetermined time has elapsed from the time. Calculating means for calculating the three-dimensional coordinate position of each pixel of the previous distance image in the vehicle body coordinate system at the time when the predetermined time has elapsed;
前記演算手段で演算された前記所定時間が経過した時点の車体座標系における 前回の距離画像の各画素の 3次元座標位置に基づいて、 前回の距離画像が生成さ れた時点から前記一定時間が経過する途中の予測距離画像を生成する予測距離画 像生成手段と、  Based on the three-dimensional coordinate position of each pixel of the previous distance image in the vehicle body coordinate system at the time when the predetermined time calculated by the calculating means has elapsed, the predetermined time from the time when the last distance image was generated Predicted distance image generating means for generating a predicted distance image on the way of passing;
前記予測距離画像生成手段で生成された予測距離画像を、 前回の距離画像と次 に、 移動体から送信されてくる距離画像との間に挿入して表示する表示手段と を設けるようにした移動体の遠隔操作装置。  Display means for inserting and displaying the predicted distance image generated by the predicted distance image generation means between the previous distance image and the distance image transmitted from the moving object. Remote control of the body.
3 . 前記移動体から前記監視局に距離画像を送信するに要する送信遅延 時間を Tdとし、 前回の距離画像が生成された時刻を t 1としたとき、 送信遅延時 間 Tdを見込んだ時刻 t 1から時間 tだけ経過した時刻 t 1 + tにおける予測距離画 像を生成しておき、 前回の距離画像が監視局の表示手段で時刻 t 1 + Tdにおいて 表示されてから時間 t一 T d経過した時点で時刻 t 1 + tにおける予測距離画像を 表示するようにした請求の範囲 1または請求の範囲 2記載の移動体の遠隔操作装 置。  3. When the transmission delay time required to transmit the distance image from the moving object to the monitoring station is Td, and the time at which the previous distance image was generated is t1, the time t that allows for the transmission delay time Td A predicted distance image at time t 1 + t, which has elapsed from time 1 by time t, is generated, and time t1-T d has elapsed since the previous distance image was displayed at time t 1 + Td on the display means of the monitoring station. 3. The remote control device for a moving object according to claim 1, wherein a predicted distance image at a time t1 + t is displayed at a point in time.
4 . 前記計測手段は、 移動体の速度を検出する速度センサである請求の 範囲 1記載の移動体の遠隔操作装置。  4. The remote control device for a moving object according to claim 1, wherein the measuring means is a speed sensor for detecting a speed of the moving object.
5 . 前記計測手段は、 移動体の位置を検出する位置センサあるいは移動 体の速度を検出する速度センサと、 移動体の姿勢角を検出する姿勢角センサとの 組合せであるである請求の範囲 2記載の移動体の遠隔操作装置。  5. The measuring means is a combination of a position sensor for detecting the position of the moving body or a speed sensor for detecting the speed of the moving body, and a posture angle sensor for detecting the posture angle of the moving body. A remote control device for a mobile object according to claim 1.
6 . 前記車体座標系の原点位置を、 所定座標軸方向に所定量だけ変化さ せる処理を行うことによって、 前記表示手段に表示される距離画像の視点を移動 させるようにした請求の範囲 2記載の移動体の遠隔操作装置。  6. The method according to claim 2, wherein the viewpoint of the distance image displayed on the display unit is moved by performing a process of changing the origin position of the vehicle body coordinate system by a predetermined amount in a predetermined coordinate axis direction. Remote control device for mobile objects.
PCT/JP1997/004083 1996-11-11 1997-11-10 Remote controller for mobile station WO1998021631A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
AU48867/97A AU4886797A (en) 1996-11-11 1997-11-10 Remote controller for mobile station

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP8/298802 1996-11-11
JP8298802A JPH10275015A (en) 1996-11-11 1996-11-11 Remote operation device for moving body

Publications (1)

Publication Number Publication Date
WO1998021631A1 true WO1998021631A1 (en) 1998-05-22

Family

ID=17864418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/004083 WO1998021631A1 (en) 1996-11-11 1997-11-10 Remote controller for mobile station

Country Status (3)

Country Link
JP (1) JPH10275015A (en)
AU (1) AU4886797A (en)
WO (1) WO1998021631A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150261218A1 (en) * 2013-03-15 2015-09-17 Hitachi, Ltd. Remote operation system
CN109814569A (en) * 2019-02-19 2019-05-28 百度在线网络技术(北京)有限公司 Unmanned vehicle control method, device, equipment and computer-readable medium
US11415993B2 (en) 2019-02-22 2022-08-16 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for processing driving reference line, and vehicle

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5178406B2 (en) * 2008-09-03 2013-04-10 株式会社Ihiエアロスペース Remote control system
JP5393240B2 (en) * 2009-05-07 2014-01-22 株式会社Ihi Remote control system
US8380362B2 (en) * 2009-07-10 2013-02-19 The Boeing Company Systems and methods for remotely collaborative vehicles
JP2011028495A (en) * 2009-07-24 2011-02-10 Technical Research & Development Institute Ministry Of Defence Remote control apparatus of automatic guided vehicle
JP5912454B2 (en) * 2011-11-25 2016-04-27 学校法人千葉工業大学 Environment information acquisition system using an unmanned vehicle
JP2013114329A (en) * 2011-11-25 2013-06-10 Chiba Inst Of Technology Environment information obtaining system using unattended traveling body
CN108700876B (en) * 2015-11-04 2021-08-27 祖克斯有限公司 Remote operation system and method for autonomous vehicle trajectory modification
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
JP6996820B2 (en) * 2017-09-11 2022-01-17 株式会社Ihiエアロスペース Display device for remote control and display method for remote control
JP6824856B2 (en) 2017-09-29 2021-02-03 株式会社小松製作所 Display control device and display control method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191487A (en) * 1995-01-10 1996-07-23 Nissin Electric Co Ltd Remote control system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191487A (en) * 1995-01-10 1996-07-23 Nissin Electric Co Ltd Remote control system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150261218A1 (en) * 2013-03-15 2015-09-17 Hitachi, Ltd. Remote operation system
US9317035B2 (en) * 2013-03-15 2016-04-19 Hitachi, Ltd. Remote operation system
CN109814569A (en) * 2019-02-19 2019-05-28 百度在线网络技术(北京)有限公司 Unmanned vehicle control method, device, equipment and computer-readable medium
US11415993B2 (en) 2019-02-22 2022-08-16 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for processing driving reference line, and vehicle

Also Published As

Publication number Publication date
JPH10275015A (en) 1998-10-13
AU4886797A (en) 1998-06-03

Similar Documents

Publication Publication Date Title
US11618439B2 (en) Automatic imposition of vehicle speed restrictions depending on road situation analysis
US9863775B2 (en) Vehicle localization system
JP5868681B2 (en) Remote control vehicle system
EP2234399B1 (en) Image processing method and image processing apparatus
US11584309B2 (en) Mirror pod environmental sensor arrangement for autonomous vehicle enabling lane change decisions
US7697029B2 (en) Image display apparatus and method
JP6257989B2 (en) Driving assistance device
EP3306918B1 (en) Information presentation system
EP0510363B1 (en) Distance measuring device
WO1998021631A1 (en) Remote controller for mobile station
US20100292868A1 (en) System and method for navigating a remote control vehicle past obstacles
WO2006011235A1 (en) Device for displaying image outside vehicle
WO2019217586A1 (en) Visual object tracker
JP2011028495A (en) Remote control apparatus of automatic guided vehicle
CN103608217A (en) Retrofit parking assistance kit
JP2005236540A (en) On-vehicle camera device
US8213683B2 (en) Driving support system with plural dimension processing units
US10249056B2 (en) Vehicle position estimation system
US11932173B2 (en) Mirror pod environmental sensor arrangement for autonomous vehicle enabling compensation for uneven road camber
US20230098314A1 (en) Localizing and updating a map using interpolated lane edge data
KR101598193B1 (en) Apparatus and method for displaying driving line
JP3580152B2 (en) Inter-vehicle distance detection device
WO1998020302A1 (en) Device for detecting obstacle on surface of traveling road of traveling object
JP2006173999A (en) Camera device and remote device
CN112550277B (en) Vehicle and automatic parking system

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AU US

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)