JP2011085999A - Remote control system - Google Patents

Remote control system Download PDF

Info

Publication number
JP2011085999A
JP2011085999A JP2009236457A JP2009236457A JP2011085999A JP 2011085999 A JP2011085999 A JP 2011085999A JP 2009236457 A JP2009236457 A JP 2009236457A JP 2009236457 A JP2009236457 A JP 2009236457A JP 2011085999 A JP2011085999 A JP 2011085999A
Authority
JP
Japan
Prior art keywords
moving
speed
remote control
limit
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009236457A
Other languages
Japanese (ja)
Inventor
Hiroaki Saito
浩明 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2009236457A priority Critical patent/JP2011085999A/en
Publication of JP2011085999A publication Critical patent/JP2011085999A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a remote control system operating a moving body by remote control operation safely even at high moving speed. <P>SOLUTION: The remote control system can connect the moving body loaded with an imaging part 14 for obtaining images in a moving region and a moving mechanism D for moving in the moving region with a remote control device including a display part for displaying the images obtained by the imaging part 14 and an operation part for inputting the operation information of the moving body based on the images displayed in the display part through a radio communication line. The remote control system includes a movement limit condition generating means 10B for generating moving limit conditions indicating a limit of the movement of the moving body by taking its dynamics into account based on the operation information, a moving condition determining means 10C for determining whether the operation information satisfies moving limit conditions or not, and a moving means 10D for moving the moving body in accordance with the movement limit conditions by the moving mechanism D when the operation information is determined not to satisfy the moving limit conditions. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、無人車両等の移動体を高い移動速度で遠隔操縦するための遠隔操縦システムに関する。   The present invention relates to a remote control system for remotely controlling a moving body such as an unmanned vehicle at a high moving speed.

従来、この種の遠隔操縦システムとして、「移動体の遠隔操作支援方法及びシステム」とした名称で特許文献1に開示されているものがある。
特許文献1に記載された移動体の遠隔操作支援方法及びシステムは、周囲の画像情報を取得する撮像装置と、障害物までの距離を検出する距離検出センサとが搭載され、遠隔操作部の遠隔操作により移動する移動体の遠隔操作を支援する方法において、前記遠隔操作部にて、前記距離検出センサにより取得した障害物情報より2次元の障害物マップを生成する障害物マップ生成プロセスと、前記撮像装置により取得した画像情報に前記障害物マップから抽出した移動体の移動可能領域情報を重畳処理する重畳処理プロセスとを備え、前記画像情報と前記重畳処理された前記移動可能領域情報とを前記遠隔操作部の同一の画面上に表示することを特徴としたものである。
Conventionally, as this type of remote control system, there is one disclosed in Patent Document 1 under the name of “Mobile Remote Operation Support Method and System”.
The method and system for supporting the remote operation of a moving body described in Patent Document 1 includes an imaging device that acquires surrounding image information and a distance detection sensor that detects a distance to an obstacle. In the method of supporting remote operation of a moving body that moves by operation, an obstacle map generation process for generating a two-dimensional obstacle map from the obstacle information acquired by the distance detection sensor in the remote operation unit, A superimposition process for superimposing the movable area information of the moving body extracted from the obstacle map on the image information acquired by the imaging device, and the image information and the movable area information subjected to the superimposition process are It displays on the same screen of a remote control part.

特開2006‐113858号公報JP 2006-113858 A

しかしながら、上記特許文献1に記載の移動体の遠隔操作支援方法及びシステムにおいては、高い移動速度になるに従って移動体のダイナミクスを無視できなくなり、ステアリング角度(タイヤ切れ角度)と移動体の進行方向とが異なるとともに、移動体の安定性にも配慮が必要となる。   However, in the method and system for supporting the remote operation of a moving object described in Patent Document 1, the dynamics of the moving object cannot be ignored as the moving speed increases, and the steering angle (tire off angle) and the traveling direction of the moving object However, it is necessary to consider the stability of the moving body.

また、操縦者が自動車に乗って運転する場合には、自らが体感する加速度、振動や進行方向によって、アクセルやステアリングのフィードバック制御を自然に行っているが、遠隔操縦においては、上記加速度等を体感することができないために、オーバースピードやステアリングの切り過ぎを起こし、従ってまた、横転や横滑りを生じさせやすくなるために安全に操縦することが困難になるという問題がある。特に、移動体と操縦者の間に通信遅延がある場合、その影響が顕著に現れる。   In addition, when a driver rides in a car, he / she naturally performs feedback control of the accelerator and steering depending on the acceleration, vibration and traveling direction that he / she feels. Since it cannot be experienced, there is a problem that overspeeding or excessive steering is caused, and accordingly, it is difficult to safely operate because it tends to cause rollover or skidding. In particular, when there is a communication delay between the moving body and the pilot, the influence appears remarkably.

そこで本発明は、たとえ通信遅延が生じているときであっても、高い移動速度における移動体の遠隔操作を安全に行える遠隔操縦システムの提供を目的としている。   Therefore, an object of the present invention is to provide a remote control system that can safely perform remote operation of a moving body at a high moving speed even when communication delay occurs.

上記目的を達成するための本発明に係る遠隔操縦システムは、移動領域の画像を取得する撮像部及びその移動領域内を移動するための移動機構を搭載した移動体と、その撮像部によって取得した画像を表示する表示部、及びその表示部に表示された画像に基づき、移動体に対する移動指示データを含む操縦情報を入力するための操縦部を備えた遠隔操縦装置とを、無線通信回線を介して接続可能な遠隔操縦システムであって、移動体のダイナミクスを考慮した移動の限界を示す限界移動条件を生成する限界移動条件生成手段と、操縦情報に含まれる移動指示データが限界移動条件を満たすか否かを判定する移動条件判定手段と、上記移動指示データが限界移動条件を満たさないと判定したときには、移動機構により限界移動条件に従って移動させる移動手段とを有することを特徴としている。   In order to achieve the above object, a remote control system according to the present invention is obtained by an imaging unit that acquires an image of a moving region, a moving body equipped with a moving mechanism for moving in the moving region, and the imaging unit. A display unit for displaying an image, and a remote control device including a control unit for inputting control information including movement instruction data for a moving body based on the image displayed on the display unit via a wireless communication line Remote control system that can be connected to each other, the limit movement condition generating means for generating the limit movement condition indicating the limit of movement considering the dynamics of the moving body, and the movement instruction data included in the operation information satisfy the limit movement condition A movement condition determination means for determining whether or not the movement instruction data does not satisfy the limit movement condition, and the movement mechanism moves according to the limit movement condition. It is characterized by having a moving means for.

本発明によれば、操縦情報に基づいて、移動体のダイナミクスを考慮した移動の限界を示す限界移動条件を生成して、操縦情報が限界移動条件を満たすか否かを判定し、操縦情報が限界移動条件を満たさないと判定したときには、移動機構により限界移動条件に従って移動させているので、移動体の遠隔操縦を高い移動速度においても安全に行うことができる。   According to the present invention, based on the maneuvering information, a limit movement condition indicating a limit of movement in consideration of the dynamics of the moving object is generated, and it is determined whether the maneuvering information satisfies the limit movement condition. When it is determined that the limit moving condition is not satisfied, the moving mechanism moves according to the limit moving condition, so that the remote control of the moving body can be performed safely even at a high moving speed.

本発明の一実施形態に係る遠隔操縦システムの全体構成を示す説明図である。It is explanatory drawing which shows the whole structure of the remote control system which concerns on one Embodiment of this invention. 同上の遠隔操縦システムの一部をなす移動体の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the mobile body which makes a part of remote control system same as the above. 同上の移動体に設けた制御回路のブロック図である。It is a block diagram of the control circuit provided in the mobile body same as the above. (A)は、現在の移動速度における停止距離を算出するときの説明図、(B)は、移動経路の最大曲率で許容できる移動速度を算出するときの説明図である。(A) is explanatory drawing when calculating the stop distance in the present moving speed, (B) is explanatory drawing when calculating the allowable moving speed with the maximum curvature of a moving path | route. 遠隔操縦装置の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of a remote control apparatus. 遠隔操縦装置に設けた制御回路のブロック図である。It is a block diagram of the control circuit provided in the remote control device. 表示部に表示される画像を示す説明図である。It is explanatory drawing which shows the image displayed on a display part. 無人車両側と遠隔操縦装置側の各制御フローチャートである。It is each control flowchart on the unmanned vehicle side and the remote control device side.

以下に、本発明を実施するための形態について、図面を参照して説明する。図1は、本発明の一実施形態に係る遠隔操縦システムの全体構成を示す説明図、図2は、その遠隔操縦システムの一部をなす移動体の概略構成を示す説明図、図3は、その移動体に設けた制御回路のブロック図である。   EMBODIMENT OF THE INVENTION Below, the form for implementing this invention is demonstrated with reference to drawings. FIG. 1 is an explanatory diagram showing an overall configuration of a remote control system according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing a schematic configuration of a mobile body that forms a part of the remote control system, and FIG. It is a block diagram of the control circuit provided in the moving body.

本発明の一実施形態に係る遠隔操縦システムAは、図1に示すように、移動体の一例である無人車両Bと、遠隔操縦装置Cとを無線通信回線を介して接続可能に構成したものである。   As shown in FIG. 1, a remote control system A according to an embodiment of the present invention is configured such that an unmanned vehicle B, which is an example of a moving body, and a remote control device C can be connected via a wireless communication line. It is.

無人車両Bは、一般の乗用車両のハンドル/アクセル/ブレーキを、下記の車両制御用コンピュータ10によって操作できるように、各種のアクチュエータを付加した構成のものであり、その詳細は次のとおりである。   The unmanned vehicle B has a configuration in which various actuators are added so that the steering wheel / accelerator / brake of a general passenger vehicle can be operated by the vehicle control computer 10 described below, and the details thereof are as follows. .

すなわち、無人車両Bは、CPU(Central Processing Unit)やインターフェース回路(いずれも図示しない)等からなる車両制御用コンピュータ10(図3参照)によって制御されるようになっている。   That is, the unmanned vehicle B is controlled by a vehicle control computer 10 (see FIG. 3) including a CPU (Central Processing Unit), an interface circuit (none of which is shown), and the like.

車両制御用コンピュータ10には、イーサネット(登録商標)11を介して無線LAN12,アンテナ13と撮像部の一例であるオンボードカメラ14とが、また、GPS(Global Positioning System)15、バーチカルジャイロ(IMU:慣性姿勢計測装置)16がそれぞれ接続されている。   The vehicle control computer 10 includes a wireless LAN 12, an antenna 13, and an on-board camera 14, which is an example of an imaging unit, via an Ethernet (registered trademark) 11, a GPS (Global Positioning System) 15, a vertical gyro (IMU). : Inertial posture measuring device) 16 is connected.

車両制御用コンピュータ10の出力側には、モータドライバ17を介して、ステアリング用アクチュエータ18、ブレーキ/アクセル用アクチュエータ19が、また、車速パルス20がそれぞれ接続されている。
本実施形態においては、モータドライバ17、ステアリング用アクチュエータ18及びブレーキ/アクセル用アクチュエータ19により、移動領域内を移動するための移動機構Dを構成している。
A steering actuator 18, a brake / accelerator actuator 19, and a vehicle speed pulse 20 are connected to the output side of the vehicle control computer 10 via a motor driver 17.
In the present embodiment, the motor driver 17, the steering actuator 18 and the brake / accelerator actuator 19 constitute a moving mechanism D for moving in the moving region.

バーチカルジャイロ16は、無人車両Bの姿勢(向き)情報を取得するものであり、例えば姿勢角(ロール、ピッチ角度と角速度)、ヨー角度と角速度、及びX,Y,Z3軸の加速度を出力するものである。
本実施形態においては、バーチカルジャイロ16が、加速度を取得するための加速度センサである。
The vertical gyro 16 acquires posture (orientation) information of the unmanned vehicle B, and outputs, for example, posture angles (roll, pitch angle and angular velocity), yaw angles and angular velocities, and X, Y, and Z3 axis accelerations. Is.
In the present embodiment, the vertical gyro 16 is an acceleration sensor for acquiring acceleration.

オンボードカメラ14は、無人車両Bの移動方向に向けて配設されており、移動領域の画像を取得するものである。
GPS15は、無人車両Bの位置情報を取得するためのものである。
The on-board camera 14 is arranged in the moving direction of the unmanned vehicle B and acquires an image of the moving area.
The GPS 15 is for acquiring position information of the unmanned vehicle B.

車速パルス20は、無人車両Bの移動速度をパルス情報として出力するものであり、例えばホール素子等を用いたものである。本実施形態においては、車速パルス20が、移動速度を取得するための速度センサである。   The vehicle speed pulse 20 outputs the moving speed of the unmanned vehicle B as pulse information, and uses, for example, a Hall element. In the present embodiment, the vehicle speed pulse 20 is a speed sensor for acquiring the moving speed.

車両制御用コンピュータ10は、上記したオンボードカメラ14、GPS15、車速パルス20、バーチカルジャイロ16で取得した各種の情報を、イーサネット(登録商標)11,無線LAN12及びアンテナ13を通じて、後述する遠隔操縦装置Cに向けて送信する機能の他、その遠隔操縦装置Cから送信される操縦情報等に基づき、ステアリング用アクチュエータ18、ブレーキ/アクセル用アクチュエータ19をモータドライバ17を介して駆動制御する機能を有している。
本実施形態においては、オンボードカメラ14、GPS15、車速パルス20、バーチカルジャイロ16が、無人車両Bの移動状態を取得する移動状態取得部である。
遠隔操縦装置Cから送信される操縦情報には、ステアリング指示角度、移動指示速度(後述する)を含んでいる。
The vehicle control computer 10 transmits various information acquired by the above-described on-board camera 14, GPS 15, vehicle speed pulse 20, vertical gyro 16 through the Ethernet (registered trademark) 11, the wireless LAN 12, and the antenna 13. In addition to the function of transmitting to C, the function of driving and controlling the steering actuator 18 and the brake / accelerator actuator 19 via the motor driver 17 based on the control information transmitted from the remote control device C is provided. ing.
In the present embodiment, the onboard camera 14, the GPS 15, the vehicle speed pulse 20, and the vertical gyro 16 are a movement state acquisition unit that acquires the movement state of the unmanned vehicle B.
The steering information transmitted from the remote control device C includes a steering instruction angle and a movement instruction speed (described later).

上記した車両制御用コンピュータ10は、図示しないメモリに記憶されている所要のプログラムの実行により、次の各機能を発揮する。
・操縦情報に含まれる無人車両Bに対するステアリング指示角度に基づいて、旋回曲率を算出する機能。この機能を「旋回曲率算出手段10A」という。
The vehicle control computer 10 described above exhibits the following functions by executing a required program stored in a memory (not shown).
A function for calculating the turning curvature based on the steering instruction angle for the unmanned vehicle B included in the operation information. This function is referred to as “turning curvature calculation means 10A”.

・無人車両Bのダイナミクス(動的特性)を考慮した移動の限界を示す限界移動条件を生成する機能。この機能を「限界移動条件生成手段10B」という。
本実施形態においては、「限界移動条件」が限界移動速度と限界旋回曲率であり、次の限界旋回曲率算出手段と限界移動速度算出手段の二つに区分している。
A function for generating a limit movement condition indicating a limit of movement considering the dynamics (dynamic characteristics) of the unmanned vehicle B. This function is referred to as “limit movement condition generation means 10B”.
In the present embodiment, the “limit movement condition” is the limit movement speed and the limit turning curvature, and is divided into the following limit turning curvature calculation means and limit movement speed calculation means.

・操縦情報に含まれる移動指示データ、具体的には、無人車両Bのステアリング指示角度、移動指示速度及び車速パルス20で取得した無人車両Bの移動速度(走行速度)に基づいて、その無人車両Bのダイナミクスを考慮した限界となる旋回曲率を算出する機能。この機能を「限界旋回曲率算出手段10B1」という。 Based on the movement instruction data included in the operation information, specifically, the steering instruction angle of the unmanned vehicle B, the movement instruction speed, and the moving speed (traveling speed) of the unmanned vehicle B acquired by the vehicle speed pulse 20 A function for calculating the turning curvature that becomes the limit considering the dynamics of B. This function is referred to as “limit turning curvature calculation means 10B1”.

図4(A)は、現在の移動速度における停止距離を算出するときの説明図、(B)は、移動経路の最大曲率で許容できる移動速度を算出するときの説明図である。
具体的には、前後輪の横すべり角をαf,r、コーナリングフォースをFf,r、タイヤスティフネス値をCk、タイヤ角をδとすると、
FIG. 4A is an explanatory diagram when calculating the stop distance at the current moving speed, and FIG. 4B is an explanatory diagram when calculating the allowable moving speed with the maximum curvature of the moving path.
Specifically, assuming that the side slip angle of the front and rear wheels is αf, r, the cornering force is Ff, r, the tire stiffness value is Ck, and the tire angle is δ,

Ff,r=Ck・αf,r
横方向の力の釣り合いから、
Ff・cosδ+Fr=m・V^2・κ±m・Gy (式1)
Ff, r = Ck ・ αf, r
From the balance of lateral force,
Ff ・ cosδ + Fr = m ・ V ^ 2 ・ κ ± m ・ Gy (Formula 1)

モーメント
Ff・Lf・cosδ=Fr・Lrを線形化すると、
δ=Lκ+αf-αr (式2)
Moment
Linearizing Ff ・ Lf ・ cosδ = Fr ・ Lr,
δ = Lκ + αf-αr (Formula 2)

以上により、タイヤ角δが小さい範囲においては、
δ=[κ{Ck・(Lr +Lf ) ^2+m・V^2 ・(Lr -Lf)}±m・Gy・(Lr-Lf)]/Ck・(Lr + Lf)}
(式3)
以上により、タイヤ角δは旋回曲率κと走行速度Vにより一意に定まる。
ハンドル角度は、移動体の特性によりタイヤ角δから一意に定まる。
As described above, in the range where the tire angle δ is small,
δ = [κ {Ck ・ (Lr + Lf) ^ 2 + m ・ V ^ 2 ・ (Lr -Lf)} ± m ・ Gy ・ (Lr-Lf)] / Ck ・ (Lr + Lf)}
(Formula 3)
As described above, the tire angle δ is uniquely determined by the turning curvature κ and the traveling speed V.
The steering wheel angle is uniquely determined from the tire angle δ depending on the characteristics of the moving body.

・旋回曲率と無人車両Bの加速度とから、限界移動速度を算出する機能。この機能を「限界移動速度算出手段10B2」という。
本実施形態における「限界移動速度」は、横滑り限界速度と横転限界速度とのことであり、次式で示すとおりである。
横滑り限界速度:mGy+mV^2κ=±μmGzより
Vslip^2=(-Gy±μGz)/κmax (式4)
横転限界速度:h(mGy+mV^2κ)=±μdmGzより
Vroll^2=(-Gy±dGz/h)/κmax (式5)
符号は斜面の傾きを示している。
A function for calculating the limit moving speed from the turning curvature and the acceleration of the unmanned vehicle B. This function is referred to as “limit movement speed calculation means 10B2.”
The “limit travel speed” in the present embodiment is a side slip limit speed and a roll limit speed, and is as shown in the following equation.
Side slip limit speed: From mGy + mV ^ 2κ = ± μmGz
Vslip ^ 2 = (-Gy ± μGz) / κmax (Formula 4)
Rollover limit speed: From h (mGy + mV ^ 2κ) = ± μdmGz
Vroll ^ 2 = (-Gy ± dGz / h) / κmax (Formula 5)
The code | symbol has shown the inclination of the slope.

・操縦情報が限界移動条件を満たすか否かを判定する機能。この機能を「移動条件判定手段10C」という。
本実施形態においては、移動指示速度が限界移動速度を超えているか否かを判定している。この機能を「移動速度判定手段」という。具体的には、上記した横滑り限界速度と横転限界速度のうち、いずれか遅い速度を超えているか否かを判定するようにしている。
A function for determining whether or not the operation information satisfies the limit movement condition. This function is referred to as “movement condition determination means 10C”.
In the present embodiment, it is determined whether or not the movement instruction speed exceeds the limit movement speed. This function is called “movement speed determination means”. Specifically, it is determined whether one of the above-mentioned side slip limit speed and rollover limit speed exceeds a slower speed.

・移動指示速度が限界移動速度を超えていると判定したときには、移動機構Dによって限界移動速度で移動させる機能。この機能を「移動手段10D」という。
本実施形態においては、操縦情報が限界移動条件を満たさないと判定したときには、移動機構により限界移動条件に従って移動させる移動手段に相当している。
また、移動速度判定手段10Cにより、移動指示速度が限界移動速度を超えていないと判定したときには、移動機構Dにより操縦情報に含まれる移動速度に従って移動させるようにしている。
A function of moving at the limit movement speed by the movement mechanism D when it is determined that the movement instruction speed exceeds the limit movement speed. This function is referred to as “moving means 10D”.
In the present embodiment, when it is determined that the control information does not satisfy the limit movement condition, the movement information corresponds to a moving unit that moves according to the limit movement condition.
Further, when the moving speed determining means 10C determines that the moving instruction speed does not exceed the limit moving speed, the moving mechanism D is moved according to the moving speed included in the operation information.

・現在の移動速度における停止距離を算出する機能。この機能を「停止距離算出手段10E」という。
ここで、停止距離=空走距離+制動距離=V・T1+V^2/(2Gμ)
T1:反応時間(制御システムの遅延)
G:9.8m/s^2μ:路面の摩擦係数
V:速度
-Function to calculate the stop distance at the current moving speed. This function is referred to as “stop distance calculation means 10E”.
Here, stop distance = idle running distance + braking distance = V · T1 + V ^ 2 / (2Gμ)
T1: Reaction time (control system delay)
G: 9.8 m / s ^ 2μ: friction coefficient of road surface V: speed

次に、遠隔操縦装置について、図5〜7を参照して説明する。図5は、遠隔操縦装置の外観構成を示す説明図、図6は、遠隔操縦装置に設けた制御回路のブロック図、図7は、表示部に表示される画像を示す説明図である。   Next, the remote control device will be described with reference to FIGS. FIG. 5 is an explanatory diagram showing an external configuration of the remote control device, FIG. 6 is a block diagram of a control circuit provided in the remote control device, and FIG. 7 is an explanatory diagram showing an image displayed on the display unit.

遠隔操縦装置Cは、装置本体30と、これと別体にした無線通信用アンテナ40とを有している。
装置本体30は、図6に示す遠隔操縦用コンピュータ31に、無線LAN32、表示部(以下、「ディスプレイ」という。)33、操縦部36を接続した構成のものである。
The remote control device C includes a device main body 30 and a radio communication antenna 40 that is separate from the device main body 30.
The apparatus main body 30 has a configuration in which a wireless LAN 32, a display unit (hereinafter referred to as "display") 33, and a control unit 36 are connected to a remote control computer 31 shown in FIG.

操縦部36は、アクセル/ブレーキレバー34、ジョイスティック35を有して構成されており、それらアクセル/ブレーキレバー34やジョイスティック35の操縦操作に従った操縦情報が出力されるようになっている。   The control unit 36 includes an accelerator / brake lever 34 and a joystick 35, and controls information according to the operation of the accelerator / brake lever 34 and the joystick 35 is output.

アクセル/ブレーキレバー34は、無人車両Bの移動速度を増減するためのものであり、そのアクセル/ブレーキレバー34を前方に傾動操作することにより、無人車両Bの移動速度が増加し、また、後方に傾動操作することにより当該無人車両Bの移動速度が減少するように設定している。   The accelerator / brake lever 34 is for increasing / decreasing the moving speed of the unmanned vehicle B. By moving the accelerator / brake lever 34 forward, the moving speed of the unmanned vehicle B increases, and the rear It is set so that the moving speed of the unmanned vehicle B is reduced by tilting to.

ジョイスティック35は、無人車両Bを左右に旋回操作するためのものであり、そのジョイスティック35を左方に傾動操作することにより無人車両Bを左方向に旋回させ、また、右方に傾動操作することにより右方向に旋回させられるようにしている。   The joystick 35 is for turning the unmanned vehicle B to the left and right. By tilting the joystick 35 leftward, the unmanned vehicle B is turned leftward and tilted rightward. To turn right.

遠隔操縦用コンピュータ31は、CPU(Central Processing Unit)やインターフェース回路等からなるものであり、所要のプログラムの実行により次の各機能を発揮する。
・無人車両(移動体)Bと遠隔操縦装置Cとの間における通信遅延時間を推定する機能。この機能を「遅延時間推定手段31a」という。
本実施形態においては、無人車両Bと遠隔操縦装置Cの間において、pingの要領でデータの往復時間を推定している。
また、無人車両Bと遠隔操縦装置C双方にGPSを搭載しておき、そのGPSを用いて双方のコンピュータによって精度の高い時刻同期を行い、受信したデータのタイムスタンプに基づいて遅延時間を推定するようにしてもよい。
The remote control computer 31 includes a CPU (Central Processing Unit), an interface circuit, and the like, and exhibits the following functions by executing a required program.
A function for estimating a communication delay time between the unmanned vehicle (mobile body) B and the remote control device C. This function is referred to as “delay time estimation means 31a”.
In the present embodiment, the round trip time of data is estimated between the unmanned vehicle B and the remote control device C in the manner of ping.
In addition, GPS is installed in both the unmanned vehicle B and the remote control device C, the time synchronization with high accuracy is performed by both computers using the GPS, and the delay time is estimated based on the time stamp of the received data. You may do it.

・移動領域の画像を取得した時刻から所要時間経過後までの無人車両Bの走行予定経路(移動予定経路)、及び推定遅延時間に基づいて、その無人車両Bが遠隔操縦装置Cによって操縦制御される時刻における車両位置(移動体位置)を推定する機能。この機能を「移動体位置推定手段」という。本実施形態においては、「車両位置推定手段31b」と称する。 The unmanned vehicle B is controlled and controlled by the remote control device C based on the planned travel route (scheduled travel route) of the unmanned vehicle B from the time when the image of the moving area is acquired until the lapse of the required time and the estimated delay time. Of estimating the vehicle position (moving body position) at a certain time. This function is called “moving body position estimating means”. In the present embodiment, this is referred to as “vehicle position estimating means 31b”.

「走行予定経路」は、ステアリング指示角度、移動指示速度、移動速度やヨーレートに基づいて、時刻の関数若しくは離散的な時刻に対しての位置情報として表現したものであり、オンボードカメラ14で取得した画像が撮像された時刻から所要時間内のもの、具体的には数秒後までのものである。
上記の位置情報の座標系は、オンボードカメラ14で取得した画像を撮像した位置を基準とするとともに、路面上に無人車両Bの車両重心を投影した点を原点とし、鉛直上向きをZ方向とした座標系を用いる。以下、この座標系を「車体座標系」と呼称する。
The “scheduled travel route” is expressed as a function of time or position information with respect to discrete time based on the steering instruction angle, the movement instruction speed, the movement speed and the yaw rate, and is acquired by the onboard camera 14. The image is within the required time from the time when the captured image was taken, specifically after several seconds.
The coordinate system of the position information is based on the position where the image acquired by the on-board camera 14 is taken as a reference, the point where the center of gravity of the unmanned vehicle B is projected on the road surface is the origin, and the upward direction is the Z direction. The coordinate system used is used. Hereinafter, this coordinate system is referred to as a “vehicle body coordinate system”.

・算出した旋回曲率に基づいて、図7に示すような移動経路曲線α1を生成する機能。これを「移動経路曲線生成手段」という。図6においては、「走行経路曲線生成手段31c」と記している。 A function for generating a movement path curve α1 as shown in FIG. 7 based on the calculated turning curvature. This is referred to as “movement path curve generation means”. In FIG. 6, “traveling route curve generating means 31 c” is described.

・推定した車両位置に対応する旋回操作基準点γ及び操縦部36から送信される移動経路曲線α1、停止可能範囲(緊急停止範囲)φ1、移動可能範囲φ2等を、ディスプレイ33に表示されている画像38(図5参照)に重畳表示する機能。この機能を「重畳表示手段31d」という。
なお、画像38において、符号aで示すものは道路、Bは無人車両である。
The turning operation reference point γ corresponding to the estimated vehicle position, the movement path curve α1, the stoppable range (emergency stop range) φ1, the moveable range φ2 and the like transmitted from the control unit 36 are displayed on the display 33. A function for superimposing and displaying the image 38 (see FIG. 5). This function is referred to as “superimposition display means 31d”.
In addition, in the image 38, what is shown with the code | symbol a is a road, B is an unmanned vehicle.

本実施形態に示す旋回操作基準点γは「○」で示しているが、他のマークで表示してもよく、また、上記推定した車両位置に対応する大きさに表示してもよいことは勿論である。   Although the turning operation reference point γ shown in the present embodiment is indicated by “◯”, it may be displayed with another mark, or may be displayed in a size corresponding to the estimated vehicle position. Of course.

移動経路曲線α1は、画像38上において旋回方向とその度合いを示すマークであり、それは、ジョイスティック35の左右の倒れ角に応じて生成されるようになっている。
また、本実施形態においては、無人車両Bの幅に対応する幅ゲージβ1〜β3を、推定した車両位置に対応する大きさにして画像に重畳表示している。これにより、高い移動速度における無人車両Bの操縦を、より容易に行うことができる。
The movement path curve α1 is a mark indicating the turning direction and its degree on the image 38, and is generated according to the left and right tilt angles of the joystick 35.
In the present embodiment, the width gauges β1 to β3 corresponding to the width of the unmanned vehicle B are displayed on the image in a size corresponding to the estimated vehicle position. Thereby, the unmanned vehicle B can be steered more easily at a high moving speed.

「旋回操作基準点γ」は、通信の遅延時間を考慮するためのマークである。その旋回操作基準点γは、遅延時間の発生下において、遠隔操縦装置Cからの操縦情報が無人車両Bに到達する時刻を推定し、その時刻における実際の車両位置を示している。   The “turning operation reference point γ” is a mark for considering the communication delay time. The turning operation reference point γ estimates the time when the control information from the remote control device C reaches the unmanned vehicle B under the occurrence of the delay time, and indicates the actual vehicle position at that time.

旋回操作基準点γは、通信遅延時間が一定とした場合、車両速度が停止若しくは徐行の場合、遅延の影響は無視できるため、画像38の道路aの近傍側に自動的に移動する。
「道路aの近傍側に」とは、図7においては、画像38の下縁部38aの近くの位置にという意味と同義である。
When the communication delay time is constant, the turning operation reference point γ automatically moves to the vicinity of the road a in the image 38 because the influence of the delay can be ignored when the vehicle speed is stopped or slowing down.
“To the side near the road a” has the same meaning as “in the vicinity of the lower edge portion 38 a of the image 38” in FIG. 7.

一方、高速走行時には、通信遅延時間の影響を考慮すると、画像38を受信した後に制御指示を行う時刻においては、実際の車両位置は遠隔操縦装置Cに表示される画像38上の遠方に移動している。
「画像上の遠方に」とは、画像38の下縁部38aから上方に離れた位置にという意味と同義である。
以上のようにして、旋回操作基準点γを画像38上においてそれに対応する位置に自動的に移動するのである。
また、移動経路指示曲線α1は、その基準点γより遠方のみの経路を指示できる。
さらに、下縁部38aの中央付近から旋回操作基準点γまでの曲線は、既に走行が終わっているであろう経路を示す。
On the other hand, when traveling at high speed, considering the effect of communication delay time, the actual vehicle position moves farther on the image 38 displayed on the remote control device C at the time when the control instruction is given after the image 38 is received. ing.
“Distantly on the image” has the same meaning as “in a position away from the lower edge 38a of the image 38”.
As described above, the turning operation reference point γ is automatically moved to a corresponding position on the image 38.
Further, the movement route instruction curve α1 can indicate a route only far from the reference point γ.
Further, the curve from the vicinity of the center of the lower edge portion 38a to the turning operation reference point γ indicates a route that has already finished traveling.

移動可能領域φ2は、下記のステアリング角度指示情報生成手段31fによって算出した、図7に示すステアリング可能角度範囲で区画形成される略扇形のものであり、また、緊急停止領域φ1は、その移動可能領域φ2のうち、停止距離算出手段10Eで算出した停止距離によって区画される領域である。
それら二つの領域φ1,φ2は、図7においては説明のために互いに異なる斜線で示しているが、実際には、背景を透過する互いに異なる色彩等を付して表示している。これにより、二つの領域φ1,φ2を視認しやすい。
The movable area φ2 is a substantially fan-shaped area defined by the steering angle range shown in FIG. 7 calculated by the following steering angle instruction information generating means 31f, and the emergency stop area φ1 is movable. Of the region φ2, the region is divided by the stop distance calculated by the stop distance calculating means 10E.
These two regions φ1 and φ2 are indicated by different oblique lines in FIG. 7 for the sake of explanation, but actually they are displayed with different colors that pass through the background. Thereby, it is easy to visually recognize the two regions φ1 and φ2.

・操縦部36の操作に従って、無人車両Bの走行速度を増減させるための移動速度指示情報を生成する機能。これを「移動速度指示情報生成手段31e」という。
具体的には、アクセル/ブレーキレバー34の倒れ角度に従った移動速度とする内容の移動速度指示情報を生成している。
この移動速度指示情報によって、無人車両Bに配設したブレーキ/アクセル用アクチュエータ19が駆動制御される。
A function of generating movement speed instruction information for increasing or decreasing the traveling speed of the unmanned vehicle B according to the operation of the control unit 36. This is referred to as “moving speed instruction information generating means 31e”.
Specifically, the moving speed instruction information is generated so that the moving speed according to the tilt angle of the accelerator / brake lever 34 is set.
The brake / accelerator actuator 19 disposed in the unmanned vehicle B is driven and controlled by the moving speed instruction information.

・操縦部36の操作に従って、無人車両Bのステアリング角度を指示するためのステアリング角度指示情報を生成する機能。これを「ステアリング角度指示情報生成手段31f」という。
具体的には、ジョイスティック35の倒れ角度に従ったステアリング角度とする内容のステアリング角度指示情報を生成している。
このステアリング角度指示情報によって、無人車両Bに配設したステアリング用アクチュエータ18が駆動制御される。
A function of generating steering angle instruction information for instructing the steering angle of the unmanned vehicle B according to the operation of the control unit 36. This is referred to as “steering angle instruction information generating means 31f”.
More specifically, the steering angle instruction information is generated so that the steering angle conforms to the tilt angle of the joystick 35.
The steering actuator 18 disposed in the unmanned vehicle B is driven and controlled by the steering angle instruction information.

次に、図8を参照して、制御フローチャートについて説明する。図8は、無人車両側と遠隔操縦装置側の各制御フローチャートである。なお、図8において、左側が車両制御用コンピュータ、また、右側が遠隔操縦用コンピュータによる処理をそれぞれ示している。   Next, a control flowchart will be described with reference to FIG. FIG. 8 is a control flowchart of the unmanned vehicle side and the remote control device side. In FIG. 8, the left side shows processing by the vehicle control computer, and the right side shows processing by the remote control computer.

ステップ1(図中、「s1」と略記する。以下、同様。):車両制御用コンピュータ10から、オンボードカメラ14で取得した画像、移動速度、バーチカルジャイロ16で得た加速度等を用いたオンボードカメラ14の光軸姿勢(向き)情報を、遠隔操縦装置Cに向けて送信する。   Step 1 (abbreviated as “s1” in the figure. The same applies hereinafter): ON using the image acquired by the onboard camera 14 from the vehicle control computer 10, the moving speed, the acceleration obtained by the vertical gyro 16, and the like. The optical axis posture (orientation) information of the board camera 14 is transmitted toward the remote control device C.

オンボードカメラ14で取得した画像は、レンズ歪み等を除去してピンホールカメラモデルとなるようにキャリブレーションを行ったものとする。また、当該画像には、それが撮像された時刻をタイムスタンプ(Timg)として添付している。   It is assumed that the image acquired by the on-board camera 14 is calibrated so as to become a pinhole camera model by removing lens distortion and the like. In addition, the time when the image was captured is attached to the image as a time stamp (Timg).

ステップ2:無人車両Bから送信された上記各種の情報を受信してステップ3に進む。
ステップ3:無人車両Bから送信された上記各種の情報に基づいて、車両制御コンピュータ10から遠隔操縦装置Cまでの通信遅延時間を推定して、ステップ4に進む。
なお、このステップにおける処理は、本フローとは独立させて行ってもよいものであり、このステップの時点で通信遅延時間の推定値が得られていればよい。
Step 2: The above various information transmitted from the unmanned vehicle B is received, and the process proceeds to Step 3.
Step 3: Based on the various information transmitted from the unmanned vehicle B, the communication delay time from the vehicle control computer 10 to the remote control device C is estimated, and the process proceeds to Step 4.
Note that the processing in this step may be performed independently of this flow, and it is only necessary that the estimated value of the communication delay time be obtained at the time of this step.

ステップ4:走行経路と、ステップ3において推定した通信遅延時間に基づいて、実際に無人車両Bが制御される時刻における車両位置を推定する。簡単には、通信の往路復路の通信遅延時間と処理時間Tpを考慮し、トータルの遅延時間Taを、
Ta=2×Td+Tp …(式6)
とし、無人車両Bが走行しているであろう位置(dX,dY)Tを推定する。
Step 4: Based on the travel route and the communication delay time estimated in Step 3, the vehicle position at the time when the unmanned vehicle B is actually controlled is estimated. Briefly, considering the communication delay time and processing time Tp of the outgoing and return communication, the total delay time Ta is
Ta = 2 × Td + Tp (Formula 6)
And the position (dX, dY) T where the unmanned vehicle B will be traveling is estimated.

ステップ5:ステップ4において得た車両移動推定値を、ディスプレイ33の画像38上に重畳表示する。
この画像上の点が、旋回操作基準点となる。3次元空間上の点(X,Y,Z)と画像上の位置(u,v)の関係は、ピンホールカメラモデルを用いると、次式により得られる。
Step 5: The estimated vehicle movement value obtained in Step 4 is superimposed on the image 38 on the display 33.
The point on this image becomes the turning operation reference point. The relationship between the point (X, Y, Z) on the three-dimensional space and the position (u, v) on the image can be obtained by the following equation using a pinhole camera model.

Figure 2011085999
Figure 2011085999

ここで、fx,fyはそれぞれの方向の焦点距離、cx,cyはレンズ中心であり、これらはキャリブレーションデータとして既知であるとする。また、sは任意のスケールを表す係数である。
mn(m=1.2.3,n=1.2.3)は、オンボードカメラ14の光軸姿勢の回転成分、、t(m=1.2.3)はそのオンボードカメラ14の光軸姿勢の並進成分であり、ジャイロ情報とオンボードカメラ14のアライメント情報より生成される。
Here, fx and fy are focal lengths in the respective directions, cx and cy are lens centers, and these are known as calibration data. S is a coefficient representing an arbitrary scale.
r mn (m = 1.2.3, n = 1.2.3) is the rotation component of the optical axis posture of the on-board camera 14, and t m (m = 1.2.3) is the on-board camera. 14 is a translation component of the optical axis posture, and is generated from gyro information and alignment information of the on-board camera 14.

ここで、上記式7の(X,Y,Z,1)Tに(dX,dY,0,1)Tを代入することにより、(u,v)Tが得られる。
ここで、Z=0は、前方の路面は水平面であることを仮定している。
また、時刻Taにおける車両位置の画像上の位置が、旋回操作基準点となる。
Here, (u, v) T is obtained by substituting (dX, dY, 0,1) T into (X, Y, Z, 1) T in the above equation 7.
Here, Z = 0 assumes that the road surface ahead is a horizontal plane.
Further, the position on the image of the vehicle position at time Ta is the turning operation reference point.

ステップ6:遠隔操縦装置Cのディスプレイ33に、オンボードカメラ14からの画像38を重畳表示し、その上にステップ5において得られた旋回操作基準点γと、走行経路曲線α1とをオーバーレイ表示する。   Step 6: The image 38 from the on-board camera 14 is superimposed and displayed on the display 33 of the remote control device C, and the turning operation reference point γ obtained in step 5 and the travel route curve α1 are overlaid on it. .

ステップ7:ジョイスティック35の入力に応じ、画像38上の走行経路α1の再描画を行って、ステップ8に進む。
ステップ8:入力された走行経路情報(開始位置/曲率等)と移動指示速度、それを生成するために用いた画像のタイムスタンプTimgを無人車両Bに向けて送信する。
Step 7: Redraw the travel route α1 on the image 38 in accordance with the input of the joystick 35, and proceed to Step 8.
Step 8: The inputted travel route information (start position / curvature, etc.), the movement instruction speed, and the time stamp Timg of the image used to generate it are transmitted to the unmanned vehicle B.

ステップ9:ステップ8において送信されたステアリング角度指示情報、移動速度指示情報を含む操縦情報を無人車両Cにおいて受信して、ステップ10に進む。
ステップ10:ステアリング角度指示情報に基づいて、ステアリング指示角度を旋回曲率κに変換する。
Step 9: The steering information including the steering angle instruction information and the moving speed instruction information transmitted in Step 8 is received by the unmanned vehicle C, and the process proceeds to Step 10.
Step 10: Convert the steering instruction angle into the turning curvature κ based on the steering angle instruction information.

ステップ11A:ステアリング指示角度δ、加速度及び現在の移動速度に基づいて、無人車両Bのダイナミクスを考慮した旋回曲率κを算出する。
ステップ11B:旋回曲率κと加速度とから、横滑り限界速度と横転限界速度とを算出する。
Step 11A: Based on the steering instruction angle δ, the acceleration, and the current moving speed, a turning curvature κ considering dynamics of the unmanned vehicle B is calculated.
Step 11B: A skid limit speed and a roll limit speed are calculated from the turning curvature κ and the acceleration.

ステップ12A:無人車両Bの停止距離を算出する。
ステップ12B:移動指示速度が限界速度よりも大きいか否かを判定し、移動指示速度が限界速度よりも大きいと判定したときにはステップ13Bに進み、そうでなければステップ14Bに進む。
Step 12A: The stop distance of the unmanned vehicle B is calculated.
Step 12B: It is determined whether or not the movement instruction speed is higher than the limit speed. If it is determined that the movement instruction speed is higher than the limit speed, the process proceeds to Step 13B. Otherwise, the process proceeds to Step 14B.

ステップ13A:旋回曲率κに相当する移動経路、停止距離を遠隔操縦装置Cに送信する。
ステップ13B:移動指示速度を限界速度に設定して、ステップ14Bに進む。
Step 13A: The moving route and stop distance corresponding to the turning curvature κ are transmitted to the remote control device C.
Step 13B: Set the movement instruction speed to the limit speed, and proceed to Step 14B.

ステップ14A:ステアリング用アクチュエータ18に旋回曲率κに相当するステアリング角度を指示する。
ステップ14B:ブレーキ/アクセル用アクチュエータ19に、移動指示速度を指示する。
Step 14A: The steering angle corresponding to the turning curvature κ is instructed to the steering actuator 18.
Step 14B: Instruct the brake / accelerator actuator 19 on the movement instruction speed.

ステップ15:移動機構Dを介して無人車両Bを移動する。
ステップ16:加速度と移動速度とを計測して、ステップ9に戻る。
Step 15: The unmanned vehicle B is moved via the moving mechanism D.
Step 16: Measure acceleration and moving speed, and return to Step 9.

以上の構成からなる無線操縦システムによれば、次の効果を得ることができる。
・たとえ通信遅延が生じているときであっても、高い移動速度における移動体の遠隔操作を安全に行うことができる。
・現在の移動速度におけるステアリング可能な角度範囲を算出し、算出した停止距離とステアリング角度範囲に基づき、現在の移動速度における停止可能範囲を重畳表示しているので、操縦者は、表示部上で停止可能範囲を視認できるために安心して無人車両の操縦をすることができる。
According to the radio control system having the above configuration, the following effects can be obtained.
-Even when there is a communication delay, it is possible to safely perform remote control of a moving object at a high moving speed.
-The steerable angle range at the current travel speed is calculated, and the stop possible range at the current travel speed is superimposed on the basis of the calculated stop distance and the steering angle range. Since the stoppable range can be seen, the unmanned vehicle can be operated with peace of mind.

なお、本発明は上述した実施形態に限るものではなく、次のような変形実施が可能である。
・車両に既にドライブ/ブレーキバイワイヤ機構があり、かつ、ECUからの制御が可能な場合、ステアリング用アクチュエータ18やブレーキ/アクセル用アクチュエータ19に代えて、それらを用いた構成にしてもよい。
The present invention is not limited to the above-described embodiments, and the following modifications can be made.
If the vehicle already has a drive / brake-by-wire mechanism and can be controlled from the ECU, the steering actuator 18 and the brake / accelerator actuator 19 may be used instead.

・上述した実施形態においては、旋回操作基準点や移動体の幅に対応する幅ゲージを画像に重畳表示した例について説明したが、必ずしも表示する必要はない。 In the above-described embodiment, the example in which the width gauge corresponding to the turning operation reference point and the width of the moving body is superimposed on the image has been described, but it is not always necessary to display it.

上述した実施形態に限るものではなく、次のような構成にしてもよい。
・移動経路上の障害物を検知するための障害物検知センサとともに、その障害物検知センサによって障害物を検知する障害物検知手段とを設けるとともに、障害物を検知したとき、移動手段によって、移動機構による移動を停止させる。
これにより、無人車両の周囲に存在する人の安全を確保することができる。
The present invention is not limited to the above-described embodiment, and the following configuration may be used.
・ In addition to an obstacle detection sensor for detecting an obstacle on the moving route, an obstacle detection means for detecting the obstacle by the obstacle detection sensor is provided, and when the obstacle is detected, the movement means moves the obstacle. Stop movement by the mechanism.
Thereby, the safety | security of the person who exists around an unmanned vehicle can be ensured.

・本実施形態においては、移動体として無人車両を例として説明したが、無人偵察機等に準用することができる。 -In this embodiment, although the unmanned vehicle was demonstrated as an example as a moving body, it can apply mutatis mutandis to an unmanned reconnaissance aircraft etc.

10B 限界移動条件生成手段
10C 移動条件判定手段
10D 移動手段
14 撮像部(オンボードカメラ)
15 GPS(移動状態取得部)
16 バーチカルジャイロ(移動状態取得部)
20 車速パルス(移動状態取得部)
33 表示部
36 操縦部
B 移動体(無人車両)
C 遠隔操縦装置
D 移動機構
10B Limit movement condition generation means 10C Movement condition determination means 10D Movement means 14 Imaging unit (on-board camera)
15 GPS (movement state acquisition part)
16 Vertical gyro (moving state acquisition unit)
20 Vehicle speed pulse (movement state acquisition part)
33 Display part 36 Control part B Mobile body (unmanned vehicle)
C Remote control device D Movement mechanism

Claims (7)

移動領域の画像を取得する撮像部及びその移動領域内を移動するための移動機構を搭載した移動体と、その撮像部によって取得した画像を表示する表示部、及びその表示部に表示された画像に基づき、移動体に対する移動指示データを含む操縦情報を入力するための操縦部を備えた遠隔操縦装置とを、無線通信回線を介して接続可能な遠隔操縦システムであって、
移動体のダイナミクスを考慮した移動の限界を示す限界移動条件を生成する限界移動条件生成手段と、
操縦情報に含まれる移動指示データが限界移動条件を満たすか否かを判定する移動条件判定手段と、
上記移動指示データが限界移動条件を満たさないと判定したときには、移動機構により限界移動条件に従って移動させる移動手段とを有することを特徴とする遠隔操縦システム。
An imaging unit that acquires an image of a moving region, a moving body equipped with a moving mechanism for moving in the moving region, a display unit that displays an image acquired by the imaging unit, and an image displayed on the display unit A remote control system including a control unit for inputting control information including movement instruction data for a moving object, via a wireless communication line,
A limit movement condition generating means for generating a limit movement condition indicating a limit of movement considering the dynamics of the moving object;
Movement condition determination means for determining whether or not the movement instruction data included in the operation information satisfies the limit movement condition;
A remote control system comprising: moving means for moving according to the limit movement condition by a movement mechanism when it is determined that the movement instruction data does not satisfy the limit movement condition.
移動領域の画像を取得する撮像部、移動速度を取得するための速度センサ及びその移動領域内を移動するための移動機構を搭載した移動体と、その撮像部によって取得した画像を表示する表示部、及びその表示部に表示された画像に基づき、移動体に対する旋回指示角度と移動指示速度を含む操縦情報を入力するための操縦部を備えた遠隔操縦装置とを、無線通信回線を介して接続可能な遠隔操縦システムであって、
上記操縦情報に含まれる移動体の旋回指示角度に基づいて、旋回曲率を算出する旋回曲率算出手段と、
操縦情報に含まれる移動体の旋回指示角度、移動指示速度及び速度センサで取得した移動体の移動速度に基づいて、その移動体のダイナミクスを考慮した限界旋回曲率を算出する限界旋回曲率算出手段と、
旋回曲率と移動体の加速度とから、限界移動速度を算出する限界移動速度算出手段と、
移動指示速度が限界移動速度を超えているか否かを判定する移動速度判定手段と、
移動指示速度が限界移動速度を超えていると判定したときには、移動機構によって限界移動速度での移動を行わせる移動手段とを有することを特徴とする遠隔操縦システム。
An imaging unit that acquires an image of a moving region, a moving body equipped with a speed sensor for acquiring a moving speed and a moving mechanism for moving in the moving region, and a display unit that displays an image acquired by the imaging unit And a remote control device having a control unit for inputting control information including a turn instruction angle and a movement instruction speed for a moving body based on an image displayed on the display unit via a wireless communication line A possible remote control system,
A turning curvature calculating means for calculating a turning curvature based on a turning instruction angle of the mobile body included in the operation information;
Limit turning curvature calculation means for calculating a limit turning curvature considering the dynamics of the moving body based on the turning instruction angle of the moving body, the moving instruction speed, and the moving speed of the moving body acquired by the speed sensor included in the operation information; ,
A limit moving speed calculating means for calculating a limit moving speed from the turning curvature and the acceleration of the moving body;
A moving speed determining means for determining whether or not the moving instruction speed exceeds a limit moving speed;
A remote control system comprising: a moving unit that causes the moving mechanism to move at the limit moving speed when it is determined that the movement instruction speed exceeds the limit moving speed.
移動速度判定手段により、移動指示速度が限界移動速度を超えていないと判定したときには、
移動手段は、移動機構により操縦情報に含まれる移動指示速度に従って移動させることを特徴とする請求項2に記載の遠隔操縦システム。
When the movement speed determination means determines that the movement instruction speed does not exceed the limit movement speed,
The remote control system according to claim 2, wherein the moving unit is moved according to a movement instruction speed included in the operation information by the moving mechanism.
算出した旋回曲率に基づいて、移動経路を生成する移動経路生成手段と、
生成された移動経路に対応する移動経路曲線を表示部に表示されている画像に重畳表示する重畳表示手段とを有することを特徴とする請求項2又は3に記載の遠隔操縦システム。
Based on the calculated turning curvature, a moving route generating means for generating a moving route;
The remote control system according to claim 2, further comprising a superimposition display unit that superimposes and displays a travel route curve corresponding to the generated travel route on an image displayed on the display unit.
上記移動体と遠隔操縦装置との間における通信遅延時間を推定する遅延時間推定手段と、
移動領域の画像を取得した時刻から所要時間経過後までの移動体の移動予定経路、移動速度及び推定遅延時間に基づいて、移動体が遠隔操縦装置によって操縦制御される時刻における移動体位置を推定する移動体位置推定手段とを有しており、
重畳表示手段は、推定した移動体位置に対応する旋回操作基準点を、表示部に表示されている画像に重畳表示することを特徴とする請求項4に記載の遠隔操縦システム。
A delay time estimating means for estimating a communication delay time between the mobile body and the remote control device;
Estimates the position of the moving object at the time when the moving object is controlled by the remote control device based on the planned moving path, moving speed, and estimated delay time from the time when the image of the moving area was acquired until the elapsed time has elapsed. Mobile body position estimating means for
5. The remote control system according to claim 4, wherein the superimposed display means displays the turning operation reference point corresponding to the estimated moving body position superimposed on the image displayed on the display unit.
現在の移動速度における停止距離を算出する停止距離算出手段と、
現在の移動速度におけるステアリング可能な角度範囲を算出するステアリング角度範囲算出手段とを有するとともに、
重畳表示手段は、算出した停止距離とステアリング角度範囲に基づき、抽出された移動可能エリアの一部に、現在の移動速度における停止可能範囲を重畳表示することを特徴とする請求項4又は5に記載の遠隔操縦システム。
Stop distance calculating means for calculating a stop distance at the current moving speed;
And a steering angle range calculating means for calculating a steering possible angle range at the current moving speed,
The superimposing display means superimposes and displays the stoppable range at the current moving speed on a part of the extracted movable area based on the calculated stop distance and steering angle range. The described remote control system.
移動経路上の障害物を検知するための障害物検知センサが設けられており、
障害物検知センサによって障害物を検知する障害物検知手段と、
障害物を検知したとき、移動手段は、移動機構による移動を停止することを特徴とする請求項1〜6のいずれか1項に記載の遠隔操縦システム。
An obstacle detection sensor is provided to detect obstacles on the moving path.
Obstacle detection means for detecting an obstacle by an obstacle detection sensor;
The remote control system according to claim 1, wherein when an obstacle is detected, the moving unit stops moving by the moving mechanism.
JP2009236457A 2009-10-13 2009-10-13 Remote control system Pending JP2011085999A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009236457A JP2011085999A (en) 2009-10-13 2009-10-13 Remote control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009236457A JP2011085999A (en) 2009-10-13 2009-10-13 Remote control system

Publications (1)

Publication Number Publication Date
JP2011085999A true JP2011085999A (en) 2011-04-28

Family

ID=44078915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009236457A Pending JP2011085999A (en) 2009-10-13 2009-10-13 Remote control system

Country Status (1)

Country Link
JP (1) JP2011085999A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048859A (en) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd Remote control system
JP2018116385A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Remote control system
GB2559168A (en) * 2017-01-30 2018-08-01 Jaguar Land Rover Ltd Controlling movement of a vehicle
JP2018171964A (en) * 2017-03-31 2018-11-08 マツダ株式会社 Image display device for vehicle and setting method
WO2019003574A1 (en) * 2017-06-30 2019-01-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Vehicle, vehicle control method, vehicle remote operation device, and vehicle remote operation method
JP2019012514A (en) * 2017-06-30 2019-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Vehicle, vehicle control method, vehicle remote controller, and vehicle remote control method
JP2020027606A (en) * 2018-08-09 2020-02-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method, information processing device, and information processing system
US20220066446A1 (en) * 2020-08-27 2022-03-03 Naver Labs Corporation Control method and system for robot
US11537121B2 (en) 2017-10-04 2022-12-27 Komatsu Ltd. Work vehicle, control device, and method for controlling work vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03268110A (en) * 1990-03-19 1991-11-28 Honda Motor Co Ltd Automatic traveling device
JPH0854925A (en) * 1994-08-09 1996-02-27 Yamaha Motor Co Ltd Unmanned vehicle
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2010061346A (en) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd Remote control system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03268110A (en) * 1990-03-19 1991-11-28 Honda Motor Co Ltd Automatic traveling device
JPH0854925A (en) * 1994-08-09 1996-02-27 Yamaha Motor Co Ltd Unmanned vehicle
JP2006113858A (en) * 2004-10-15 2006-04-27 Mitsubishi Heavy Ind Ltd Method and system for supporting remote operation for mobile object
JP2010061346A (en) * 2008-09-03 2010-03-18 Ihi Aerospace Co Ltd Remote control system

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048859A (en) * 2012-08-31 2014-03-17 Ihi Aerospace Co Ltd Remote control system
JP2018116385A (en) * 2017-01-17 2018-07-26 トヨタ自動車株式会社 Remote control system
GB2559168B (en) * 2017-01-30 2021-01-27 Jaguar Land Rover Ltd Controlling movement of a vehicle
GB2559168A (en) * 2017-01-30 2018-08-01 Jaguar Land Rover Ltd Controlling movement of a vehicle
US11780437B2 (en) 2017-01-30 2023-10-10 Jaguar Land Rover Limited Controlling movement of a vehicle
US11305767B2 (en) 2017-01-30 2022-04-19 Jaguar Land Rover Limited Controlling movement of a vehicle
JP2018171964A (en) * 2017-03-31 2018-11-08 マツダ株式会社 Image display device for vehicle and setting method
WO2019003574A1 (en) * 2017-06-30 2019-01-03 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Vehicle, vehicle control method, vehicle remote operation device, and vehicle remote operation method
JP7219544B2 (en) 2017-06-30 2023-02-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Vehicle, vehicle control method, vehicle remote control device, and vehicle remote control method
JP2019012514A (en) * 2017-06-30 2019-01-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Vehicle, vehicle control method, vehicle remote controller, and vehicle remote control method
US11537121B2 (en) 2017-10-04 2022-12-27 Komatsu Ltd. Work vehicle, control device, and method for controlling work vehicle
CN110868331A (en) * 2018-08-09 2020-03-06 松下电器(美国)知识产权公司 Information processing method, information processing apparatus, and information processing system
JP2020027606A (en) * 2018-08-09 2020-02-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Information processing method, information processing device, and information processing system
JP7442272B2 (en) 2018-08-09 2024-03-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device, and information processing system
US20220066446A1 (en) * 2020-08-27 2022-03-03 Naver Labs Corporation Control method and system for robot
JP2022040060A (en) * 2020-08-27 2022-03-10 ネイバーラボス コーポレーション Robot control method and system
JP7370362B2 (en) 2020-08-27 2023-10-27 ネイバーラボス コーポレーション Robot control method and system

Similar Documents

Publication Publication Date Title
JP2011085999A (en) Remote control system
JP6055525B1 (en) Vehicle travel control device
US9796416B2 (en) Automated driving apparatus and automated driving system
US10949656B2 (en) Information processing apparatus and information processing method
US9116784B2 (en) System and method for preventing vehicle from rolling over in curved lane
JP6573222B2 (en) Vehicle control device
JP5366703B2 (en) Semi-autonomous unmanned vehicle remote control system
JP6236099B2 (en) Vehicle travel control device
JP4557817B2 (en) Driving support device
JP5178406B2 (en) Remote control system
CN107054459B (en) Lane keeping method and lane keeping assist system for a motor vehicle
WO2016092591A1 (en) Collision risk calculation device, collision risk display device, and vehicle body control device
JP7307550B2 (en) Vehicle driving control system
JP2019139322A (en) Vehicle controller, parking lot controller, and automatic valley parking system
CN111332273A (en) Trailer and vehicle collision detection and response during automatic hitch maneuvers
JP2009040267A (en) Traveling control device
JP5023869B2 (en) VEHICLE DRIVE OPERATION SUPPORT DEVICE AND VEHICLE DRIVE OPERATION SUPPORT METHOD
JP6579699B2 (en) Vehicle travel control device
JP7307549B2 (en) Vehicle driving control system
US20160031321A1 (en) Predicted arrival point presentation device and computer readable medium
JP2019526105A (en) Method for creating a map of a peripheral model, vehicle control system, and corresponding vehicle
JP2019206257A (en) Vehicle control system
JP2008250879A (en) Driving safety device for vehicle
JP7063856B2 (en) Display control device
JP2007168588A (en) Steering device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140304