JP2010152833A - Unmanned mobile body system - Google Patents

Unmanned mobile body system Download PDF

Info

Publication number
JP2010152833A
JP2010152833A JP2008332831A JP2008332831A JP2010152833A JP 2010152833 A JP2010152833 A JP 2010152833A JP 2008332831 A JP2008332831 A JP 2008332831A JP 2008332831 A JP2008332831 A JP 2008332831A JP 2010152833 A JP2010152833 A JP 2010152833A
Authority
JP
Japan
Prior art keywords
movement
moving
unmanned
speed
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008332831A
Other languages
Japanese (ja)
Other versions
JP5187757B2 (en
Inventor
Toshinori Ubukawa
俊則 生川
Hiroaki Saito
浩明 齋藤
Munehiko Maeda
宗彦 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Aerospace Co Ltd
Original Assignee
IHI Corp
IHI Aerospace Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Aerospace Co Ltd filed Critical IHI Corp
Priority to JP2008332831A priority Critical patent/JP5187757B2/en
Publication of JP2010152833A publication Critical patent/JP2010152833A/en
Application granted granted Critical
Publication of JP5187757B2 publication Critical patent/JP5187757B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation

Abstract

<P>PROBLEM TO BE SOLVED: To move autonomously in movement at high moving speed and to allow remote control in movement at low moving speed. <P>SOLUTION: An unmanned mobile body system includes an imaging part, a range-finding part, an unmanned mobile body carrying a drive mechanism, a display part, and a remote control device sending control information including a movement direction and a movement speed at least for remote-controlling the unmanned mobile body based on an image displayed in the display part. The system also includes: an area extraction means 10a extracting a movable area in a movement region based on image data acquired by the imaging part and range-finding data acquired by the range-finding part; a movement plan creating means 10b creating a movement plan for autonomous movement based on the control information sent from the remote control device; a first determination means 10c determining possibility/impossibility of movement in the movable area based on the control information; and an autonomous movement means 10d moving the unmanned mobile body according to the movement plan when it is determined that the movement is possible. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば無人車両等の無人移動体と、この無人移動体を遠隔操縦するための遠隔操縦装置とを有する無人移動体システムに関する。   The present invention relates to an unmanned moving body system including an unmanned moving body such as an unmanned vehicle and a remote control device for remotely manipulating the unmanned moving body.

従来、この種の従来技術として、「ユーザにロボットを遠隔操縦させることができる方法」とした名称で、特許文献1に開示されているものがある。
特許文献1に記載された方法は、ロボットの周辺の領域を表す画像情報を供給する段階と、前記画像情報を用いて、前記ロボットの周辺の領域を表すユーザ知覚画像を供給する段階と、ユーザに画像においてロボットが移動すべき方へ一つ以上の目標を指定させることができる段階と、ロボットを前記目標に向けて移動させることができる段階とを具備したことを内容としたものである。
特表2003−532218号公報
Conventionally, as this type of prior art, there is one disclosed in Patent Document 1 under the name of “method that allows a user to remotely control a robot”.
The method described in Patent Document 1 includes a step of supplying image information representing an area around the robot, a step of supplying a user perceptual image representing an area around the robot using the image information, and a user In the image, there are provided a stage in which one or more targets can be specified for the robot to be moved and a stage in which the robot can be moved toward the target.
Special table 2003-532218 gazette

上記の構成により、ロボットを直感的に遠隔操作しようとしたものではあるが、画像においてロボットが移動すべき方へ目標を指定させることができる前記段階は、ポイント‐アンド‐クリック選択によるものであり、従ってまた、遠隔操作時の通信や画像圧縮することによる遅延時間が生じるために、高い移動速度における直感による遠隔操作を行えないという問題がある。   Although the above configuration is intended to intuitively remotely control the robot, the step in which the robot can specify the target in the image is based on point-and-click selection. Therefore, there is a problem that the remote operation cannot be performed intuitively at a high moving speed because of a delay time caused by communication or image compression during remote operation.

そこで本発明は、高い移動速度の場合には自律して移動し、また、低い移動速度のときには遠隔操作をすることができる無人移動体システムの提供を目的としている。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an unmanned mobile system that can move autonomously at a high moving speed and can be remotely operated at a low moving speed.

上記目的を達成するための本発明に係る無人移動体システムは、移動領域内の測距データを取得するための測距部、及び移動のための駆動機構を搭載した無人移動体と、その測距部によって取得した測距データに基づく画像を表示する表示部、及びその表示部に表示された画像に基づいて無人移動体を遠隔操縦するための、少なくとも移動方向と移動速度を含む操縦情報を送出する遠隔操縦装置とを有する構成のものであり、測距部により取得した測距データに基づいて、移動領域内における移動可能エリアを抽出するエリア抽出手段と、遠隔操縦装置から送出された操縦情報に含まれる移動方向と移動速度に基づいて、自律移動のための移動計画を作成する移動計画作成手段と、操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動の可否を判定する第一の判定手段と、当該移動が可能であると判定したときには、作成した移動計画に従って、駆動機構によって無人移動体を移動させる自律移動手段とを設けたことを特徴としている。   In order to achieve the above object, an unmanned moving body system according to the present invention includes an unmanned moving body equipped with a distance measuring unit for acquiring distance measurement data in a moving region and a driving mechanism for movement, and its measurement. A display unit for displaying an image based on distance measurement data acquired by the distance unit, and steering information including at least a moving direction and a moving speed for remotely maneuvering the unmanned moving body based on the image displayed on the display unit. A remote control device for sending out, area extraction means for extracting a movable area in the moving area based on distance measurement data acquired by the distance measuring unit, and control sent out from the remote control device Based on the movement direction and movement speed included in the information, a movement plan creation means for creating a movement plan for autonomous movement, and a moveable error based on the movement direction and movement speed included in the operation information. Provided with a first determination means for determining whether or not movement within the door is possible, and an autonomous movement means for moving the unmanned moving body by the drive mechanism according to the created movement plan when it is determined that the movement is possible. It is characterized by.

本発明によれば、高い移動速度の場合には自律して移動し、また、低い移動速度のときには遠隔操作をすることができる。   According to the present invention, it is possible to move autonomously when the moving speed is high, and to perform remote operation when the moving speed is low.

以下に、本発明を実施するための最良の形態について、図面を参照して説明する。図1は、本発明の一実施形態に係る無人移動体システムの全体構成を示す説明図、図2は、無人移動体に設けた制御回路のブロック図である。また、図3は、無人移動体に設けた制御回路のブロック図である。   The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is an explanatory diagram showing an overall configuration of an unmanned mobile system according to an embodiment of the present invention, and FIG. 2 is a block diagram of a control circuit provided in the unmanned mobile body. FIG. 3 is a block diagram of a control circuit provided in the unmanned mobile body.

本発明の一実施形態に係る無人移動体システムAは、図1に示すように、無人移動体の一例である無人車両Bと、遠隔操縦装置Cとを有している。
無人車両Bは、一般の乗用車両のハンドル/アクセル/ブレーキを、下記の移動体制御用,自律移動用コンピュータ10,30によって操縦できるように、各種のアクチュエータを付加した構成のものであり、その詳細は次のとおりである。
As shown in FIG. 1, the unmanned mobile system A according to an embodiment of the present invention includes an unmanned vehicle B that is an example of an unmanned mobile body and a remote control device C.
The unmanned vehicle B has a configuration in which various actuators are added so that the steering wheel / accelerator / brake of a general passenger vehicle can be controlled by the following moving body control and autonomous movement computers 10 and 30. Is as follows.

すなわち、無人車両Bは、CPU(Central Processing Unit)やインターフェース回路(いずれも図示しない)等からなる移動体制御用コンピュータ10と、同じく自律移動用コンピュータ30とによって制御されるようになっている(図2,3参照)。
なお、以下には、移動体制御用コンピュータ10を、本実施形態に対応して車両制御用コンピュータ10という。
車両制御用コンピュータ10と、自律移動用コンピュータ30とは、イーサネット(登録商標)11を介して互いに接続されている。
That is, the unmanned vehicle B is controlled by a mobile object control computer 10 including a CPU (Central Processing Unit), an interface circuit (none of which are shown), and the autonomous movement computer 30 (see FIG. 2 and 3).
In the following, the moving body control computer 10 is referred to as a vehicle control computer 10 according to the present embodiment.
The vehicle control computer 10 and the autonomous movement computer 30 are connected to each other via the Ethernet (registered trademark) 11.

自律移動用コンピュータ30は、CPU(Central Processing Unit)やインターフェース回路(いずれも図示しない)等からなるものであり、これの入力ポートには、移動領域内の測距データを取得するための測距部33が接続されている。
測距部33は、自律移動用カメラ14,31と、レーザー光センサ(以下、「LRF」という。)32とを有して構成されている。
The autonomous movement computer 30 is composed of a CPU (Central Processing Unit), an interface circuit (none of which are shown), and the like, and a distance measurement for obtaining distance measurement data in the movement area is provided at an input port thereof. The unit 33 is connected.
The distance measuring unit 33 includes autonomous movement cameras 14 and 31 and a laser light sensor (hereinafter referred to as “LRF”) 32.

LRF32は、レーザ光の投光から受光までの時間を計測するタイムオブフライト方式により測距を行うものであり、本実施形態において示すものは、1つのレーザ光源を用い、光軸を光学的又は機械的に掃引することにより、物体の3次元的な形状を取得するスキャンタイプのものである。
自律移動用カメラ14,31は、自律走行(自律移動)を行うときに必要な画像データを取得するためのものであり、走行方向に向け、かつ、車幅方向において左右対称に配列されている。
すなわち、自律移動用カメラ14,31は、所謂ステレオカメラである。
The LRF 32 performs distance measurement by a time-of-flight method for measuring the time from projecting to receiving light of a laser beam. In the present embodiment, the one shown in this embodiment uses one laser light source and the optical axis is optical or It is of a scan type that acquires a three-dimensional shape of an object by mechanically sweeping.
The autonomous movement cameras 14 and 31 are for acquiring image data necessary for autonomous traveling (autonomous movement), and are arranged symmetrically in the vehicle width direction and in the vehicle width direction. .
That is, the autonomous movement cameras 14 and 31 are so-called stereo cameras.

車両制御用コンピュータ10は、CPU(Central Processing Unit)、インターフェース回路及びメモリ(いずれも図示しない)等からなるものである。
車両制御用コンピュータ10の入力ポートには、イーサネット(登録商標)12を介して無線LAN13が、また、GPS(Global Positioning System)15、バーチカルジャイロ16、車速パルス17、及びオドメトリ18がそれぞれシリアル回線を介して接続されている。なお、符号20は、無線LAN13に接続されているアンテナを示している。
The vehicle control computer 10 includes a CPU (Central Processing Unit), an interface circuit, a memory (all not shown), and the like.
A wireless LAN 13 is connected to the input port of the vehicle control computer 10 via the Ethernet (registered trademark) 12, and a GPS (Global Positioning System) 15, a vertical gyroscope 16, a vehicle speed pulse 17, and an odometry 18 are respectively connected to the serial line. Connected through. Reference numeral 20 denotes an antenna connected to the wireless LAN 13.

また、出力ポートには、モータドライバ21を介して、ステアリング用アクチュエータ22、ブレーキ/アクセル用アクチュエータ23がそれぞれ接続されている。
なお、9…は走行輪であり、これらの走行輪9…とともに、モータドライバ21、ステアリング用アクチュエータ22、ブレーキ/アクセル用アクチュエータ23により駆動機構Dを構成している。
Further, a steering actuator 22 and a brake / accelerator actuator 23 are connected to the output port via a motor driver 21, respectively.
9 are traveling wheels, and together with these traveling wheels 9, a motor driver 21, a steering actuator 22, and a brake / accelerator actuator 23 constitute a drive mechanism D.

バーチカルジャイロ16は、無人車両Bの鉛直面内における傾斜姿勢、従ってまた、後述する自律走行用カメラ14,31の光軸姿勢(向き)情報を取得するとともに、ヨー角速度、及びX,Y,Z3軸の加速度等を出力するようになっている。   The vertical gyro 16 obtains the inclination posture in the vertical plane of the unmanned vehicle B, and therefore the optical axis posture (orientation) information of the autonomous traveling cameras 14 and 31 described later, the yaw angular velocity, and the X, Y, and Z3. The axis acceleration is output.

オドメトリ18は、無人車両Bの走行輪9…の各回転量に基づいて、自己の位置情報を取得するためのセンサである。
GPS15は、無人車両Bの位置情報を取得するためのものである。
車速パルス17は、無人車両Bの移動速度をパルス情報として出力するものであり、例えばホール素子等である。
本実施形態においては、車速パルス17が、無人車両Bの移動速度を測定するための速度測定器である。
The odometry 18 is a sensor for acquiring own position information based on each rotation amount of the traveling wheels 9 of the unmanned vehicle B.
The GPS 15 is for acquiring position information of the unmanned vehicle B.
The vehicle speed pulse 17 outputs the moving speed of the unmanned vehicle B as pulse information, and is, for example, a hall element.
In the present embodiment, the vehicle speed pulse 17 is a speed measuring device for measuring the moving speed of the unmanned vehicle B.

車両制御用コンピュータ10は、イーサネット(登録商標)11,無線LAN13及びアンテナ20を通じて、GPS15、バーチカルジャイロ16で取得した各種の情報を、後述する遠隔操縦装置Cに向けて送信する機能の他、その遠隔操縦装置Cから送信される操縦情報に基づき、ステアリング用アクチュエータ22、ブレーキ/アクセル用アクチュエータ23をモータドライバ21を介して駆動制御する機能を有している。
すなわち、遠隔操縦装置Cから送信される走行経路(移動経路)、後述する操縦情報に従って、ステアリング用アクチュエータ22及びブレーキ/アクセル用アクチュエータ23を駆動する機能を有している。
The vehicle control computer 10 has a function of transmitting various information acquired by the GPS 15 and the vertical gyro 16 to the remote control device C, which will be described later, through the Ethernet (registered trademark) 11, the wireless LAN 13, and the antenna 20. Based on the steering information transmitted from the remote control device C, the steering actuator 22 and the brake / accelerator actuator 23 are driven and controlled via the motor driver 21.
That is, it has a function of driving the steering actuator 22 and the brake / accelerator actuator 23 in accordance with a travel route (movement route) transmitted from the remote control device C and control information described later.

車両制御用コンピュータ10は、図示しないメモリに記憶されている所要のプログラムの実行により、次の各機能を発揮する。図4は、車両制御用コンピュータが有する機能を示すブロック図、図5は、二つの自律走行用カメラにより画像データを取得する原理を示す説明図である。   The vehicle control computer 10 exhibits the following functions by executing required programs stored in a memory (not shown). FIG. 4 is a block diagram illustrating functions of the vehicle control computer, and FIG. 5 is an explanatory diagram illustrating a principle of acquiring image data by two autonomous traveling cameras.

(1)測距部33により取得した測距データに基づいて、移動領域内における移動可能エリアを抽出する機能。この機能を「エリア抽出手段10a」という。
本実施形態においては、LRF32により取得したレーザー光データと、自律走行用カメラ14,31により取得した画像データの双方に基づき、移動領域内における移動可能エリアを抽出している。
なお、自律走行用カメラ14,31により取得した画像データのみに基づき、また、LRF32により取得したレーザー光データのみに基づいて移動領域内における移動可能エリアを抽出するようにしてもよい。
(1) A function of extracting a movable area in the movement area based on distance measurement data acquired by the distance measurement unit 33. This function is referred to as “area extraction means 10a”.
In the present embodiment, a movable area in the moving area is extracted based on both the laser beam data acquired by the LRF 32 and the image data acquired by the autonomous traveling cameras 14 and 31.
The movable area in the moving area may be extracted based only on the image data acquired by the autonomous traveling cameras 14 and 31 and based only on the laser beam data acquired by the LRF 32.

(2)遠隔操縦装置Cから送出された操縦情報に含まれる移動方向と移動速度に基づいて、自律移動のための移動計画を作成する機能。これを「移動計画作成手段10b」という。
「移動計画」は、移動可能エリア内における無人車両Bの移動ルートであり、所謂ポテンシャル法によるものである。
本実施形態においては、後述する障害物検出手段10gによって後述する図8(A)に示す移動可能エリアG内の自律移動の妨げとなる障害物Hを検出したときには、その障害物Hを回避するための移動計画、従ってまた、移動ルートRを作成する。
(2) A function for creating a movement plan for autonomous movement based on the movement direction and movement speed included in the operation information sent from the remote control device C. This is referred to as “movement plan creation means 10b”.
The “movement plan” is a movement route of the unmanned vehicle B within the movable area, and is based on a so-called potential method.
In the present embodiment, when an obstacle H that hinders autonomous movement in the movable area G shown in FIG. 8A described later is detected by the obstacle detecting means 10g described later, the obstacle H is avoided. A travel plan for the vehicle, and therefore also a travel route R.

(3)操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動の可否を判定する機能。これを「第一の判定手段10c」という。
「操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動の可否」は、上記作成した移動ルートRが、移動可能エリアG内のものであるか否かによるものである。
(3) A function of determining whether or not movement is possible in the movable area based on the movement direction and the movement speed included in the operation information. This is referred to as “first determination means 10c”.
“Moveability within the movable area based on the movement direction and the movement speed included in the operation information” depends on whether or not the created movement route R is within the movable area G.

(4)第一の判定手段10cにより、操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動が可能であると判定したときには、作成した移動計画に従って、駆動機構Dを介して無人移動体を移動させる機能。これを「自律移動手段10d」という。
本実施形態においては、操縦情報に含まれる移動方向への移動が不可能であると判定したときには、駆動機構Dによって無人車両(無人移動体)Bの移動速度を低下させている。
(4) When it is determined by the first determination unit 10c that the movement within the movable area based on the movement direction and the movement speed included in the operation information is possible, the first determination unit 10c passes the drive mechanism D according to the created movement plan. A function to move an unmanned vehicle. This is referred to as “autonomous moving means 10d”.
In this embodiment, when it is determined that movement in the movement direction included in the operation information is impossible, the moving speed of the unmanned vehicle (unmanned moving body) B is reduced by the drive mechanism D.

また、低下させる無人車両Bの移動速度は、遠隔操縦装置Cによって、無人車両Bを良好に操縦できる程度のものである。   Moreover, the moving speed of the unmanned vehicle B to be lowered is such that the unmanned vehicle B can be satisfactorily steered by the remote control device C.

(5)第一の判定手段10cにより、操縦情報に含まれる移動方向と移動速度に基づき、移動可能エリア内における移動が不可能であると判定したときには、その操縦情報に含まれる移動方向への移動の可否を判定する機能。これを「第二の判定手段10e」という。 (5) When the first determination means 10c determines that movement in the movable area is impossible based on the moving direction and moving speed included in the maneuvering information, the first determining means 10c moves to the moving direction included in the maneuvering information. A function that determines whether or not movement is possible. This is referred to as “second determination means 10e”.

(6)測距部により取得した測距データに基づき、移動可能エリア内の自律移動の妨げとなる障害物を検出する機能。これを「障害物検出手段10g」という。
本実施形態においては、自律移動用カメラ14,31で取得した画像データと、LRF32で取得したレーザー光データとに基づき、移動可能エリア内の自律移動の妨げとなる障害物を検出している。
(6) A function of detecting an obstacle that hinders autonomous movement in the movable area based on the distance measurement data acquired by the distance measurement unit. This is referred to as “obstacle detection means 10 g”.
In the present embodiment, an obstacle that hinders autonomous movement in the movable area is detected based on the image data acquired by the autonomous movement cameras 14 and 31 and the laser light data acquired by the LRF 32.

自律移動用カメラ14,31による測距データの取得は、次のとおりである。
すなわち、図5に示すように、自律移動用カメラ14,31における左画像座標系[xl,yl]、右画像座標系[xr,yr]、世界座標系[X,Y,Z]、基線b、焦点距離fとしたとき、
世界座標系における障害物Pの座標X,Y,Zは、次式により求めることができる。
X=b(xl+xr)/2d
Y=b(yl+yr)/2d
Z=b・f/d
なお、ただしdは視差であり、d=xl−xr。
Acquisition of distance measurement data by the autonomous movement cameras 14 and 31 is as follows.
That is, as shown in FIG. 5, the left image coordinate system [xl, yl], the right image coordinate system [xr, yr], the world coordinate system [X, Y, Z], the base line b in the autonomous movement cameras 14 and 31. When the focal length is f,
The coordinates X, Y, and Z of the obstacle P in the world coordinate system can be obtained by the following equations.
X = b (xl + xr) / 2d
Y = b (yl + yr) / 2d
Z = b · f / d
Note that d is parallax, and d = xl−xr.

また、右画像において撮像点prと左画像において撮像点plの対応をとる方法は、画像を小領域に分割し、その領域に対して他方の画像全面に対応のとれる位置を走査するパタンマッチング法がある。   In addition, a method of matching the imaging point pr in the right image and the imaging point pl in the left image is a pattern matching method in which the image is divided into small areas and a position corresponding to the entire surface of the other image is scanned with respect to the area. There is.

すなわち、LRF32は、レーザ光の到達範囲が計測エリアとなるために、数十メートルと比較的近い領域の測距データを取得するときに用い、画像データは精度においてレーザ光データに劣るものの、遠距離の計測エリアの画像データを取得するときに用いている。   That is, the LRF 32 is used when acquiring distance measurement data in an area relatively close to several tens of meters because the reach of the laser light is a measurement area. Although the image data is inferior to the laser light data in accuracy, This is used when acquiring image data of the distance measurement area.

本実施形態においては、LRF32と自律走行用カメラ14,31により、移動可能エリア内の自律移動の妨げとなる障害物を検出しているが、LRF32のレーザースキャンの高さ方向のプロファイルデータに基づいて、一定の高さ以上(超える)領域を障害物と認識させるようにしてもよい。   In the present embodiment, the obstacle that hinders autonomous movement in the movable area is detected by the LRF 32 and the autonomous traveling cameras 14 and 31, but based on the profile data in the height direction of the laser scanning of the LRF 32. Thus, an area that exceeds (exceeds) a certain height may be recognized as an obstacle.

この場合、取得した測距データ中に離散した測距データがあるか否かを判定する離散測距データ判定手段と、離散した測距データがあると判定したときには、その離散した測距データを除去する離散データ除去手段とを設けるとよい。なお、離散データ除去手段を、離散した測距データをノイズとしてフィルタリングするフィルタリング手段と言い換えることができる。
また、1スキャンラインデータのみでなく、走行方向への複数のスキャンラインデータから奥行き方向の三次元画像を求め、パターンマッチングにより障害物の認識をさせるようにしてもよい。
In this case, when it is determined that there is discrete distance measurement data and discrete distance measurement data determination means for determining whether or not there is discrete distance measurement data in the acquired distance measurement data, the discrete distance measurement data is Discrete data removing means for removing may be provided. The discrete data removing means can be rephrased as filtering means for filtering discrete distance measurement data as noise.
Further, not only one scan line data but also a three-dimensional image in the depth direction may be obtained from a plurality of scan line data in the traveling direction, and obstacles may be recognized by pattern matching.

(7)速度測定器により測定した無人移動体の移動速度が、既定値以下になったか否かを判定する移動速度が既定値以下になったか否かを判定する機能。これを「移動速度判定手段10h」という。 (7) A function for determining whether or not the moving speed for determining whether or not the moving speed of the unmanned moving body measured by the speed measuring instrument has become equal to or less than a predetermined value. This is referred to as “movement speed determination means 10h”.

(8)移動速度が既定値よりも下がったと判定したときには、自律移動モードから遠隔操縦モードに切り替える機能。これを「モード切替手段10i」という。
「既定値」は、操縦者が移動可能エリア内を安全に移動できる程度の移動速度である。
「遠隔操縦モード」とは、遠隔操縦装置Cから送出された操縦情報に基づく遠隔操縦を可能とした状態をいう。
「自律移動モード」とは、作成した移動計画に従って、駆動機構Dによって無人車両Bを移動させる状態をいう。
(8) A function of switching from the autonomous movement mode to the remote control mode when it is determined that the moving speed is lower than the predetermined value. This is referred to as “mode switching means 10i”.
The “predetermined value” is a moving speed at which the operator can safely move within the movable area.
“Remote control mode” refers to a state in which remote control based on control information sent from the remote control device C is enabled.
The “autonomous movement mode” refers to a state in which the unmanned vehicle B is moved by the drive mechanism D in accordance with the created movement plan.

次に、遠隔操縦装置について、図6〜9を参照して説明する。図6は、遠隔操縦装置の構成を示す説明図、図7は、遠隔操縦装置に設けた制御回路のブロック図、図8(A),(B)は、無人車両の移動速度の高低に従って、ディスプレイに表示される操縦用基準マークの表示例を示す説明図である。また、図9(A)は、自律移動時の移動ルートを示す説明図、(B)は、表示位置を補正した表示例を示す説明図である。
本実施形態において示す遠隔操縦装置Cは、表示部40、入力装置50、及び制御装置60を有して構成されており、操縦者Qが装着して使用できる形態になっている。
Next, the remote control device will be described with reference to FIGS. FIG. 6 is an explanatory diagram showing a configuration of the remote control device, FIG. 7 is a block diagram of a control circuit provided in the remote control device, and FIGS. 8A and 8B are diagrams according to the moving speed of the unmanned vehicle. It is explanatory drawing which shows the example of a display of the control reference mark displayed on a display. FIG. 9A is an explanatory diagram illustrating a movement route during autonomous movement, and FIG. 9B is an explanatory diagram illustrating a display example in which the display position is corrected.
The remote control device C shown in the present embodiment is configured to include a display unit 40, an input device 50, and a control device 60, and is configured to be used by the operator Q.

表示部40は、ディスプレイ41、ディスプレイコントローラや制御装置60との間における画像データの送受を行う送受信部(いずれも図示しない)を筐体42に配設したものであり、操縦者Qの頭部に装着するためのベルト43に取り付けたものである。
ディスプレイ41には、上記した撮像部である自律移動用カメラ14,31によって取得した画像等が表示されるようになっている。
The display unit 40 includes a casing 42 and a transmission / reception unit (none of which is shown) that transmits and receives image data to and from the display 41, the display controller, and the control device 60. It is attached to a belt 43 for attaching to the belt.
The display 41 displays images and the like acquired by the above-described autonomous movement cameras 14 and 31 that are imaging units.

入力装置50は、操縦情報を入力するためのジョイスティック51、アクセル/ブレーキレバー52、制御装置60との間における操縦情報等の送受を行う送受信部(いずれも図示しない)を筐体53に配設したものであり、それらジョイスティック51やアクセル/ブレーキレバー52の操作に従った操縦情報が出力されるようになっている。
「操縦情報」は、少なくとも指令移動方向、指令移動速度及び無人車両Bの加減速データを含むものである。
The input device 50 is provided with a transmission / reception unit (none of which is shown) in the casing 53 for transmitting / receiving steering information to / from the joystick 51, the accelerator / brake lever 52, and the control device 60 for inputting steering information. The operation information according to the operation of the joystick 51 and the accelerator / brake lever 52 is output.
“Maneuvering information” includes at least a command movement direction, a command movement speed, and acceleration / deceleration data of the unmanned vehicle B.

ジョイスティック51は、これの傾動操作によって、無人車両Bを左右に旋回操作するためのものである。
アクセル/ブレーキレバー52は、無人車両Bの移動速度(以下、「走行速度」という。)を増減するためのものである。
The joystick 51 is for turning the unmanned vehicle B left and right by tilting the joystick 51.
The accelerator / brake lever 52 is for increasing or decreasing the moving speed of the unmanned vehicle B (hereinafter referred to as “traveling speed”).

制御装置60は、CPU(Central Processing Unit)やインターフェース回路(いずれも図示しない)等からなる装置本体65と、これの入出力ポートに、無線LAN61、ディスプレイ62、キーボード63とを一体的に構成したものである。なお、符号64で示すものは、アンテナである。   The control device 60 is configured integrally with a device main body 65 including a CPU (Central Processing Unit), an interface circuit (none of which is shown), and the input / output ports thereof, and a wireless LAN 61, a display 62, and a keyboard 63. Is. In addition, what is shown with the code | symbol 64 is an antenna.

装置本体65は、所要のプログラムの実行により次の各機能を発揮する。
(9)車速パルス(速度測定器)17によって検出した移動速度に対応して、操縦を行うときの基準となる操縦用基準マークMを、ディスプレイ41に表示されている画像に重畳表示する機能。これを「重畳表示手段65a」という。
The apparatus main body 65 exhibits the following functions by executing a required program.
(9) A function of superimposing and displaying an operation reference mark M serving as a reference for operation in accordance with the moving speed detected by the vehicle speed pulse (speed measuring device) 17 on an image displayed on the display 41. This is referred to as “superimposition display means 65a”.

本実施形態においては、図7(A)に示すように、無人車両Bが例えば40km/hで移動しているときには、操縦用基準マークMを(ア)又は(イ)で示す上側位置に表示し、また、同図(B)に示すように、例えば5km/hで移動しているときには、操縦用基準マークMを(ウ)又は(エ)で示す下側位置に表示する。
なお、41aで示すものは、無人車両Bの状態情報であり、例えば無人車両Bの前後左右の傾斜状態や走行速度等である。
In the present embodiment, as shown in FIG. 7A, when the unmanned vehicle B is moving at, for example, 40 km / h, the control reference mark M is displayed at the upper position indicated by (A) or (A). Further, as shown in FIG. 5B, for example, when moving at 5 km / h, the control reference mark M is displayed at the lower position indicated by (C) or (D).
In addition, what is shown by 41a is the state information of the unmanned vehicle B, for example, the front / rear / left / right inclination state of the unmanned vehicle B, the traveling speed, and the like.

図10は、操縦用基準マークMの表示位置を決定するときの説明図である。
画像を取得した時刻をTimg、通信遅延時間をTa(sec)、操縦者が指示するための反応時間(操縦者毎に設定)をTp(sec)、Timgにおける走行速度をVimg(km/h)、方向指示のために操縦用基準マークMを表示・移動する(xd,yd)からの距離(半径)rc(m)とすると、rcは、次式1で表すことができる。
rc=Vimg×1000/Tp×3600 (式1)
すなわち、操縦用基準マークMを、現速度で走行した場合の指定時間Tp後の無人車両の座標位置に表示している。
FIG. 10 is an explanatory diagram when the display position of the control reference mark M is determined.
The time when the image was acquired is Timg, the communication delay time is Ta (sec), the reaction time for the operator to instruct (set for each pilot) is Tp (sec), and the traveling speed at Timg is Vimg (km / h) Assuming that the distance (radius) rc (m) from (xd, yd) to display and move the control reference mark M for direction indication, rc can be expressed by the following equation 1.
rc = Vimg × 1000 / Tp × 3600 (Formula 1)
That is, the control reference mark M is displayed at the coordinate position of the unmanned vehicle after the specified time Tp when traveling at the current speed.

また、本実施形態においては、上下表示位置に応じて、操縦用基準マークMの大きさを異ならせて表示させている。具体的には、下側位置に表示されるに従って大きく表示し、上側位置に表示されるに従って小さく表示する。これにより、ディスプレイ41上において容易に遠近感を与えることができる。   In the present embodiment, the size of the control reference mark M is displayed differently according to the vertical display position. Specifically, the image is displayed larger as it is displayed at the lower position, and is displayed smaller as it is displayed at the upper position. Thereby, a sense of perspective can be easily given on the display 41.

さらに、本実施形態においては、移動可能エリアGを識別するための識別情報を画像に重畳表示している。
「識別情報」の具体的としては、移動可能エリアGに他のエリアHa,Hb,Hcとは異なる色彩を付する等である。
Furthermore, in the present embodiment, identification information for identifying the movable area G is superimposed on the image.
Specific examples of the “identification information” include giving the movable area G a color different from that of the other areas Ha, Hb, and Hc.

さらにまた、上述した障害物検出手段10gによって、移動可能エリアG内に障害物Hを検出した場合には、その障害物Hを容易に識別するための識別マークIを重畳表示している。これにより、障害物Hを見落とすことを防止できる。   Furthermore, when the obstacle detection means 10g described above detects an obstacle H in the movable area G, an identification mark I for easily identifying the obstacle H is displayed in a superimposed manner. Thereby, it is possible to prevent the obstacle H from being overlooked.

(10)無人車両Bと遠隔操作装置Cとの間における通信遅延時間を算出する機能。これを「遅延時間算出手段65b」という。
本実施形態においては、無人車両Bと遠隔操縦装置Cの間において、pingの要領でデータの往復時間を推定している。
また、無人車両Bと遠隔操縦装置C双方にGPSを搭載しておき、そのGPSを用いて双方のコンピュータによって精度の高い時刻同期を行い、受信したデータのタイムスタンプに基づいて遅延時間を推定するようにしてもよい。
(10) A function of calculating a communication delay time between the unmanned vehicle B and the remote control device C. This is referred to as “delay time calculation means 65b”.
In the present embodiment, the round trip time of data is estimated between the unmanned vehicle B and the remote control device C in the manner of ping.
In addition, GPS is installed in both the unmanned vehicle B and the remote control device C, the time synchronization with high accuracy is performed by both computers using the GPS, and the delay time is estimated based on the time stamp of the received data. You may do it.

(11)遅延時間算出手段65bにより算出した遅延時間に基づいて、操縦用基準マークMの表示位置を補正する機能。これを「表示位置補正手段65c」という。
すなわち、図8(B)に(オ)で示す操縦用基準マークMは、遅延時間に基づく補正をしないものであり、また、(カ)で示す操縦用基準マークMは、遅延時間に基づく補正をしたものである。このように補正を行うことにより、遅延時間による操縦ミスを低減することができる。
(11) A function of correcting the display position of the control reference mark M based on the delay time calculated by the delay time calculating means 65b. This is referred to as “display position correcting means 65c”.
That is, the control reference mark M indicated by (e) in FIG. 8B is not corrected based on the delay time, and the control reference mark M indicated by (f) is corrected based on the delay time. It is what you did. By performing the correction in this way, it is possible to reduce steering errors due to the delay time.

次に、図11,12を参照して、制御フローチャートについて説明する。図11は、車両制御装置の制御フローチャート、図12は、図11に示すステップ4の詳細を示すフローチャート、図13は、遠隔操縦装置による遠隔操縦のフローチャートである。
<車両制御装置の制御フローチャート>
ステップ1(図中、「S1」と略記する。以下、同様。):各部の初期化処理を行ってステップ2に進む。
Next, a control flowchart will be described with reference to FIGS. FIG. 11 is a control flowchart of the vehicle control device, FIG. 12 is a flowchart showing details of step 4 shown in FIG. 11, and FIG. 13 is a flowchart of remote control by the remote control device.
<Control flow chart of vehicle control device>
Step 1 (abbreviated as “S1” in the figure. The same applies hereinafter): Initialization processing of each part is performed, and the process proceeds to Step 2.

ステップ2:遠隔操縦装置Cから送信された操縦者Qによる指令移動速度・移動方向等を含む操縦情報及びコマンドを受信して、ステップ3に進む。
ステップ3:終了コマンドを受信したか否かを判定し、終了コマンドを受信すればステップ14に進んで、そうでなければステップ4に進む。
Step 2: The control information and command including the commanded moving speed and moving direction by the operator Q transmitted from the remote control device C are received, and the process proceeds to Step 3.
Step 3: It is determined whether or not an end command has been received. If an end command is received, the process proceeds to step 14; otherwise, the process proceeds to step 4.

ステップ4:カメラ14,31とLRF32によって移動領域を認識し、移動可能エリアを抽出して、図12に示すステップ4a,4bに進む。
具体的には、ステップ4a,4bにおいてレーザー光データと画像データとが入力されると、それぞれステップ4c,4dに進む。
Step 4: The moving area is recognized by the cameras 14 and 31 and the LRF 32, the movable area is extracted, and the process proceeds to Steps 4a and 4b shown in FIG.
Specifically, when laser light data and image data are input in steps 4a and 4b, the process proceeds to steps 4c and 4d, respectively.

ステップ4c,4dにおいて障害物認識処理を行ってステップ5eに進む。
ステップ4e:障害物の認識結果に基づいて環境マップ(地図)を作成し、ステップ5fに進む。
本実施形態においては、判定に係る移動障害物に対応する障害物データを含む地図を作成する機能、すなわち地図作成手段を有している。
In steps 4c and 4d, an obstacle recognition process is performed, and the process proceeds to step 5e.
Step 4e: Create an environment map (map) based on the recognition result of the obstacle, and proceed to Step 5f.
In this embodiment, it has the function to produce the map containing the obstacle data corresponding to the movement obstacle which concerns on determination, ie, a map creation means.

ステップ4f:移動計画を作成して、メインフローのステップ5に戻る。
このとき、移動可能エリア内に障害物が存在する場合には、その障害物を回避するルートを含む移動計画を作成する。
Step 4f: Create a movement plan and return to Step 5 of the main flow.
At this time, if an obstacle exists in the movable area, a movement plan including a route for avoiding the obstacle is created.

ステップ5:指令移動速度と指令移動方向に基づき作成した移動計画により、走行可能か否かを判定し、走行不可能であると判定されればステップ6に進み、そうでなければステップ11に進む。このステップ5が、第一の判定手段に相当する。   Step 5: Determine whether or not the vehicle can travel based on the travel plan created based on the command travel speed and the command travel direction. If it is determined that travel is not possible, proceed to Step 6, otherwise proceed to Step 11. . This step 5 corresponds to the first determination means.

ステップ6:指令移動方向への移動が可能か否かを判定し、不可能であればステップ8に進み、可能であればステップ7に進む。このステップ6が、第二の判定手段に相当する。   Step 6: It is determined whether or not movement in the command movement direction is possible. If impossible, the process proceeds to Step 8, and if possible, the process proceeds to Step 7. This step 6 corresponds to a second determination means.

ステップ7:移動速度を低下する。その移動速度の低下に従って、ディスプレイ41に表示されている操縦用基準マークMの表示位置が、ディスプレイ41の上側から下側に向けて下降表示して、ステップ12に進む。
ステップ8:移動速度を低下して、ステップ9に進む。
Step 7: Reduce the moving speed. As the moving speed decreases, the display position of the control reference mark M displayed on the display 41 is lowered from the upper side of the display 41 toward the lower side, and the process proceeds to Step 12.
Step 8: Decrease the moving speed and proceed to Step 9.

ステップ9:移動速度が既定値以下になったか否かを判定し、移動速度が既定値以下になったと判定すればステップ10に進み、そうでなれればステップ8に戻る。
ステップ10:自律移動モードから遠隔操縦モードに切り替えてステップ12に進む。
ステップ11:指令移動速度、指令移動方向に自律して走行するように、アクセル/ブレーキ、ステアリングをアクチュエータによって駆動して、ステップ12に進む。
ステップ12:移動速度(車速)等の車両情報及び移動可能エリアの認識結果を、遠隔操縦装置Cに向けて送信して、ステップ13に進んで終了処理を行う。
Step 9: It is determined whether or not the moving speed is equal to or lower than a predetermined value. If it is determined that the moving speed is equal to or lower than the predetermined value, the process proceeds to Step 10;
Step 10: Switch from the autonomous movement mode to the remote control mode and proceed to Step 12.
Step 11: The accelerator / brake and the steering are driven by the actuator so as to autonomously travel in the command movement speed and the command movement direction, and the process proceeds to Step 12.
Step 12: The vehicle information such as the moving speed (vehicle speed) and the recognition result of the movable area are transmitted to the remote control device C, and the process proceeds to Step 13 to complete the end process.

<遠隔操縦のフローチャート>
ステップ1(図中、「Sa1」と略記する。以下、同様。):各部の初期化処理を行ってステップ2に進む。
ステップ2:遠隔操縦装置Cから送信された操縦者Pによる指令速度,指令方向等を含む操縦情報及びコマンドを受信して、ステップ3に進む。
ステップ3:終了コマンドを受信したか否かを判定し、終了コマンドを受信すればステップ10に進み、そうでなければステップ4に進む。
ステップ4:無人車両Bから送信された上記車両情報を受信して、ステップ5に進む。
ステップ5:通信遅延時間を算出して、ステップ6に進む。
<Remote control flowchart>
Step 1 (abbreviated as “Sa1” in the figure. The same applies hereinafter): Initialization processing of each part is performed and the process proceeds to Step 2.
Step 2: The control information and command including the command speed, command direction and the like transmitted from the remote control device C by the operator P are received, and the process proceeds to Step 3.
Step 3: It is determined whether or not an end command has been received. If an end command is received, the process proceeds to Step 10, and if not, the process proceeds to Step 4.
Step 4: The vehicle information transmitted from the unmanned vehicle B is received, and the process proceeds to Step 5.
Step 5: Calculate the communication delay time and proceed to Step 6.

ステップ6:カメラで撮像した画像に、算出した通信遅延時間による無人車両Bの移動量を補正した上で、受信した走行速度に応じた遠近位置、及び指令方向位置に操縦用基準マークMを重畳表示する。   Step 6: After correcting the movement amount of the unmanned vehicle B due to the calculated communication delay time on the image captured by the camera, the control reference mark M is superimposed on the perspective position and the command direction position according to the received traveling speed. indicate.

ステップ7:カメラで撮像した画像に、受信した移動可能エリアの認識結果を重畳表示する。
ステップ8:受信した車両情報(速度等)を重畳表示して、ステップ9に進む。
ステップ9:移動速度・移動方向等を含む操縦情報及びコマンドを送信して、ステップ10に進む。
ステップ10:終了処理を行う。
Step 7: The received recognition result of the movable area is superimposed on the image captured by the camera.
Step 8: The received vehicle information (speed, etc.) is displayed in a superimposed manner, and the process proceeds to Step 9.
Step 9: Send control information and commands including the moving speed, moving direction, etc., and go to Step 10.
Step 10: Perform termination processing.

図14を参照して、上述した遠隔操縦と自律走行との切り替えの一例について、説明する。図14(A),(B),(C)は、遠隔操縦と自律走行との切り替えの一例を示す概念図である。
同図(A)に示すように、走行中に、操縦用基準マークMを移動可能エリアGの移動領域Hc内の位置(キ)に指定する。
指定を行った後は、自律走行モードにおいて、移動可能エリアG外に無人車両Bが移動しないように減速される。
With reference to FIG. 14, an example of switching between the above-described remote control and autonomous traveling will be described. 14A, 14B, and 14C are conceptual diagrams illustrating an example of switching between remote control and autonomous traveling.
As shown in FIG. 5A, the control reference mark M is designated as a position (ki) in the movement area Hc of the movable area G during traveling.
After the designation, the vehicle is decelerated so that the unmanned vehicle B does not move outside the movable area G in the autonomous traveling mode.

無人車両Bが減速すると、ディスプレイ41に表示されている操縦用基準マークMは、(B)に示すように、次第に、そのディスプレイ41の下側に向けて移動する。
そして、(C)に示すように、既定の速度以下になると遠隔操縦モードに切り替わり、移動可能エリアG以外の移動領域Ha〜Hcにおいても移動することができるようになる。この低速走行の場合には、通信遅延時間があったとしても、遠隔操縦に支障はない。
When the unmanned vehicle B decelerates, the control reference mark M displayed on the display 41 gradually moves toward the lower side of the display 41 as shown in FIG.
And as shown in (C), when it becomes below a predetermined speed, it switches to the remote control mode, and it becomes possible to move also in the movement areas Ha to Hc other than the movable area G. In the case of this low speed traveling, there is no problem in remote control even if there is a communication delay time.

上述した実施形態に係る無人移動体によれば、次の効果を得ることができる。
・画像データと、レーザ光データとに基づいて、移動領域内における移動可能エリアを抽出するとともに、遠隔操縦装置から送出された操縦情報に含まれる移動方向と移動速度に基づいて、自律移動のための移動計画を作成し、また、操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動の可否を判定し、その移動が可能であると判定したときには、作成した移動計画に従って、駆動機構を介して無人移動体を移動させているので、高い移動速度の場合には自律して移動し、また、低い移動速度のときには遠隔操作をすることができる。
According to the unmanned mobile body according to the embodiment described above, the following effects can be obtained.
・ For moving autonomously based on the moving direction and moving speed included in the maneuvering information sent from the remote control device while extracting the movable area in the moving region based on the image data and the laser beam data In addition, when it is determined that the movement is possible in the movable area based on the moving direction and the moving speed included in the operation information, and when it is determined that the movement is possible, Since the unmanned moving body is moved via the drive mechanism, it can move autonomously at a high moving speed, and can be operated remotely at a low moving speed.

・操縦情報に含まれる移動方向と移動速度に基づき、移動可能エリア内における移動が不可能であると判定したときには、その操縦情報に含まれる移動方向への移動の可否を判定し、 上記移動速度での移動が不可能であると判定したときには、自律移動手段は、駆動機構によって無人移動体の移動速度を低下させる一方、速度測定器により測定した無人移動体の移動速度が、既定値以下になったか否かを判定し、無人移動体の移動速度が既定値以下になったと判定したときには、遠隔操縦装置から送出された操縦情報に基づく遠隔操縦を可能とすることにより、遠隔操縦を容易に行うことができる。 When it is determined that movement in the movable area is impossible based on the moving direction and moving speed included in the maneuvering information, it is determined whether or not movement in the moving direction included in the maneuvering information is possible. When it is determined that the movement of the unmanned moving body is impossible, the autonomous moving means reduces the moving speed of the unmanned moving body by the driving mechanism, while the moving speed of the unmanned moving body measured by the speed measuring device falls below the predetermined value. When it is determined that the moving speed of the unmanned mobile body has become lower than the predetermined value, remote control is facilitated by enabling remote control based on the control information sent from the remote control device. It can be carried out.

・操縦情報に含まれる移動方向への移動が可能であると判定したときには、操縦情報に含まれる移動速度による移動の可否を判定し、操縦情報に含まれる移動速度による移動が不可能であると判定したときには、駆動機構によって無人移動体の移動速度を低下させ、かつ、当該移動方向に移動させることにより、自律走行を確実に行うことができる。 -When it is determined that movement in the movement direction included in the operation information is possible, it is determined whether or not movement is possible at the movement speed included in the operation information, and it is impossible to move at the movement speed included in the operation information. When the determination is made, autonomous driving can be reliably performed by reducing the moving speed of the unmanned moving body by the driving mechanism and moving the unmanned moving body in the moving direction.

・遠隔操縦を行うときの基準となる操縦用基準マークを、速度測定器によって検出した移動速度に対応させて、表示部に表示されている画像に重畳表示することにより、移動速度に応じた遠近感を得ることができる。 -The control reference mark used as a reference for remote control is displayed in a superimposed manner on the image displayed on the display unit in correspondence with the moving speed detected by the speed measuring device, and the perspective according to the moving speed is displayed. A feeling can be obtained.

・無人移動体と遠隔操作装置との間における通信遅延時間を算出し、算出した遅延時間遅延時間に基づいて、操縦用基準マークの表示位置を補正することにより、遠隔操縦をより容易に行うことができる。 ・ Easy remote control by calculating the communication delay time between the unmanned mobile unit and the remote control device and correcting the display position of the control reference mark based on the calculated delay time delay time Can do.

・測距部により取得した測距データに基づき、移動可能エリア内の自律移動の妨げとなる障害物を検出し、検出された障害物に対応する障害物データに基づいて、その障害物を回避する移動計画を作成することにより、障害物が存在する場合にも自律走行を円滑に行うことができる。 ・ Detects obstacles that hinder autonomous movement within the movable area based on the distance measurement data acquired by the distance measurement unit, and avoids the obstacles based on the obstacle data corresponding to the detected obstacles. By creating a movement plan to be performed, autonomous traveling can be smoothly performed even when an obstacle is present.

・移動可能エリアを識別するための識別情報を画像に重畳表示することにより、遠隔操縦のときに移動可能エリアを識別しやすく、操縦を容易に行うことができる。
・速度測定器によって検出した移動速度が規定値よりも下がったか否かを判定し、移動速度が規定値よりも下がったと判定したときには、自律移動モードから遠隔操縦モードに切り替えることにより、自律移動モードから遠隔操縦モードに切り替えを遠隔に行うことができる。
-By displaying the identification information for identifying the movable area superimposed on the image, it is easy to identify the movable area during remote maneuvering and maneuver easily.
・ Determines whether or not the moving speed detected by the speed measuring device has fallen below a specified value. When it is determined that the moving speed has dropped below the specified value, the autonomous moving mode is switched from the autonomous moving mode to the remote control mode. Can be switched remotely to remote control mode.

なお、本発明は上述した実施形態に限るものではなく、次のような変形実施が可能である。
・本実施形態においては、無人移動体として無人車両を例として説明したが、無人偵察機等に準用することができる。
The present invention is not limited to the above-described embodiments, and the following modifications can be made.
-In this embodiment, although an unmanned vehicle was demonstrated as an example of an unmanned mobile body, it can apply mutatis mutandis to an unmanned reconnaissance machine etc.

本発明の一実施形態に係る無人移動体システムの全体構成を示す説明図である。It is explanatory drawing which shows the whole structure of the unmanned mobile body system which concerns on one Embodiment of this invention. 無人移動体に設けた制御回路のブロック図である。It is a block diagram of the control circuit provided in the unmanned mobile body. 無人移動体に設けた制御回路のブロック図である。It is a block diagram of the control circuit provided in the unmanned mobile body. 遠隔操縦装置の構成を示す説明図である。It is explanatory drawing which shows the structure of a remote control apparatus. 二つの自律走行用カメラにより画像データを取得する原理を示す説明図である。It is explanatory drawing which shows the principle which acquires image data with two cameras for autonomous running. 遠隔操縦装置に設けた制御回路のブロック図である。It is a block diagram of the control circuit provided in the remote control device. 車両制御装置の制御フローチャートである。It is a control flowchart of a vehicle control apparatus. 遠隔操縦装置による遠隔操縦のフローチャートである。It is a flowchart of remote control by a remote control device. (A)は、自律移動時の移動ルートを示す説明図、(B)は、表示位置を補正した表示例を示す説明図である。(A) is explanatory drawing which shows the movement route at the time of autonomous movement, (B) is explanatory drawing which shows the example of a display which correct | amended the display position. 操縦用基準マークの表示位置を決定するときの説明図である。It is explanatory drawing when determining the display position of the control reference mark. 車両制御装置の制御フローチャートである。It is a control flowchart of a vehicle control apparatus. 図11に示すステップ4の詳細を示すフローチャートである。It is a flowchart which shows the detail of step 4 shown in FIG. 遠隔操縦装置による遠隔操縦のフローチャートである。It is a flowchart of remote control by a remote control device. (A),(B),(C)は、遠隔操縦と自律走行との切り替えの一例を示す概念図である。(A), (B), (C) is a conceptual diagram showing an example of switching between remote control and autonomous running.

符号の説明Explanation of symbols

10a エリア抽出手段
10b 移動計画作成手段
10c 第一の判定手段
10d 自律移動手段
10e 第二の判定手段
10g 障害物検出手段
10h 移動速度判定手段
10i モード切替手段
17 速度測定器(車速パルス)
33 測距部(自律移動用カメラ14,31、レーザーセンサ32)
41 表示部
65a 重畳表示手段
65b 遅延時間算出手段
65c 表示位置補正手段
B 無人移動体(無人車両)
C 遠隔操縦装置
D 駆動機構
G 移動可能エリア
10a area extraction means 10b movement plan creation means 10c first determination means 10d autonomous movement means 10e second determination means 10g obstacle detection means 10h movement speed determination means 10i mode switching means 17 speed measuring device (vehicle speed pulse)
33 Ranging unit (autonomous moving cameras 14 and 31, laser sensor 32)
41 Display 65a Superimposition display means 65b Delay time calculation means 65c Display position correction means B Unmanned moving body (unmanned vehicle)
C Remote control device D Drive mechanism G Movable area

Claims (12)

移動領域内の測距データを取得するための測距部、及び移動のための駆動機構を搭載した無人移動体と、その測距部によって取得した測距データに基づく画像を表示する表示部、及びその表示部に表示された画像に基づいて無人移動体を遠隔操縦するための、少なくとも移動方向と移動速度を含む操縦情報を送出する遠隔操縦装置とを有する無人移動体システムであって、
測距部により取得した測距データに基づいて、移動領域内における移動可能エリアを抽出するエリア抽出手段と、
遠隔操縦装置から送出された操縦情報に含まれる移動方向と移動速度に基づいて、移動可能エリア内における自律移動のための移動計画を作成する移動計画作成手段と、
操縦情報に含まれる移動方向と移動速度に基づく移動可能エリア内における移動の可否を判定する第一の判定手段と、
当該移動が可能であると判定したときには、作成した移動計画に従って、駆動機構によって無人移動体を移動させる自律移動手段とを設けたことを特徴とする無人移動体システム。
A ranging unit for acquiring ranging data in the moving region, an unmanned moving body equipped with a driving mechanism for movement, and a display unit for displaying an image based on the ranging data acquired by the ranging unit; And an unmanned mobile system for remotely maneuvering the unmanned mobile body based on an image displayed on the display unit, and a remote control device for sending operation information including at least a moving direction and a moving speed,
An area extracting means for extracting a movable area in the moving area based on the distance measurement data acquired by the distance measuring unit;
A movement plan creation means for creating a movement plan for autonomous movement in the movable area based on the movement direction and movement speed included in the operation information sent from the remote control device;
First determination means for determining whether or not to move within a movable area based on a moving direction and a moving speed included in the operation information;
An unmanned moving body system comprising: an autonomous moving means for moving the unmanned moving body by a drive mechanism according to the created movement plan when it is determined that the movement is possible.
測距部は、移動領域のレーザー光データを取得するレーザー光センサであり、
エリア抽出手段は、レーザー光センサにより取得したレーザー光データに基づいて、移動領域内における移動可能エリアを抽出することを特徴とする請求項1に記載の無人移動体システム。
The distance measuring unit is a laser light sensor that acquires laser light data of a moving area,
2. The unmanned moving body system according to claim 1, wherein the area extracting means extracts a movable area in the moving area based on the laser light data acquired by the laser light sensor.
測距部は、移動領域の画像データを取得するカメラであり、
エリア抽出手段は、カメラにより取得した画像データに基づいて、移動領域内における移動可能エリアを抽出することを特徴とする請求項1に記載の無人移動体システム。
The distance measuring unit is a camera that acquires image data of a moving area,
2. The unmanned mobile system according to claim 1, wherein the area extracting means extracts a movable area in the moving area based on the image data acquired by the camera.
測距部は、移動領域のレーザー光データを取得するレーザー光センサと、その移動領域の画像データを取得するカメラとを有していることを特徴とする請求項1に記載の無人移動体システム。   The unmanned moving body system according to claim 1, wherein the distance measuring unit includes a laser light sensor that acquires laser light data of a moving area and a camera that acquires image data of the moving area. . 移動速度を測定するための速度測定器と、
第一の判定手段により、操縦情報に含まれる移動方向と移動速度に基づき、移動可能エリア内における移動が不可能であると判定したときには、その操縦情報に含まれる移動方向への移動の可否を判定する第二の判定手段と、
第二の判定手段により、上記移動方向への移動が不可能であると判定したときには、
移動速度を自律移動手段によって低下させるとともに、
速度測定器により測定した無人移動体の移動速度が、既定値以下になったか否かを判定する移動速度判定手段とを無人移動体に設けているとともに、
移動速度判定手段により、無人移動体の移動速度が既定値以下になったと判定したときには、遠隔操縦装置から送出された操縦情報に基づく遠隔操縦を可能とすることを特徴とする請求項1〜4のいずれか1項に記載の無人移動体システム。
A speed measuring device for measuring the moving speed;
When the first determination means determines that movement in the movable area is impossible based on the moving direction and moving speed included in the maneuvering information, whether or not movement in the moving direction included in the maneuvering information is possible is determined. A second determination means for determining;
When it is determined by the second determination means that movement in the moving direction is impossible,
While reducing the moving speed by autonomous moving means,
The unmanned moving body is provided with a moving speed determining means for determining whether or not the moving speed of the unmanned moving body measured by the speed measuring device is equal to or less than a predetermined value.
5. The remote control based on the control information sent from the remote control device is enabled when the moving speed determining means determines that the moving speed of the unmanned moving body is equal to or lower than a predetermined value. The unmanned mobile system according to any one of the above.
第二の判定手段により、操縦情報に含まれる移動方向への移動が可能であると判定したときには、
自律移動手段は、駆動機構によって無人移動体の移動速度を低下させ、かつ、当該移動方向に移動させることを特徴とする請求項5に記載の無人移動体システム。
When it is determined by the second determination means that the movement in the movement direction included in the operation information is possible,
6. The unmanned moving body system according to claim 5, wherein the autonomous moving means reduces the moving speed of the unmanned moving body by the driving mechanism and moves the unmanned moving body in the moving direction.
遠隔操縦を行うときの基準となる操縦用基準マークを、速度測定器によって検出した移動速度に対応させて、表示部に表示されている画像に重畳表示する重畳表示手段を有することを特徴とする請求項5又は6に記載の無人移動体システム。   A superimposition display unit that superimposes and displays a control reference mark, which is a reference for remote control, on an image displayed on a display unit in correspondence with a moving speed detected by a speed measuring device. The unmanned mobile system according to claim 5 or 6. 上記無人移動体と遠隔操作装置との間における通信遅延時間を算出する遅延時間算出手段と、
算出した遅延時間遅延時間に基づいて、操縦用基準マークの表示位置を補正する表示位置補正手段とを有することを特徴とする請求項7に記載の無人移動体システム。
A delay time calculating means for calculating a communication delay time between the unmanned mobile body and the remote control device;
8. The unmanned mobile system according to claim 7, further comprising display position correcting means for correcting the display position of the control reference mark based on the calculated delay time.
測距部により取得した測距データに基づき、移動可能エリア内の自律移動の妨げとなる障害物を検出する障害物検出手段を設けており、
移動計画作成手段は、検出された障害物に対応する障害物データに基づいて、その障害物を回避する移動計画を作成することを特徴とする請求項1〜8のいずれか1項に記載の無人移動体システム。
Based on the distance measurement data acquired by the distance measurement unit, there is provided an obstacle detection means for detecting an obstacle that hinders autonomous movement in the movable area,
The movement plan creation means creates a movement plan that avoids the obstacle based on the obstacle data corresponding to the detected obstacle. Unmanned mobile system.
測距部により取得した移動領域内の測距データに基づき、移動可能エリア内の自律移動の妨げとなる障害物を検出する障害物検出手段を設けており、
移動計画作成手段は、検出された障害物に対応する障害物データに基づいて、その障害物を回避する移動計画を作成することを特徴とする請求項1〜9のいずれか1項に記載の無人移動体システム。
Based on the distance measurement data in the movement area acquired by the distance measurement unit, provided with obstacle detection means for detecting obstacles that hinder autonomous movement in the movable area,
The movement plan creation means creates a movement plan that avoids the obstacle based on the obstacle data corresponding to the detected obstacle, according to any one of claims 1 to 9. Unmanned mobile system.
重畳表示手段は、移動可能エリアを識別するための識別情報を画像に重畳表示することを特徴とする請求項7〜10のいずれか1項に記載の無人移動体システム。   The unmanned mobile system according to any one of claims 7 to 10, wherein the superimposed display means superimposes and displays identification information for identifying the movable area on the image. 速度測定器によって検出した移動速度が規定値よりも下がったか否かを判定する判定手段と、
移動速度が規定値よりも下がったと判定したときには、自律移動モードから遠隔操縦モードに切り替えるモード切替手段を有することを特徴とする請求項5〜11のいずれか1項に記載の無人移動体システム。
Determining means for determining whether or not the moving speed detected by the speed measuring device has fallen below a specified value;
The unmanned moving body system according to any one of claims 5 to 11, further comprising mode switching means for switching from the autonomous movement mode to the remote control mode when it is determined that the moving speed is lower than a specified value.
JP2008332831A 2008-12-26 2008-12-26 Unmanned mobile system Active JP5187757B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008332831A JP5187757B2 (en) 2008-12-26 2008-12-26 Unmanned mobile system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008332831A JP5187757B2 (en) 2008-12-26 2008-12-26 Unmanned mobile system

Publications (2)

Publication Number Publication Date
JP2010152833A true JP2010152833A (en) 2010-07-08
JP5187757B2 JP5187757B2 (en) 2013-04-24

Family

ID=42571811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008332831A Active JP5187757B2 (en) 2008-12-26 2008-12-26 Unmanned mobile system

Country Status (1)

Country Link
JP (1) JP5187757B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016858A (en) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2014106576A (en) * 2012-11-26 2014-06-09 Ihi Aerospace Co Ltd Control method for unmanned mobile body
CN106354130A (en) * 2016-10-31 2017-01-25 北京新能源汽车股份有限公司 Pilotless automobile as well as control method and remote monitoring system thereof
WO2018159314A1 (en) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 Management device, management method, and management program
JP2018147158A (en) * 2017-03-03 2018-09-20 株式会社Ihiエアロスペース Control method of unmanned mobile body
JP2020112952A (en) * 2019-01-09 2020-07-27 株式会社Ihi Movement support device
WO2022030077A1 (en) 2020-08-04 2022-02-10 パナソニックIpマネジメント株式会社 Information processing device and information processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977377B2 (en) 2018-05-22 2024-05-07 Nec Corporation Remote operation apparatus, remote operation method, non-transitory computer readable medium, and remote operation system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
JP2003532218A (en) * 2000-05-01 2003-10-28 アイロボット コーポレーション Method and system for remotely controlling a mobile robot

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149315A (en) * 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd Robot control system
JP2003532218A (en) * 2000-05-01 2003-10-28 アイロボット コーポレーション Method and system for remotely controlling a mobile robot

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016858A (en) * 2012-07-10 2014-01-30 Ihi Aerospace Co Ltd Unmanned mobile body system
JP2014106576A (en) * 2012-11-26 2014-06-09 Ihi Aerospace Co Ltd Control method for unmanned mobile body
CN106354130A (en) * 2016-10-31 2017-01-25 北京新能源汽车股份有限公司 Pilotless automobile as well as control method and remote monitoring system thereof
WO2018159314A1 (en) * 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 Management device, management method, and management program
JP2018142265A (en) * 2017-02-28 2018-09-13 パナソニックIpマネジメント株式会社 Management system, management method, and management program
JP2018147158A (en) * 2017-03-03 2018-09-20 株式会社Ihiエアロスペース Control method of unmanned mobile body
JP2020112952A (en) * 2019-01-09 2020-07-27 株式会社Ihi Movement support device
WO2022030077A1 (en) 2020-08-04 2022-02-10 パナソニックIpマネジメント株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP5187757B2 (en) 2013-04-24

Similar Documents

Publication Publication Date Title
JP5187757B2 (en) Unmanned mobile system
JP5382770B2 (en) Unmanned mobile system
JP5187758B2 (en) Unmanned mobile system
US10789845B2 (en) Parking assistance method and parking assistance device
JP6082415B2 (en) Vehicle travel control device
EP3167342B1 (en) Virtual line-following and retrofit method for autonomous vehicles
JP5366711B2 (en) Semi-autonomous vehicle remote control system
CN106660584B (en) Method and device for moving vehicle to target position
JP5178406B2 (en) Remote control system
JP5947644B2 (en) Unmanned mobile system
JP5262855B2 (en) Parking assistance device and parking assistance method
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
CN112462749B (en) Automatic agricultural machine navigation method, automatic agricultural machine navigation system and agricultural machine
JP2011043884A (en) Remote control system for semi-autonomous unmanned vehicle
US10926701B2 (en) Parking assistance method and parking assistance device
WO2019031168A1 (en) Mobile body and method for control of mobile body
JP2014048859A (en) Remote control system
JP4467533B2 (en) Folding line following mobile robot and control method of broken line following mobile robot
KR20200134971A (en) Speed sprayer of automatic driving
JP5969903B2 (en) Control method of unmanned moving object
JP6399436B2 (en) Route planning method and apparatus for moving body
JP2019021199A (en) Control device and control method for mobile robot
JP6406894B2 (en) ENVIRONMENTAL MAP GENERATION CONTROL DEVICE, MOBILE BODY, AND ENVIRONMENTAL MAP GENERATION METHOD
JP5321214B2 (en) Mobile body and control method thereof
JP2017061265A (en) Travel control device for vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20121217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130116

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160201

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5187757

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250