JP5473304B2 - Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program - Google Patents
Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program Download PDFInfo
- Publication number
- JP5473304B2 JP5473304B2 JP2008307006A JP2008307006A JP5473304B2 JP 5473304 B2 JP5473304 B2 JP 5473304B2 JP 2008307006 A JP2008307006 A JP 2008307006A JP 2008307006 A JP2008307006 A JP 2008307006A JP 5473304 B2 JP5473304 B2 JP 5473304B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- information
- obstacle
- unit
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 105
- 230000002093 peripheral effect Effects 0.000 claims description 153
- 230000005540 biological transmission Effects 0.000 claims description 56
- 238000004891 communication Methods 0.000 claims description 20
- 239000003086 colorant Substances 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 12
- 238000001514 detection method Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 5
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 231100000167 toxic agent Toxicity 0.000 description 1
- 239000003440 toxic substance Substances 0.000 description 1
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、例えば、無人車両を遠隔地で操作する遠隔地画像表示装置、遠隔操縦装置、車両制御装置、遠隔操縦システム、遠隔操縦方法、遠隔操縦プログラム、車両制御プログラム、遠隔地画像表示方法、遠隔地画像表示プログラムに関するものである。 The present invention includes, for example, a remote image display device for operating an unmanned vehicle at a remote location, a remote control device, a vehicle control device, a remote control system, a remote control method, a remote control program, a vehicle control program, a remote location image display method, The present invention relates to a remote image display program.
従来の遠隔操縦装置は、無人車両に取り付けられたカメラにより撮影された映像を遠隔地にいる操縦端末に送り、操縦者がその送られて来た映像を見ながら操縦端末を操作して無人車両を遠隔操縦する構成である(特許文献1)。
従来の遠隔操縦装置では、無人車両に取り付けられたカメラの撮影方向の映像しか遠隔地の操縦者は見ることができず、無人車両の周辺情報に死角がある状態で操縦者は無人車両を操縦しなければならないという課題があった。 With a conventional remote control device, a remote pilot can only see the image of the shooting direction of the camera attached to the unmanned vehicle, and the pilot controls the unmanned vehicle with blind spots in the surrounding information of the unmanned vehicle. There was a problem that had to be done.
本発明は、例えば、かかる課題を解決するためになされたもので、遠隔地の操縦者に無人車両の周辺情報を視覚的に提供できるようにすることを目的とする。 The present invention has been made, for example, in order to solve such a problem, and an object of the present invention is to make it possible to visually provide surrounding information of an unmanned vehicle to a remote operator.
本発明の遠隔地画像表示装置は、遠隔地を走行する車両から送信される前記車両の位置情報を通信装置を用いて受信する車両情報受信部と、前記車両情報受信部により受信された前記車両の位置情報に基づいて、前記車両の周辺の地図データを前記車両の走行地域の地図データを記憶する地図データベース装置から取得する地図データ取得部と、前記地図データ取得部により取得された地図データに基づいて前記車両の周辺の地図を表す周辺画像をCPU(Central Proccessing Unit)を用いて生成する周辺画像生成部と、前記周辺画像生成部により生成された周辺画像をモニター装置に表示する周辺画像表示部とを備える。 The remote image display device of the present invention includes a vehicle information receiving unit that receives position information of the vehicle transmitted from a vehicle traveling in a remote location using a communication device, and the vehicle received by the vehicle information receiving unit. A map data acquisition unit that acquires map data around the vehicle from a map database device that stores map data of a travel region of the vehicle, and map data acquired by the map data acquisition unit A peripheral image generation unit that generates a peripheral image representing a map of the periphery of the vehicle based on a CPU (Central Processing Unit), and a peripheral image display that displays the peripheral image generated by the peripheral image generation unit on a monitor device A part.
本発明によれば、例えば、車両の周辺画像を生成して表示することにより、遠隔地の操縦者に無人車両の周辺情報を視覚的に提供することができる。 According to the present invention, for example, by generating and displaying a surrounding image of a vehicle, it is possible to visually provide surrounding information of the unmanned vehicle to a remote operator.
実施の形態1.
車両を遠隔地の操縦装置から操縦する遠隔操縦システムについて説明する。
Embodiment 1 FIG.
A remote control system that controls a vehicle from a remote control device will be described.
図1は、実施の形態1における遠隔操縦システム100の概要図である。
実施の形態1における遠隔操縦システム100の概要について、図1に基づいて以下に説明する。
FIG. 1 is a schematic diagram of a remote control system 100 according to the first embodiment.
An overview of the remote control system 100 according to the first embodiment will be described below with reference to FIG.
遠隔操縦システム100は、遠隔地から操縦命令を送信する遠隔操縦装置300と、遠隔操縦装置300から送信された操縦命令に基づいて車両を制御する車両制御装置209を搭載された車両とを備える。
車両は、無人でも有人でも構わず、車両制御装置209による自動操縦(自律運転)で走行する。
以下、車両制御装置209の搭載された車両を「無人車両200」という。
The remote control system 100 includes a
The vehicle may be unmanned or manned, and travels by automatic control (autonomous operation) by the
Hereinafter, the vehicle on which the
無人車両200にはGPS受信システム201(GPS:Global Positioning System)、アンテナ202およびジャイロ203が設置される。
GPS受信システム201は、測位衛星から測位信号を受信し、測位信号の受信結果に基づいて無人車両200の現在地点を測位する測位装置である。GPS受信システム201として、従来のGPS受信機を用いることができる。
アンテナ202は、GPS受信システム201の測位結果や遠隔操縦装置300からの操縦命令などを含んだ無線電波を送受信する通信装置である。
ジャイロ203は、無人車両200の進行方向を示す姿勢角(ロール角、ピッチ角、ヨー角)を計測するセンサ装置である。
The unmanned vehicle 200 is provided with a GPS receiving system 201 (GPS: Global Positioning System), an
The
The
The
まず、車両制御装置209は、GPS受信システム201を用いて測位した無人車両200の現在地点とジャイロ203を用いて計測した無人車両200の姿勢角とを示す位置姿勢情報210a(位置情報の一例)をアンテナ202を用いて送信する(S100:車両情報送信工程)。
次に、遠隔操縦装置300は、車両制御装置209により送信された位置姿勢情報210aに基づいて無人車両200の周辺の3次元地図を表す3次元周辺画像313a(周辺画像の一例)を生成して表示装置901(モニター装置ともいう)に表示する(S200:車両周辺画像表示工程)。
次に、遠隔操縦装置300は、表示装置901に表示された周辺画像を見た操縦者がキーボード902やマウス903などの入力装置を操作して指定した操縦命令を移動先位置情報322aとして通信装置を用いて送信する(S300:操縦命令送信工程)。
そして、車両制御装置209は、遠隔操縦装置300により送信された移動先位置情報322aに基づいて無人車両200をCPU(Central Proccessing
Unit)を用いて制御(操縦、運転)する(S400:自動操縦工程)。
各工程(S100〜S400)の詳細について後述する。
First, the
Next, the
Next, the
Then, the
Control (steering, driving) using Unit) (S400: automatic steering process).
The detail of each process (S100-S400) is mentioned later.
図2は、実施の形態1における車両制御装置209の機能構成図である。
実施の形態1における車両制御装置209の機能構成について、図2に基づいて以下に説明する。
FIG. 2 is a functional configuration diagram of the
A functional configuration of the
車両制御装置209は、位置姿勢標定部210(位置情報生成部の一例)、車両送信部211(車両情報送信部の一例)、車両受信部212(操縦命令受信部の一例)、車両制御部213および車両記憶部290を備える。
The
位置姿勢標定部210は、無人車両200の現在地点をGPS受信システム201を用いて測位すると共に無人車両200の姿勢角をジャイロ203を用いて計測し、無人車両200の現在地点および姿勢角を示す位置姿勢情報210aをCPUを用いて生成する。
The position and
車両送信部211は、位置姿勢標定部210により生成された位置姿勢情報210aを遠隔操縦装置300へアンテナ202を用いて送信する。
The
車両受信部212は、遠隔操縦装置300により送信される移動先位置情報322aを通信装置を用いて受信する。
The
車両制御部213は、車両受信部212により受信された移動先位置情報322aに基づいて無人車両200をCPUを用いて制御(操縦、運転)する。
The
車両記憶部290は、車両制御装置209で使用されるデータを記憶媒体を用いて記憶する。例えば、車両記憶部290は、位置姿勢標定部210により生成された位置姿勢情報210aや車両受信部212により受信された移動先位置情報322aを記憶する。
The
図3は、実施の形態1における遠隔操縦装置300の機能構成図である。
実施の形態1における遠隔操縦装置300の機能構成について、図3に基づいて以下に説明する。
FIG. 3 is a functional configuration diagram of the
The functional configuration of the
遠隔操縦装置300は、遠隔地画像表示装置310、車両操縦装置320および装置記憶部390を備える。
遠隔地画像表示装置310は、無人車両200の車両制御装置209により送信された位置姿勢情報210aに基づいて無人車両200の3次元周辺画像313aを生成し、生成した3次元周辺画像313aを表示装置901に表示する。
車両操縦装置320は、表示装置901に表示された3次元周辺画像313aを見た操縦者がキーボード902やマウス903などの入力装置を操作して指定した操縦命令を移動先位置情報322aとして送信アンテナ302を用いて送信する。
装置記憶部390は、遠隔地画像表示装置310および車両操縦装置320で使用されるデータを記憶媒体を用いて記憶する。例えば、装置記憶部390は、位置姿勢情報210a、3次元周辺画像313aや移動先位置情報322aを記憶する。
The
The remote location
The
遠隔地画像表示装置310は、装置受信部311(車両情報受信部の一例)、地図データ取得部312、3次元周辺画像生成部313(周辺画像生成部の一例)、3次元周辺画像表示部314および3次元地図データベース391を備える。
The remote location
3次元地図データベース391は、無人車両200の走行地域の3次元地図データ391aを記憶媒体を用いて記憶管理する装置である。3次元地図データ391aは、当該地域内に位置する道路の情報および道路以外の地物の情報を示す。例えば、道路の情報とは、道路、車線、白線、標識などの情報(3次元座標、形状、大きさ、色、種別など)であり、道路以外の地物の情報とは、建物、施設、トンネル、山、川などの情報である。例えば、形状や大きさは、地物の輪郭を形成する複数の端点それぞれの3次元座標で表される。3次元地図データベース391としてGIS(Geographical Information System)のデータベースを用いることができる。
The three-
装置受信部311は、遠隔地を走行する無人車両200の車両制御装置209から送信される無人車両200の位置姿勢情報210aを受信アンテナ301を用いて受信する。
The
地図データ取得部312は、装置受信部311により受信された無人車両200の位置姿勢情報210aに基づいて、無人車両200の周辺の3次元地図データ391aを3次元地図データベース391から取得する。
The map
3次元周辺画像生成部313は、地図データ取得部312により取得された3次元地図データ391aに基づいて無人車両200の3次元周辺画像313aをCPUを用いて生成する。
The three-dimensional peripheral
3次元周辺画像表示部314は、3次元周辺画像生成部313により生成された3次元周辺画像313aを表示装置901に表示する。
The three-dimensional peripheral
車両操縦装置320は、操縦情報入力部321、移動位置生成部322(操縦命令生成部の一例)および装置送信部323(操縦命令送信部の一例)を備える。
The
操縦情報入力部321は、無人車両200を操縦する情報として遠隔操縦装置300の利用者(以下、「操縦者」または「遠隔操縦者」という)に指定された操縦情報321aをキーボード902やマウス903などの入力装置から入力する。
移動位置生成部322は、操縦情報入力部321により入力された操縦情報321aに基づいて移動先位置情報322aをCPUを用いて生成する。
装置送信部323は、移動位置生成部322により生成された移動先位置情報322aを送信アンテナ302を用いて無人車両200の車両制御装置209へ送信することにより無人車両200を操縦する。
The maneuver
The movement
The
図4は、実施の形態1における遠隔操縦装置300および車両制御装置209のハードウェア資源の一例を示す図である。
図4において、遠隔操縦装置300および車両制御装置209は、プログラムを実行するCPU911(Central・Processing・Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、プロセッサともいう)を備えている。CPU911は、バス912を介してROM913、RAM914、通信ボード915、磁気ディスク装置920と接続される。さらに、遠隔操縦装置300のCPU911は、表示装置901、キーボード902およびマウス903などの入出力装置と接続される。さらに、車両制御装置209のCPU911は、無人車両200の駆動装置(速度や進行方向を制御する装置)と接続される。CPU911は、これらのハードウェアデバイスを制御する。磁気ディスク装置920の代わりにその他の記憶装置(例えば、RAMやフラッシュメモリなどの半導体メモリ)を用いてもよい。
RAM914は、揮発性メモリの一例である。ROM913、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。これらは、記憶機器、記憶装置あるいは記憶部の一例である。また、入力データが記憶されている記憶機器は入力機器、入力装置あるいは入力部の一例であり、出力データが記憶される記憶機器は出力機器、出力装置あるいは出力部の一例である。
通信ボード915は、入出力機器、入出力装置あるいは入出力部の一例である。
FIG. 4 is a diagram illustrating an example of hardware resources of the
In FIG. 4, the
The
The
通信ボード915は、有線または無線で、LAN(Local Area Network)、インターネット、ISDN等のWAN(ワイドエリアネットワーク)、電話回線などの通信網に接続されている。
The
磁気ディスク装置920には、OS921(オペレーティングシステム)、プログラム群923、ファイル群924が記憶されている。プログラム群923のプログラムは、CPU911、OS921により実行される。
The
上記プログラム群923には、実施の形態において「〜部」として説明する機能を実行するプログラムが記憶されている。プログラムは、CPU911により読み出され実行される。
The
ファイル群924には、実施の形態において、「〜部」の機能を実行した際の「〜の判定結果」、「〜の計算結果」、「〜の処理結果」などの結果データ、「〜部」の機能を実行するプログラム間で受け渡しするデータ、その他の情報やデータや信号値や変数値やパラメータが、「〜ファイル」や「〜データベース」の各項目として記憶されている。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記録媒体に記憶される。ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出され、抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示などのCPUの動作に用いられる。抽出・検索・参照・比較・演算・計算・処理・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリやキャッシュメモリやバッファメモリに一時的に記憶される。
また、実施の形態において説明するフローチャートの矢印の部分は主としてデータや信号の入出力を示し、データや信号値は、RAM914のメモリ、磁気ディスク装置920の磁気ディスク、その他の記録媒体に記録される。また、データや信号値は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
In the
The “˜file” and “˜database” are stored in a recording medium such as a disk or a memory. Information, data, signal values, variable values, and parameters stored in a storage medium such as a disk or memory are read out to the main memory or cache memory by the
In addition, arrows in the flowcharts described in the embodiments mainly indicate input / output of data and signals, and the data and signal values are recorded in the memory of the
また、実施の形態において「〜部」として説明するものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ROM913に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。ファームウェアとソフトウェアは、プログラムとして、磁気ディスクやその他の記録媒体に記憶される。プログラムはCPU911により読み出され、CPU911により実行される。すなわち、プログラムは、「〜部」としてコンピュータを機能させるものである。あるいは、「〜部」の手順や方法をコンピュータに実行させるものである。
In addition, what is described as “˜unit” in the embodiment may be “˜circuit”, “˜device”, “˜device”, and “˜step”, “˜procedure”, “˜”. Processing ". That is, what is described as “˜unit” may be realized by firmware stored in the
図5は、実施の形態1における遠隔操縦システム100の遠隔操縦方法を示すフローチャートである。
実施の形態1における遠隔操縦システム100の遠隔操縦方法について、図5に基づいて以下に説明する。
FIG. 5 is a flowchart showing a remote control method of remote control system 100 in the first embodiment.
A remote control method of remote control system 100 in the first embodiment will be described below with reference to FIG.
<S100:車両情報送信工程>
無人車両200の車両制御装置209は、無人車両200の現在地点を測位すると共に無人車両200の姿勢角を計測して無人車両200の現在地点および姿勢角を示す位置姿勢情報210aを遠隔操縦装置300に送信する。
<S100: Vehicle information transmission process>
The
<S200:車両周辺画像表示工程(遠隔地画像表示方法)>
遠隔操縦装置300は、車両制御装置209から位置姿勢情報210aを受信し、受信した位置姿勢情報210aに基づいて無人車両200の3次元周辺画像313aを生成し、生成した3次元周辺画像313aを表示装置901に表示する。
<S200: Vehicle Peripheral Image Display Process (Remote Location Image Display Method)>
The
<S300:操縦命令送信工程>
遠隔操縦装置300は、表示装置901に表示された3次元周辺画像313aを見た操縦者がキーボード902やマウス903などの入力装置を操作して指定した操縦情報321aを入力し、入力した操縦情報321aに基づいて移動先位置情報322aを生成し、生成した移動先位置情報322aを無人車両200の車両制御装置209に送信する。
<S300: Steering command transmission process>
The
<S400:自動操縦工程>
無人車両200の車両制御装置209は、遠隔操縦装置300から移動先位置情報322aを受信し、受信した移動先位置情報322aに基づいて無人車両200を制御する。
<S400: Autopilot process>
The
以下に、各工程(S100〜S400)の詳細について説明する。 Below, the detail of each process (S100-S400) is demonstrated.
図6は、実施の形態1における車両情報送信工程(S100)のフローチャートである。
実施の形態1における車両情報送信工程(S100)の詳細について、図6に基づいて以下に説明する。
無人車両200の車両制御装置209の各「〜部」は、以下に説明する処理をCPUを用いて実行する。
FIG. 6 is a flowchart of the vehicle information transmission step (S100) in the first embodiment.
Details of the vehicle information transmission step (S100) in the first embodiment will be described below based on FIG.
Each “˜ part” of the
<S110:位置情報生成処理>
位置姿勢標定部210は、GPS受信システム201を用いて無人車両200の現在地点を測位し、測位結果をGPS受信システム201から入力する。さらに、位置姿勢標定部210は、ジャイロ203を用いて無人車両200の姿勢角を計測し、計測結果をジャイロ203から入力する。位置姿勢標定部210は、GPS受信システム201から入力した測位結果とジャイロ203から入力した計測結果とを含めて位置姿勢情報210aを生成し、生成した位置姿勢情報210aを車両記憶部290に記憶する。
S110の後、処理はS120に進む。
<S110: Location Information Generation Processing>
The position /
After S110, the process proceeds to S120.
<S120:車両情報送信処理>
車両送信部211は、S110において生成された位置姿勢情報210aを車両記憶部290から入力し、入力した位置姿勢情報210aをアンテナ202から無線電波で遠隔操縦装置300へ送信する。
S120の後、車両情報送信工程(S100)は終了する。
<S120: Vehicle information transmission process>
The
After S120, the vehicle information transmission step (S100) ends.
車両情報送信工程(S100)は、定期的(例えば、1秒毎)に繰り返し実行される。 The vehicle information transmission step (S100) is repeatedly executed periodically (for example, every second).
図7は、実施の形態1における車両周辺画像表示工程(S200)のフローチャートである。
実施の形態1における車両周辺画像表示工程(S200)の詳細について、図7に基づいて以下に説明する。
遠隔操縦装置300の各「〜部」は、以下に説明する処理をCPUを用いて実行する。
FIG. 7 is a flowchart of the vehicle periphery image display step (S200) in the first embodiment.
Details of the vehicle periphery image display step (S200) in the first embodiment will be described below with reference to FIG.
Each “˜ unit” of the
<S210:車両情報受信処理>
装置受信部311は、無人車両200の車両制御装置209により送信された位置姿勢情報210aを受信アンテナ301を用いて受信し、受信した位置姿勢情報210aを装置記憶部390に記憶する。
S210の後、処理はS220に進む。
<S210: Vehicle information reception process>
The
After S210, the process proceeds to S220.
<S220:地図情報取得処理>
地図データ取得部312は、S210において受信された位置姿勢情報210aを装置記憶部390から入力し、入力した位置姿勢情報210aに基づいて無人車両200の周辺の地図を表す3次元地図データ391aを3次元地図データベース391から取得する。
例えば、地図データ取得部312は、位置姿勢情報210aから無人車両200の現在地点を特定し、無人車両200の現在地点を中心とする所定の範囲(例えば、半径30m)を算出し、算出した範囲内の座標値が設定されている地物(道路、建物など)の情報(3次元座標、形状、大きさ、色など)を示す3次元地図データ391aを3次元地図データベース391から取得する。
地図データ取得部312は、3次元地図データベース391から取得した3次元地図データ391aを装置記憶部390に記憶する。
S220の後、処理はS230に進む。
<S220: Map information acquisition process>
The map
For example, the map
The map
After S220, the process proceeds to S230.
<S230:周辺画像生成処理>
3次元周辺画像生成部313は、S210において受信された位置姿勢情報210aとS220において取得された3次元地図データ391aとを装置記憶部390から入力し、入力した位置姿勢情報210aおよび3次元地図データ391aに基づいて無人車両200の3次元周辺画像313aを生成する。
例えば、3次元周辺画像生成部313は、3次元地図データ391aに示される各地物(道路、建物など)の3次元座標、形状、大きさ、色などの情報に基づいて、所定の視線方向から見た各地物の3次元の絵(形象)を示す3次元周辺画像313aを生成する。さらに、3次元周辺画像生成部313は、位置姿勢情報210aから無人車両200の姿勢角を特定し、特定した姿勢角に向いた無人車両200を3次元で表した絵を3次元周辺画像313aに含める。
<S230: Surrounding Image Generation Processing>
The 3D peripheral
For example, the three-dimensional peripheral
図8は、実施の形態1における3次元周辺画像313aを示す図である。
周辺画像生成処理(S230)において、3次元周辺画像生成部313は、例えば、図8に示すように、無人車両200の後方上空から俯瞰して無人車両200の周辺を表す3次元周辺画像313aを生成する。
FIG. 8 is a diagram showing a three-dimensional
In the peripheral image generation process (S230), for example, the three-dimensional peripheral
図7のS230において、3次元周辺画像生成部313は、生成した3次元周辺画像313aを装置記憶部390に記憶する。
S230の後、処理はS240に進む。
In S230 of FIG. 7, the three-dimensional peripheral
After S230, the process proceeds to S240.
<S240:周辺画像表示処理>
3次元周辺画像表示部314は、S230において生成された3次元周辺画像313aを装置記憶部390から入力し、入力した3次元周辺画像313aを表示装置901に表示する。
例えば、3次元周辺画像表示部314は、図8に示すように3次元周辺画像313aを表示装置901に表示する。
S240の後、車両周辺画像表示工程(S200)は終了する。
<S240: Surrounding Image Display Processing>
The three-dimensional peripheral
For example, the three-dimensional peripheral
After S240, the vehicle periphery image display step (S200) ends.
車両周辺画像表示工程(S200)は、無人車両200の車両制御装置209から位置姿勢情報210aが送信される度に実行される。
これにより、遠隔操縦装置300の表示装置901には、無人車両200の移動に伴って更新される3次元周辺画像313aが動画のように表示される。
The vehicle periphery image display step (S200) is executed every time the position and
As a result, the
遠隔操縦装置300を操作して無人車両200を遠隔操縦する遠隔操縦者は、表示装置901に表示された3次元周辺画像313aを見て無人車両200の速度や進行方向を決定し、決定した速度や進行方向をキーボード902やマウス903を操作して操縦情報321aとして遠隔操縦装置300に入力する。
A remote operator who operates the
図9は、実施の形態1における操縦命令送信工程(S300)のフローチャートである。
実施の形態1における操縦命令送信工程(S300)の詳細について、図9に基づいて以下に説明する。
遠隔操縦装置300の各「〜部」は、以下に説明する処理をCPUを用いて実行する。
FIG. 9 is a flowchart of the steering command transmission step (S300) in the first embodiment.
Details of the steering command transmission step (S300) in the first embodiment will be described below based on FIG.
Each “˜ unit” of the
<S310:操縦情報入力処理>
操縦情報入力部321は、表示装置901に表示された3次元周辺画像313aを見た遠隔操縦者がキーボード902やマウス903などの入力装置を操作して入力した操縦情報321aを入力し、入力した操縦情報321aを装置記憶部390に記憶する。
S310の後、処理はS320に進む。
<S310: Maneuvering information input process>
The maneuver
After S310, the process proceeds to S320.
<S320:操縦命令生成処理>
移動位置生成部322は、S310において入力された操縦情報321aを装置記憶部390から入力し、入力した操縦情報321aに基づいて移動先位置情報322aを生成し、生成した移動先位置情報322aを装置記憶部390に記憶する。
例えば、移動先位置情報322aは、操縦情報321aに示される速度および進行方向に基づいて所定時間後(例えば、1秒後)に無人車両200が位置すべき地点の3次元座標を算出し、算出した3次元座標を含めて移動先位置情報322aを生成する。
S320の後、処理はS330に進む。
<S320: Maneuvering command generation process>
The movement
For example, the
After S320, the process proceeds to S330.
<S330:操縦命令送信処理>
装置送信部323は、S320において生成された移動先位置情報322aを装置記憶部390から入力し、入力した移動先位置情報322aを送信アンテナ302から無線電波で無人車両200の車両制御装置209に送信する。
S330の後、操縦命令送信工程(S300)は終了する。
<S330: Steering command transmission process>
The
After S330, the operation command transmission step (S300) ends.
操縦命令送信工程(S300)は、遠隔操縦者により操縦情報321aが遠隔操縦装置300に入力される度に実行される。
The control command transmission step (S300) is executed every time the
図10は、実施の形態1における自動操縦工程(S400)のフローチャートである。
実施の形態1における自動操縦工程(S400)の詳細について、図10に基づいて以下に説明する。
無人車両200の車両制御装置209の各「〜部」は、以下に説明する処理をCPUを用いて実行する。
FIG. 10 is a flowchart of the autopilot process (S400) in the first embodiment.
Details of the autopilot process (S400) in the first embodiment will be described below with reference to FIG.
Each “˜ part” of the
<S410:操縦命令受信処理>
車両受信部212は、遠隔操縦装置300により送信された移動先位置情報322aをアンテナ202を用いて受信し、受信した移動先位置情報322aを車両記憶部290に記憶する。
S410の後、処理はS420に進む。
<S410: Steering command reception processing>
The
After S410, the process proceeds to S420.
<S420:車両制御処理>
車両制御部213は、S410において受信された移動先位置情報322aを入力し、入力した移動先位置情報322aに基づいて無人車両200を制御する。
例えば、車両制御部213は、無人車両200が所定時間後に移動先位置情報322aに示される地点に位置するように、無人車両200の駆動装置を制御して加減速および進行方向の変更をし、無人車両200を走行させる。
S410の後、自動操縦工程(S400)は終了する。
<S420: Vehicle control processing>
The
For example, the
After S410, the autopilot process (S400) ends.
自動操縦工程(S400)は、遠隔操縦装置300から移動先位置情報322aが送信される度に実行される。
これにより、無人車両200は、手動ではなく自動で走行する。
The automatic pilot process (S400) is executed every time the movement
Thereby, the unmanned vehicle 200 travels automatically instead of manually.
車両操縦プログラムは、車両情報送信工程(S100)および自動操縦工程(S400)を車両制御装置209(コンピュータの一例)に実行させる。
遠隔操縦プログラムは、車両周辺画像表示工程(S200)および操縦命令送信工程(S300)を遠隔操縦装置300(コンピュータの一例)に実行させる。
遠隔地画像表示プログラムは、車両周辺画像表示工程(S200)を遠隔操縦装置300に実行させる。
The vehicle control program causes the vehicle control device 209 (an example of a computer) to execute a vehicle information transmission step (S100) and an automatic control step (S400).
The remote control program causes the remote control device 300 (an example of a computer) to execute a vehicle periphery image display step (S200) and a control command transmission step (S300).
The remote location image display program causes the
実施の形態1では、以下のような遠隔操縦システム100について説明した。
遠隔操縦装置300は、予め取得された無人車両周辺の3次元情報(3次元地図データ391a)をまとめた3次元地図データベース391を搭載し、その情報を元に無人車両200の自己位置姿勢に合わせて無人車両200の周辺情報を客観的に判り易く表示する。
In the first embodiment, the following remote control system 100 has been described.
The
遠隔操縦装置300において、地図データ取得部312は、無人車両200の周辺情報(3次元地図データ391a)を3次元地図データベース391から取得する。3次元周辺画像生成部313および3次元周辺画像表示部314は、周辺情報に基づいて地物を3次元的に任意の視点方向から見たように表示し、かつその表示上に無人車両200を重畳する処理をする。遠隔操作者は、この処理の結果を表示装置901で目視確認することで、無人車両200の周辺情報を客観的に見て取り、無人車両200への移動方向指示を明確に行うことができる。
In the
図11は、無人車両200からカメラ撮影した場合のカメラ画像199のイメージ図である。
無人車両200に設置されたカメラにより撮影されたカメラ画像199が遠隔操縦装置300の表示装置901に表示された場合、図11に示すように、遠隔操縦者は、カメラの視線方向における無人車両200の周辺を確認することはできるが、カメラ画像が無人車両200を含めた俯瞰画像ではないため、前方の交差点の状況や無人車両200の左右の状況を把握することができない。このため、遠隔操縦者は、カメラ画像を見て操縦情報321aを決定することが容易でない。
一方、実施の形態1で説明したように無人車両200の位置姿勢情報210aと3次元地図データベース291とに基づいて無人車両200の3次元周辺画像313aが鳥瞰図的に無人車両200の後方上部からの視点で表示された場合(図8参照)、遠隔操縦者は、前方の交差点や無人車両200の左右の状況を確認し易いため、カメラ画像を見る場合と比べて容易に操縦情報321aを決定することができる。
FIG. 11 is an image diagram of the camera image 199 when the camera is taken from the unmanned vehicle 200.
When the camera image 199 photographed by the camera installed in the unmanned vehicle 200 is displayed on the
On the other hand, as described in the first embodiment, based on the position /
また、カメラ画像はデータ量が大きいため、カメラ画像を無人車両200から遠隔操縦装置300へ送信する場合には大容量の通信帯域を設ける必要がある。
一方、実施の形態1は、無人車両200から遠隔操縦装置300へ送信するデータがデータ量の小さい位置姿勢情報210aであるため、大容量の通信帯域が不要であり、確保できる通信帯域が限られている場合にも使用できる。
In addition, since the camera image has a large amount of data, it is necessary to provide a large-capacity communication band when the camera image is transmitted from the unmanned vehicle 200 to the
On the other hand, in the first embodiment, since the data transmitted from the unmanned vehicle 200 to the
遠隔操縦システム100を用いた車両の遠隔操縦により、乗客は車両を運転しないで目的地に到着することができる。例えば、遠隔操縦システム100は、タクシーや代行運転などの運転サービスの代わりに利用することができる。
また、遠隔操縦システム100は、遠隔操縦により、無人の車両を走行させることができる。例えば、遠隔操縦システム100は、各種センサを搭載した車両を災害地域・危険地域内で走行させて地域内の各種情報(画像、温度、有害物質濃度など)を取得するなど、復旧活動に利用することができる。
The remote control of the vehicle using the remote control system 100 allows the passenger to arrive at the destination without driving the vehicle. For example, the remote control system 100 can be used in place of a driving service such as a taxi or substitute driving.
Moreover, the remote control system 100 can drive an unmanned vehicle by remote control. For example, the remote control system 100 is used for restoration activities such as driving a vehicle equipped with various sensors in a disaster area / risk area to acquire various information (images, temperature, toxic substance concentration, etc.) in the area. be able to.
実施の形態で説明した無人車両200は、駆動制御できる移動体であればよく、四輪車、二輪車、大型車、小型車などどのような形態であっても構わない。 The unmanned vehicle 200 described in the embodiment only needs to be a movable body that can be driven and controlled, and may be in any form such as a four-wheeled vehicle, a two-wheeled vehicle, a large vehicle, and a small vehicle.
遠隔操縦装置300は3次元地図データベース391を備えず、地図データ取得部312は外部に設けられた3次元地図データベース391からネットワークを介して3次元地図データ391aを取得してもよい。
The
実施の形態2.
遠隔操縦者が指定する視線方向から見た3次元周辺画像313aを表示する形態について説明する。
以下、実施の形態1と異なる事項について主に説明し、説明を省略する事項については実施の形態1と同様であるものとする。
Embodiment 2. FIG.
A mode of displaying the three-dimensional
Hereinafter, items different from the first embodiment will be mainly described, and items omitted will be the same as those of the first embodiment.
図12は、実施の形態2における遠隔操縦装置300の機能構成図である。
実施の形態2における遠隔操縦装置300の機能構成について、図12に基づいて以下に説明する。
FIG. 12 is a functional configuration diagram of the
The functional configuration of the
実施の形態2における遠隔操縦装置300は、実施の形態1(図3参照)で説明した各「〜部」に加えて、視線方向入力部315を備える。
以下、視線方向入力部315について説明し、他の構成について説明を省略する。
The
Hereinafter, the line-of-sight
視線方向入力部315は、3次元周辺画像313aにより表される地図の視線方向として遠隔操縦者に指定された視線方向315aを入力装置から入力する。
The line-of-sight
実施の形態2における車両制御装置209の機能構成は、実施の形態1(図2参照)と同じである。
The functional configuration of the
図13は、実施の形態2における車両周辺画像表示工程(S200)のフローチャートである。
実施の形態2における車両周辺画像表示工程(S200)の詳細について、図13に基づいて以下に説明する。
FIG. 13 is a flowchart of the vehicle periphery image display step (S200) in the second embodiment.
Details of the vehicle periphery image display step (S200) in the second embodiment will be described below with reference to FIG.
実施の形態2における車両周辺画像表示工程(S200)は、実施の形態1(図7参照)で説明した処理に視線方向入力処理(S250)を加え、周辺画像生成処理(S230)を一部変更した処理(S231)にしたものである。
以下、視線方向入力処理(S250)および周辺画像生成処理(S231)について説明し、他の処理について説明を省略する。
In the vehicle periphery image display step (S200) in the second embodiment, the line-of-sight direction input process (S250) is added to the process described in the first embodiment (see FIG. 7), and the peripheral image generation process (S230) is partially changed. This processing is performed (S231).
Hereinafter, the line-of-sight direction input process (S250) and the peripheral image generation process (S231) will be described, and description of other processes will be omitted.
<S250:視線方向入力処理>
視線方向入力部315は、遠隔操縦者がキーボード902やマウス903などの入力装置を操作して指定した視線方向315aを入力し、入力した視線方向315aを装置記憶部390に記憶する。
例えば、遠隔操縦者は、無人車両200の運転席から見た方向、無人車両200の後方上空から俯瞰する方向、無人車両200を真上から見た方向など、無人車両200を遠隔操縦し易い視線方向315aを決定して遠隔操縦装置300に入力する。
S250の後、処理はS231に進む。
<S250: Line-of-Sight Direction Input Processing>
The line-of-sight
For example, the remote operator can easily remotely control the unmanned vehicle 200 such as a direction seen from the driver's seat of the unmanned vehicle 200, a direction looking down from behind the unmanned vehicle 200, and a direction seen from directly above the unmanned vehicle 200. The
After S250, the process proceeds to S231.
<S231:周辺画像生成処理>
3次元周辺画像生成部313は、S210において受信された位置姿勢情報210a、S220において取得された3次元地図データ391aおよびS250において入力された視線方向315aを装置記憶部390から入力し、入力した位置姿勢情報210a、3次元地図データ391aおよび3次元周辺画像313aに基づいて無人車両200の3次元周辺画像313aを生成する。
例えば、3次元周辺画像生成部313は、視線方向315aが「無人車両200の運転席から見た方向」を示す場合、図11に示すような画像を3次元周辺画像313aとして生成し、視線方向315aが「無人車両200の後方上空から俯瞰した方向」を示す場合、図8に示すような画像を3次元周辺画像313aとして生成する。
S231の後、処理はS240に進み、S240において3次元周辺画像313aは表示装置901に表示される。
<S231: Surrounding Image Generation Processing>
The three-dimensional peripheral
For example, when the line-of-
After S231, the process proceeds to S240, and the three-dimensional
車両情報送信工程(S100)、操縦命令送信工程(S300)および自動操縦工程(S400)は、実施の形態1と同じである。 The vehicle information transmission step (S100), the steering command transmission step (S300), and the automatic steering step (S400) are the same as those in the first embodiment.
実施の形態2における遠隔操縦システム100は、遠隔操縦者が指定した視線方向から見た3次元周辺画像313aを表示することにより、遠隔操縦をより容易にすることができる。
また、遠隔操縦装置300は、異なる視線方向から見た複数の3次元周辺画像313aを表示装置901に分割表示してもよい。例えば、遠隔操縦装置300は、画面を上下左右に4分割して4方向から見た4つの3次元周辺画像313aを表示してもよい。
The remote control system 100 according to the second embodiment can make remote control easier by displaying the three-dimensional
Further, the
実施の形態3.
車両周辺に位置する障害物を含めて3次元周辺画像313aを表示する形態について説明する。
以下、実施の形態1と異なる事項について主に説明し、説明を省略する事項については実施の形態1と同様であるものとする。
Embodiment 3 FIG.
A mode of displaying the three-dimensional
Hereinafter, items different from the first embodiment will be mainly described, and items omitted will be the same as those of the first embodiment.
図14は、実施の形態3における車両制御装置209の機能構成図である。
実施の形態3における車両制御装置209の機能構成について、図14に基づいて以下に説明する。
FIG. 14 is a functional configuration diagram of the
A functional configuration of the
実施の形態3における車両制御装置209は、実施の形態1(図2参照)で説明した各「〜部」に加え、障害物センサ204および障害物検出部220を備える。
以下、障害物センサ204および障害物検出部220について説明し、他の構成について説明を省略する。
The
Hereinafter, the
障害物センサ204は、ステレオカメラやLRF(レーザレンジファインダ)など、地物の検出に用いられるセンサ装置である。
LRFは、各方位・各高さに向けてレーザーを照射し、地物に反射して戻ってきたレーザーを観測する。そして、LRFは、レーザーが戻ってくるまでの時間に基づいて地物との距離を特定し、レーザーを照射した方向を地物が位置する方向として特定する。LRFは、レーザーレーダまたはレーザースキャナともいう。
ステレオカメラは、異なる二方向から同じ被写体を同時に撮影する。同時に撮影された二枚の画像それぞれから各画素の色や輝度などに基づいて被写体が写っている画素範囲が特定され、二枚の撮影方向および被写体の画素範囲に基づいて三角測量の原理で被写体との距離が特定される。また、被写体との距離および撮影方向に基づいて被写体の位置が特定され、被写体との距離および画素範囲に基づいて被写体の大きさが特定される。
The
LRF irradiates a laser toward each azimuth and each height, and observes the laser that has been reflected back to the feature. Then, the LRF specifies the distance from the feature based on the time until the laser returns, and specifies the direction in which the laser is irradiated as the direction in which the feature is located. LRF is also called a laser radar or a laser scanner.
Stereo cameras shoot the same subject at the same time from two different directions. From each of the two images taken at the same time, the pixel range in which the subject is shown is specified based on the color and brightness of each pixel, and the subject is triangulated based on the two shooting directions and the pixel range of the subject. And the distance is specified. Further, the position of the subject is specified based on the distance to the subject and the shooting direction, and the size of the subject is specified based on the distance to the subject and the pixel range.
障害物検出部220(障害物情報生成部の一例)は、前記車両の周辺に位置する障害物を障害物センサ204を用いて検出し、検出した障害物の情報(以下、「障害物情報220a」という)をCPUを用いて生成する。障害物情報220aは、障害物の情報として、障害物の位置(三次元座標)および大きさを示す。
例えば、障害物検出部220は、LRF(障害物センサ204の一例)により特定された地物との距離および地物が位置する方向に基づいて、地物の位置および大きさを算出し、算出した地物の位置および大きさを障害物の情報として障害物情報220aを生成する。障害物検出部220は、LRFから特定された方向へ特定された距離だけ離れた地点を地物(障害物)の位置として算出し、特定された距離および方向が近似するレーザーの照射範囲を地物の大きさとして算出する。
また例えば、障害物検出部220は、ステレオカメラ(障害物センサ204の一例)により同時に撮影された二枚の画像を画像処理して画像に写っている地物の位置および大きさを算出し、算出した地物の位置および大きさを障害物の情報として障害物情報220aを生成する。
The obstacle detection unit 220 (an example of the obstacle information generation unit) detects an obstacle located around the vehicle by using the
For example, the
Further, for example, the
図15は、実施の形態3における遠隔操縦装置300の機能構成図である。
実施の形態3における遠隔操縦装置300の機能構成について、図15に基づいて以下に説明する。
FIG. 15 is a functional configuration diagram of
A functional configuration of
実施の形態3における遠隔操縦装置300は、実施の形態1(図3参照)で説明した3次元周辺画像生成部313が地図形成部313Aおよび障害物形成部313Bを備える。
以下、地図形成部313Aおよび障害物形成部313Bについて説明し、他の構成について説明を省略する。
In the
Hereinafter, the
地図形成部313Aは、実施の形態1で説明した3次元周辺画像生成部313のように、地図データ取得部312により取得された3次元地図データ391aに基づいて無人車両200の周辺の3次元地図を生成する。
障害物形成部313Bは、車両制御装置209から送信される障害物情報220aに基づいて、地図形成部313Aにより生成された3次元地図に障害物の絵を重畳させて3次元周辺画像313aを生成する。
The
Based on the
図16は、実施の形態3における車両情報送信工程(S100)のフローチャートである。
実施の形態3における車両情報送信工程(S100)の詳細について、図16に基づいて以下に説明する。
FIG. 16 is a flowchart of the vehicle information transmission step (S100) in the third embodiment.
Details of the vehicle information transmission step (S100) in the third embodiment will be described below with reference to FIG.
実施の形態3における車両情報送信工程(S100)は、実施の形態1(図6参照)で説明した処理に障害物情報生成処理(S130)を加え、車両情報送信処理(S120)を一部変更した処理(S121)にしたものである。
以下、障害物情報生成処理(S130)および車両情報送信処理(S121)について説明し、他の処理について説明を省略する。
In the vehicle information transmission process (S100) in the third embodiment, the obstacle information generation process (S130) is added to the process described in the first embodiment (see FIG. 6), and the vehicle information transmission process (S120) is partially changed. This processing is performed (S121).
Hereinafter, the obstacle information generation process (S130) and the vehicle information transmission process (S121) will be described, and description of other processes will be omitted.
<S130:障害物情報生成処理>
障害物検出部220は、障害物センサ204を用いて無人車両200の周辺に位置する障害物を検出し、検出した障害物の情報(障害物情報220a)を生成し、生成した障害物情報220aを車両記憶部290に記憶する。
S130の後、処理は、S121に進む。
<S130: Obstacle Information Generation Processing>
The
After S130, the process proceeds to S121.
<S121:車両情報送信処理>
車両送信部211は、S110において生成された位置姿勢情報210aおよびS130において生成された障害物情報220aを車両記憶部290から入力し、入力した位置姿勢情報210aおよび障害物情報220aをアンテナ202から無線電波で遠隔操縦装置300へ送信する。
<S121: Vehicle information transmission process>
The
図17は、実施の形態3における車両周辺画像表示工程(S200)のフローチャートである。
実施の形態3における車両周辺画像表示工程(S200)の詳細について、図17に基づいて以下に説明する。
FIG. 17 is a flowchart of the vehicle periphery image display step (S200) in the third embodiment.
Details of the vehicle periphery image display step (S200) in the third embodiment will be described below with reference to FIG.
実施の形態3における車両周辺画像表示工程(S200)は、実施の形態1(図7参照)で説明した車両情報受信処理(S210)を一部変更した処理(S211)にし、周辺画像生成処理(S230)を周辺画像生成処理A(S232)および周辺画像生成処理B(S233)に変更したものである。
以下、車両情報受信処理(S211)、周辺画像生成処理A(S232)および周辺画像生成処理B(S233)について説明し、他の処理について説明を省略する。
The vehicle periphery image display process (S200) in the third embodiment is a process (S211) in which the vehicle information reception process (S210) described in the first embodiment (see FIG. 7) is partially changed, and a peripheral image generation process ( S230) is changed to peripheral image generation processing A (S232) and peripheral image generation processing B (S233).
Hereinafter, the vehicle information reception process (S211), the peripheral image generation process A (S232), and the peripheral image generation process B (S233) will be described, and description of other processes will be omitted.
<S211:車両情報受信処理>
装置受信部311は、無人車両200の車両制御装置209により送信された位置姿勢情報210aおよび障害物情報220aを受信アンテナ301を用いて受信し、受信した位置姿勢情報210aおよび障害物情報220aを装置記憶部390に記憶する。
<S211: Vehicle information reception process>
The
<S232:周辺画像生成処理A>
地図形成部313Aは、S211において受信された位置姿勢情報210aとS220において取得された3次元地図データ391aとを装置記憶部390から入力し、実施の形態1(S230)と同様に、入力した位置姿勢情報210aおよび3次元地図データ391aに基づいて車両周辺の3次元地図を生成する。地図形成部313Aは、生成した3次元地図を装置記憶部390に記憶する。
S232の後、処理はS233に進む。
<S232: Surrounding Image Generation Processing A>
The
After S232, the process proceeds to S233.
<S233:周辺画像生成処理B>
障害物形成部313Bは、S211において受信された障害物情報220aとS232において生成された3次元地図とを装置記憶部390から入力し、障害物情報220aに基づいて障害物の絵を3次元地図に重畳させて3次元周辺画像313aを生成する。
例えば、障害物形成部313Bは、障害物情報220aに示される障害物の位置および大きさに基づいて、障害物を表す四角形を作成し、作成した四角形を3次元地図に重畳して3次元周辺画像313aを生成する。
<S233: Surrounding Image Generation Processing B>
The
For example, the
図18および図19は、実施の形態3における3次元周辺画像313aを示す図である。
周辺画像生成処理B(S233)において、障害物形成部313Bは、例えば、図18に示すように、四角形で表した障害物(313b1〜313b3)を3次元地図に重畳させて3次元周辺画像313aを生成する。
図18において、障害物313b1は3次元地図データ391aにも含まれる建物の壁面の存在を示し、障害物313b2および障害物313b3は3次元地図データ391aには含まれない移動体(歩行者、対向車)の存在を示している。
18 and 19 are diagrams showing a three-dimensional
In the peripheral image generation process B (S233), the
In FIG. 18, an obstacle 313b1 indicates the presence of the wall surface of the building also included in the
障害物形成部313Bは、各障害物との距離に応じて異なる色で各障害物の絵を3次元周辺画像313aに表してもよい。
例えば、図18において、無人車両200から最も近い障害物313b2は「赤」、次に近い障害物313b3は「黄」、それより遠い位置にある各障害物313b1は「青」で表される。
The
For example, in FIG. 18, the nearest obstacle 313b2 from the unmanned vehicle 200 is represented by “red”, the next nearest obstacle 313b3 is represented by “yellow”, and each obstacle 313b1 located farther away is represented by “blue”.
障害物形成部313Bは、図19に示すように、無人車両200の進行方向で且つ障害物313b1が存在しない方向を特定し、特定した方向をナビゲーション情報として示す表記313c(例えば、矢印)を3次元周辺画像313aに含めてもよい。
As shown in FIG. 19, the
図17のS233において、障害物形成部313Bは、生成した3次元周辺画像313aを装置記憶部390に記憶する。
S233の後、処理はS240に進み、S240において3次元周辺画像313aは図18や図19に示されるように表示装置901に表示される。
In S233 of FIG. 17, the
After S233, the process proceeds to S240. In S240, the three-dimensional
操縦命令送信工程(S300)および自動操縦工程(S400)は、実施の形態1と同じである。 The steering command transmission step (S300) and the automatic piloting step (S400) are the same as those in the first embodiment.
実施の形態3における遠隔操縦システム100は、車両周辺に位置する障害物を含めて3次元周辺画像313aを表示することにより、3次元地図データベース291には登録されない移動体の存在を遠隔操縦者に知らせ、より安全に遠隔操縦させることができる。
The remote control system 100 according to the third embodiment displays a three-dimensional
実施の形態3において、以下のような遠隔操縦システム100について説明した。
無人車両200が障害物センサ204を搭載し、障害物情報220aを検出した場合に車両制御装置209がその位置と大きさを遠隔操縦装置300に送り、遠隔操縦装置300が無人車両200の周辺情報を客観的に判り易く表示した内容に障害物を重畳して表示する。
In the third embodiment, the following remote control system 100 has been described.
When the unmanned vehicle 200 is equipped with the
遠隔操縦装置300において、地図データ取得部312は、無人車両200の周辺情報を3次元地図データベース391から取得する。3次元周辺画像生成部313および3次元周辺画像表示部314は、周辺情報に基づいて地物を3次元的に任意の視点方向から見たような表示をし、かつ無人車両200と無人車両200の周辺の障害物を重畳して表示装置901に表示する。遠隔操作者は、この表示を目視確認することで、無人車両200の周辺情報を客観的に見て取り、無人車両200への移動方向指示を明確に行うことができる。
In the
実施の形態3における遠隔操縦装置300は、実施の形態2と同じく、遠隔操縦者に指定された視線方向315aを入力し、指定された視線方向315aから見た3次元周辺画像313aを生成して表示してもよい。
As in the second embodiment, the
実施の形態4.
車両周辺の障害物のうち移動体のみを絵にして重畳させた3次元周辺画像313aを表示する形態について説明する。
Embodiment 4 FIG.
A mode of displaying a three-dimensional
以下、実施の形態3と異なる事項について主に説明し、説明を省略する事項については実施の形態3と同様であるものとする。 Hereinafter, items different from the third embodiment will be mainly described, and items that will not be described are the same as those of the third embodiment.
図20は、実施の形態4における車両制御装置209の機能構成図である。
実施の形態4における車両制御装置209の機能構成について、図20に基づいて以下に説明する。
FIG. 20 is a functional configuration diagram of the
A functional configuration of the
実施の形態4における車両制御装置209は、実施の形態3(図14参照)で説明した各「〜部」に加え、地図データ取得部230(地図データ車両取得部の一例)、移動障害物選別部231(障害物車両特定部の一例)および3次元地図データベース291を備える。
以下、地図データ取得部230、移動障害物選別部231および3次元地図データベース291について説明し、他の構成について説明を省略する。
The
Hereinafter, the map
3次元地図データベース291は、遠隔操縦装置300に備わる3次元地図データベース391の3次元地図データ391aと同じデータ(3次元地図データ291a)を記憶媒体を用いて記憶管理する装置である。
The
地図データ取得部230は、位置姿勢情報210aに基づいて無人車両200の周辺に位置する地物の情報を含んだ3次元地図データ291aを3次元地図データベース291から取得する。
The map
移動障害物選別部231は、障害物検出部220により生成された障害物情報220aから地図データ取得部230により取得された3次元地図データ291aに含まれる地物の情報と重複しない障害物の情報を移動障害物情報231aとして特定する。
The moving
実施の形態4における遠隔操縦装置300の機能構成は、実施の形態3(図15参照)と同じである。
The functional configuration of the
図21は、実施の形態4における車両情報送信工程(S100)のフローチャートである。
実施の形態4における車両情報送信工程(S100)の詳細について、図21に基づいて以下に説明する。
FIG. 21 is a flowchart of the vehicle information transmission step (S100) in the fourth embodiment.
Details of the vehicle information transmission step (S100) in the fourth embodiment will be described below based on FIG.
実施の形態4における車両情報送信工程(S100)は、実施の形態3(図16参照)で説明した処理に地図情報取得処理(S140)および障害物特定処理(S150)を加え、車両情報送信処理(S121)を一部変更した処理(S122)にしたものである。
以下、地図情報取得処理(S140)、障害物特定処理(S150)および車両情報送信処理(S122)について説明し、他の処理について説明を省略する。
In the vehicle information transmission process (S100) in the fourth embodiment, a map information acquisition process (S140) and an obstacle identification process (S150) are added to the processes described in the third embodiment (see FIG. 16), and a vehicle information transmission process is performed. This is a process (S122) in which (S121) is partially changed.
Hereinafter, the map information acquisition process (S140), the obstacle identification process (S150), and the vehicle information transmission process (S122) will be described, and description of other processes will be omitted.
<S140:地図情報取得処理>
地図データ取得部230は、S110において生成された位置姿勢情報210aを車両記憶部290から入力し、遠隔操縦装置300の地図データ取得部312と同様に、入力した位置姿勢情報210aに基づいて車両周辺の3次元地図データ291aを3次元地図データベース291から取得する。地図データ取得部230は、取得した3次元地図データ291aを車両記憶部290に記憶する。
S140の後、処理はS150に進む。
<S140: Map information acquisition process>
The map
After S140, the process proceeds to S150.
<S150:障害物特定処理>
移動障害物選別部231は、S130において生成された障害物情報220aとS140において取得された3次元地図データ291aとを車両記憶部290から入力し、3次元地図データ291aと重複しない障害物情報220aを移動障害物情報231aとして特定する。
例えば、移動障害物選別部231は、障害物情報220aに示される各障害物の3次元座標と3次元地図データ291aに示される各地物の3次元座標とを比較し、3次元座標で示される存在範囲が3次元地図データ291aに示されるいずれの地物とも重複しない障害物情報220aを移動障害物情報231aとして特定する。
図18において、障害物313b1(建物の壁面)の情報は3次元地図データ291aに示される建物の壁面と重複する情報であるため移動障害物情報231aとして特定されず、障害物313b2(歩行者)の情報および障害物313b3(対向車)の情報は3次元地図データ291aに示されるいずれの地物(道路、歩道、建物)とも重複しない情報であるため移動障害物情報231aとして特定される。
移動障害物選別部231は、特定した移動障害物情報231aを車両記憶部290に記憶する。
S150の後、処理はS122に進む。
<S150: Obstacle identification processing>
The moving
For example, the moving
In FIG. 18, the information on the obstacle 313b1 (wall surface of the building) is information that overlaps with the wall surface of the building shown in the three-
The moving
After S150, the process proceeds to S122.
<S122:車両情報送信処理>
車両送信部211は、S110において生成された位置姿勢情報210aとS150において特定された移動障害物情報231aとを車両記憶部290から入力し、入力した位置姿勢情報210aおよび移動障害物情報231aをアンテナ202から無線電波で遠隔操縦装置300へ送信する。
<S122: Vehicle information transmission process>
The
図22は、実施の形態4における車両周辺画像表示工程(S200)のフローチャートである。
実施の形態4における車両周辺画像表示工程(S200)の詳細について、図22に基づいて以下に説明する。
FIG. 22 is a flowchart of the vehicle periphery image display step (S200) in the fourth embodiment.
Details of the vehicle periphery image display step (S200) in the fourth embodiment will be described below with reference to FIG.
実施の形態4における車両周辺画像表示工程(S200)は、実施の形態3(図17参照)で説明した車両情報受信処理(S211)および周辺画像生成処理B(S233)を一部変更した処理(S212、S234)にしたものである。
以下、車両情報受信処理(S212)および周辺画像生成処理B(S234)について説明し、他の処理について説明を省略する。
The vehicle periphery image display step (S200) in the fourth embodiment is a process in which the vehicle information reception process (S211) and the peripheral image generation process B (S233) described in the third embodiment (see FIG. 17) are partially changed ( S212, S234).
Hereinafter, the vehicle information reception process (S212) and the peripheral image generation process B (S234) will be described, and description of other processes will be omitted.
<S212:車両情報受信処理>
装置受信部311は、無人車両200の車両制御装置209により送信された位置姿勢情報210aおよび移動障害物情報231aを受信アンテナ301を用いて受信し、受信した位置姿勢情報210aおよび移動障害物情報231aを装置記憶部390に記憶する。
<S212: Vehicle information reception process>
The
<S234:周辺画像生成処理B>
障害物形成部313Bは、S212において受信された移動障害物情報231aとS232において生成された3次元地図とを装置記憶部390から入力し、実施の形態3のS233と同様に、移動障害物情報231aに基づいて移動障害物の絵を3次元地図に重畳させて3次元周辺画像313aを生成する。
例えば、図18に示す3次元周辺画像313aから各障害物313b1を除いたデータが3次元周辺画像313aとして生成される。
障害物形成部313Bは、生成した3次元周辺画像313aを装置記憶部390に記憶する。
S234の後、処理はS240に進み、S240において3次元周辺画像313aは図18(各障害物313b1を除く)に示すように表示装置901に表示される。
<S234: Surrounding Image Generation Processing B>
The
For example, data obtained by removing each obstacle 313b1 from the three-dimensional
The
After S234, the process proceeds to S240, where the three-dimensional
操縦命令送信工程(S300)および自動操縦工程(S400)は、実施の形態3と同じである。 The steering command transmission step (S300) and the automatic piloting step (S400) are the same as those in the third embodiment.
実施の形態4における遠隔操縦システム100は、車両周辺の障害物のうち移動体のみを絵にして重畳させた3次元周辺画像313aを表示することにより、移動体の存在を明確に遠隔操縦者に知らせ、より安全に遠隔操縦させることができる。
The remote control system 100 according to the fourth embodiment displays the three-dimensional
実施の形態4において、以下のような遠隔操縦システム100について説明した。
無人車両200は3次元地図データベース291を搭載し、車両制御装置209は障害物センサ204により検出した障害物が3次元地図データベース291に登録されている地物(電柱、標識あるいは建造物等)であるか比較し、未登録物であれば移動障害物として遠隔操縦装置300に送り、遠隔操縦装置300は無人車両200の周辺情報を客観的に判り易く表示した内容に移動障害物情報を重畳して表示する。
遠隔操縦装置300は、既に3次元地図データベース391に登録されている地物や障害物(建物等)を重畳して表示装置901に表示しない。未登録の障害物のみ重畳表示されるため、遠隔操縦者は、この表示を目視確認することで、無人車両200の周辺情報を客観的に見て取り、無人車両200への移動方向指示を明確に行うことができる。
In the fourth embodiment, the following remote control system 100 has been described.
The unmanned vehicle 200 is equipped with a
The
実施の形態5.
遠隔操縦装置300が移動障害物を特定して移動障害物の絵を重畳させた3次元周辺画像313aを表示する形態について説明する。
Embodiment 5 FIG.
A mode in which the
以下、実施の形態3と異なる事項について主に説明し、説明を省略する事項については実施の形態3と同様であるものとする。 Hereinafter, items different from the third embodiment will be mainly described, and items that will not be described are the same as those of the third embodiment.
図23は、実施の形態5における遠隔操縦装置300の機能構成図である。
実施の形態5における遠隔操縦装置300の機能構成について、図23に基づいて以下に説明する。
FIG. 23 is a functional configuration diagram of
A functional configuration of the
実施の形態5における遠隔操縦装置300は、実施の形態3(図15参照)で説明した各「〜部」に加え、移動障害物選別部316(障害物特定部の一例)を備える。
以下、移動障害物選別部316について説明し、他の構成について説明を省略する。
The
Hereinafter, the moving
移動障害物選別部316は、装置受信部311により受信された障害物情報220aから地図データ取得部312により取得された3次元地図データ391aに含まれる地物の情報と重複しない障害物の情報を移動障害物情報316aとして特定する。
The moving
実施の形態5における車両制御装置209の機能構成は、実施の形態3(図20参照)と同じである。
The functional configuration of the
図24は、実施の形態5における車両周辺画像表示工程(S200)のフローチャートである。
実施の形態5における車両周辺画像表示工程(S200)の詳細について、図24に基づいて以下に説明する。
FIG. 24 is a flowchart of the vehicle periphery image display step (S200) in the fifth embodiment.
Details of the vehicle periphery image display step (S200) in the fifth embodiment will be described below based on FIG.
実施の形態5における車両周辺画像表示工程(S200)は、実施の形態3(図17参照)で説明した処理に障害物特定処理(S250)を加え、周辺画像生成処理B(S233)を一部変更した処理(S235)にしたものである。
以下、障害物特定処理(S250)および周辺画像生成処理B(S235)について説明し、他の処理について説明を省略する。
In the vehicle periphery image display step (S200) in the fifth embodiment, the obstacle specifying process (S250) is added to the process described in the third embodiment (see FIG. 17), and the peripheral image generation process B (S233) is partially performed. This is the changed processing (S235).
Hereinafter, the obstacle identification process (S250) and the peripheral image generation process B (S235) will be described, and description of other processes will be omitted.
<S250:障害物特定処理>
移動障害物選別部316は、S211において受信された障害物情報220aとS220において取得された3次元地図データ391aとを装置記憶部390から入力し、実施の形態4(S150)の移動障害物選別部231と同様に、3次元地図データ391aと重複しない障害物情報220aを移動障害物情報316aとして特定する。
移動障害物選別部316は、特定した移動障害物情報316aを装置記憶部390に記憶する。
<S250: Obstacle identification processing>
The moving
The moving
<S235:周辺画像生成処理B>
障害物形成部313Bは、S250において特定された移動障害物情報316aとS232において生成された3次元地図とを装置記憶部390から入力し、実施の形態3のS233と同様に、移動障害物情報316aに基づいて移動障害物の絵を3次元地図に重畳させて3次元周辺画像313aを生成する。
例えば、図18に示す3次元周辺画像313aから各障害物313b1を除いたデータが3次元周辺画像313aとして生成される。
障害物形成部313Bは、生成した3次元周辺画像313aを装置記憶部390に記憶する。
S235の後、処理はS240に進み、S240において3次元周辺画像313aは図18(各障害物313b1を除く)に示すように表示装置901に表示される。
<S235: Surrounding Image Generation Processing B>
The
For example, data obtained by removing each obstacle 313b1 from the three-dimensional
The
After S235, the process proceeds to S240. In S240, the three-dimensional
操縦命令送信工程(S300)および自動操縦工程(S400)は、実施の形態3と同じである。 The steering command transmission step (S300) and the automatic piloting step (S400) are the same as those in the third embodiment.
実施の形態5における遠隔操縦システム100は、車両周辺の障害物のうち移動体のみを絵にして重畳させた3次元周辺画像313aを表示することにより、移動体の存在を明確に遠隔操縦者に知らせ、より安全に遠隔操縦させることができる。
The remote control system 100 according to the fifth embodiment displays the three-dimensional
100 遠隔操縦システム、199 カメラ画像、200 無人車両、201 GPS受信システム、202 アンテナ、203 ジャイロ、204 障害物センサ、209 車両制御装置、210 位置姿勢標定部、210a 位置姿勢情報、211 車両送信部、212 車両受信部、213 車両制御部、220 障害物検出部、220a 障害物情報、230 地図データ取得部、231 移動障害物選別部、231a 移動障害物情報、290 車両記憶部、291 3次元地図データベース、291a 3次元地図データ、300 遠隔操縦装置、301 受信アンテナ、302 送信アンテナ、310 遠隔地画像表示装置、311 装置受信部、312 地図データ取得部、313 3次元周辺画像生成部、313a 3次元周辺画像、313b1,313b2,313b3 障害物、313c 表記、313A 地図形成部、313B 障害物形成部、314 3次元周辺画像表示部、315 視線方向入力部、315a 視線方向、316 移動障害物選別部、316a 移動障害物情報、320 車両操縦装置、321 操縦情報入力部、321a 操縦情報、322 移動位置生成部、322a 移動先位置情報、323 装置送信部、390 装置記憶部、391 3次元地図データベース、391a 3次元地図データ、901 表示装置、902 キーボード、903 マウス、911 CPU、912 バス、913 ROM、914 RAM、915 通信ボード、920 磁気ディスク装置、921 OS、923 プログラム群、924 ファイル群。 DESCRIPTION OF SYMBOLS 100 Remote control system, 199 Camera image, 200 Unmanned vehicle, 201 GPS receiving system, 202 Antenna, 203 Gyro, 204 Obstacle sensor, 209 Vehicle control apparatus, 210 Position and orientation determination unit, 210a Position and orientation information, 211 Vehicle transmission unit, 212 vehicle receiving unit, 213 vehicle control unit, 220 obstacle detection unit, 220a obstacle information, 230 map data acquisition unit, 231 moving obstacle selection unit, 231a moving obstacle information, 290 vehicle storage unit, 291 3D map database , 291a 3D map data, 300 remote control device, 301 reception antenna, 302 transmission antenna, 310 remote location image display device, 311 device reception unit, 312 map data acquisition unit, 313 3D peripheral image generation unit, 313a 3D periphery Image, 313b 1,313b2, 313b3 Obstacle, 313c Notation, 313A Map forming unit, 313B Obstacle forming unit, 314 Three-dimensional peripheral image display unit, 315 Gaze direction input unit, 315a Gaze direction, 316 Moving obstacle sorting unit, 316a Moving obstacle Object information, 320 Vehicle control device, 321 Control information input unit, 321a Control information, 322 Movement position generation unit, 322a Destination position information, 323 Device transmission unit, 390 Device storage unit, 391 3D map database, 391a 3D map Data, 901 display device, 902 keyboard, 903 mouse, 911 CPU, 912 bus, 913 ROM, 914 RAM, 915 communication board, 920 magnetic disk device, 921 OS, 923 program group, 924 file group.
Claims (14)
前記車両情報受信部により受信された前記車両の位置情報に基づいて、前記車両の周辺の3次元地図データを前記車両の走行地域の3次元地図データを記憶する地図データベース装置から取得する地図データ取得部と、
前記地図データ取得部により取得された3次元地図データに基づいて前記車両の周辺の地図を表す3次元周辺画像をCPU(Central Proccessing Unit)を用いて生成する周辺画像生成部と、
前記周辺画像生成部により生成された3次元周辺画像をモニター装置に表示する周辺画像表示部とを備え、
前記車両情報受信部は、前記車両の位置情報の他に、前記車両に設置されるセンサにより検出された前記車両の周辺に位置する障害物の情報を前記車両から受信し、
前記周辺画像生成部は、前記車両情報受信部により受信された障害物の情報に基づいて、前記地図に前記障害物を示す表記と前記障害物が存在しない方向を示す表記とを重畳させた3次元画像を前記3次元周辺画像として生成する
ことを特徴とする遠隔地画像表示装置。 A vehicle information receiving unit that receives position information of the vehicle transmitted from a vehicle traveling in a remote place using a communication device;
Map data acquisition for acquiring three-dimensional map data around the vehicle from a map database device storing three-dimensional map data of the travel region of the vehicle based on the vehicle position information received by the vehicle information receiving unit And
A peripheral image generation unit that generates a three-dimensional peripheral image representing a map around the vehicle based on the three-dimensional map data acquired by the map data acquisition unit using a CPU (Central Processing Unit);
A peripheral image display unit that displays a three-dimensional peripheral image generated by the peripheral image generation unit on a monitor device;
The vehicle information receiving unit receives, from the vehicle, information on obstacles located around the vehicle detected by a sensor installed in the vehicle, in addition to the position information of the vehicle.
The peripheral image generation unit, on the basis of the information received obstacle by the vehicle information receiving unit, the obstacle and notation indicating the obstacle to the map is superposed a notation indicating the direction in which no 3 remote image display device and generating a dimensional images as the three-dimensional peripheral image.
前記周辺画像生成部は、前記障害物の情報に含まれる前記距離に応じて、前記障害物を示す表記に着色する
ことを特徴とする請求項1記載の遠隔地画像表示装置。 The vehicle information receiving unit receives information including a distance between the vehicle and the obstacle as information on the obstacle,
The remote image display device according to claim 1, wherein the peripheral image generation unit colors the notation indicating the obstacle according to the distance included in the obstacle information.
前記車両情報受信部により受信された前記車両の位置情報に基づいて、前記車両の周辺の3次元地図データを前記車両の走行地域の3次元地図データを記憶する地図データベース装置から取得する地図データ取得部と、
前記地図データ取得部により取得された3次元地図データに基づいて前記車両の周辺の地図を表す3次元周辺画像をCPU(Central Proccessing Unit)を用いて生成する周辺画像生成部と、
前記周辺画像生成部により生成された3次元周辺画像をモニター装置に表示する周辺画像表示部とを備え、
前記車両情報受信部は、前記車両の位置情報の他に、前記車両と前記車両の周辺に位置する障害物との距離を含んだ情報を前記障害物の情報として前記車両から受信し、
前記周辺画像生成部は、前記車両情報受信部により受信された前記障害物の情報に基づいて前記地図に前記障害物を示す表記を重畳させると共に、前記障害物の情報に含まれる前記距離に応じて前記障害物を示す表記に着色した画像を前記3次元周辺画像として生成する
ことを特徴とする遠隔地画像表示装置。 A vehicle information receiving unit that receives position information of the vehicle transmitted from a vehicle traveling in a remote place using a communication device;
Map data acquisition for acquiring three-dimensional map data around the vehicle from a map database device storing three-dimensional map data of the travel region of the vehicle based on the vehicle position information received by the vehicle information receiving unit And
A peripheral image generation unit that generates a three-dimensional peripheral image representing a map around the vehicle based on the three-dimensional map data acquired by the map data acquisition unit using a CPU (Central Processing Unit);
A peripheral image display unit that displays a three-dimensional peripheral image generated by the peripheral image generation unit on a monitor device;
The vehicle information receiving unit receives, from the vehicle, information including the distance between the vehicle and an obstacle located around the vehicle as the obstacle information, in addition to the vehicle position information.
The surrounding image generation unit superimposes a notation indicating the obstacle on the map based on the obstacle information received by the vehicle information reception unit, and responds to the distance included in the obstacle information. A remote location image display device that generates an image colored in a notation indicating the obstacle as the three-dimensional peripheral image.
前記遠隔地画像表示装置は、前記車両情報受信部により受信された障害物の情報から前記地図データ取得部により取得された3次元地図データに含まれる地物の情報と重複しない障害物の情報を特定する障害物特定部を備え、
前記周辺画像生成部は、前記障害物特定部により特定された障害物の情報に基づいて前記地図に前記障害物を重畳させた画像を前記3次元周辺画像として生成する
ことを特徴とする請求項1〜請求項3いずれかに記載の遠隔地画像表示装置。 The map data acquisition unit acquires three-dimensional map data including information on features located around the vehicle from the map database device;
The remote location image display device displays obstacle information that does not overlap with feature information included in the three-dimensional map data acquired by the map data acquisition unit from the obstacle information received by the vehicle information reception unit. Has an obstacle identification part to identify,
The peripheral image generating unit generates an image in which the obstacle is superimposed on the map as the three-dimensional peripheral image based on information on the obstacle specified by the obstacle specifying unit. The remote place image display apparatus in any one of Claims 1-3.
ことを特徴とする請求項1〜請求項4いずれかに記載の遠隔地画像表示装置。 The remote area according to any one of claims 1 to 4, wherein the peripheral image generation unit generates a three-dimensional overhead map around the vehicle including the vehicle as the three- dimensional peripheral image. Image display device.
前記周辺画像生成部は、前記視線方向入力部により入力された視線方向から見た前記地図を表す画像を前記3次元周辺画像として生成する
ことを特徴とする請求項1〜請求項5いずれかに記載の遠隔地画像表示装置。 The remote image display device includes a gaze direction input unit that inputs a gaze direction designated by the user as a gaze direction of the map represented by the three-dimensional peripheral image from the input device,
The said surrounding image generation part produces | generates the image showing the said map seen from the gaze direction input by the said gaze direction input part as said three-dimensional surrounding image. The remote place image display apparatus of description.
前記車両を操縦する操縦命令を前記車両へ送信して前記車両を操縦する車両操縦装置と
を備えたことを特徴とする遠隔操縦装置。 The remote image display device according to any one of claims 1 to 6,
A remote control device comprising: a vehicle control device that transmits a control command for controlling the vehicle to the vehicle to control the vehicle.
前記車両を操縦する情報として利用者に指定された操縦情報を入力装置から入力する操縦情報入力部と、
前記操縦情報入力部により入力された操縦情報に基づいて前記操縦命令をCPUを用いて生成する操縦命令生成部と、
前記操縦命令生成部により生成された操縦命令を通信装置を用いて前記車両へ送信することにより前記車両を操縦する操縦命令送信部とを備えることを特徴とする請求項7記載の遠隔操縦装置。 The vehicle control device is
A maneuvering information input unit for inputting maneuvering information designated by the user as information for maneuvering the vehicle from an input device;
A maneuver command generator for generating the maneuver command using a CPU based on the maneuver information input by the maneuver information input unit;
The remote control device according to claim 7, further comprising a control command transmission unit that controls the vehicle by transmitting the control command generated by the control command generation unit to the vehicle using a communication device.
車両に搭載されて前記車両を制御する車両制御装置とを備え、
前記車両制御装置は、
前記車両の現在地点を測位装置を用いて測位し、測位した現在地点を示す位置情報をCPU(Central Proccessing Unit)を用いて生成する位置情報生成部と、
前記車両の周辺に位置する障害物をセンサを用いて検出し、検出した障害物の情報をCPUを用いて生成する障害物情報生成部と、
前記位置情報生成部により生成された位置情報と、前記障害物情報生成部により生成された障害物の情報とを、前記遠隔操縦装置へ、通信装置を用いて送信する車両情報送信部と、
前記遠隔操縦装置により送信される前記操縦命令を通信装置を用いて受信する操縦命令受信部と、
前記操縦命令受信部により受信された操縦命令に基づいて前記車両をCPUを用いて制御する車両制御部とを備える
ことを特徴とする遠隔操縦システム。 The remote control device according to claim 7 or claim 8,
A vehicle control device mounted on a vehicle to control the vehicle,
The vehicle control device includes:
A position information generating unit that measures a current position of the vehicle using a positioning device, and generates position information indicating the current position of the vehicle using a CPU (Central Processing Unit);
An obstacle information generating unit that detects an obstacle located around the vehicle using a sensor and generates information of the detected obstacle using a CPU;
A vehicle information transmitter for transmitting the position information generated by the position information generator and the information of the obstacle generated by the obstacle information generator to the remote control device using a communication device;
A steering command receiver for receiving the steering command transmitted by the remote control device using a communication device;
A remote control system comprising: a vehicle control unit that controls the vehicle using a CPU based on a control command received by the control command receiving unit.
遠隔地に設置される遠隔操縦装置が、前記車両の位置情報と前記障害物の情報とを受信し、
前記遠隔操縦装置が、前記車両の位置情報に基づいて前記車両の周辺の3次元地図データを取得し、取得した3次元地図データと前記障害物の情報とに基づいて前記車両の周辺の地図に前記障害物を示す表記と前記障害物が存在しない方向を示す表記とを重畳させた画像を前記車両の3次元周辺画像として生成し、生成した前記車両の3次元周辺画像を表示し、
前記遠隔操縦装置が、前記車両を操縦する操縦命令を生成し、生成した操縦命令を送信し、
前記車両制御装置が、前記操縦命令を受信し、受信した前記操縦命令に基づいて前記車両を制御する
ことを特徴とする遠隔操縦方法。 A vehicle control device mounted on the vehicle measures the current position of the vehicle, generates position information of the vehicle indicating the measured current position, detects an obstacle located around the vehicle, and detects the detected obstacle Generate information on the object, send the vehicle position information and the obstacle information,
A remote control device installed in a remote location receives the position information of the vehicle and the information of the obstacle,
The remote control device acquires three-dimensional map data around the vehicle based on the position information of the vehicle, and creates a map around the vehicle based on the acquired three-dimensional map data and the obstacle information. wherein generating an image obtained by superimposing a notation indicating the direction in which the obstacle is not present with the notation indicating the obstacle as a three-dimensional peripheral image of the vehicle, three-dimensional peripheral image of the generated the vehicle is displayed, and
The remote control device generates a control command to control the vehicle, and transmits the generated control command;
The remote control method, wherein the vehicle control device receives the control command and controls the vehicle based on the received control command.
前記車両情報受信処理により受信された前記車両の位置情報に基づいて、前記車両の周辺の3次元地図データを前記車両の走行地域の3次元地図データを記憶する地図データベース装置から取得する地図データ取得処理と、
前記地図データ取得処理により取得された3次元地図データと前記車両情報受信処理により受信された前記障害物の情報とに基づいて、前記車両の周辺の地図に前記障害物を示す表記と前記障害物が存在しない方向を示す表記と重畳させた画像を3次元周辺画像としてCPU(Central Proccessing Unit)を用いて生成する周辺画像生成処理と、
前記周辺画像生成処理により生成された3次元周辺画像をモニター装置に表示する周辺画像表示処理と、
前記車両を操縦する情報として利用者に指定された操縦情報を入力装置から入力する操縦情報入力処理と、
前記操縦情報入力処理により入力された操縦情報に基づいて前記車両を操縦する操縦命令をCPUを用いて生成する操縦命令生成処理と、
前記操縦命令生成処理により生成された操縦命令を通信装置を用いて前記車両へ送信することにより前記車両を操縦する操縦命令送信処理と
をコンピュータに実行させる遠隔操縦プログラム。 Vehicle information reception processing for receiving, using a communication device, position information of the vehicle transmitted from a vehicle traveling in a remote place and information on obstacles located around the vehicle;
Map data acquisition for acquiring three-dimensional map data around the vehicle from a map database device storing three-dimensional map data of the travel region of the vehicle based on the position information of the vehicle received by the vehicle information reception process Processing,
Based on the three-dimensional map data acquired by the map data acquisition process and the information on the obstacle received by the vehicle information reception process, the notation indicating the obstacle on the map around the vehicle and the obstacle Peripheral image generation processing for generating an image superimposed with a notation indicating a direction in which there is no image using a CPU (Central Processing Unit) as a three-dimensional peripheral image;
A peripheral image display process for displaying a three-dimensional peripheral image generated by the peripheral image generation process on a monitor device;
Maneuvering information input processing for inputting maneuvering information designated by the user as information for maneuvering the vehicle from an input device;
A steering command generation process for generating a steering command for steering the vehicle based on the steering information input by the steering information input process using a CPU;
A remote control program for causing a computer to execute a control command transmission process for controlling the vehicle by transmitting the control command generated by the control command generation process to the vehicle using a communication device.
地図データ取得部が、前記車両情報受信部により受信された前記車両の位置情報に基づいて、前記車両の周辺の3次元地図データを前記車両の走行地域の3次元地図データを記憶する地図データベース装置から取得する地図データ取得処理を行い、
周辺画像生成部が、前記地図データ取得部により取得された3次元地図データと前記車両情報受信部により受信された前記障害物の情報とに基づいて、前記車両の周辺の地図に前記障害物を示す表記と前記障害物が存在しない方向を示す表記と重畳させた画像を3次元周辺画像としてCPU(Central Proccessing Unit)を用いて生成する周辺画像生成処理を行い、
周辺画像表示部が、前記周辺画像生成部により生成された3次元周辺画像をモニター装置に表示する周辺画像表示処理を行う
ことを特徴とする遠隔地画像表示装置の遠隔地画像表示方法。 A vehicle information reception unit performs vehicle information reception processing for receiving the position information of the vehicle transmitted from a vehicle traveling in a remote place and the information of an obstacle located around the vehicle using a communication device,
Map data acquisition unit, the vehicle information based on the position information of the vehicle received by the receiving unit, the map database apparatus 3D map data around the vehicle that stores the three-dimensional map data of the running region of the vehicle Perform map data acquisition processing acquired from
Based on the 3D map data acquired by the map data acquisition unit and the information on the obstacle received by the vehicle information reception unit, a peripheral image generation unit adds the obstacle to the map around the vehicle. A peripheral image generation process is performed to generate a three-dimensional peripheral image using a CPU (Central Processing Unit) as an image superimposed with a description indicating the direction in which the obstacle does not exist,
A remote image display method for a remote image display device, wherein the peripheral image display unit performs a peripheral image display process for displaying the three-dimensional peripheral image generated by the peripheral image generator on a monitor device.
地図データ取得部が、前記車両情報受信部により受信された前記車両の位置情報に基づいて、前記車両の周辺の3次元地図データを前記車両の走行地域の3次元地図データを記憶する地図データベース装置から取得する地図データ取得処理を行い、
周辺画像生成部が、前記地図データ取得部により取得された3次元地図データに基づいて前記車両の周辺の地図に前記障害物を示す表記を重畳させると共に、前記障害物の情報に含まれる前記距離に応じて前記障害物を示す表記に着色した画像を3次元周辺画像としてCPU(Central Proccessing Unit)を用いて生成する周辺画像生成処理を行い、
周辺画像表示部が、前記周辺画像生成部により生成された3次元周辺画像をモニター装置に表示する周辺画像表示処理を行う
ことを特徴とする遠隔地画像表示装置の遠隔地画像表示方法。 A vehicle information receiving unit receives position information of the vehicle transmitted from a vehicle traveling in a remote place using a communication device, and includes information including a distance between the vehicle and an obstacle located around the vehicle. Vehicle information receiving process for receiving as obstacle information,
Map data acquisition unit, the vehicle information based on the position information of the vehicle received by the receiving unit, the map database apparatus 3D map data around the vehicle that stores the three-dimensional map data of the running region of the vehicle Perform map data acquisition processing acquired from
The peripheral image generation unit superimposes a notation indicating the obstacle on a map around the vehicle based on the three-dimensional map data acquired by the map data acquisition unit, and the distance included in the obstacle information The peripheral image generation process for generating an image colored according to the notation indicating the obstacle as a three-dimensional peripheral image using a CPU (Central Processing Unit),
A remote image display method for a remote image display device, wherein the peripheral image display unit performs a peripheral image display process for displaying the three-dimensional peripheral image generated by the peripheral image generator on a monitor device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008307006A JP5473304B2 (en) | 2008-12-02 | 2008-12-02 | Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008307006A JP5473304B2 (en) | 2008-12-02 | 2008-12-02 | Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010134499A JP2010134499A (en) | 2010-06-17 |
JP5473304B2 true JP5473304B2 (en) | 2014-04-16 |
Family
ID=42345772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008307006A Expired - Fee Related JP5473304B2 (en) | 2008-12-02 | 2008-12-02 | Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5473304B2 (en) |
Families Citing this family (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9014848B2 (en) | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
CA2928262C (en) * | 2010-12-30 | 2018-06-26 | Irobot Corporation | Mobile robot system |
JP5868681B2 (en) * | 2011-12-01 | 2016-02-24 | 三菱重工業株式会社 | Remote control vehicle system |
JP5762320B2 (en) * | 2012-01-24 | 2015-08-12 | 三菱重工業株式会社 | Travel control system and travel control method |
JP2014048859A (en) * | 2012-08-31 | 2014-03-17 | Ihi Aerospace Co Ltd | Remote control system |
JP5968178B2 (en) * | 2012-09-28 | 2016-08-10 | 三菱重工業株式会社 | Image processing apparatus for remote control, remote control system, and image processing method for remote control |
JP6279097B2 (en) | 2015-05-18 | 2018-02-14 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Control method and device for drone based on headless mode |
WO2017168472A1 (en) * | 2016-03-30 | 2017-10-05 | パナソニックIpマネジメント株式会社 | Position estimation device, position estimation method, and control program |
WO2018020680A1 (en) * | 2016-07-29 | 2018-02-01 | パイオニア株式会社 | Measurement device, measurement method, and program |
US10261514B2 (en) * | 2017-08-16 | 2019-04-16 | Uber Technologies, Inc. | Systems and methods for communicating autonomous vehicle scenario evaluation and intended vehicle actions |
US20210197808A1 (en) * | 2017-10-20 | 2021-07-01 | Hitachi, Ltd. | Moving body control system |
JP6843779B2 (en) * | 2018-01-16 | 2021-03-17 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | Unmanned aerial vehicle control methods and devices based on headless mode |
US10479356B1 (en) | 2018-08-17 | 2019-11-19 | Lyft, Inc. | Road segment similarity determination |
US10942030B2 (en) | 2018-08-17 | 2021-03-09 | Lyft, Inc. | Road segment similarity determination |
JP7052652B2 (en) * | 2018-09-06 | 2022-04-12 | トヨタ自動車株式会社 | Mobile robots, remote terminals, mobile robot control programs, and remote terminal control programs |
KR102202743B1 (en) * | 2019-03-05 | 2021-01-12 | 조동욱 | Method for generating zone map to apprehend the location of unnanned remote control car and control system of unmanned remote control car |
CN113614805B (en) * | 2019-03-29 | 2024-01-30 | 本田技研工业株式会社 | Display control device, display control method, and storage medium |
JP7242386B2 (en) * | 2019-03-29 | 2023-03-20 | 日産自動車株式会社 | Vehicle remote monitoring system, vehicle remote monitoring device, and vehicle remote monitoring method |
US11928557B2 (en) | 2019-06-13 | 2024-03-12 | Lyft, Inc. | Systems and methods for routing vehicles to capture and evaluate targeted scenarios |
US10625748B1 (en) | 2019-06-28 | 2020-04-21 | Lyft, Inc. | Approaches for encoding environmental information |
US11449475B2 (en) | 2019-06-28 | 2022-09-20 | Lyft, Inc. | Approaches for encoding environmental information |
US11157007B2 (en) | 2019-06-28 | 2021-10-26 | Lyft, Inc. | Approaches for encoding environmental information |
JP7238670B2 (en) * | 2019-07-23 | 2023-03-14 | トヨタ自動車株式会社 | image display device |
CN112445204B (en) * | 2019-08-15 | 2023-09-26 | 长沙智能驾驶研究院有限公司 | Object movement navigation method and device in construction site and computer equipment |
JP7276023B2 (en) * | 2019-09-06 | 2023-05-18 | トヨタ自動車株式会社 | Vehicle remote instruction system and self-driving vehicle |
US11788846B2 (en) | 2019-09-30 | 2023-10-17 | Lyft, Inc. | Mapping and determining scenarios for geographic regions |
US12039785B2 (en) | 2019-10-23 | 2024-07-16 | Lyft, Inc. | Approaches for encoding environmental information |
US11816900B2 (en) | 2019-10-23 | 2023-11-14 | Lyft, Inc. | Approaches for encoding environmental information |
CN111959495B (en) * | 2020-06-29 | 2021-11-12 | 阿波罗智能技术(北京)有限公司 | Vehicle control method and device and vehicle |
KR102407544B1 (en) * | 2020-09-25 | 2022-06-15 | 한국철도기술연구원 | self-driving vehicle remote control system and control method |
WO2023095345A1 (en) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | Obstacle detection device, obstacle detection method, and non-transitory computer-readable medium |
WO2023095344A1 (en) * | 2021-11-29 | 2023-06-01 | 日本電気株式会社 | Obstacle detection device, obstacle detection method, and non-transitory computer-readable medium |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104697B2 (en) * | 1987-07-29 | 1995-11-13 | 株式会社日立製作所 | Robot operation support system |
JP3489746B2 (en) * | 1994-02-16 | 2004-01-26 | 株式会社フジタ | Operation management system for work machines |
JP3474022B2 (en) * | 1995-04-20 | 2003-12-08 | 株式会社日立製作所 | Map display device, map display method, arithmetic processing unit for map display device, and navigation system |
JPH0962179A (en) * | 1995-08-25 | 1997-03-07 | Hitachi Ltd | Moving body navigation device |
JP2000343468A (en) * | 1999-05-31 | 2000-12-12 | Matsushita Electric Works Ltd | Robot remote-control equipment, recording medium used therefor, and robot remote-control system |
JP2002288637A (en) * | 2001-03-23 | 2002-10-04 | Honda Motor Co Ltd | Environmental information forming method |
JP4157731B2 (en) * | 2002-07-01 | 2008-10-01 | 日立アプライアンス株式会社 | Robot cleaner and robot cleaner control program |
JP4381205B2 (en) * | 2003-12-16 | 2009-12-09 | アルパイン株式会社 | Navigation device and map display method in the device |
JP2006113858A (en) * | 2004-10-15 | 2006-04-27 | Mitsubishi Heavy Ind Ltd | Method and system for supporting remote operation for mobile object |
JP2007002429A (en) * | 2005-06-21 | 2007-01-11 | Hitachi Constr Mach Co Ltd | Self-propelled working machine and remote control system for self-propelled working machine |
JP2007226322A (en) * | 2006-02-21 | 2007-09-06 | Sharp Corp | Robot control system |
-
2008
- 2008-12-02 JP JP2008307006A patent/JP5473304B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010134499A (en) | 2010-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5473304B2 (en) | Remote location image display device, remote control device, vehicle control device, remote control system, remote control method, remote control program, vehicle control program, remote location image display method, remote location image display program | |
JP7210165B2 (en) | Method, device and display device for displaying virtual route | |
US10789845B2 (en) | Parking assistance method and parking assistance device | |
JP5057184B2 (en) | Image processing system and vehicle control system | |
US20050209776A1 (en) | Navigation apparatus and intersection guidance method | |
EP3553752A1 (en) | Information processing apparatus, information processing method, and computer-readable medium for generating an obstacle map | |
JP6886171B2 (en) | Map information creation device, map information creation program and map information creation method | |
CN117848356A (en) | Techniques for collaborative mapping between unmanned aerial vehicles and ground vehicles | |
CN112189225A (en) | Lane line information detection apparatus, method, and computer-readable recording medium storing computer program programmed to execute the method | |
JP2008074275A (en) | Operation assistant device, operation assistant system and operation assistant method | |
CN102208036A (en) | Vehicle position detection system | |
JP5557472B2 (en) | Road lane data generation device, road lane data generation method, and road lane data generation program | |
JP6583840B1 (en) | Inspection system | |
EP3799618B1 (en) | Method of navigating a vehicle and system thereof | |
JP2023067985A (en) | Information processing device, control method, program and storage medium | |
WO2023102911A1 (en) | Data collection method, data presentation method, data processing method, aircraft landing method, data presentation system and storage medium | |
US11754415B2 (en) | Sensor localization from external source data | |
JP2011215974A (en) | Image processing system | |
JP2020065141A (en) | Vehicle overhead image generation system and method thereof | |
JP2014211431A (en) | Navigation device, and display control method | |
JP2023100642A (en) | inspection system | |
WO2022165498A1 (en) | Methods and system for generating a lane-level map for an area of interest for navigation of an autonomous vehicle | |
US10568148B2 (en) | Systems and methods for communicating notices within a vehicle using a mobile device | |
JPWO2004048895A1 (en) | MOBILE NAVIGATION INFORMATION DISPLAY METHOD AND MOBILE NAVIGATION INFORMATION DISPLAY DEVICE | |
JP6681101B2 (en) | Inspection system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140107 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5473304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |