JP2016045825A - 画像表示システム - Google Patents

画像表示システム Download PDF

Info

Publication number
JP2016045825A
JP2016045825A JP2014171209A JP2014171209A JP2016045825A JP 2016045825 A JP2016045825 A JP 2016045825A JP 2014171209 A JP2014171209 A JP 2014171209A JP 2014171209 A JP2014171209 A JP 2014171209A JP 2016045825 A JP2016045825 A JP 2016045825A
Authority
JP
Japan
Prior art keywords
information
map
image display
environment
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014171209A
Other languages
English (en)
Other versions
JP6445808B2 (ja
Inventor
知浩 松本
Tomohiro Matsumoto
知浩 松本
宅原 雅人
Masahito Takuhara
雅人 宅原
黒田 淳
Atsushi Kuroda
淳 黒田
茂登 浅野
Shigeto Asano
茂登 浅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2014171209A priority Critical patent/JP6445808B2/ja
Publication of JP2016045825A publication Critical patent/JP2016045825A/ja
Application granted granted Critical
Publication of JP6445808B2 publication Critical patent/JP6445808B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instructional Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】遠隔操作基地にて操縦者が移動体を円滑でかつ安全に遠隔操縦するために必要とされる情報を追加できる画像表示システムを提供する。
【解決手段】UGV20が移動中に取得する3次元の環境マップβ20と事前取得マップαとをマッチング処理し、事前取得マップαには含まれるが、環境マップβ20には含まれない領域Z2に対応する統合対象情報を特定し、統合対象情報を領域Z1の環境マップβ20と統合した統合マップを生成し、これを画像表示部に表示させる。
【選択図】図6

Description

本発明は、遠隔操縦される移動体が取得した画像に追加の画像情報を付与して表示することのできる画像表示システムに関する。
車両、飛行体などの移動体を、移動体の周囲を直接は視認できない場所から遠隔操縦をする際に、移動体に備えたカメラで撮影した周辺の環境情報を操縦者が視認しながら、操縦を行うことがある。
ところが、移動体に搭載したカメラで撮影した映像だけでは視野が狭く、遠隔操縦するには情報が少なすぎる場合がある。
また、遠隔操縦においては通信帯域の制限上、情報の伝達に遅れが生じることがある。このため、操縦者が例えば障害物を認識する時が遅くれると、移動体が障害物に衝突する事故に発展することがある。この障害物が移動可能なものである場合には、当該障害物が大きな構造物の陰に隠れていても、それを認識できれば、あらかじめ速度を落とすことにより、未然に事故を防ぐことが可能である。
特開2013−211025号公報 特開2013−153280号公報
M Calonder, V Lepetit, C Strecha, P Fua - Computer Vision-ECCV 2010, Brief: Binary robust independent elementary features(2010)
特許文献1は、あらかじめ登録された地図データを、自立移動する移動体ロボットの取得した計測情報を用いて更新する手法を開示している。しかし、特許文献1は、更新された地図データを次回以降の移動体の運用時に使用することを想定している。
また、特許文献2は、遠隔操縦される移動体の制御システムにおいて、複数の車両にて取得された3次元マップデータを、遠隔操縦を行う側にある1つのサーバにて統合することで、各々の車両では未取得部分を補完し合い、全体のマップの生成を効率よく実施する手法を開示している。しかし、特許文献2においても、補完しきれない領域も存在する。
そこで本発明は、必要な情報を確実に統合できる画像表示システムを提供することを目的とする。
本発明における遠隔操縦における画像表示システムは、遠隔操縦される第1移動体が移動しながら周囲の環境の画像を取得し、取得した画像を前記遠隔操縦が行われる基地の画像表示部に表示するものである。
本発明の画像表示システムは、第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報を記憶する記憶部と、第1移動体が移動中に取得する第1環境情報、及び、第1移動体とは異なる第2移動体が移動中に取得する第2環境情報の一方又は双方と、記憶部に記憶されている事前取得情報と、のマッチング処理を通じて、事前取得情報には含まれるが、第1環境情報には含まれない統合対象情報を特定し、統合対象情報を第1環境情報に統合した統合情報を生成する情報統合部と、統合情報を表示する画像表示部と、を備えることを特徴とする。
本発明の画像表示システムによると、第1環境情報、及び、第2環境情報の一方又は双方を、第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報にマッチング処理する。したがって、本発明によると、必要とされる統合対象情報を欠くということがないため、必要な情報を確実に統合できる。
本発明の画像表示システムにおいて、統合の手法として少なくとも二つの形態を含んでいる。
一つ目の形態は、統合対象情報が、第1環境情報よりも外側の領域を占めている場合であり、この場合には、情報統合部は、第1環境情報の外側に統合対象情報を配置した統合情報を生成する。
この画像表示システムによると、遠隔操作基地にて第1移動体を遠隔操縦する操縦者が、第1環境情報よりも視野が拡大された表示を認識できるので、円滑でかつ安全に第1移動体を操縦することができる。
二つ目の形態は、統合対象情報が、第1移動体から隠れた領域に存在する場合である。
つまり、二つ目の形態は、統合対象情報が、第2移動体が取得する第2環境情報に含まれる一方、第1環境情報が取得される第1移動体に対して隠れた領域に存在する場合には、情報統合部は、第1環境情報上に統合対象情報を配置した統合情報を生成する。
この画像表示システムによると、例えば建造物の陰に隠れているために、第1移動体からは死角となる領域に存在する人を、第1環境情報に重畳して映し出すことができるので、遠隔操作基地にて遠隔操縦する操縦者は、人が道路に飛び出してくる恐れがあることを事前に把握することができる。これにより、操縦者は、円滑でかつ安全に第1移動体を操縦することができる。
二つ目の形態において、第1移動体が地表を走行する車両である場合には、第2移動体は飛行体であることが、第1移動体に対して隠れた領域の情報を取得する上で好ましい。
また、二つ目の形態における第2環境情報と事前取得情報のマッチング処理は、第2環境情報と事前取得情報のそれぞれを、複数の画素を含むグリッドに分割するとともに、分割された前記グリッドの各々の輝度を特定し、特定されたグリッド輝度にBRIEF特徴量を適用して行うことが好ましい。複数の画素を含む比較的粗いグリッドに分割し、グリッドごとに輝度を特定してBRIEF特徴量を適用するので、人の目視に近い感覚のマッチング処理を行うことができる。
本発明の画像表示システムによると、第1環境情報、及び、第2環境情報の一方又は双方を、第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報にマッチング処理する。したがって、本発明によると、必要とされる統合対象情報を欠くということがないため、必要な情報を確実に統合できる。
本発明の実施形態における画像表示システムの概要を示す平面図である。 図1の画像表示システムにおける主たる要素を示すブロック図である。 (a)は図1の遠隔操作基地の構成を示す図、(b)は図1の移動体20(UGV)の構成を示す図である。 図1の移動体30(UAV)の構成を示す図である。 本実施形態の第1機能及び第2機能を概念的に説明する図である。 本実施形態の第1機能の処理手順を、画像を用いて示す図である。 本実施形態の第2機能の処理手順を示し、(a)はグローバル座標系に基づく3次元点群データからなる事前取得マップαを示し、(b)は(a)をUAV30のカメラ座標系に変換した点群データを示す。 (a)は図7(b)の3次元の点群データから2次元の点群データを切り出す範囲を示し、(b)は切り出された2次元の点群データを示している。 第2機能におけるマッチング処理の手順を示す図である。 第2機能の処理手順を、画像を用いて示す図である。
以下、添付図面に示す実施形態に基づいてこの発明を詳細に説明する。
本実施形態に係る画像表示システム1は、図1に示すように、遠隔操作基地10に居る操縦者が移動体(第1移動体)20を遠隔操縦して道路Rを走行させる際に実行される。この画像表示システム1は、移動体20が遠隔操縦される前に予め作成された3次元の点群データからなる事前取得マップ(事前取得情報)αを保存しておく。事前取得マップαは、移動体20の移動が予定される移動領域について予め漏れなく取得されたものである。なお、図1は、平面図であり、表示が2次元となっている。
本実施形態は、この事前取得マップαを利用することにより、以下の第1機能と第2機能を実現する。
第1機能は、移動体20が実際に移動しながら取得した3次元の環境マップ(第1環境情報)β20と事前取得マップαとをマッチング処理し、環境マップβ20の検知範囲外の領域(統合対象情報)を事前取得マップαから補う統合処理を行う。そうすることにより、第1機能は、操縦者が視認できる範囲を拡大する。
また、第2機能は、移動体20とは異なる他の移動体30で取得した環境マップ(第2環境情報)β30と事前取得マップαとをマッチング処理し、環境マップβ20の上に環境マップβ30に含まれる特定の部位(統合対象情報)を重畳する統合処理を行う。そうすることで、第2機能は、移動体20の検知範囲からは建造物Bの陰になる領域に存在する物体ついても、操縦者が視認できるようになる。
なお、本実施形態において、移動体20は無人陸上車両(Unmanned Ground Vehicle:UGV)からなることを、また、移動体30は無人航空機(Unmanned Aerial/Air Vehicle:UAV)からなることを想定している。よって、以下では、移動体20をUGV20と、また、移動体30をUAV30と表記する。
図2に、第1機能及び第2機能を実行する画像表示システム1の主要な要素が掲げられているが、画像表示システム1は、環境マップβ20を作成する第1環境マップ作成部と、マップ統合部と、データ送受信部と、画像表示部と、を備える。
画像表示システム1は、事前取得マップαを記憶する事前取得マップ記憶部と、環境マップβ30を作成する第2環境マップ作成部と、を備える。
画像表示システム1は、第1機能を実現する場合には、第1環境マップ作成部で作成された環境マップβ20と事前取得マップαとをマップ統合部によりマッチング処理した後に、環境マップβ20の検知範囲外の領域を事前取得マップαから補う統合処理を行う。
画像表示システム1は、第2機能を実現する場合には、第2環境マップ作成部で作成された環境マップβ30と事前取得マップαとをマップ統合部によりマッチング処理した後に、環境マップβ20の上に環境マップβ30に含まれる特定の部位を重畳する統合処理を行う。
統合処理により統合された結果は、データ送受信部により画像表示部に向けて送信され、これを受信した画像表示部に表示される。
以上説明した主要な要素のうち、第1環境マップ作成部と、マップ統合部と、事前取得マップ記憶部は、UGV20が備え、画像表示部は、遠隔操作基地10が備え、第2環境マップ作成部は、UAV30が備え、データ送受信部は遠隔操作基地10とUGV20が共同で備える。ただし、この区分は一例であり、画像表示システム1の全体として以上の要素を備えていればよく、例えば、マップ統合部は、遠隔操作基地10に設けることもできる。
以下、以上の機能を実現するために遠隔操作基地10、UGV20及びUAV30が備える具体的な構成要素を順に説明する。
[遠隔操作基地10]
遠隔操作基地10は、UGV20及びUAV30を遠隔操縦する部位であり、操縦者が詰めている。遠隔操作基地10は、図3(a)に示すように、画像表示部11と、遠隔操作部13と、データ送受信部15と、を備えている。なお、遠隔操作基地10の機能は、CPU(Central Processing Unit)及びメモリ手段を備えるコンピュータ装置により実行できる。このことは、UGV20についても同様に当てはまる。また、遠隔操作基地10は、図3(a)が示す以外の機能を備えることができるが、画像表示システム1と直接的な関係がないため、記載を省略している。
画像表示部11は、UGV20により作成される統合マップを表示する。画像表示部11として、例えば液晶ディスプレイ(Liquid Crystal Display)、プロジェクタ(Projector)が適用される。画像表示部11は、図2の画像表示部に対応する。
遠隔操作部13は、UGV20及びUAV30のそれぞれの移動経路、移動速度を操作する部位であり、ステアリング等の操縦に必要な部材を備えている。
データ送受信部15は、UGV20及びUAV30との間で無線によるデータの送受信を担う。データ送受信部15は、UGV20のデータ送受信部26とともに、図2に示したデータ送受信部を構成する。
データ送受信部15がUGV20から受信する主要なデータとしては、UGV20にて作成される統合マップ(統合情報)に関するデータが掲げられる。
データ送受信部15がそれぞれのUGV20に向けて送信する主要なデータとしては、UGV20及びUAV30を遠隔操縦するのに必要な操作データが掲げられる。
[UGV20]
次に、UGV20について説明する。
UGV20は、遠隔操作基地10からの指令に基づいて、図1に示すように、建造物Bに囲まれた道路Rを走行する。なお、ここでは、一台のUGV20を示しているが、複数台のUGVを対象にすることができる。
UGV20は、図3(b)に示すように、走行情報取得部21、マップ作成部22、マップ統合部23、走行制御部24、位置情報取得部25、データ送受信部26及び記憶部27を備えている。
走行情報取得部21は、自身を搭載するUGV20が走行する環境に存在する被写体(例えば、構造物、人物、道路等)に関する情報を取得する。
走行情報取得部21は、撮像部21Aと物体検知部21Bとを備えている。
撮像部21Aは、例えばディジタルカメラからなり、UGV20の周囲に存在する被写体を撮像し、撮像した被写体の映像を取得する。ここで、撮像部21Aは、映像として、動画または静止画のいずれの形式により被写体を撮像してもよい。
物体検知部21Bは、UGV20の周囲に存在する被写体の3次元座標を測定するレーザレーダ装置からなる。物体検知部21Bは、移動体の周囲環境にレーザ光を照射し、照射したレーザ光が周囲環境にある被写体で反射されて自身に戻るまでの時間と、レーザ光の照射方向、つまり物体検知部21Bの姿勢とに基づいて、UGV20の周囲環境の3次元位置情報(3次元の点群データ)を、周囲をスキャンしながら繰り返し測定する。この3次元の点群データが環境マップβ20の一要素を構成する。
環境マップβ20を構成する3次元の点群データの位置座標値(x,y,z)は、物体検知部21Bを基準点にしており、相対的な位置ということができる。以下、この座標系をローカル座標系(local coordinate system)という。
なお、事前取得マップαは、3次元の点群データからなるところは環境マップβ20と同じであるが、グローバル座標系(global coordinate system)に基づいて位置座標値(X,Y,Z)が特定されているところが環境マップβ20と相違する。
マップ作成部22は、撮像部21Aで撮像した映像の色彩に基づいて、走行情報取得部21の物体検知部21Bで取得した3次元位置情報に着色を施して、3次元の環境マップβ20を作成する。この環境マップβ20は、レーザレーダの検知結果により生成された3次元の点群データから撮像部21Aにおける撮像視野相当の領域を切り出し、切り出された点群データに色情報が付加されたものである。
マップ作成部22が、図2に示した第1環境マップ作成部を構成する。
マップ統合部23は、図2に示したマップ統合部を構成するが、具体的な内容については、後述する。
走行制御部24は、遠隔操作基地10から送信される操作情報を、データ送受信部26を介して受信し、この操作情報に記載された制御の指示、例えば、UGV20のハンドル、アクセル、ブレーキ、クラッチ、ギヤシフト機器、エンジン始動装置などの操作機器の操作状態や、車速及び加速度などの指示に応じて、UGV20の走行を制御する。
位置情報取得部25は、UGV20の存在する位置(グローバル座標系(X,Y,Z)における座標値)及びUGV20の走行方向を示す向きを周期的に測定し、この車両の位置及び向きを示す位置情報を、マップ統合部23に出力する。位置情報取得部25は、例えば、GPS(Global Positioning System)により、UGV20の位置及び向きを測定することができる。このとき、位置情報取得部25は、GPSより得られる時刻毎のUGV20の存在する座標成分の時間的な変化に基づいて、車両の向き(移動方向)を測定することができる。なお、UGV20は地表を走行するので、座標値Zはゼロとして認識されることもある。
また、位置情報取得部25は、上述したGPSに限るものでなく、他の構成、例えば換え、速度センサ、3軸加速度センサ及び3軸ジャイロ(回転角センサ)を備えるIMU(Inertial Measurement Unit:慣性計測装置)を採用することもできる。
記憶部27は、事前取得マップαを記憶しており、図2の事前取得マップ記憶部に相当する。事前取得マップαは、UGV20が走行しうる環境の全領域を漏らすことなく、予めUGV20を走行させながら取得した3次元の点群データと色情報からなる。
事前取得マップαは、基本的には環境マップβ20と同様にして作成されるものであるが、前述したように、グローバル座標系(X,Y,Z)により各点が特定される。このように、事前取得マップαをグローバル座標系で特定することにより、環境マップβ20と事前取得マップαとのマッチングを可能にする。
[UAV30]
次に、UAV30について説明する。
UAV30は、UGV20が移動する環境の上空を飛行する。UAV30は、UGV20では取得することのできない領域を含む環境情報を取得する。取得された情報に基づく環境マップβ30は、第2機能において、UGV20で作成された環境マップβ20に統合され得る。
UAV30は、図4に示すように、飛行情報取得部31、マップ作成部32、飛行制御部34、位置情報取得部35、データ送受信部36及びを備えている。UAV30は、マップ統合部23を備えない点、及び、走行が飛行に置き換えられる点を除いて、UGV20と同様であり、以下では、概要のみを説明する。
飛行情報取得部31は、自身を搭載するUAV30が飛行している間に、UGV20が走行する環境の情報を上空から取得するものであり、UGV20の走行情報取得部21に対応する部位である。そのために、走行情報取得部21は、撮像部31Aと物体検知部31Bを備えている。ただし、飛行情報取得部31は、UGV20では取得できない領域の情報を取得することを主旨とする。
撮像部31Aは、撮像部21Aに対応する部位であり、上空から地表にある被写体の映像を取得する。
物体検知部31Bは、物体検知部21Bに対応する部位であり、地表環境の3次元座標を上空から測定するレーザレーダ装置からなり、得られた3次元の点群データが環境マップβ30の基礎をなす。この環境マップβ30を構成する3次元の点群データの位置座標値(x,y,z)は、物体検知部31Bを基準点にしており、環境マップβ20と同様に、ローカル座標系による。
マップ作成部32は、撮像部31Aで撮像した映像の色彩に基づいて、物体検知部31Bで取得した3次元位置情報に着色を施して、3次元の環境マップβ30を作成する。この環境マップβ30も、レーザレーダの検知結果により生成された3次元の点群データから撮像部31Aにおける撮像視野相当の領域を切り出し、切り出された点群データに色情報が付加されたものである。
飛行制御部34は、遠隔操作基地10から送信される操作情報を、データ送受信部36を介して受信し、この操作情報に記載された制御の指示、飛行速度及び加速度などの指示に応じて、UAV30の移動を制御する。
位置情報取得部35は、UAV30の存在する位置の存在する位置(グローバル座標系(X,Y,Z)における座標値)及びUGV20の走行方向を示す向きを周期的に測定し、このUAV30の位置及び向きを示す位置情報を、UGV20のマップ統合部23に出力する。位置情報取得部35は、位置情報取得部25と同様の機器により構成することができる。
[マップ統合部23の動作]
さて、次に、本実施形態の特徴であるマップ統合部23の動作について、図5〜図10を参照して説明する。
はじめに、図5を参照して、マップ統合部23で実現される第1機能及び第2機能を概念的に説明する。
いま、UGV20は、走行しながら走行情報取得部21により環境情報を取得しており、走行情報取得部21による撮像範囲及び点群データの取得範囲が領域Z1だとする。この場合、遠隔操作基地10の画像表示部11に映し出される環境マップβ20は領域Z1の範囲に限られる。
遠隔操作基地10に居る操縦者は、領域Z1だけではUGV20を円滑に操縦するには狭いと感じることがある。そこで、画像表示システム1は、第1機能として、領域Z1よりも拡大した領域Z2を画像表示部11に映し出す。
また、図5において、UGV20を基準にすると、B1で特定される建造物の背後に移動しうる障害物(例えば人)Hが隠れているものとする。この障害物Hは、UGV20が建造物B1に差し掛かった時に、建造物B1が臨む道路Rに飛び出す恐れがある。ところが、障害物Hは、建造物B1の背後にいるから、領域Z1に対応する環境マップβ20に映し出されることはない。そこで、画像表示システム1は、第2機能として、障害物Hを含む領域Z3に関する環境マップβ30をUAV30にて作成し、かつ、障害物Hを環境マップβ20に重畳して映し出す。
以下、第1機能及び第2機能の順に説明する。
[第1機能の実行手順]
マップ統合部23は、マップ作成部22で作成された環境マップβ20と記憶部27に記憶されている事前取得マップαとをマッチング処理する。ただし、環境マップβ20はローカル座標系で特定され、事前取得マップαはグローバル座標系で特定されているので、マップ統合部23は、マッチング処理に先立って、座標変換を行う。座標変換は、位置情報取得部25で取得されたUGV20のグローバル座標系による位置及び向きを用いて行われる。つまり、UGV20から環境マップβ20を構成するローカル座標系による点群データの各々の点までの距離及び向きは既知であり、一方、グローバル座標系によるUGV20の位置及び向きも既知であるから、ローカル座標系による点群データをグローバル座標系の座標値に変換することができる。
マップ統合部23は、座標変換された環境マップβ20と事前取得マップαとをマッチング処理する。このマッチング処理は、両者が共通するグローバル座標系による座標値を用い、環境マップβ20の座標値と事前取得マップαの座標値が一致するように行われる。
環境マップβ20がマッチングされた事前取得マップαは、環境マップβ20の周囲に環境マップβ20には含まれていない点群データを備えている。ここで、環境マップβ20が前述した領域Z1に対応し、環境マップβ20の周囲に存在する事前取得マップαの点群データが前述した領域Z2を含む。
マップ統合部23は、事前取得マップαにおける当該周囲の点群データから、環境マップβ20に統合する範囲、つまり領域Z2を設定し、その範囲の点群データを切り出すとともに、切り出された点群データを環境マップβ20に統合する。統合されたマップは、データ送受信部26と遠隔操作基地10のデータ送受信部15を介して送信され、遠隔操作基地10の画像表示部11に映し出される。
図6に、画像表示部11に映し出される統合マップの一例を示す。図6に示すように、領域Z1に環境マップβ20に対応する映像が、また、領域Z2に事前取得マップαから切り出された点群データが映し出されている。
画像表示部11に映し出される統合マップは、環境マップβ20だけでは視認できない範囲を含んでいるので、操縦者がUGV20を円滑に操縦するのに寄与する。
以上の第1機能において、事前取得マップαから切り出す領域Z2の範囲を設定する方法は任意である。例えば、固定された範囲を予めマップ統合部23に設定しておくことができるし、複数の範囲から操縦者が選択できるようにしておき、UGV20の操縦を開始してから操縦者が選択することができる。
また、以上の第1機能の画像の統合として、マッチング処理を行った後に、事前取得マップαから領域Z1と領域Z2の合せた範囲の領域を切り出して画像表示部11に表示させることが可能である。また、事前取得マップαから領域Z1と領域Z2の合せた範囲の領域を切り出し、次いで、マッチング処理をすることもできる。
[第2機能の実行手順]
次に、第2機能について説明する。
マップ統合部23は、UGV20が走行中に作成する環境マップβ20とUAV30が飛行中に作成する環境マップβ30を、以下説明する手順で統合する。
始めに、マップ統合部23は、3次元の点群データである事前取得マップαを取得する。この点群データの各点はグローバル座標系による座標位置が特定されるが、これをUAV30の撮像部31Aを基準とする座標系に基づく3次元の点群データに変換する。この撮像部31Aを基準とする座標系を、UAVカメラ座標系と称する。なお、図7(a)にグローバル座標系による点群データ(事前取得マップα)の一例を、図7(b)にUAVカメラ座標系に変換された点群データの一例を示している。
この変換は、事前取得マップαを構成する各点を、UAV30の座標位置(x,y,z)及び姿勢(roll,pitch,yaw)から、平行移動及び回転を組み合せることで行うことができる。なお、UAV30の前後、左右及び上下が定まっているときに、roll(ロール)は前後を軸にした回転を、pitch(ピッチ)は左右を軸にした回転を、また、yaw(ヨー)は上下を軸にした回転により、姿勢を示す。
次に、マップ統合部23は、UAVカメラ座標系に変換された3次元の点群データから、所定の領域を抽出し、それを2次元化する。
この所定の領域の抽出は、UAV30の撮像部31Aによる撮像の画角よりも大きい範囲に対して行われる。例えば、図8(a)に示すように、撮像部31Aの画角をθx,θyとすると、抽出される領域は、θx+ax,θy+ayで特定される範囲とする。角度ax,角度ayで表されるマージンは、点群データの誤差を考慮したものであり、それぞれyaw,pitchの精度(例えば誤差の3σ)を基準にして設定される。
抽出された領域を2次元データであるマッチング用マップγ(図8(b))に変換する。この変換は、以下の手順で行うことができる。
手順1:2次元データとする画像サイズ(横Mピクセル×縦Nピクセル)を決定する。
手順2:1ピクセル当たりの角度を、以下に従って算出する。
dθx = (θx+ax)/M
dθy = (θy+ay)/N
手順3:画素(m,n)の色情報は例えば次の物を選択する。ただし、m,nは以下の通り。
0≦m≦M−1,0≦n≦N−1
撮像部31A(カメラ)から見たとき、以下のヨー及びピッチの中に含まれる点群情報において、カメラからの距離が最も近い点群の色情報。
ヨー :−(θx+ax)/2+m×dθx 〜 −(θx+ax)/2+(m+1)×dθx
ピッチ:−(θy+ay)/2+n×dθy 〜 −(θy+ay)/2+(n+1)×dθy
次に、マップ統合部23は、2次元データであるマッチング用マップγとUAV30の撮像部31Aが取得した2次元の映像γ30とをマッチング処理する。このマッチング処理を、図9を参照して説明する。
図9に示すように、マッチング用マップγからマッチング用マップγ20を切り出し、マッチング用マップγ20を映像γ30とのマッチング処理の対象にする。マッチング用マップγ20は、映像γ30と同じサイズに切り出される。このとき、事前取得マップαの許容される範囲で切り出す位置を1グリットずつずらしながら、複数のマッチング用マップγ20を切り出す。切り出された複数のマッチング用マップγ20の各々が、映像γ30とマッチング処理される。
マッチング用マップγ20と映像γ30は、各々の画像を複数のグリッドGに分割する。分割するサイズは、マッチング用マップγ20と映像γ30で同じにする。なお、一つのグリッドGは、複数の画素(pixel)から構成されるものとし、例えば2画素×2画素あるいは4画素×4画素で1グリッドを構成する。
マッチング用マップγ20と映像γ30の各々において、分割された各グリッドGの平均輝度Laveを算出し、これを当該グリッドGの輝度とする。
以上の処理は、マッチング用マップγ20については、複数のマッチング用マップγ20の全てについて行われる。
次に、各グリッドGの平均輝度Laveが特定されたマッチング用マップγ20と映像γ30に、BREIF特徴量を適用して、これをマッチング処理のための特徴量とする。BREIF特徴量は、図9に示すように、「0」と「1」の二進数で特定される数列データであり、マッチング用マップγ20と映像γ30の対応するビット同士でANDを取る。より詳しい内容は、非特許文献1を参照願いたい。
以上のANDを取るところまでの処理を、複数のマッチング用マップγ20の各々と映像γ30の間で行い、ANDの結果が最大となるマッチング用マップγ20を切り出した位置をマッチング位置とする。
本実施形態のマッチング処理は、一般的には局所的、具体的には画素単位に使用するBREIF特徴量を、画素よりもサイズの大きいグリッドGに適用している所に特徴を有している。つまり、本実施形態のマッチング処理は、サイズの大きいグリッドG毎に平均輝度Laveを与えることで、マッチング用マップγ20の全体及び映像γ30の全体を、人間が目視する感覚に近づけることを意図している。
以上のようにして、マッチング位置が特定されたならば、マップ統合部23は、第2機能における画像の統合を行う。具体的には、映像γ30がマッチング用マップγ20からは死角に当たる場所である場合であって、映像γ30に現れる特定の部位をマッチング用マップγ20の上に表示させる。
以下、図10を参照して説明する。
図10(a)は映像γ30に相当し、この画像の中に映し出されている人Hを環境マップβ20中に表示させることを目的とする。この映像γ30は、UAV30のカメラで撮影された2次元の画像データである。
図10(a)の画像データを、上述したマッチング手法に従って、マッチング用マップγ20とマッチングする。これにより、図10(b)に示すように、マッチング用マップγ20における人Hの位置を特定することができる。ただし、特定される位置はUAVカメラ座標系の座標値(x,y,z)に従うものであり、これをグローバル座標系に座標変換する。そうすると、事前取得マップαにおける人Hの存在位置がグローバル座標値(X,Y,Z)により特定される。
図10(b)は、UAV30を視点とする画像であるため、マップ統合部23は、この画像をUGV20が視点となる画像に変換する。つまり、マップ統合部23は、UGV20で作成された環境マップβ20と事前取得マップαをマッチング処理し、環境マップβ20に一致する事前取得マップαの領域を特定する。こうしてマッチングすることにより、環境マップβ20を構成する点群データをグローバル座標系(X,Y,Z)で示すことができるので、その座標系にグローバル座標値(X,Y,Z)で特定される人Hを重畳する。そうすると、図10(c)に示すように、本来は死角になって見えない人Hを環境マップβ20に示すことができる。
なお、本実施形態において、環境マップβ20と事前取得マップαのマッチング処理を行った後に、事前取得マップαから当該範囲の画像を切り出して画像表示部11に表示させることも可能である。つまり、この場合には、マッチング処理は事前取得マップαから映し出す範囲を特定するために必要であるが、映し出されるのは事前取得マップα(人Hを含む)の特定の範囲である。
図10(c)に示す環境マップβ30の一部(人H)を環境マップβ20に統合した画像は、UGV20から遠隔操作基地10に送信され、図10(d)に示すように、UGV20の撮像部21Aで取得した映像に重畳して画像表示部11に映し出される。画像表示部11に映し出される映像は、環境マップβ20だけでは視認できない範囲を含んでいるので、操縦者は人Hが道路Rに飛び出してくる恐れがあることを事前に把握することができる。
以上説明したように、本実施形態の画像表示システム1は、事前取得マップαを備えておき、これと環境マップβ20、環境マップβ30を適宜マッチング処理することを通じて、環境マップβ20よりも視野が拡大された表示を実現し、又は、UGV20からでは死角の部分に存在する人Hをも環境マップβ20とともに映し出すことができる。したがって、遠隔操作基地10にてUGV20を遠隔操縦する操縦者は、この画像を参照することにより、円滑でかつ安全にUGV20を操縦することができる。
以上、本発明の好適な実施形態を説明したが、本発明の主旨を逸脱しない限り、上記実施形態で挙げた構成を取捨選択したり、他の構成に適宜変更したりすることが可能である。
1 画像表示システム
10 遠隔操作基地
11 画像表示部
13 遠隔操作部
15 データ送受信部
20 移動体,UGV
21 環境情報取得部
21A 撮像部
21B 物体検知部
22 マップ作成部
23 マップ統合部
24 走行制御部
25 位置情報取得部
26 データ送受信部
27 記憶部
30 移動体,UAV
31 飛行情報取得部
31A 撮像部
31B 物体検知部
32 マップ作成部
34 飛行制御部
35 位置情報取得部
36 データ送受信部
B,B1 建造物
R 道路
α 事前取得マップ
β20 環境マップ
β30 環境マップ
γ,γ20 マッチング用マップ
γ30 映像

Claims (5)

  1. 遠隔操縦される第1移動体が移動しながら周囲の環境の画像を取得し、取得した画像を前記遠隔操縦が行われる基地の画像表示部に表示する、遠隔操縦における画像表示システムであり、
    前記第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報を記憶する記憶部と、
    前記第1移動体が移動中に取得する第1環境情報、及び、前記第1移動体とは異なる第2移動体が移動中に取得する第2環境情報の一方又は双方と、前記記憶部に記憶されている事前取得情報と、のマッチング処理を通じて、前記事前取得情報には含まれるが、第1環境情報には含まれない統合対象情報を特定し、前記統合対象情報を前記第1環境情報に統合した統合情報を生成する情報統合部と、
    前記統合情報を表示する画像表示部と、
    を備えることを特徴とする画像表示システム。
  2. 前記統合対象情報は、
    前記第1環境情報よりも外側の領域を占めており、
    前記情報統合部は、
    前記第1環境情報の前記外側に前記統合対象情報を配置した前記統合情報を生成する、
    請求項1に記載の画像表示システム。
  3. 前記統合対象情報は、
    前記第2移動体が取得する第2環境情報に含まれる一方、前記第1環境情報が取得される前記第1移動体に対して隠れた領域に存在し、
    前記情報統合部は、
    前記第1環境情報上に前記統合対象情報を配置した前記統合情報を生成する、
    請求項1に記載の画像表示システム。
  4. 前記第1移動体は地表を走行する車両であり、前記第2移動体は飛行体である、
    請求項3に記載の画像表示システム。
  5. 前記第2環境情報と前記事前取得情報のマッチング処理は、
    前記第2環境情報と前記事前取得情報のそれぞれを、複数の画素を含むグリッドに分割するとともに、分割された前記グリッドの各々の輝度を特定し、
    特定されたグリッド輝度にBRIEF特徴量を適用して行う、
    請求項3又は4に記載の画像表示システム。
JP2014171209A 2014-08-26 2014-08-26 画像表示システム Active JP6445808B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014171209A JP6445808B2 (ja) 2014-08-26 2014-08-26 画像表示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171209A JP6445808B2 (ja) 2014-08-26 2014-08-26 画像表示システム

Publications (2)

Publication Number Publication Date
JP2016045825A true JP2016045825A (ja) 2016-04-04
JP6445808B2 JP6445808B2 (ja) 2018-12-26

Family

ID=55636305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171209A Active JP6445808B2 (ja) 2014-08-26 2014-08-26 画像表示システム

Country Status (1)

Country Link
JP (1) JP6445808B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028807A (ja) * 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体
JP2019125345A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム
CN110223380A (zh) * 2019-06-11 2019-09-10 中国科学院自动化研究所 融合航拍与地面视角图像的场景建模方法、系统、装置
JP2019200351A (ja) * 2018-05-17 2019-11-21 三菱重工業株式会社 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法
JP2020021257A (ja) * 2018-07-31 2020-02-06 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
CN111553844A (zh) * 2020-04-29 2020-08-18 北京百度网讯科技有限公司 用于更新点云的方法及装置
JP2020170293A (ja) * 2019-04-02 2020-10-15 株式会社Ihiエアロスペース 画像表示方法及び遠隔操縦システム
JP2022055024A (ja) * 2020-09-28 2022-04-07 株式会社日立製作所 操縦支援装置
CN114633884A (zh) * 2022-03-28 2022-06-17 吉林大学 一种陆空协同侦查探测系统
JP7492756B2 (ja) 2022-03-18 2024-05-30 株式会社ブレインズ 電波源端末位置検出システム及び電波源端末位置検出方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195941A (ja) * 2001-12-26 2003-07-11 Matsushita Electric Ind Co Ltd 移動体を移動させるサービスを提供する方法
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2005239048A (ja) * 2004-02-27 2005-09-08 Denso Corp 駐車支援システム
JP2007164549A (ja) * 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2009122859A (ja) * 2007-11-13 2009-06-04 Toyota Motor Corp 物体検出装置
US20110103651A1 (en) * 2008-07-31 2011-05-05 Wojciech Tomasz Nowak Computer arrangement and method for displaying navigation data in 3d
WO2014102995A1 (ja) * 2012-12-28 2014-07-03 株式会社日立製作所 モニタリングシステム、方法およびプログラムを記憶した情報記録媒体
JPWO2012131871A1 (ja) * 2011-03-28 2014-07-24 パイオニア株式会社 情報表示装置及び制御方法
JP2014139538A (ja) * 2013-01-21 2014-07-31 Mitsubishi Heavy Ind Ltd 地形情報取得装置、地形情報取得システム、地形情報取得方法及びプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003195941A (ja) * 2001-12-26 2003-07-11 Matsushita Electric Ind Co Ltd 移動体を移動させるサービスを提供する方法
JP2003319383A (ja) * 2002-04-24 2003-11-07 Equos Research Co Ltd 車載画像処理装置
JP2005239048A (ja) * 2004-02-27 2005-09-08 Denso Corp 駐車支援システム
JP2007164549A (ja) * 2005-12-15 2007-06-28 Hitachi Ltd 撮像装置、映像信号の選択装置、運転支援装置、自動車
JP2009122859A (ja) * 2007-11-13 2009-06-04 Toyota Motor Corp 物体検出装置
US20110103651A1 (en) * 2008-07-31 2011-05-05 Wojciech Tomasz Nowak Computer arrangement and method for displaying navigation data in 3d
JPWO2012131871A1 (ja) * 2011-03-28 2014-07-24 パイオニア株式会社 情報表示装置及び制御方法
WO2014102995A1 (ja) * 2012-12-28 2014-07-03 株式会社日立製作所 モニタリングシステム、方法およびプログラムを記憶した情報記録媒体
JP2014139538A (ja) * 2013-01-21 2014-07-31 Mitsubishi Heavy Ind Ltd 地形情報取得装置、地形情報取得システム、地形情報取得方法及びプログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028807A (ja) * 2017-07-31 2019-02-21 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体
JP2019125345A (ja) * 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム
JP7341652B2 (ja) 2018-01-12 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム
JP7109253B2 (ja) 2018-05-17 2022-07-29 三菱重工業株式会社 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法
JP2019200351A (ja) * 2018-05-17 2019-11-21 三菱重工業株式会社 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法
JP2020021257A (ja) * 2018-07-31 2020-02-06 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP7139762B2 (ja) 2018-07-31 2022-09-21 カシオ計算機株式会社 自律移動装置、自律移動方法及びプログラム
JP2020170293A (ja) * 2019-04-02 2020-10-15 株式会社Ihiエアロスペース 画像表示方法及び遠隔操縦システム
CN110223380A (zh) * 2019-06-11 2019-09-10 中国科学院自动化研究所 融合航拍与地面视角图像的场景建模方法、系统、装置
JP7242738B2 (ja) 2020-04-29 2023-03-20 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 点群を更新するための方法、点群を更新するための装置、電子機器、非一時的コンピュータ可読記憶媒体及びコンピュータプログラム
JP2021168129A (ja) * 2020-04-29 2021-10-21 北京百度網訊科技有限公司 点群を更新するための方法及び装置
CN111553844B (zh) * 2020-04-29 2023-08-29 阿波罗智能技术(北京)有限公司 用于更新点云的方法及装置
CN111553844A (zh) * 2020-04-29 2020-08-18 北京百度网讯科技有限公司 用于更新点云的方法及装置
US11828606B2 (en) 2020-04-29 2023-11-28 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for updating point cloud
JP2022055024A (ja) * 2020-09-28 2022-04-07 株式会社日立製作所 操縦支援装置
JP7374060B2 (ja) 2020-09-28 2023-11-06 株式会社日立製作所 操縦支援装置
JP7492756B2 (ja) 2022-03-18 2024-05-30 株式会社ブレインズ 電波源端末位置検出システム及び電波源端末位置検出方法
CN114633884A (zh) * 2022-03-28 2022-06-17 吉林大学 一种陆空协同侦查探测系统

Also Published As

Publication number Publication date
JP6445808B2 (ja) 2018-12-26

Similar Documents

Publication Publication Date Title
JP6445808B2 (ja) 画像表示システム
US11106203B2 (en) Systems and methods for augmented stereoscopic display
US10678238B2 (en) Modified-reality device and method for operating a modified-reality device
EP3368957B1 (en) Systems and methods for uav path planning and control
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
US10546560B2 (en) Systems and methods for presenting virtual content in a vehicle
US9880551B2 (en) Point-and-click control of unmanned, autonomous vehicle using omni-directional visors
KR101515496B1 (ko) 가상현실에서 변동되는 장애물 정보를 반영한 무인 자동차의 자율 주행 시뮬레이션 시스템
WO2017143588A1 (en) Systems and methods for adjusting uav trajectory
US8854422B2 (en) Apparatus for rendering surroundings and vehicle having such an apparatus for rendering surroundings and method for depicting panoramic image
US8314816B2 (en) System and method for displaying information on a display element
IL188655A (en) System and method for navigating a remote control vehicle past obstacles
US20190179346A1 (en) System and method for positioning a movable object
WO2023102911A1 (zh) 数据采集方法、数据展示方法、数据处理方法、飞行器的降落方法、数据展示系统及存储介质
EP2523062B1 (en) Time phased imagery for an artificial point of view
US11573565B2 (en) Controller for an unmanned aerial vehicle
JP5968178B2 (ja) 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法
CN112882645B (zh) 航道规划方法、控制端、飞行器及航道规划系统
US20220244726A1 (en) Information processing apparatus, information processing method, and program
KR101027533B1 (ko) 영상 감시 장치 및 그 방법
WO2021140916A1 (ja) 移動体、情報処理装置、情報処理方法、及びプログラム
EP4040377A2 (en) Display systems and methods
US12033528B2 (en) Display systems and methods
US10516815B2 (en) Image processing system
CN115063559A (zh) 增强现实ar路况的生成方法、装置及车载ar系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181130

R150 Certificate of patent or registration of utility model

Ref document number: 6445808

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150