JP2016045825A - 画像表示システム - Google Patents
画像表示システム Download PDFInfo
- Publication number
- JP2016045825A JP2016045825A JP2014171209A JP2014171209A JP2016045825A JP 2016045825 A JP2016045825 A JP 2016045825A JP 2014171209 A JP2014171209 A JP 2014171209A JP 2014171209 A JP2014171209 A JP 2014171209A JP 2016045825 A JP2016045825 A JP 2016045825A
- Authority
- JP
- Japan
- Prior art keywords
- information
- map
- image display
- environment
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010354 integration Effects 0.000 claims abstract description 61
- 238000012545 processing Methods 0.000 claims abstract description 15
- 230000007613 environmental effect Effects 0.000 claims abstract description 6
- 238000000034 method Methods 0.000 claims description 40
- 238000003860 storage Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 31
- 238000003384 imaging method Methods 0.000 description 23
- 238000001514 detection method Methods 0.000 description 18
- 230000005540 biological transmission Effects 0.000 description 16
- 238000006243 chemical reaction Methods 0.000 description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000004040 coloring Methods 0.000 description 2
- 238000005520 cutting process Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Landscapes
- Instructional Devices (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【解決手段】UGV20が移動中に取得する3次元の環境マップβ20と事前取得マップαとをマッチング処理し、事前取得マップαには含まれるが、環境マップβ20には含まれない領域Z2に対応する統合対象情報を特定し、統合対象情報を領域Z1の環境マップβ20と統合した統合マップを生成し、これを画像表示部に表示させる。
【選択図】図6
Description
ところが、移動体に搭載したカメラで撮影した映像だけでは視野が狭く、遠隔操縦するには情報が少なすぎる場合がある。
また、遠隔操縦においては通信帯域の制限上、情報の伝達に遅れが生じることがある。このため、操縦者が例えば障害物を認識する時が遅くれると、移動体が障害物に衝突する事故に発展することがある。この障害物が移動可能なものである場合には、当該障害物が大きな構造物の陰に隠れていても、それを認識できれば、あらかじめ速度を落とすことにより、未然に事故を防ぐことが可能である。
また、特許文献2は、遠隔操縦される移動体の制御システムにおいて、複数の車両にて取得された3次元マップデータを、遠隔操縦を行う側にある1つのサーバにて統合することで、各々の車両では未取得部分を補完し合い、全体のマップの生成を効率よく実施する手法を開示している。しかし、特許文献2においても、補完しきれない領域も存在する。
そこで本発明は、必要な情報を確実に統合できる画像表示システムを提供することを目的とする。
本発明の画像表示システムは、第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報を記憶する記憶部と、第1移動体が移動中に取得する第1環境情報、及び、第1移動体とは異なる第2移動体が移動中に取得する第2環境情報の一方又は双方と、記憶部に記憶されている事前取得情報と、のマッチング処理を通じて、事前取得情報には含まれるが、第1環境情報には含まれない統合対象情報を特定し、統合対象情報を第1環境情報に統合した統合情報を生成する情報統合部と、統合情報を表示する画像表示部と、を備えることを特徴とする。
一つ目の形態は、統合対象情報が、第1環境情報よりも外側の領域を占めている場合であり、この場合には、情報統合部は、第1環境情報の外側に統合対象情報を配置した統合情報を生成する。
この画像表示システムによると、遠隔操作基地にて第1移動体を遠隔操縦する操縦者が、第1環境情報よりも視野が拡大された表示を認識できるので、円滑でかつ安全に第1移動体を操縦することができる。
つまり、二つ目の形態は、統合対象情報が、第2移動体が取得する第2環境情報に含まれる一方、第1環境情報が取得される第1移動体に対して隠れた領域に存在する場合には、情報統合部は、第1環境情報上に統合対象情報を配置した統合情報を生成する。
この画像表示システムによると、例えば建造物の陰に隠れているために、第1移動体からは死角となる領域に存在する人を、第1環境情報に重畳して映し出すことができるので、遠隔操作基地にて遠隔操縦する操縦者は、人が道路に飛び出してくる恐れがあることを事前に把握することができる。これにより、操縦者は、円滑でかつ安全に第1移動体を操縦することができる。
また、二つ目の形態における第2環境情報と事前取得情報のマッチング処理は、第2環境情報と事前取得情報のそれぞれを、複数の画素を含むグリッドに分割するとともに、分割された前記グリッドの各々の輝度を特定し、特定されたグリッド輝度にBRIEF特徴量を適用して行うことが好ましい。複数の画素を含む比較的粗いグリッドに分割し、グリッドごとに輝度を特定してBRIEF特徴量を適用するので、人の目視に近い感覚のマッチング処理を行うことができる。
本実施形態に係る画像表示システム1は、図1に示すように、遠隔操作基地10に居る操縦者が移動体(第1移動体)20を遠隔操縦して道路Rを走行させる際に実行される。この画像表示システム1は、移動体20が遠隔操縦される前に予め作成された3次元の点群データからなる事前取得マップ(事前取得情報)αを保存しておく。事前取得マップαは、移動体20の移動が予定される移動領域について予め漏れなく取得されたものである。なお、図1は、平面図であり、表示が2次元となっている。
本実施形態は、この事前取得マップαを利用することにより、以下の第1機能と第2機能を実現する。
第1機能は、移動体20が実際に移動しながら取得した3次元の環境マップ(第1環境情報)β20と事前取得マップαとをマッチング処理し、環境マップβ20の検知範囲外の領域(統合対象情報)を事前取得マップαから補う統合処理を行う。そうすることにより、第1機能は、操縦者が視認できる範囲を拡大する。
また、第2機能は、移動体20とは異なる他の移動体30で取得した環境マップ(第2環境情報)β30と事前取得マップαとをマッチング処理し、環境マップβ20の上に環境マップβ30に含まれる特定の部位(統合対象情報)を重畳する統合処理を行う。そうすることで、第2機能は、移動体20の検知範囲からは建造物Bの陰になる領域に存在する物体ついても、操縦者が視認できるようになる。
なお、本実施形態において、移動体20は無人陸上車両(Unmanned Ground Vehicle:UGV)からなることを、また、移動体30は無人航空機(Unmanned Aerial/Air Vehicle:UAV)からなることを想定している。よって、以下では、移動体20をUGV20と、また、移動体30をUAV30と表記する。
画像表示システム1は、事前取得マップαを記憶する事前取得マップ記憶部と、環境マップβ30を作成する第2環境マップ作成部と、を備える。
画像表示システム1は、第2機能を実現する場合には、第2環境マップ作成部で作成された環境マップβ30と事前取得マップαとをマップ統合部によりマッチング処理した後に、環境マップβ20の上に環境マップβ30に含まれる特定の部位を重畳する統合処理を行う。
統合処理により統合された結果は、データ送受信部により画像表示部に向けて送信され、これを受信した画像表示部に表示される。
[遠隔操作基地10]
遠隔操作基地10は、UGV20及びUAV30を遠隔操縦する部位であり、操縦者が詰めている。遠隔操作基地10は、図3(a)に示すように、画像表示部11と、遠隔操作部13と、データ送受信部15と、を備えている。なお、遠隔操作基地10の機能は、CPU(Central Processing Unit)及びメモリ手段を備えるコンピュータ装置により実行できる。このことは、UGV20についても同様に当てはまる。また、遠隔操作基地10は、図3(a)が示す以外の機能を備えることができるが、画像表示システム1と直接的な関係がないため、記載を省略している。
データ送受信部15がUGV20から受信する主要なデータとしては、UGV20にて作成される統合マップ(統合情報)に関するデータが掲げられる。
データ送受信部15がそれぞれのUGV20に向けて送信する主要なデータとしては、UGV20及びUAV30を遠隔操縦するのに必要な操作データが掲げられる。
次に、UGV20について説明する。
UGV20は、遠隔操作基地10からの指令に基づいて、図1に示すように、建造物Bに囲まれた道路Rを走行する。なお、ここでは、一台のUGV20を示しているが、複数台のUGVを対象にすることができる。
走行情報取得部21は、撮像部21Aと物体検知部21Bとを備えている。
撮像部21Aは、例えばディジタルカメラからなり、UGV20の周囲に存在する被写体を撮像し、撮像した被写体の映像を取得する。ここで、撮像部21Aは、映像として、動画または静止画のいずれの形式により被写体を撮像してもよい。
環境マップβ20を構成する3次元の点群データの位置座標値(x,y,z)は、物体検知部21Bを基準点にしており、相対的な位置ということができる。以下、この座標系をローカル座標系(local coordinate system)という。
なお、事前取得マップαは、3次元の点群データからなるところは環境マップβ20と同じであるが、グローバル座標系(global coordinate system)に基づいて位置座標値(X,Y,Z)が特定されているところが環境マップβ20と相違する。
マップ作成部22が、図2に示した第1環境マップ作成部を構成する。
また、位置情報取得部25は、上述したGPSに限るものでなく、他の構成、例えば換え、速度センサ、3軸加速度センサ及び3軸ジャイロ(回転角センサ)を備えるIMU(Inertial Measurement Unit:慣性計測装置)を採用することもできる。
事前取得マップαは、基本的には環境マップβ20と同様にして作成されるものであるが、前述したように、グローバル座標系(X,Y,Z)により各点が特定される。このように、事前取得マップαをグローバル座標系で特定することにより、環境マップβ20と事前取得マップαとのマッチングを可能にする。
次に、UAV30について説明する。
UAV30は、UGV20が移動する環境の上空を飛行する。UAV30は、UGV20では取得することのできない領域を含む環境情報を取得する。取得された情報に基づく環境マップβ30は、第2機能において、UGV20で作成された環境マップβ20に統合され得る。
撮像部31Aは、撮像部21Aに対応する部位であり、上空から地表にある被写体の映像を取得する。
物体検知部31Bは、物体検知部21Bに対応する部位であり、地表環境の3次元座標を上空から測定するレーザレーダ装置からなり、得られた3次元の点群データが環境マップβ30の基礎をなす。この環境マップβ30を構成する3次元の点群データの位置座標値(x,y,z)は、物体検知部31Bを基準点にしており、環境マップβ20と同様に、ローカル座標系による。
さて、次に、本実施形態の特徴であるマップ統合部23の動作について、図5〜図10を参照して説明する。
はじめに、図5を参照して、マップ統合部23で実現される第1機能及び第2機能を概念的に説明する。
いま、UGV20は、走行しながら走行情報取得部21により環境情報を取得しており、走行情報取得部21による撮像範囲及び点群データの取得範囲が領域Z1だとする。この場合、遠隔操作基地10の画像表示部11に映し出される環境マップβ20は領域Z1の範囲に限られる。
遠隔操作基地10に居る操縦者は、領域Z1だけではUGV20を円滑に操縦するには狭いと感じることがある。そこで、画像表示システム1は、第1機能として、領域Z1よりも拡大した領域Z2を画像表示部11に映し出す。
以下、第1機能及び第2機能の順に説明する。
マップ統合部23は、マップ作成部22で作成された環境マップβ20と記憶部27に記憶されている事前取得マップαとをマッチング処理する。ただし、環境マップβ20はローカル座標系で特定され、事前取得マップαはグローバル座標系で特定されているので、マップ統合部23は、マッチング処理に先立って、座標変換を行う。座標変換は、位置情報取得部25で取得されたUGV20のグローバル座標系による位置及び向きを用いて行われる。つまり、UGV20から環境マップβ20を構成するローカル座標系による点群データの各々の点までの距離及び向きは既知であり、一方、グローバル座標系によるUGV20の位置及び向きも既知であるから、ローカル座標系による点群データをグローバル座標系の座標値に変換することができる。
環境マップβ20がマッチングされた事前取得マップαは、環境マップβ20の周囲に環境マップβ20には含まれていない点群データを備えている。ここで、環境マップβ20が前述した領域Z1に対応し、環境マップβ20の周囲に存在する事前取得マップαの点群データが前述した領域Z2を含む。
マップ統合部23は、事前取得マップαにおける当該周囲の点群データから、環境マップβ20に統合する範囲、つまり領域Z2を設定し、その範囲の点群データを切り出すとともに、切り出された点群データを環境マップβ20に統合する。統合されたマップは、データ送受信部26と遠隔操作基地10のデータ送受信部15を介して送信され、遠隔操作基地10の画像表示部11に映し出される。
画像表示部11に映し出される統合マップは、環境マップβ20だけでは視認できない範囲を含んでいるので、操縦者がUGV20を円滑に操縦するのに寄与する。
また、以上の第1機能の画像の統合として、マッチング処理を行った後に、事前取得マップαから領域Z1と領域Z2の合せた範囲の領域を切り出して画像表示部11に表示させることが可能である。また、事前取得マップαから領域Z1と領域Z2の合せた範囲の領域を切り出し、次いで、マッチング処理をすることもできる。
次に、第2機能について説明する。
マップ統合部23は、UGV20が走行中に作成する環境マップβ20とUAV30が飛行中に作成する環境マップβ30を、以下説明する手順で統合する。
始めに、マップ統合部23は、3次元の点群データである事前取得マップαを取得する。この点群データの各点はグローバル座標系による座標位置が特定されるが、これをUAV30の撮像部31Aを基準とする座標系に基づく3次元の点群データに変換する。この撮像部31Aを基準とする座標系を、UAVカメラ座標系と称する。なお、図7(a)にグローバル座標系による点群データ(事前取得マップα)の一例を、図7(b)にUAVカメラ座標系に変換された点群データの一例を示している。
この変換は、事前取得マップαを構成する各点を、UAV30の座標位置(x,y,z)及び姿勢(roll,pitch,yaw)から、平行移動及び回転を組み合せることで行うことができる。なお、UAV30の前後、左右及び上下が定まっているときに、roll(ロール)は前後を軸にした回転を、pitch(ピッチ)は左右を軸にした回転を、また、yaw(ヨー)は上下を軸にした回転により、姿勢を示す。
この所定の領域の抽出は、UAV30の撮像部31Aによる撮像の画角よりも大きい範囲に対して行われる。例えば、図8(a)に示すように、撮像部31Aの画角をθx,θyとすると、抽出される領域は、θx+ax,θy+ayで特定される範囲とする。角度ax,角度ayで表されるマージンは、点群データの誤差を考慮したものであり、それぞれyaw,pitchの精度(例えば誤差の3σ)を基準にして設定される。
抽出された領域を2次元データであるマッチング用マップγ(図8(b))に変換する。この変換は、以下の手順で行うことができる。
手順1:2次元データとする画像サイズ(横Mピクセル×縦Nピクセル)を決定する。
手順2:1ピクセル当たりの角度を、以下に従って算出する。
dθx = (θx+ax)/M
dθy = (θy+ay)/N
手順3:画素(m,n)の色情報は例えば次の物を選択する。ただし、m,nは以下の通り。
0≦m≦M−1,0≦n≦N−1
撮像部31A(カメラ)から見たとき、以下のヨー及びピッチの中に含まれる点群情報において、カメラからの距離が最も近い点群の色情報。
ヨー :−(θx+ax)/2+m×dθx 〜 −(θx+ax)/2+(m+1)×dθx
ピッチ:−(θy+ay)/2+n×dθy 〜 −(θy+ay)/2+(n+1)×dθy
図9に示すように、マッチング用マップγからマッチング用マップγ20を切り出し、マッチング用マップγ20を映像γ30とのマッチング処理の対象にする。マッチング用マップγ20は、映像γ30と同じサイズに切り出される。このとき、事前取得マップαの許容される範囲で切り出す位置を1グリットずつずらしながら、複数のマッチング用マップγ20を切り出す。切り出された複数のマッチング用マップγ20の各々が、映像γ30とマッチング処理される。
マッチング用マップγ20と映像γ30の各々において、分割された各グリッドGの平均輝度Laveを算出し、これを当該グリッドGの輝度とする。
以上の処理は、マッチング用マップγ20については、複数のマッチング用マップγ20の全てについて行われる。
以上のANDを取るところまでの処理を、複数のマッチング用マップγ20の各々と映像γ30の間で行い、ANDの結果が最大となるマッチング用マップγ20を切り出した位置をマッチング位置とする。
図10(a)は映像γ30に相当し、この画像の中に映し出されている人Hを環境マップβ20中に表示させることを目的とする。この映像γ30は、UAV30のカメラで撮影された2次元の画像データである。
図10(a)の画像データを、上述したマッチング手法に従って、マッチング用マップγ20とマッチングする。これにより、図10(b)に示すように、マッチング用マップγ20における人Hの位置を特定することができる。ただし、特定される位置はUAVカメラ座標系の座標値(xh,yh,zh)に従うものであり、これをグローバル座標系に座標変換する。そうすると、事前取得マップαにおける人Hの存在位置がグローバル座標値(XH,YH,ZH)により特定される。
なお、本実施形態において、環境マップβ20と事前取得マップαのマッチング処理を行った後に、事前取得マップαから当該範囲の画像を切り出して画像表示部11に表示させることも可能である。つまり、この場合には、マッチング処理は事前取得マップαから映し出す範囲を特定するために必要であるが、映し出されるのは事前取得マップα(人Hを含む)の特定の範囲である。
10 遠隔操作基地
11 画像表示部
13 遠隔操作部
15 データ送受信部
20 移動体,UGV
21 環境情報取得部
21A 撮像部
21B 物体検知部
22 マップ作成部
23 マップ統合部
24 走行制御部
25 位置情報取得部
26 データ送受信部
27 記憶部
30 移動体,UAV
31 飛行情報取得部
31A 撮像部
31B 物体検知部
32 マップ作成部
34 飛行制御部
35 位置情報取得部
36 データ送受信部
B,B1 建造物
R 道路
α 事前取得マップ
β20 環境マップ
β30 環境マップ
γ,γ20 マッチング用マップ
γ30 映像
Claims (5)
- 遠隔操縦される第1移動体が移動しながら周囲の環境の画像を取得し、取得した画像を前記遠隔操縦が行われる基地の画像表示部に表示する、遠隔操縦における画像表示システムであり、
前記第1移動体の移動が予定される移動領域について予め漏れなく取得された事前取得情報を記憶する記憶部と、
前記第1移動体が移動中に取得する第1環境情報、及び、前記第1移動体とは異なる第2移動体が移動中に取得する第2環境情報の一方又は双方と、前記記憶部に記憶されている事前取得情報と、のマッチング処理を通じて、前記事前取得情報には含まれるが、第1環境情報には含まれない統合対象情報を特定し、前記統合対象情報を前記第1環境情報に統合した統合情報を生成する情報統合部と、
前記統合情報を表示する画像表示部と、
を備えることを特徴とする画像表示システム。 - 前記統合対象情報は、
前記第1環境情報よりも外側の領域を占めており、
前記情報統合部は、
前記第1環境情報の前記外側に前記統合対象情報を配置した前記統合情報を生成する、
請求項1に記載の画像表示システム。 - 前記統合対象情報は、
前記第2移動体が取得する第2環境情報に含まれる一方、前記第1環境情報が取得される前記第1移動体に対して隠れた領域に存在し、
前記情報統合部は、
前記第1環境情報上に前記統合対象情報を配置した前記統合情報を生成する、
請求項1に記載の画像表示システム。 - 前記第1移動体は地表を走行する車両であり、前記第2移動体は飛行体である、
請求項3に記載の画像表示システム。 - 前記第2環境情報と前記事前取得情報のマッチング処理は、
前記第2環境情報と前記事前取得情報のそれぞれを、複数の画素を含むグリッドに分割するとともに、分割された前記グリッドの各々の輝度を特定し、
特定されたグリッド輝度にBRIEF特徴量を適用して行う、
請求項3又は4に記載の画像表示システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014171209A JP6445808B2 (ja) | 2014-08-26 | 2014-08-26 | 画像表示システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014171209A JP6445808B2 (ja) | 2014-08-26 | 2014-08-26 | 画像表示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016045825A true JP2016045825A (ja) | 2016-04-04 |
JP6445808B2 JP6445808B2 (ja) | 2018-12-26 |
Family
ID=55636305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014171209A Active JP6445808B2 (ja) | 2014-08-26 | 2014-08-26 | 画像表示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6445808B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028807A (ja) * | 2017-07-31 | 2019-02-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体 |
JP2019125345A (ja) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、およびシステム |
CN110223380A (zh) * | 2019-06-11 | 2019-09-10 | 中国科学院自动化研究所 | 融合航拍与地面视角图像的场景建模方法、系统、装置 |
JP2019200351A (ja) * | 2018-05-17 | 2019-11-21 | 三菱重工業株式会社 | 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法 |
JP2020021257A (ja) * | 2018-07-31 | 2020-02-06 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
CN111553844A (zh) * | 2020-04-29 | 2020-08-18 | 北京百度网讯科技有限公司 | 用于更新点云的方法及装置 |
JP2020170293A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社Ihiエアロスペース | 画像表示方法及び遠隔操縦システム |
JP2022055024A (ja) * | 2020-09-28 | 2022-04-07 | 株式会社日立製作所 | 操縦支援装置 |
CN114633884A (zh) * | 2022-03-28 | 2022-06-17 | 吉林大学 | 一种陆空协同侦查探测系统 |
JP7492756B2 (ja) | 2022-03-18 | 2024-05-30 | 株式会社ブレインズ | 電波源端末位置検出システム及び電波源端末位置検出方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003195941A (ja) * | 2001-12-26 | 2003-07-11 | Matsushita Electric Ind Co Ltd | 移動体を移動させるサービスを提供する方法 |
JP2003319383A (ja) * | 2002-04-24 | 2003-11-07 | Equos Research Co Ltd | 車載画像処理装置 |
JP2005239048A (ja) * | 2004-02-27 | 2005-09-08 | Denso Corp | 駐車支援システム |
JP2007164549A (ja) * | 2005-12-15 | 2007-06-28 | Hitachi Ltd | 撮像装置、映像信号の選択装置、運転支援装置、自動車 |
JP2009122859A (ja) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | 物体検出装置 |
US20110103651A1 (en) * | 2008-07-31 | 2011-05-05 | Wojciech Tomasz Nowak | Computer arrangement and method for displaying navigation data in 3d |
WO2014102995A1 (ja) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | モニタリングシステム、方法およびプログラムを記憶した情報記録媒体 |
JPWO2012131871A1 (ja) * | 2011-03-28 | 2014-07-24 | パイオニア株式会社 | 情報表示装置及び制御方法 |
JP2014139538A (ja) * | 2013-01-21 | 2014-07-31 | Mitsubishi Heavy Ind Ltd | 地形情報取得装置、地形情報取得システム、地形情報取得方法及びプログラム |
-
2014
- 2014-08-26 JP JP2014171209A patent/JP6445808B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003195941A (ja) * | 2001-12-26 | 2003-07-11 | Matsushita Electric Ind Co Ltd | 移動体を移動させるサービスを提供する方法 |
JP2003319383A (ja) * | 2002-04-24 | 2003-11-07 | Equos Research Co Ltd | 車載画像処理装置 |
JP2005239048A (ja) * | 2004-02-27 | 2005-09-08 | Denso Corp | 駐車支援システム |
JP2007164549A (ja) * | 2005-12-15 | 2007-06-28 | Hitachi Ltd | 撮像装置、映像信号の選択装置、運転支援装置、自動車 |
JP2009122859A (ja) * | 2007-11-13 | 2009-06-04 | Toyota Motor Corp | 物体検出装置 |
US20110103651A1 (en) * | 2008-07-31 | 2011-05-05 | Wojciech Tomasz Nowak | Computer arrangement and method for displaying navigation data in 3d |
JPWO2012131871A1 (ja) * | 2011-03-28 | 2014-07-24 | パイオニア株式会社 | 情報表示装置及び制御方法 |
WO2014102995A1 (ja) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | モニタリングシステム、方法およびプログラムを記憶した情報記録媒体 |
JP2014139538A (ja) * | 2013-01-21 | 2014-07-31 | Mitsubishi Heavy Ind Ltd | 地形情報取得装置、地形情報取得システム、地形情報取得方法及びプログラム |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028807A (ja) * | 2017-07-31 | 2019-02-21 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォーム、情報出力方法、プログラム、及び記録媒体 |
JP2019125345A (ja) * | 2018-01-12 | 2019-07-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、およびシステム |
JP7341652B2 (ja) | 2018-01-12 | 2023-09-11 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム、およびシステム |
JP7109253B2 (ja) | 2018-05-17 | 2022-07-29 | 三菱重工業株式会社 | 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法 |
JP2019200351A (ja) * | 2018-05-17 | 2019-11-21 | 三菱重工業株式会社 | 地図情報作成装置、地図情報表示システム、及び、地図情報表示方法 |
JP2020021257A (ja) * | 2018-07-31 | 2020-02-06 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
JP7139762B2 (ja) | 2018-07-31 | 2022-09-21 | カシオ計算機株式会社 | 自律移動装置、自律移動方法及びプログラム |
JP2020170293A (ja) * | 2019-04-02 | 2020-10-15 | 株式会社Ihiエアロスペース | 画像表示方法及び遠隔操縦システム |
CN110223380A (zh) * | 2019-06-11 | 2019-09-10 | 中国科学院自动化研究所 | 融合航拍与地面视角图像的场景建模方法、系统、装置 |
JP7242738B2 (ja) | 2020-04-29 | 2023-03-20 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 点群を更新するための方法、点群を更新するための装置、電子機器、非一時的コンピュータ可読記憶媒体及びコンピュータプログラム |
JP2021168129A (ja) * | 2020-04-29 | 2021-10-21 | 北京百度網訊科技有限公司 | 点群を更新するための方法及び装置 |
CN111553844B (zh) * | 2020-04-29 | 2023-08-29 | 阿波罗智能技术(北京)有限公司 | 用于更新点云的方法及装置 |
CN111553844A (zh) * | 2020-04-29 | 2020-08-18 | 北京百度网讯科技有限公司 | 用于更新点云的方法及装置 |
US11828606B2 (en) | 2020-04-29 | 2023-11-28 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for updating point cloud |
JP2022055024A (ja) * | 2020-09-28 | 2022-04-07 | 株式会社日立製作所 | 操縦支援装置 |
JP7374060B2 (ja) | 2020-09-28 | 2023-11-06 | 株式会社日立製作所 | 操縦支援装置 |
JP7492756B2 (ja) | 2022-03-18 | 2024-05-30 | 株式会社ブレインズ | 電波源端末位置検出システム及び電波源端末位置検出方法 |
CN114633884A (zh) * | 2022-03-28 | 2022-06-17 | 吉林大学 | 一种陆空协同侦查探测系统 |
Also Published As
Publication number | Publication date |
---|---|
JP6445808B2 (ja) | 2018-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6445808B2 (ja) | 画像表示システム | |
US11106203B2 (en) | Systems and methods for augmented stereoscopic display | |
US10678238B2 (en) | Modified-reality device and method for operating a modified-reality device | |
EP3368957B1 (en) | Systems and methods for uav path planning and control | |
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
US10546560B2 (en) | Systems and methods for presenting virtual content in a vehicle | |
US9880551B2 (en) | Point-and-click control of unmanned, autonomous vehicle using omni-directional visors | |
KR101515496B1 (ko) | 가상현실에서 변동되는 장애물 정보를 반영한 무인 자동차의 자율 주행 시뮬레이션 시스템 | |
WO2017143588A1 (en) | Systems and methods for adjusting uav trajectory | |
US8854422B2 (en) | Apparatus for rendering surroundings and vehicle having such an apparatus for rendering surroundings and method for depicting panoramic image | |
US8314816B2 (en) | System and method for displaying information on a display element | |
IL188655A (en) | System and method for navigating a remote control vehicle past obstacles | |
US20190179346A1 (en) | System and method for positioning a movable object | |
WO2023102911A1 (zh) | 数据采集方法、数据展示方法、数据处理方法、飞行器的降落方法、数据展示系统及存储介质 | |
EP2523062B1 (en) | Time phased imagery for an artificial point of view | |
US11573565B2 (en) | Controller for an unmanned aerial vehicle | |
JP5968178B2 (ja) | 遠隔操縦用画像処理装置、遠隔操縦システム、及び遠隔操縦用画像処理方法 | |
CN112882645B (zh) | 航道规划方法、控制端、飞行器及航道规划系统 | |
US20220244726A1 (en) | Information processing apparatus, information processing method, and program | |
KR101027533B1 (ko) | 영상 감시 장치 및 그 방법 | |
WO2021140916A1 (ja) | 移動体、情報処理装置、情報処理方法、及びプログラム | |
EP4040377A2 (en) | Display systems and methods | |
US12033528B2 (en) | Display systems and methods | |
US10516815B2 (en) | Image processing system | |
CN115063559A (zh) | 增强现实ar路况的生成方法、装置及车载ar系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180905 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181130 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6445808 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |