JP7231113B2 - Visualization control device, visualization system, visualization control method, and computer program - Google Patents
Visualization control device, visualization system, visualization control method, and computer program Download PDFInfo
- Publication number
- JP7231113B2 JP7231113B2 JP2022509870A JP2022509870A JP7231113B2 JP 7231113 B2 JP7231113 B2 JP 7231113B2 JP 2022509870 A JP2022509870 A JP 2022509870A JP 2022509870 A JP2022509870 A JP 2022509870A JP 7231113 B2 JP7231113 B2 JP 7231113B2
- Authority
- JP
- Japan
- Prior art keywords
- aircraft
- flying object
- detected
- reference data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012800 visualization Methods 0.000 title claims description 80
- 238000000034 method Methods 0.000 title claims description 27
- 238000004590 computer program Methods 0.000 title claims description 4
- 230000006870 function Effects 0.000 claims description 39
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000010801 machine learning Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 claims description 12
- 238000013459 approach Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 description 73
- 230000008859 change Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 4
- 239000004984 smart glass Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
Description
本発明は、ヘリコプターなどの航空機の操縦者に向けて、周囲を飛行している飛行物体の存在を通知する技術に関する。 The present invention relates to technology for notifying an operator of an aircraft such as a helicopter of the existence of flying objects flying around.
ドローンやUAV(unmanned aerial vehicle)やRPAS(remote piloted aircraft systems)やUAS(unmanned aircraft systems)等と称される無人航空機や、空飛ぶ車や、ヘリコプターなどの多種多様な飛行物体が同じ空域内で飛び交う社会が実現されようとしている。このように多数の飛行物体が同じ空域内で飛行するようになると、飛行物体の異常接近や、飛行物体同士の衝突の危険性が高まることが心配される。 A wide variety of flying objects such as drones, UAVs (unmanned aerial vehicles), RPASs (remote piloted aircraft systems), UASs (unmanned aircraft systems), etc. A flying society is about to be realized. When a large number of flying objects fly in the same airspace in this way, there is concern that the danger of abnormal approach of flying objects and collision between flying objects increases.
特許文献1には、航空機に搭載されているビデオカメラによるビデオ画像を利用して、航空機に鳥などの物体が衝突するバードストライクが発生した、又は、発生する可能性がある場合に、その衝突に関わる情報を報告する技術が開示されている。特許文献1において、衝突に関わる情報を報告するレポートには、航空機における物体の衝突位置やサイズや特徴が含まれることが開示されている。
In
特許文献1におけるレポートは、航空機における物体の衝突位置やサイズや特徴を報告するにすぎず、航空機の搭乗員(パイロット)に、衝突を回避する動作を促すものではない。
The report in
本発明の主な目的は、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できる技術を提供することにある。 A main object of the present invention is to provide a technology capable of notifying an aircraft operator of information prompting an action to avoid a collision with a flying object.
上記目的を達成するために、本発明に係る可視化制御装置は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する検知部と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する判定部と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する表示制御部と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する更新部と
を備える。In order to achieve the above object, the visualization control device according to the present invention, as one form thereof,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and a detection unit that detects the moving direction of the flying object with respect to the aircraft;
a determination unit that determines whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a display control unit that controls the operation of a display device that is mounted on the aircraft and that visualizes and warns the presence of the flying object determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. and an updating unit that outputs an image and acquires the updated reference data from the learning device.
本発明に係る可視化システムは、その一形態として、
上述した可視化制御装置と、
前記航空機に搭載され前記航空機の周辺が撮影されている撮影画像を前記可視化制御装置に提供する撮影装置と、
前記可視化制御装置によって前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置と、
前記撮影装置による前記撮影画像に基づいた教師データを利用して前記可視化制御装置が利用する前記参考データを機械学習により更新する学習装置と
を備える。As one form of the visualization system according to the present invention,
the visualization control device described above;
a photographing device mounted on the aircraft and configured to provide the visualization control device with a photographed image in which the surroundings of the aircraft are photographed;
a display device that visualizes and warns the presence of the flying object determined by the visualization control device to be in danger of approaching or colliding with the aircraft;
and a learning device that updates the reference data used by the visualization control device by machine learning using teacher data based on the image captured by the imaging device.
本発明に係る可視化制御方法は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知し、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定し、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御し、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する。As one form of the visualization control method according to the present invention,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and the direction of movement of the flying object relative to the aircraft;
determining whether there is a risk of the flying object approaching or colliding with the aircraft using the detected moving direction and distance of the flying object;
controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and is determined to be in danger of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. An image is output, and the updated reference data is acquired from the learning device.
本発明に係るプログラム記憶媒体は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する処理と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する処理と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する処理と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する処理と
をコンピュータに実行させるコンピュータプログラムを記憶する。A program storage medium according to the present invention has, as one form thereof,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and detecting the direction of movement of the flying object relative to the aircraft;
a process of determining whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a process of controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and that has been determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A computer program is stored that causes a computer to execute a process of outputting an image and acquiring the updated reference data from the learning device.
本発明によれば、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できる。 According to the present invention, it is possible to notify an aircraft operator of information prompting an action to avoid a collision with a flying object.
以下に、本発明に係る実施形態を図面を参照しつつ説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments according to the present invention will be described below with reference to the drawings.
<第1実施形態>
本発明に係る第1実施形態の可視化システムは、図1に表されているような航空機であるヘリコプター40の操縦者(パイロット)44に向けて、ヘリコプター40に飛行物体が衝突することを回避する動作を促す注意喚起情報を通知可能なシステムである。図2は、第1実施形態の可視化システム1の構成を表すブロック図である。第1実施形態の可視化システム1は、ヘリコプター40の周辺が撮影されている撮影画像を利用して注意喚起情報を生成して通知する機能を備えており、可視化制御装置3と、撮影装置4と、表示装置5と、基地装置6とを有する。<First embodiment>
The visualization system of the first embodiment according to the present invention aims at a
撮影装置4は、例えばビデオカメラであり、ヘリコプター40に搭載されヘリコプター40の周辺を撮影し、撮影画像として動画を可視化制御装置3に出力する構成を備えている。撮影装置4は、ヘリコプター40の周辺を撮影することを考慮して、360度ビデオカメラが採用されてもよいし、パン機能やチルト機能を備えたビデオカメラが採用されてもよい。また、ヘリコプター40の後方から飛行物体がヘリコプター40に衝突する事態を想定しない場合には、ヘリコプター40の後方を撮影した撮影画像は無くともよい。換言すれば、撮影装置4は、ヘリコプター40の後方を撮影範囲に含まない撮影装置が採用されてもよい。このように、撮影装置4に要求される撮影範囲は適宜設定される。
The photographing
撮影装置4から出力される撮影画像には、予め設定された基準方向を表す情報が関連付けられる。基準方向とは、例えば、北方向である。撮影装置4に内蔵、あるいは、ヘリコプター40に搭載されている方位センサによるセンサ出力に基づいた基準方向を表す情報が撮影画像に関連付けられる。また、撮影装置4から出力される撮影画像には、撮影時刻を表す情報、および、撮影した撮影装置4を識別する情報も関連付けられている。
Information indicating a preset reference direction is associated with the captured image output from the
基地装置6は、ヘリコプター40が待機する基地に設けられた施設に設置される装置であり、ここでは、学習装置30と、記憶装置であるデータベース32とを有して構成されている。
The
学習装置30は、可視化制御装置3が使用する参考データを機械学習により生成する機能を備えるコンピュータ装置である。すなわち、学習装置30は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサを備えている演算装置31を備えている。演算装置31は、撮影装置4により撮影された撮影画像に基づいた教師データを利用した機械学習により参考データを生成する機能を備える。ここでは、参考データとは、ヘリコプター40の飛行空域において飛行することが想定される飛行物体を検知する処理で利用されるデータである。飛行物体の具体例を挙げると、無人航空機(UAV)、空飛ぶ車、飛行船、ヘリコプター、鳥、小型飛行機、商用機、軍用機、ミサイル、スカイダイビングをしている人、気球やグライダー(ハンググライダーやパラグライダーを含む)などがある。図1の例では、飛行物体として、無人航空機41と、空飛ぶ車42とが図示されている。
The
また、演算装置31が機械学習に利用する教師データは、飛行物体を識別する情報が人によって付与された撮影画像データであってもよいし、AI(Artificial Intelligence)技術によるパターン認識により飛行物体を識別する情報が付与された撮影画像データであってもよい。
Further, the teacher data used by the
さらに、学習装置30が参考データを機械学習により生成する手法は、可視化制御装置3が参考データを用いて実行する処理手法に応じて定められる生成手法であり、ここでは、その説明は省略する。なお、機械学習には、深層学習も含まれるとする。
Furthermore, the method by which the
データベース32は、学習装置30(演算装置31)により生成された参考データや、当該参考データの生成に用いた教師データや、撮影装置4による撮影画像のデータを含むデータを記憶する記憶媒体である。
The
表示装置5は、情報を視覚的に報知する装置である。ここでは、表示装置5が報知(表示)する情報は、可視化制御装置3から提供される。また、表示装置5が情報を報知する報知対象は、ヘリコプター40の操縦者44である。これにより、表示装置5は、表示された情報を操縦者44が認識しやすいような態様を有している。例えば、図1の例では、表示装置5は、スマートグラスの態様である。すなわち、表示装置5は、図6に表されるようなメガネ状のウェアラブル端末であり、例えば、網膜走査方式の表示装置(ディスプレイ)である。
The
可視化制御装置3は、飛行物体との衝突を回避する動作を促す情報を、表示装置5を利用してヘリコプター40の操縦者44に向けて提供するコンピュータ装置である。すなわち、可視化制御装置3は、演算装置10と、記憶装置11とを備えている。記憶装置11は、データやコンピュータプログラム(以下、プログラムとも記す)12を記憶する記憶媒体である。記憶媒体には様々な種類があり、記憶装置11は、何れの記憶媒体により構成されてもよい。また、可視化制御装置3には、複数種の記憶媒体が備えられていてもよく、この場合には、複数種の記憶媒体をまとめて記憶装置11として表すこととする。記憶装置11の構成および動作の説明は省略する。
The
演算装置10は、例えば、CPUやGPUなどのプロセッサを備えている。プロセッサは、記憶装置11に記憶されているプログラムを読み出して実行することにより、当該プログラムに基づいた様々な機能を持つことができる。例えば、第1実施形態では、演算装置10は、検知部15と、判定部16と、表示制御部17と、更新部18という機能部を有している。
The
検知部15は、撮影装置4により撮影された撮影画像から、飛行物体を検知し、さらに、飛行物体とヘリコプターとの間の距離、検知した飛行物体の移動方向、および、飛行物体の速度を検知する機能を備える。すなわち、検知部15は、物体検知部20と、距離検知部21と、方向検知部22と、速度検知部23とを備える。ここでは、ヘリコプター40の飛行空域において飛行することが想定される飛行物体が検知対象として予め設定されている。例えば、図3に表されているような飛行物体が検知対象として設定される。なお、図3の例では、種類が特定されていない不明な飛行物体(換言すれば、飛行していることを検知できるが、識別できない物体)も、不明な物体として、検知対象として設定される。
The
物体検知部20は、撮影装置4により撮影された撮影画像から、記憶装置11に格納されている参考データを利用して、検知対象の飛行物体を検知する機能を備えている。参考データとは、検知対象として設定された飛行物体を検知するためのデータであり、学習装置30により生成されて記憶装置11に格納される。物体検知部20は、検知対象の飛行物体を検知する検知処理を、撮影画像を構成する全てのフレーム画像に実行してもよいが、演算装置10の負荷軽減のために、選択したフレーム画像のみに実行してもよい。検知処理を実行するフレーム画像を選択する場合には、例えば、フレーム画像を時系列で並べた場合に、演算装置10の処理能力等を考慮して定められた枚数毎のフレーム画像が選択される。
The
撮影画像から飛行物体を検知する手法としては、例えば、AI(Artificial Intelligence)技術を利用する手法がある。AI技術により撮影画像から飛行物体を検知する手法として採用し得る検知手法には複数種有り、ここでは、演算装置10の処理能力や、撮影装置4による撮影画像の解像度や撮影環境などの様々な事項を考慮して適宜選択された検知手法が採用される。その検知手法の説明は省略される。なお、上述のように、不明な飛行物体も検知対象として設定される場合には、不明な飛行物体が撮影されている撮影画像をも教師データとして利用して学習装置30は参考データを生成する機能を持つ。このように生成された参考データを利用して、物体検知部20は、不明な飛行物体を検知する。あるいは、例えば、様々な空状況の撮影画像を利用した教師データを用いた機械学習によって背景画像の参考データを生成する機能を学習装置30が持つ。そして、物体検知部20は、そのような背景画像の参考データと、識別可能な飛行物体を検知するデータとを利用して、撮影画像において、背景でも識別可能な飛行物体でもない物体を検知した場合には、不明な飛行物体があると検知してもよい。
As a method for detecting a flying object from a captured image, for example, there is a method using AI (Artificial Intelligence) technology. There are a plurality of detection methods that can be employed as a method for detecting a flying object from a photographed image using AI technology. A detection method appropriately selected in consideration of the matter is adopted. The description of the detection method is omitted. As described above, when an unknown flying object is also set as a detection target, the
距離検知部21は、検知された飛行物体(以下、検知飛行物体とも称する)とヘリコプター40との間の距離を、撮影画像から検知する機能を備える。すなわち、記憶装置11には距離算出用データが予め与えられている。距離算出用データは、撮影画像における検知飛行物体の大きさ(例えば画素数)を用いて、検知飛行物体とヘリコプター40との間の距離を算出するデータである。当該距離算出用データは、例えば、撮影画像における検知飛行物体の大きさと、検知飛行物体とヘリコプター40との間の距離との関係データである。この関係データは、検知飛行物体の実際の大きさや、レンズ倍率などの実際に撮影する場合の撮影装置4の設定などを考慮した実験やシミュレーションの結果を利用して生成される。
The
距離検知部21は、撮影画像における検知飛行物体の大きさ(例えば画素数)を検知し、当該検知した検知飛行物体の大きさと、距離算出用データとを利用して、検知飛行物体とヘリコプター40との間の距離を算出する。
The
方向検知部22は、撮影画像から検知対象の飛行物体が検知された場合に、ヘリコプター40に対する、検知飛行物体の移動方向を検知する機能を備える。例えば、方向検知部22は、検知飛行物体が検知された時系列データである複数のフレーム画像における検知飛行物体の変位方向と、距離検知部21により算出された検知飛行物体とヘリコプター40との間の距離の変化とを検知する。さらに、方向検知部22は、それら検知飛行物体の変位方向と、距離の変化と利用して、ヘリコプター40に対する検知飛行物体の移動方向を検知する。なお、撮影装置4がパン機能やチルト機能を備えており、パン機能やチルト機能による撮影が行われる場合がある。この場合には、例えば、撮影画像に含まれている基準方向の情報に基づいて定まる基準の二次元座標系を利用して撮影画像における検知飛行物体の位置を特定し、この特定した位置を利用して検知飛行物体の変位方向を検知する。これにより、パン機能やチルト機能による撮影範囲の変化の悪影響を受けずに、検知飛行物体の変位方向を検知可能である。
The
速度検知部23は、ヘリコプター40に対する検知飛行物体の相対的な速度(以下、単に飛行物体速度とも称する)を検知する機能を備えている。飛行物体速度の検知には、方向検知部22による検知飛行物体の移動方向と、距離検知部21による検知飛行物体とヘリコプター40との間の距離の変化と、当該距離の変化に要した時間とが利用される。距離の変化に要した時間は、フレーム画像に付与されている撮影時刻の情報を利用して取得される。
The
判定部16は、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する機能を備える。その判定には、距離検知部21による検知飛行物体とヘリコプター40との間の距離、方向検知部22による検知飛行物体の移動方向、速度検知部23による飛行物体速度、および、予め設定されて記憶装置11に格納されている判定用データが用いられる。
The
判定用データは、上述したような移動方向と距離と速度の組み合わせに基づいて、飛行物体がヘリコプター40に接近あるいは衝突する危険性について判定する判断基準が表されているデータである。
Judgment data is data representing judgment criteria for judging the risk of a flying object approaching or colliding with the
図4には、判定用データの具体例が表されている。図4に表されている判定用データは、危険性の有無だけでなく、危険性の度合いを表すレベルをも判定可能なデータとなっている。図4の判定用データによれば、飛行物体速度が速く、かつ、検知飛行物体とヘリコプター40との間の距離が短くて検知飛行物体がヘリコプター40の近くに存在し、かつ、検知飛行物体がヘリコプター40に近付く方向に移動している場合には、危険性は有りである。また、この場合には、危険性のレベルは、『6』である。ここでの危険性のレベルは、1から6の整数により表され、レベル1からレベル6に向かうに従って危険性が高くなることを表している。
FIG. 4 shows a specific example of determination data. The determination data shown in FIG. 4 is data that can determine not only the presence or absence of danger, but also the level representing the degree of danger. According to the determination data in FIG. 4, the flying object has a high speed, the distance between the detected flying object and the
判定部16が、図4に表されるような判定用データを利用して、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する場合には、飛行物体速度が速いか遅いかを判断する速度区分値が予め与えられる。速度区分値は、例えば、ヘリコプター40の速度の変動幅が予め設定されている許容範囲内であるという安定飛行状態でのヘリコプター40の平均速度に基づいて予め設定される。つまり、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する場合に、ヘリコプター40に対する飛行物体の相対的な速度が重要な判定材料になると考えられる。このことから、飛行物体速度が速いか遅いかを判断する速度区分値の設定に、安定飛行状態でのヘリコプター40の平均速度を利用することが考えられる。なお、速度区分値の設定手法は、この例に限定されない。
When the
判定部16は、上述したように設定される速度区分値に基づいて、飛行物体速度が速いか遅いかを判定する機能を備える。さらに、判定部16は、距離判定情報を利用して、検知飛行物体とヘリコプター40との間の距離が『遠い』と『中程度』と『近い』との何れに該当するかを判定する機能を備える。距離判定情報は、検知飛行物体とヘリコプター40との間の距離が『遠い』と『中程度』と『近い』との何れに該当するかを表す情報であり、予め設定されて与えられる。距離判定情報は、『遠い』を表す範囲情報と、『中程度』を表す範囲情報と、『近い』を表す範囲情報とを含む。ここでの検知飛行物体とヘリコプター40との間の距離は、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する判定材料の一つである。つまり、検知飛行物体とヘリコプター40との間の距離が短い場合には、飛行物体がヘリコプター40に接近あるいは衝突する危険性が高く、距離が長くなるに従って、飛行物体がヘリコプター40に接近あるいは衝突する危険性が低くなっていく。このような距離と危険性の関係には、安定飛行状態でのヘリコプター40の平均速度が関与すると考えられる。このことにより、距離判定情報の設定の具体例としては、例えば、『遠い』を表す範囲と、『中程度』を表す範囲と、『近い』を表す範囲とは、安定飛行状態でのヘリコプター40の平均速度に基づいて定められる。あるいは、それら範囲は、安定飛行状態でのヘリコプター40の平均速度と、図4のような飛行物体速度の区分(速い、あるいは、遅い)との組み合わせにより定まる範囲であってもよい。
The
判定部16は、判定用データと、検知飛行物体の移動方向と距離と速度との情報を利用して、物体検知部20による検知飛行物体が、ヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する。さらに、第1実施形態では、判定部16は、さらに、危険性のレベルを判定する。
The
表示制御部17は、操縦者44に向けて情報を報知する表示装置5の動作を制御する機能を備える。例えば、記憶装置11には、図5に表されるような報知制御用データが格納されているとする。報知制御用データは、表示制御部17が表示装置5の表示動作を制御する際に参照するデータであり、判定部16により判定された危険性のレベルに応じて表示する情報の種類とその表示手法を表すデータである。例えば、図5に表されている標準設定では、危険性がレベル1の場合には、検知部15により検知される飛行物体のマークおよび名称が緑色で小さく表示され、他の情報は表示されないという表示制御用の情報が設定されている。また、危険性がレベル6の場合には、検知部15により検知される飛行物体のマークおよび名称、距離、速度、移動方向、判定部16による危険性のレベルの情報および警告表示が赤色で極大表示されるという表示制御用の情報が設定されている。なお、飛行物体のマークとしては、例えば、図3に表されるようなマークが表示される。また、表示の大きさである「小」、「中」、「大」および「極大」は、表示装置5の表示領域の大きさに基づいて予め設定される。また、表示の色や、警告表示の文言、記号、文字飾りなどは、表示の明瞭さ等を考慮して適宜設定されるものである。
The
また、ここでは、表示装置5によって報知し得る情報である飛行物体のマークおよび名称、距離、速度、移動方向、危険性のレベルの情報には、選択情報が関連付けられているとする。選択情報は、報知の要否を表す情報であり、可視化制御装置3に情報を入力する入力装置(図示せず)が例えば操縦者44により操作されることにより、報知の必要と不要の一方が選択されて選択情報と成す。この選択情報は、危険性のレベル毎に設定可能であるとする。
Here, it is assumed that selection information is associated with the flying object mark and name, distance, speed, moving direction, and risk level information that can be notified by the
上述したような報知制御用データが記憶装置11に格納されている場合に、検知部15の検知動作により、飛行物体が検知され、さらに、検知された検知飛行物体に関する距離と速度と移動方向が検知されたとする。さらにまた、判定部16により、危険性の有無と危険レベルが判定されたとする。表示制御部17は、検知部15と判定部16による検知飛行物体の種類と危険性の有無およびレベルとの情報と、操縦者44による選択情報を含む報知制御用データとに基づいて、検知飛行物体に係る情報が操縦者44に向けて報知されるように表示装置5の動作を制御する。
When the notification control data as described above is stored in the storage device 11, the flying object is detected by the detection operation of the
すなわち、表示制御部17は、表示装置5の動作を制御することによって、ヘリコプター40に接近あるいは衝突する危険性がある飛行物体が存在することを可視化して警告する機能を備える。
That is, the
なお、図5に表される標準設定の例では、危険性が無い(レベル1)と判断された場合にも、検知部15と判定部16による検知飛行物体のマークおよび名称の情報が操縦者44に向けて表示装置5により報知される。ただ、レベル1である場合に、前述したような操縦者44による選択情報により、検知飛行物体のマークおよび名称の情報の報知が不要であると設定されている場合には、検知飛行物体のマークおよび名称の情報も(つまり、何も)表示装置5により表示されない。
In the example of the standard settings shown in FIG. 5, even when it is determined that there is no danger (level 1), the mark and name information of the flying object detected by the
更新部18は、ヘリコプター40が地上で待機している期間中(以下、ヘリコプター40の地上待機中とも称する)に、撮影装置4により撮影され記憶装置11に記憶されている撮影画像のデータを学習装置30に向けて出力する機能を備えている。すなわち、ヘリコプター40が地上で待機していることは、例えば、ヘリコプター40のプロペラの回転数を検知する回転数センサから出力されるセンサ出力を利用してプロペラが停止していることを検知することにより、検知可能である。これにより、更新部18は、プロペラの回転数センサのセンサ出力に基づいてヘリコプター40が地上で待機していることを検知している期間中に(例えば着陸を検知した時点で)、学習装置30に接続し、学習装置30に向けて記憶装置11の撮影画像のデータを出力する。出力される撮影画像のデータには、前述したように、撮影時刻の情報と、撮影した撮影装置4を識別する情報とが関連付けられている。
The updating
ヘリコプター40から撮影画像を受信した学習装置30においては、受信した撮影画像のデータがデータベース32に書き込まれ、また、受信し追加された撮影画像のデータに基づいた教師データを利用した機械学習により参考データが更新される。更新された参考データはデータベース32の参考データに上書きされる。
In the
更新部18は、さらに、ヘリコプター40の地上待機中に、学習装置30を介してヘリコプター40の記憶装置11に格納されている参考データを、データベース32の参考データに同期させる機能を備えている。参考データの同期を行うタイミングは、例えば、ヘリコプター40が稼動停止状態から稼動状態に遷移し、離陸しようとしていると想定されるタイミングが考えられる。これにより、ヘリコプター40の飛行中に、演算装置10における検知部15は、最新の参考データを利用した検知動作を行うことが可能となる。
The updating
第1実施形態の可視化システム1および可視化制御装置3の構成は上記のように構成されている。次に、可視化制御装置3の動作例を図8のフローチャートを利用して説明する。
The configurations of the
例えば、ヘリコプター40を離陸させるべく離陸準備が開始されて電源が投入されると、可視化制御装置3の更新部18は、基地装置6の学習装置30と接続する。そして、更新部18は、学習装置30を介して、記憶装置11の参考データを、基地装置6のデータベース32の参考データに同期させる(ステップS101)。また、表示制御部17は、表示装置5により報知する情報を操縦者44に選択させる選択肢の情報を表示装置5によって操縦者44に向けて通知する。これを受けた操縦者44による入力装置の操作情報に基づいて、表示制御部17は、表示装置5による操縦者44への報知条件(つまり、報知制御用データの選択情報)を設定する(ステップS102)。
For example, when takeoff preparations are started to take off the
然る後に、ヘリコプター40が離陸した以降の飛行中において、検知部15は、撮影装置4による撮影画像を、参考データを利用したAI技術により解析し、ヘリコプター40の周辺の飛行物体を検知する。さらに、検知部15は、飛行物体を検知した場合には、検知飛行物体の移動方向と、ヘリコプター40と検知飛行物体との間の距離とを検知する。検知部15は、上述したような飛行物体の検知と、検知飛行物体の移動方向と距離とを検知する検知処理を実行する(ステップS103)。さらに、検知部15により飛行物体が検知された場合には、判定部16は、検知処理により検知された情報と、判定用データとに基づいて、検知飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する判定処理を実行する(ステップS104)。さらに、表示制御部17は、報知制御用データを参照して表示装置5の動作を制御することにより、検知部15による検知処理による情報と、判定部16による判定処理による情報とを操縦者44に向けて報知する報知処理を実行する(ステップS105)。
After that, during the flight after the
上述したような検知処理と判定処理と報知処理は、ヘリコプター40の飛行中、繰り返し実行される。
The detection process, determination process, and notification process described above are repeatedly executed while the
その後、更新部18は、ヘリコプター40が着陸したことを検知した場合(ヘリコプター40の地上待機中)には、学習装置30に接続し、記憶装置11に格納されている撮影画像のデータを学習装置30に出力する(ステップS106)。撮影画像のデータを受信した学習装置30は、受信した撮影画像のデータをデータベース32に格納する。また、学習装置30は、追加された撮影画像のデータに基づいた教師データを利用して、可視化制御装置3における検知部15が利用する参考データを機械学習により更新し、更新した参考データをデータベース32の参考データに上書きする。
After that, when the
第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、撮影画像から、航空機であるヘリコプター40に衝突する危険性がある飛行物体を検知し、当該検知飛行物体に関する情報を可視化して操縦者44に向けて報知する機能を備えている。これにより、第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、ヘリコプター40の操縦者44に向けて、飛行物体との衝突を回避する動作を促す情報を通知できるという効果を得ることができる。
The
また、第1実施形態では、表示装置5は、スマートグラスの態様であり、操縦者44が装着可能な装置であるから、ヘリコプター40の内部に表示装置5を固定する必要が無いことから、その分、ヘリコプター40の内部のスペースを拡げることができる。
Further, in the first embodiment, the
さらに、第1実施形態では、危険性が有る旨の報知を行う場合に、危険性が有ることが明瞭に報知されるように表示装置5の動作が制御される。これにより、第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、ヘリコプター40の操縦者44に向けて、危険性が有る旨の報知を効果的に行うことができる。
Furthermore, in the first embodiment, the operation of the
さらに、第1実施形態では、可視化制御装置3は更新部18を備え、更新部18の機能によって、飛行中に撮影した撮影画像を基地装置6に提供し、学習装置30は、その撮影画像を参考データの機械学習に利用する構成を備えている。さらに、可視化制御装置3は、更新部18の機能によって、記憶装置11の参考データを、学習装置30による機械学習により更新された参考データと同期させることができる。このような構成により、可視化制御装置3は、更新済みの参考データを利用して、撮影画像から飛行物体を検知することができることとなり、これにより、飛行物体の検知に対する信頼性を高めることができる。
Furthermore, in the first embodiment, the
さらに、第1実施形態では、可視化制御装置3は、ヘリコプター40の地上待機中に基地装置6に接続して基地装置6とのデータ通信を行う構成である。これにより、飛行中よりも通信不良が発生しにくい状況で、可視化制御装置3は、基地装置6とデータ通信できる。
Furthermore, in the first embodiment, the
なお、第1実施形態では、表示装置5は、スマートグラスの態様であり、操縦者44が装着可能な装置である。これに代えて、表示装置5は、図7に表されているような操縦者44の前面のガラス窓に情報を表示する例えばプロジェクタであってもよい。また、表示装置5は、操縦者44の操縦を妨げない態様で情報を操縦者44に通知できれば、スマートグラスや図7に表される態様以外の表示装置であってもよい。
In the first embodiment, the
また、基地装置6は、複数のヘリコプター40と接続可能であり、学習装置30は、複数のヘリコプター40のそれぞれから受信した撮影装置4の撮影画像に基づいた教師データを利用して、可視化制御装置3が用いる参考データを機械学習する構成としてもよい。この場合には、参考データの機械学習に用いる教師データの数を、1台のヘリコプター40における撮影画像を利用する場合に比べて、増加することができ、また、飛行物体が撮影されている状況が様々に異なる撮影画像が得やすくなる。これにより、可視化制御装置3の検知部15による検知精度を高めることができる参考データを生成できるため、可視化システムおよび可視化制御装置3が操縦者44に報知する情報の信頼性を高めることができる。
In addition, the
さらに、参考データは、検知したい飛行物体を機械学習したデータを含むだけでなく、検知しなくともよい飛行物体(例えば、ヘリコプター40への影響が小さいと想定される小鳥など)を、検知対象外のデータとして機械学習したデータが含まれる。 Further, the reference data not only includes machine-learned data of flying objects to be detected, but also flying objects that do not need to be detected (for example, small birds that are assumed to have a small impact on the helicopter 40) are excluded from detection targets. , which includes machine-learned data.
さらに、図6や図7の例では、距離や速度の情報は、「近い」、「速い」などの文字情報によって表示される例が示されているが、より具体的な数値情報が表示されてもよい。さらに、方向検知部22は、ヘリコプター40に対する検知飛行物体の移動方向を検知する機能を備えている例を示している。これに代えて、例えば、方向検知部22は、ヘリコプター40に搭載されている方位センサの情報をも利用することにより、検知飛行物体の移動方向として方位情報を検知してもよい。このような場合には、例えば、表示装置5により表示される方向の情報として、方位(例えば、「北向き」、「南東向き」)が表示されてもよい。
Furthermore, in the examples of FIGS. 6 and 7, the distance and speed information are displayed as character information such as "close" and "fast", but more specific numerical information is displayed. may Furthermore, the
さらに、可視化制御装置3は、図9に表されるような反応検知部19をさらに備えていてもよい。なお、図9においては、可視化制御装置3における記憶装置11と、演算装置10における検知部15と判定部16と更新部18との図示が省略されている。
Furthermore, the
反応検知部19は、表示制御部17の動作によって表示装置5により危険性が高いことを表す情報が操縦者44に向けて報知されているのにも拘わらず、操縦者44の反応が無いことを検知する機能を備えている。例えば、反応検知部19は、表示装置5により危険性が高いことを表す情報が操縦者44に向けて報知されている場合に、操縦者44の反応があるか否かを判断する。ここでの操縦者44の反応とは、表示装置5により危険性が高いことを表す情報が報知されていることに対して、操縦者44が、ヘリコプター40の進行方向や飛行高度を変更する操縦を行うことである。このような操縦者44の反応は、操縦レバーなどの操作情報に基づいて検知される。
The
反応検知部19により操縦者44の反応が無いことが検知された場合に、表示制御部17は、危険性が高いことを報知する報知手法を、危険性が高いことをより明瞭に報知する方向に変更する機能をさらに備える。このような構成を備えることにより、可視化制御装置3は、より効果的に危険性が高いことを操縦者44に報知することができる。さらにまた、反応検知部19は、表示制御部17によって危険性が高いことをより明瞭に報知する方向に報知手法を変更したのにも拘わらず、変更してから所定時間を経過しても、操縦者44の反応が無いことを検知する機能を備えていてもよい。表示制御部17によって報知手法を変更したのにも拘わらず、操縦者44の反応が無いことが反応検知部19により検知された場合に、予め定められた通報先に通報する機能が可視化制御装置3に備えられていてもよい。その通報先は、例えば、ヘリコプター40の運航を管理している管理センターである。このような通報の構成を備えていることにより、管理センターからも、無線通信により、操縦者44に向けて注意喚起を行うことが可能となる。また、例えば、操縦者44が体調不良のために、危険性が高いという報知に反応できない重大な事態が発生していることを管理センターにて検知可能となる。
When the
<第2実施形態>
図10は、本発明に係る第2実施形態の可視化システムの構成を表すブロック図である。また、図11は、第2実施形態の可視化システムを構成する可視化制御装置の機能構成を表すブロック図である。<Second embodiment>
FIG. 10 is a block diagram showing the configuration of a visualization system according to the second embodiment of the invention. Also, FIG. 11 is a block diagram showing the functional configuration of a visualization control device that constitutes the visualization system of the second embodiment.
第2実施形態の可視化システム50は、撮影装置51と、可視化制御装置52と、表示装置53と、学習装置54とを備えている。
A
撮影装置51は、航空機に搭載され航空機の周辺が撮影されている撮影画像を可視化制御装置52に提供する装置である。
The
表示装置53は、可視化制御装置52によって航空機に接近あるいは衝突する危険性があると判定された飛行物体が存在することを可視化して警告する装置である。
The
学習装置54は、撮影装置51による撮影画像に基づいた教師データを利用して可視化制御装置52が利用する参考データを機械学習により更新する機能を備える。
The
可視化制御装置52は、図11に表されているように、検知部55と、判定部56と、表示制御部57と、更新部58とを備える。
The
検知部55は、撮影装置51による撮影画像から、学習装置54により生成され検知対象の飛行物体を表す参考データを利用して飛行物体を検知する機能を備える。また、検知部55は、飛行物体と航空機との間の距離、および、航空機に対する飛行物体の移動方向を検知する機能を備える。
The
判定部56は、検知された飛行物体の移動方向および距離を利用して、飛行物体が航空機に接近あるいは衝突する危険性があるか否かを判定する機能を備える。
The
表示制御部57は、表示装置53の動作を制御することによって、航空機に接近あるいは衝突する危険性があると判定された飛行物体が存在することを可視化して警告する機能を備える。
The
更新部58は、航空機が地上で待機している期間中に、学習装置54に向けて、撮影装置51による撮影画像を出力し、また、学習装置54から、更新された参考データを取得する機能を備える。
The updating
次に、可視化制御装置52の動作例を図12を利用して説明する。例えば、可視化制御装置52の検知部55は、航空機の飛行中に、撮影装置51による撮影画像から、検知対象の飛行物体を検知し、また、飛行物体と航空機との間の距離、および、航空機に対する飛行物体の移動方向を検知する(ステップS301)。そして、判定部56は、検知された飛行物体の移動方向および距離を利用して、飛行物体が航空機に接近あるいは衝突する危険性があるか否かを判定する(ステップS302)。その後、表示制御部57は、航空機に接近あるいは衝突する危険性があると判定された場合には、表示装置53の動作を制御することによって、危険性があることを可視化して警告する(ステップS303)。然る後に、航空機が着陸した以降に、更新部58は、学習装置54に向けて、撮影装置51による撮影画像を出力する(ステップS304)。
Next, an operation example of the
第2実施形態の可視化システム50および可視化制御装置52は、上記のような構成を備えることにより、第1実施形態と同様に、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できるという効果を得ることができる。
The
以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiments as exemplary examples. However, the invention is not limited to the embodiments described above. That is, within the scope of the present invention, various aspects that can be understood by those skilled in the art can be applied to the present invention.
1,50 可視化システム
3,52 可視化制御装置
4,51 撮影装置
15,55 検知部
16,56 判定部
17,57 表示制御部
Claims (8)
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する判定手段と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する表示制御手段と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する更新手段と
を備える可視化制御装置。 The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and sensing means for sensing the distance between and the direction of movement of the flying object relative to the aircraft;
determining means for determining whether there is a risk that the flying object will approach or collide with the aircraft, using the detected moving direction and distance of the flying object;
display control means for controlling the operation of a display device mounted on the aircraft and visualizing and warning the presence of the flying object determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A visualization control device, comprising: updating means for outputting an image and acquiring the updated reference data from the learning device.
前記表示制御手段は、前記レベルに応じて前記表示装置による警告の報知手法を変更する請求項1に記載の可視化制御装置。 The determination means has a function to determine a level representing the degree of risk,
2. The visualization control device according to claim 1, wherein said display control means changes a warning notification method by said display device according to said level.
前記航空機に搭載され前記航空機の周辺が撮影されている撮影画像を前記可視化制御装置に提供する撮影装置と、
前記可視化制御装置によって前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置と、
前記撮影装置による前記撮影画像に基づいた教師データを利用して前記可視化制御装置が利用する前記参考データを機械学習により更新する学習装置と
を備える可視化システム。 A visualization control device according to any one of claims 1 to 3;
a photographing device mounted on the aircraft and configured to provide the visualization control device with a photographed image in which the surroundings of the aircraft are photographed;
a display device that visualizes and warns the presence of the flying object determined by the visualization control device to be in danger of approaching or colliding with the aircraft;
and a learning device that updates the reference data used by the visualization control device by machine learning, using training data based on the image captured by the imaging device.
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知し、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定し、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御し、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する可視化制御方法。 by computer,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and the direction of movement of the flying object relative to the aircraft;
determining whether there is a risk of the flying object approaching or colliding with the aircraft using the detected moving direction and distance of the flying object;
controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and is determined to be in danger of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A visualization control method for outputting an image and acquiring the updated reference data from the learning device.
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する処理と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する処理と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する処理と
をコンピュータに実行させるコンピュータプログラム。 The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and detecting the direction of movement of the flying object relative to the aircraft;
a process of determining whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a process of controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and that has been determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A computer program for causing a computer to execute a process of outputting an image and acquiring the updated reference data from the learning device.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/013270 WO2021192080A1 (en) | 2020-03-25 | 2020-03-25 | Visualization control device, visualization system, visualization control method, and program storage medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2021192080A1 JPWO2021192080A1 (en) | 2021-09-30 |
JPWO2021192080A5 JPWO2021192080A5 (en) | 2022-09-09 |
JP7231113B2 true JP7231113B2 (en) | 2023-03-01 |
Family
ID=77891123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022509870A Active JP7231113B2 (en) | 2020-03-25 | 2020-03-25 | Visualization control device, visualization system, visualization control method, and computer program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7231113B2 (en) |
WO (1) | WO2021192080A1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195965A (en) | 2017-05-17 | 2018-12-06 | 日本電気株式会社 | Flying object position detection apparatus, flying object position detection system, flying object position detection method, and program |
US20190033861A1 (en) | 2017-07-27 | 2019-01-31 | SkyRyse, Inc. | System and method for situational awareness, vehicle control, and/or contingency planning |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10453351B2 (en) * | 2017-07-17 | 2019-10-22 | Aurora Flight Sciences Corporation | System and method for detecting obstacles in aerial systems |
US10515559B2 (en) * | 2017-08-11 | 2019-12-24 | The Boeing Company | Automated detection and avoidance system |
-
2020
- 2020-03-25 JP JP2022509870A patent/JP7231113B2/en active Active
- 2020-03-25 WO PCT/JP2020/013270 patent/WO2021192080A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018195965A (en) | 2017-05-17 | 2018-12-06 | 日本電気株式会社 | Flying object position detection apparatus, flying object position detection system, flying object position detection method, and program |
US20190033861A1 (en) | 2017-07-27 | 2019-01-31 | SkyRyse, Inc. | System and method for situational awareness, vehicle control, and/or contingency planning |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021192080A1 (en) | 2021-09-30 |
WO2021192080A1 (en) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11181935B2 (en) | System and method for detecting obstacles in aerial systems | |
US7932853B1 (en) | System and method for identifying incursion threat levels | |
US9824598B2 (en) | Flight hindrance display apparatus, flight hindrance display method, and computer-readable medium | |
US9633567B1 (en) | Ground collision avoidance system (iGCAS) | |
US11645434B2 (en) | Systems and methods for autonomous vehicle systems testing | |
JP6915683B2 (en) | Controls, control methods and programs | |
US20200029013A1 (en) | Human-Automation Collaborative Tracker of Fused Object | |
US20200118366A1 (en) | Adaptable Vehicle Monitoring System | |
US11827352B2 (en) | Visual observer for unmanned aerial vehicles | |
JP2014041601A (en) | Unpredictable vehicle navigation | |
KR101408077B1 (en) | An apparatus and method for controlling unmanned aerial vehicle using virtual image | |
CN111540238A (en) | System and method for identifying, delineating and alerting distress and special traffic based on at least call (SQUAWK) code | |
US20220343773A1 (en) | Updating airspace awareness for unmanned aerial vehicles | |
JP2021162572A (en) | Position calculation method and information processing system | |
US20230333552A1 (en) | Methods and systems for human-in-the-loop vehicular command and control using immersive synthetic vision | |
US20180315322A1 (en) | Method of visualization of the traffic around a reference aircraft in a compliant display zone, associated computer product program and visualization system | |
CN114724412A (en) | Flight segment terminal visualization system and method for flight segment terminal visualization | |
JP7231113B2 (en) | Visualization control device, visualization system, visualization control method, and computer program | |
WO2021133449A1 (en) | Vehicle control system | |
EP4330946A1 (en) | Unmanned aerial vehicle response to object detection | |
US20230016277A1 (en) | System, Method, and Computer Program Product for Avoiding Ground Blindness in a Vehicle | |
Skoog et al. | Ground collision avoidance system (iGCAS) | |
EP4357868A1 (en) | Multiple aircraft flight management system, method, and program | |
JP7231283B2 (en) | Operation support device, operation support method, and program | |
US20230282122A1 (en) | Geofence management with an unmanned aerial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220701 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220701 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230130 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7231113 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |