JP7231113B2 - Visualization control device, visualization system, visualization control method, and computer program - Google Patents

Visualization control device, visualization system, visualization control method, and computer program Download PDF

Info

Publication number
JP7231113B2
JP7231113B2 JP2022509870A JP2022509870A JP7231113B2 JP 7231113 B2 JP7231113 B2 JP 7231113B2 JP 2022509870 A JP2022509870 A JP 2022509870A JP 2022509870 A JP2022509870 A JP 2022509870A JP 7231113 B2 JP7231113 B2 JP 7231113B2
Authority
JP
Japan
Prior art keywords
aircraft
flying object
detected
reference data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022509870A
Other languages
Japanese (ja)
Other versions
JPWO2021192080A5 (en
JPWO2021192080A1 (en
Inventor
健介 内田
実 村上
淳 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021192080A1 publication Critical patent/JPWO2021192080A1/ja
Publication of JPWO2021192080A5 publication Critical patent/JPWO2021192080A5/en
Application granted granted Critical
Publication of JP7231113B2 publication Critical patent/JP7231113B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for

Description

本発明は、ヘリコプターなどの航空機の操縦者に向けて、周囲を飛行している飛行物体の存在を通知する技術に関する。 The present invention relates to technology for notifying an operator of an aircraft such as a helicopter of the existence of flying objects flying around.

ドローンやUAV(unmanned aerial vehicle)やRPAS(remote piloted aircraft systems)やUAS(unmanned aircraft systems)等と称される無人航空機や、空飛ぶ車や、ヘリコプターなどの多種多様な飛行物体が同じ空域内で飛び交う社会が実現されようとしている。このように多数の飛行物体が同じ空域内で飛行するようになると、飛行物体の異常接近や、飛行物体同士の衝突の危険性が高まることが心配される。 A wide variety of flying objects such as drones, UAVs (unmanned aerial vehicles), RPASs (remote piloted aircraft systems), UASs (unmanned aircraft systems), etc. A flying society is about to be realized. When a large number of flying objects fly in the same airspace in this way, there is concern that the danger of abnormal approach of flying objects and collision between flying objects increases.

特表2015-533109号公報Japanese Patent Publication No. 2015-533109

特許文献1には、航空機に搭載されているビデオカメラによるビデオ画像を利用して、航空機に鳥などの物体が衝突するバードストライクが発生した、又は、発生する可能性がある場合に、その衝突に関わる情報を報告する技術が開示されている。特許文献1において、衝突に関わる情報を報告するレポートには、航空機における物体の衝突位置やサイズや特徴が含まれることが開示されている。 In Patent Document 1, when a bird strike, in which an object such as a bird collides with an aircraft, has occurred or is likely to occur, a video image obtained by a video camera mounted on the aircraft is used. A technique for reporting information related to is disclosed. Japanese Patent Application Laid-Open No. 2002-200003 discloses that a report reporting information related to a collision includes the collision position, size, and characteristics of an object on an aircraft.

特許文献1におけるレポートは、航空機における物体の衝突位置やサイズや特徴を報告するにすぎず、航空機の搭乗員(パイロット)に、衝突を回避する動作を促すものではない。 The report in Patent Literature 1 merely reports the collision position, size, and characteristics of an object in the aircraft, and does not prompt the flight crew (pilot) of the aircraft to take action to avoid the collision.

本発明の主な目的は、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できる技術を提供することにある。 A main object of the present invention is to provide a technology capable of notifying an aircraft operator of information prompting an action to avoid a collision with a flying object.

上記目的を達成するために、本発明に係る可視化制御装置は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する検知部と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する判定部と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する表示制御部と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する更新部と
を備える。
In order to achieve the above object, the visualization control device according to the present invention, as one form thereof,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and a detection unit that detects the moving direction of the flying object with respect to the aircraft;
a determination unit that determines whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a display control unit that controls the operation of a display device that is mounted on the aircraft and that visualizes and warns the presence of the flying object determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. and an updating unit that outputs an image and acquires the updated reference data from the learning device.

本発明に係る可視化システムは、その一形態として、
上述した可視化制御装置と、
前記航空機に搭載され前記航空機の周辺が撮影されている撮影画像を前記可視化制御装置に提供する撮影装置と、
前記可視化制御装置によって前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置と、
前記撮影装置による前記撮影画像に基づいた教師データを利用して前記可視化制御装置が利用する前記参考データを機械学習により更新する学習装置と
を備える。
As one form of the visualization system according to the present invention,
the visualization control device described above;
a photographing device mounted on the aircraft and configured to provide the visualization control device with a photographed image in which the surroundings of the aircraft are photographed;
a display device that visualizes and warns the presence of the flying object determined by the visualization control device to be in danger of approaching or colliding with the aircraft;
and a learning device that updates the reference data used by the visualization control device by machine learning using teacher data based on the image captured by the imaging device.

本発明に係る可視化制御方法は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知し、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定し、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御し、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する。
As one form of the visualization control method according to the present invention,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and the direction of movement of the flying object relative to the aircraft;
determining whether there is a risk of the flying object approaching or colliding with the aircraft using the detected moving direction and distance of the flying object;
controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and is determined to be in danger of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. An image is output, and the updated reference data is acquired from the learning device.

本発明に係るプログラム記憶媒体は、その一形態として、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する処理と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する処理と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する処理と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する処理と
をコンピュータに実行させるコンピュータプログラムを記憶する。
A program storage medium according to the present invention has, as one form thereof,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and detecting the direction of movement of the flying object relative to the aircraft;
a process of determining whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a process of controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and that has been determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A computer program is stored that causes a computer to execute a process of outputting an image and acquiring the updated reference data from the learning device.

本発明によれば、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できる。 According to the present invention, it is possible to notify an aircraft operator of information prompting an action to avoid a collision with a flying object.

本発明に係る第1実施形態の可視化システムの構成を説明する図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure explaining the structure of the visualization system of 1st Embodiment which concerns on this invention. 第1実施形態の可視化システムを構成する可視化制御装置の機能構成を説明する図である。FIG. 2 is a diagram illustrating a functional configuration of a visualization control device that configures the visualization system of the first embodiment; FIG. 検知対象として設定される飛行物体の具体例を表す図である。FIG. 4 is a diagram showing a specific example of a flying object set as a detection target; 判定用データの一例を表す図である。It is a figure showing an example of the data for determination. 報知制御用データの一例を表す図である。It is a figure showing an example of the data for information control. 表示装置による報知の具体例を表す図である。It is a figure showing the example of alerting|reporting by a display apparatus. 表示装置による報知の別の具体例を表す図である。It is a figure showing another example of alerting|reporting by a display apparatus. 可視化制御装置の動作例を表すフローチャートである。It is a flow chart showing an example of operation of a visualization control device. その他の実施形態を説明する図である。It is a figure explaining other embodiments. 本発明に係る第2実施形態の可視化システムの構成を説明する図である。It is a figure explaining the structure of the visualization system of 2nd Embodiment which concerns on this invention. 第2実施形態の可視化システムを構成する可視化制御装置の機能構成を説明する図である。It is a figure explaining functional composition of a visualization control device which constitutes a visualization system of a 2nd embodiment. 第2実施形態の可視化制御装置の動作例を表すフローチャートである。9 is a flow chart showing an operation example of the visualization control device of the second embodiment;

以下に、本発明に係る実施形態を図面を参照しつつ説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Embodiments according to the present invention will be described below with reference to the drawings.

<第1実施形態>
本発明に係る第1実施形態の可視化システムは、図1に表されているような航空機であるヘリコプター40の操縦者(パイロット)44に向けて、ヘリコプター40に飛行物体が衝突することを回避する動作を促す注意喚起情報を通知可能なシステムである。図2は、第1実施形態の可視化システム1の構成を表すブロック図である。第1実施形態の可視化システム1は、ヘリコプター40の周辺が撮影されている撮影画像を利用して注意喚起情報を生成して通知する機能を備えており、可視化制御装置3と、撮影装置4と、表示装置5と、基地装置6とを有する。
<First embodiment>
The visualization system of the first embodiment according to the present invention aims at a pilot 44 of a helicopter 40, which is an aircraft such as that shown in FIG. It is a system capable of notifying alert information that prompts action. FIG. 2 is a block diagram showing the configuration of the visualization system 1 of the first embodiment. The visualization system 1 of the first embodiment has a function of generating and notifying alert information using a photographed image in which the periphery of the helicopter 40 is photographed. , a display device 5 and a base device 6 .

撮影装置4は、例えばビデオカメラであり、ヘリコプター40に搭載されヘリコプター40の周辺を撮影し、撮影画像として動画を可視化制御装置3に出力する構成を備えている。撮影装置4は、ヘリコプター40の周辺を撮影することを考慮して、360度ビデオカメラが採用されてもよいし、パン機能やチルト機能を備えたビデオカメラが採用されてもよい。また、ヘリコプター40の後方から飛行物体がヘリコプター40に衝突する事態を想定しない場合には、ヘリコプター40の後方を撮影した撮影画像は無くともよい。換言すれば、撮影装置4は、ヘリコプター40の後方を撮影範囲に含まない撮影装置が採用されてもよい。このように、撮影装置4に要求される撮影範囲は適宜設定される。 The photographing device 4 is, for example, a video camera, and is mounted on a helicopter 40 to photograph the surroundings of the helicopter 40 and output moving images as photographed images to the visualization control device 3 . Considering that the surroundings of the helicopter 40 are captured, the imaging device 4 may employ a 360-degree video camera, or may employ a video camera having a pan function and a tilt function. In addition, if a situation in which a flying object collides with the helicopter 40 from behind the helicopter 40 is not assumed, there may be no photographed image of the rear of the helicopter 40 . In other words, the photographing device 4 may employ a photographing device whose photographing range does not include the area behind the helicopter 40 . In this way, the imaging range required for the imaging device 4 is appropriately set.

撮影装置4から出力される撮影画像には、予め設定された基準方向を表す情報が関連付けられる。基準方向とは、例えば、北方向である。撮影装置4に内蔵、あるいは、ヘリコプター40に搭載されている方位センサによるセンサ出力に基づいた基準方向を表す情報が撮影画像に関連付けられる。また、撮影装置4から出力される撮影画像には、撮影時刻を表す情報、および、撮影した撮影装置4を識別する情報も関連付けられている。 Information indicating a preset reference direction is associated with the captured image output from the imaging device 4 . The reference direction is, for example, the north direction. Information representing a reference direction based on a sensor output from an orientation sensor built in the imaging device 4 or mounted on the helicopter 40 is associated with the captured image. The captured image output from the image capturing device 4 is also associated with information representing the time of capturing and information identifying the image capturing device 4 that captured the image.

基地装置6は、ヘリコプター40が待機する基地に設けられた施設に設置される装置であり、ここでは、学習装置30と、記憶装置であるデータベース32とを有して構成されている。 The base device 6 is a device installed in a facility provided at a base where the helicopter 40 waits, and is configured here with a learning device 30 and a database 32 as a storage device.

学習装置30は、可視化制御装置3が使用する参考データを機械学習により生成する機能を備えるコンピュータ装置である。すなわち、学習装置30は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)などのプロセッサを備えている演算装置31を備えている。演算装置31は、撮影装置4により撮影された撮影画像に基づいた教師データを利用した機械学習により参考データを生成する機能を備える。ここでは、参考データとは、ヘリコプター40の飛行空域において飛行することが想定される飛行物体を検知する処理で利用されるデータである。飛行物体の具体例を挙げると、無人航空機(UAV)、空飛ぶ車、飛行船、ヘリコプター、鳥、小型飛行機、商用機、軍用機、ミサイル、スカイダイビングをしている人、気球やグライダー(ハンググライダーやパラグライダーを含む)などがある。図1の例では、飛行物体として、無人航空機41と、空飛ぶ車42とが図示されている。 The learning device 30 is a computer device having a function of generating reference data used by the visualization control device 3 by machine learning. That is, the learning device 30 includes an arithmetic device 31 including a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The computing device 31 has a function of generating reference data by machine learning using teacher data based on the captured image captured by the imaging device 4 . Here, the reference data is data used in the process of detecting a flying object that is expected to fly in the airspace of the helicopter 40 . Examples of flying objects include unmanned aerial vehicles (UAVs), flying vehicles, airships, helicopters, birds, small planes, commercial aircraft, military aircraft, missiles, skydivers, balloons and gliders (hang gliders). and paragliders). In the example of FIG. 1, an unmanned aerial vehicle 41 and a flying car 42 are illustrated as flying objects.

また、演算装置31が機械学習に利用する教師データは、飛行物体を識別する情報が人によって付与された撮影画像データであってもよいし、AI(Artificial Intelligence)技術によるパターン認識により飛行物体を識別する情報が付与された撮影画像データであってもよい。 Further, the teacher data used by the arithmetic unit 31 for machine learning may be captured image data to which information for identifying a flying object has been added by a person, or a flying object can be identified by pattern recognition using AI (Artificial Intelligence) technology. It may be photographed image data to which identification information is added.

さらに、学習装置30が参考データを機械学習により生成する手法は、可視化制御装置3が参考データを用いて実行する処理手法に応じて定められる生成手法であり、ここでは、その説明は省略する。なお、機械学習には、深層学習も含まれるとする。 Furthermore, the method by which the learning device 30 generates the reference data by machine learning is a generation method determined according to the processing method executed by the visualization control device 3 using the reference data, and the description thereof is omitted here. Note that machine learning also includes deep learning.

データベース32は、学習装置30(演算装置31)により生成された参考データや、当該参考データの生成に用いた教師データや、撮影装置4による撮影画像のデータを含むデータを記憶する記憶媒体である。 The database 32 is a storage medium that stores data including reference data generated by the learning device 30 (arithmetic device 31), teacher data used to generate the reference data, and data of images captured by the imaging device 4. .

表示装置5は、情報を視覚的に報知する装置である。ここでは、表示装置5が報知(表示)する情報は、可視化制御装置3から提供される。また、表示装置5が情報を報知する報知対象は、ヘリコプター40の操縦者44である。これにより、表示装置5は、表示された情報を操縦者44が認識しやすいような態様を有している。例えば、図1の例では、表示装置5は、スマートグラスの態様である。すなわち、表示装置5は、図6に表されるようなメガネ状のウェアラブル端末であり、例えば、網膜走査方式の表示装置(ディスプレイ)である。 The display device 5 is a device that visually notifies information. Here, the information notified (displayed) by the display device 5 is provided from the visualization control device 3 . Further, the target of information to be notified by the display device 5 is the operator 44 of the helicopter 40 . Thereby, the display device 5 has a mode in which the operator 44 can easily recognize the displayed information. For example, in the example of FIG. 1, the display device 5 is in the form of smart glasses. That is, the display device 5 is a glasses-like wearable terminal as shown in FIG. 6, and is, for example, a retinal scanning display device (display).

可視化制御装置3は、飛行物体との衝突を回避する動作を促す情報を、表示装置5を利用してヘリコプター40の操縦者44に向けて提供するコンピュータ装置である。すなわち、可視化制御装置3は、演算装置10と、記憶装置11とを備えている。記憶装置11は、データやコンピュータプログラム(以下、プログラムとも記す)12を記憶する記憶媒体である。記憶媒体には様々な種類があり、記憶装置11は、何れの記憶媒体により構成されてもよい。また、可視化制御装置3には、複数種の記憶媒体が備えられていてもよく、この場合には、複数種の記憶媒体をまとめて記憶装置11として表すこととする。記憶装置11の構成および動作の説明は省略する。 The visualization control device 3 is a computer device that uses the display device 5 to provide the operator 44 of the helicopter 40 with information prompting an action to avoid a collision with the flying object. That is, the visualization control device 3 has an arithmetic device 10 and a storage device 11 . The storage device 11 is a storage medium that stores data and computer programs (hereinafter also referred to as programs) 12 . There are various types of storage media, and the storage device 11 may be configured with any storage media. Also, the visualization control device 3 may be provided with a plurality of types of storage media. A description of the configuration and operation of the storage device 11 is omitted.

演算装置10は、例えば、CPUやGPUなどのプロセッサを備えている。プロセッサは、記憶装置11に記憶されているプログラムを読み出して実行することにより、当該プログラムに基づいた様々な機能を持つことができる。例えば、第1実施形態では、演算装置10は、検知部15と、判定部16と、表示制御部17と、更新部18という機能部を有している。 The computing device 10 includes, for example, a processor such as a CPU or GPU. By reading and executing a program stored in the storage device 11, the processor can have various functions based on the program. For example, in the first embodiment, the computing device 10 has functional units such as a detection unit 15 , a determination unit 16 , a display control unit 17 , and an update unit 18 .

検知部15は、撮影装置4により撮影された撮影画像から、飛行物体を検知し、さらに、飛行物体とヘリコプターとの間の距離、検知した飛行物体の移動方向、および、飛行物体の速度を検知する機能を備える。すなわち、検知部15は、物体検知部20と、距離検知部21と、方向検知部22と、速度検知部23とを備える。ここでは、ヘリコプター40の飛行空域において飛行することが想定される飛行物体が検知対象として予め設定されている。例えば、図3に表されているような飛行物体が検知対象として設定される。なお、図3の例では、種類が特定されていない不明な飛行物体(換言すれば、飛行していることを検知できるが、識別できない物体)も、不明な物体として、検知対象として設定される。 The detection unit 15 detects the flying object from the captured image captured by the imaging device 4, and further detects the distance between the flying object and the helicopter, the movement direction of the detected flying object, and the speed of the flying object. It has a function to Specifically, the detection unit 15 includes an object detection unit 20 , a distance detection unit 21 , a direction detection unit 22 and a speed detection unit 23 . Here, a flying object that is assumed to fly in the flight airspace of the helicopter 40 is preset as a detection target. For example, a flying object as shown in FIG. 3 is set as a detection target. In the example of FIG. 3, an unknown flying object whose type is not specified (in other words, an object that can be detected as flying but cannot be identified) is also set as an unknown object as a detection target. .

物体検知部20は、撮影装置4により撮影された撮影画像から、記憶装置11に格納されている参考データを利用して、検知対象の飛行物体を検知する機能を備えている。参考データとは、検知対象として設定された飛行物体を検知するためのデータであり、学習装置30により生成されて記憶装置11に格納される。物体検知部20は、検知対象の飛行物体を検知する検知処理を、撮影画像を構成する全てのフレーム画像に実行してもよいが、演算装置10の負荷軽減のために、選択したフレーム画像のみに実行してもよい。検知処理を実行するフレーム画像を選択する場合には、例えば、フレーム画像を時系列で並べた場合に、演算装置10の処理能力等を考慮して定められた枚数毎のフレーム画像が選択される。 The object detection unit 20 has a function of detecting a flying object to be detected from the captured image captured by the imaging device 4 using the reference data stored in the storage device 11 . Reference data is data for detecting a flying object set as a detection target, and is generated by the learning device 30 and stored in the storage device 11 . The object detection unit 20 may perform detection processing for detecting a flying object to be detected for all frame images that make up the captured image. may be executed to When selecting the frame images for which the detection process is to be performed, for example, when the frame images are arranged in chronological order, frame images are selected for each number determined in consideration of the processing capability of the arithmetic unit 10 and the like. .

撮影画像から飛行物体を検知する手法としては、例えば、AI(Artificial Intelligence)技術を利用する手法がある。AI技術により撮影画像から飛行物体を検知する手法として採用し得る検知手法には複数種有り、ここでは、演算装置10の処理能力や、撮影装置4による撮影画像の解像度や撮影環境などの様々な事項を考慮して適宜選択された検知手法が採用される。その検知手法の説明は省略される。なお、上述のように、不明な飛行物体も検知対象として設定される場合には、不明な飛行物体が撮影されている撮影画像をも教師データとして利用して学習装置30は参考データを生成する機能を持つ。このように生成された参考データを利用して、物体検知部20は、不明な飛行物体を検知する。あるいは、例えば、様々な空状況の撮影画像を利用した教師データを用いた機械学習によって背景画像の参考データを生成する機能を学習装置30が持つ。そして、物体検知部20は、そのような背景画像の参考データと、識別可能な飛行物体を検知するデータとを利用して、撮影画像において、背景でも識別可能な飛行物体でもない物体を検知した場合には、不明な飛行物体があると検知してもよい。 As a method for detecting a flying object from a captured image, for example, there is a method using AI (Artificial Intelligence) technology. There are a plurality of detection methods that can be employed as a method for detecting a flying object from a photographed image using AI technology. A detection method appropriately selected in consideration of the matter is adopted. The description of the detection method is omitted. As described above, when an unknown flying object is also set as a detection target, the learning device 30 generates reference data using captured images of unknown flying objects as teacher data. have a function. Using the reference data generated in this way, the object detection unit 20 detects an unknown flying object. Alternatively, for example, the learning device 30 has a function of generating reference data of a background image by machine learning using teacher data using captured images of various sky conditions. Then, the object detection unit 20 uses the background image reference data and the data for detecting an identifiable flying object to detect an object that is neither a background nor an identifiable flying object in the captured image. In some cases, it may be detected that there is an unknown flying object.

距離検知部21は、検知された飛行物体(以下、検知飛行物体とも称する)とヘリコプター40との間の距離を、撮影画像から検知する機能を備える。すなわち、記憶装置11には距離算出用データが予め与えられている。距離算出用データは、撮影画像における検知飛行物体の大きさ(例えば画素数)を用いて、検知飛行物体とヘリコプター40との間の距離を算出するデータである。当該距離算出用データは、例えば、撮影画像における検知飛行物体の大きさと、検知飛行物体とヘリコプター40との間の距離との関係データである。この関係データは、検知飛行物体の実際の大きさや、レンズ倍率などの実際に撮影する場合の撮影装置4の設定などを考慮した実験やシミュレーションの結果を利用して生成される。 The distance detection unit 21 has a function of detecting the distance between the detected flying object (hereinafter also referred to as the detected flying object) and the helicopter 40 from the captured image. That is, the storage device 11 is provided with distance calculation data in advance. The distance calculation data is data for calculating the distance between the detected flying object and the helicopter 40 using the size (for example, the number of pixels) of the detected flying object in the captured image. The distance calculation data is, for example, relationship data between the size of the detected flying object in the captured image and the distance between the detected flying object and the helicopter 40 . This relational data is generated using the results of experiments and simulations that take into consideration the actual size of the detected flying object and the settings of the photographing device 4 such as the lens magnification when actually photographing.

距離検知部21は、撮影画像における検知飛行物体の大きさ(例えば画素数)を検知し、当該検知した検知飛行物体の大きさと、距離算出用データとを利用して、検知飛行物体とヘリコプター40との間の距離を算出する。 The distance detection unit 21 detects the size (for example, the number of pixels) of the detected flying object in the captured image, and uses the detected size of the detected flying object and data for distance calculation to determine the distance between the detected flying object and the helicopter 40 . Calculate the distance between

方向検知部22は、撮影画像から検知対象の飛行物体が検知された場合に、ヘリコプター40に対する、検知飛行物体の移動方向を検知する機能を備える。例えば、方向検知部22は、検知飛行物体が検知された時系列データである複数のフレーム画像における検知飛行物体の変位方向と、距離検知部21により算出された検知飛行物体とヘリコプター40との間の距離の変化とを検知する。さらに、方向検知部22は、それら検知飛行物体の変位方向と、距離の変化と利用して、ヘリコプター40に対する検知飛行物体の移動方向を検知する。なお、撮影装置4がパン機能やチルト機能を備えており、パン機能やチルト機能による撮影が行われる場合がある。この場合には、例えば、撮影画像に含まれている基準方向の情報に基づいて定まる基準の二次元座標系を利用して撮影画像における検知飛行物体の位置を特定し、この特定した位置を利用して検知飛行物体の変位方向を検知する。これにより、パン機能やチルト機能による撮影範囲の変化の悪影響を受けずに、検知飛行物体の変位方向を検知可能である。 The direction detection unit 22 has a function of detecting the movement direction of the detected flying object with respect to the helicopter 40 when the detection target flying object is detected from the captured image. For example, the direction detection unit 22 detects the displacement direction of the detected flying object in a plurality of frame images that are time-series data in which the detected flying object is detected, and the distance between the detected flying object and the helicopter 40 calculated by the distance detection unit 21. to detect changes in the distance of Furthermore, the direction detection unit 22 detects the moving direction of the detected flying object relative to the helicopter 40 by using the displacement direction of the detected flying object and the change in distance. Note that the photographing device 4 has a pan function and a tilt function, and photographing may be performed using the pan function and the tilt function. In this case, for example, the position of the detected flying object in the captured image is specified using a reference two-dimensional coordinate system determined based on the reference direction information included in the captured image, and this specified position is used. to detect the displacement direction of the detected flying object. As a result, the displacement direction of the detected flying object can be detected without being adversely affected by changes in the imaging range due to the pan function and tilt function.

速度検知部23は、ヘリコプター40に対する検知飛行物体の相対的な速度(以下、単に飛行物体速度とも称する)を検知する機能を備えている。飛行物体速度の検知には、方向検知部22による検知飛行物体の移動方向と、距離検知部21による検知飛行物体とヘリコプター40との間の距離の変化と、当該距離の変化に要した時間とが利用される。距離の変化に要した時間は、フレーム画像に付与されている撮影時刻の情報を利用して取得される。 The speed detection unit 23 has a function of detecting the relative speed of the detected flying object with respect to the helicopter 40 (hereinafter simply referred to as flying object speed). To detect the flying object speed, the movement direction of the detected flying object by the direction detection unit 22, the change in the distance between the detected flying object by the distance detection unit 21 and the helicopter 40, and the time required for the change in the distance. is used. The time required for the change in distance is acquired using information about the shooting time attached to the frame image.

判定部16は、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する機能を備える。その判定には、距離検知部21による検知飛行物体とヘリコプター40との間の距離、方向検知部22による検知飛行物体の移動方向、速度検知部23による飛行物体速度、および、予め設定されて記憶装置11に格納されている判定用データが用いられる。 The determination unit 16 has a function of determining whether or not there is a risk of a flying object approaching or colliding with the helicopter 40 . The determination includes the distance between the flying object detected by the distance detection unit 21 and the helicopter 40, the moving direction of the flying object detected by the direction detection unit 22, the speed of the flying object detected by the speed detection unit 23, and the previously set and stored Judgment data stored in the device 11 is used.

判定用データは、上述したような移動方向と距離と速度の組み合わせに基づいて、飛行物体がヘリコプター40に接近あるいは衝突する危険性について判定する判断基準が表されているデータである。 Judgment data is data representing judgment criteria for judging the risk of a flying object approaching or colliding with the helicopter 40 based on the above-described combination of moving direction, distance, and speed.

図4には、判定用データの具体例が表されている。図4に表されている判定用データは、危険性の有無だけでなく、危険性の度合いを表すレベルをも判定可能なデータとなっている。図4の判定用データによれば、飛行物体速度が速く、かつ、検知飛行物体とヘリコプター40との間の距離が短くて検知飛行物体がヘリコプター40の近くに存在し、かつ、検知飛行物体がヘリコプター40に近付く方向に移動している場合には、危険性は有りである。また、この場合には、危険性のレベルは、『6』である。ここでの危険性のレベルは、1から6の整数により表され、レベル1からレベル6に向かうに従って危険性が高くなることを表している。 FIG. 4 shows a specific example of determination data. The determination data shown in FIG. 4 is data that can determine not only the presence or absence of danger, but also the level representing the degree of danger. According to the determination data in FIG. 4, the flying object has a high speed, the distance between the detected flying object and the helicopter 40 is short, the detected flying object exists near the helicopter 40, and the detected flying object is close to the helicopter 40. If the helicopter 40 is moving towards it, the danger is there. Also, in this case, the risk level is "6". The risk levels here are represented by integers from 1 to 6, and the risk increases from level 1 to level 6.

判定部16が、図4に表されるような判定用データを利用して、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する場合には、飛行物体速度が速いか遅いかを判断する速度区分値が予め与えられる。速度区分値は、例えば、ヘリコプター40の速度の変動幅が予め設定されている許容範囲内であるという安定飛行状態でのヘリコプター40の平均速度に基づいて予め設定される。つまり、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する場合に、ヘリコプター40に対する飛行物体の相対的な速度が重要な判定材料になると考えられる。このことから、飛行物体速度が速いか遅いかを判断する速度区分値の設定に、安定飛行状態でのヘリコプター40の平均速度を利用することが考えられる。なお、速度区分値の設定手法は、この例に限定されない。 When the determination unit 16 determines whether there is a risk of the flying object approaching or colliding with the helicopter 40 using the determination data shown in FIG. A speed classification value is given in advance to determine whether the speed is slow or slow. The speed segment value is preset, for example, based on the average speed of the helicopter 40 in stable flight conditions in which the range of variation in the speed of the helicopter 40 is within a preset allowable range. In other words, when determining whether or not there is a risk of the flying object approaching or colliding with the helicopter 40, the relative speed of the flying object with respect to the helicopter 40 is considered to be an important criterion. For this reason, it is conceivable to use the average speed of the helicopter 40 in stable flight conditions to set the speed classification value for judging whether the flying object speed is fast or slow. Note that the method of setting the speed category value is not limited to this example.

判定部16は、上述したように設定される速度区分値に基づいて、飛行物体速度が速いか遅いかを判定する機能を備える。さらに、判定部16は、距離判定情報を利用して、検知飛行物体とヘリコプター40との間の距離が『遠い』と『中程度』と『近い』との何れに該当するかを判定する機能を備える。距離判定情報は、検知飛行物体とヘリコプター40との間の距離が『遠い』と『中程度』と『近い』との何れに該当するかを表す情報であり、予め設定されて与えられる。距離判定情報は、『遠い』を表す範囲情報と、『中程度』を表す範囲情報と、『近い』を表す範囲情報とを含む。ここでの検知飛行物体とヘリコプター40との間の距離は、飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する判定材料の一つである。つまり、検知飛行物体とヘリコプター40との間の距離が短い場合には、飛行物体がヘリコプター40に接近あるいは衝突する危険性が高く、距離が長くなるに従って、飛行物体がヘリコプター40に接近あるいは衝突する危険性が低くなっていく。このような距離と危険性の関係には、安定飛行状態でのヘリコプター40の平均速度が関与すると考えられる。このことにより、距離判定情報の設定の具体例としては、例えば、『遠い』を表す範囲と、『中程度』を表す範囲と、『近い』を表す範囲とは、安定飛行状態でのヘリコプター40の平均速度に基づいて定められる。あるいは、それら範囲は、安定飛行状態でのヘリコプター40の平均速度と、図4のような飛行物体速度の区分(速い、あるいは、遅い)との組み合わせにより定まる範囲であってもよい。 The determination unit 16 has a function of determining whether the flying object speed is fast or slow based on the speed classification value set as described above. Furthermore, the determination unit 16 uses the distance determination information to determine whether the distance between the detected flying object and the helicopter 40 is "long," "medium," or "close." Prepare. The distance determination information is information indicating whether the distance between the detected flying object and the helicopter 40 is "long," "medium," or "close," and is set and given in advance. The distance determination information includes range information representing "distant", range information representing "middle", and range information representing "near". The distance between the detected flying object and the helicopter 40 here is one of the criteria for determining whether there is a risk of the flying object approaching or colliding with the helicopter 40 . That is, when the distance between the detected flying object and the helicopter 40 is short, there is a high risk that the flying object will approach or collide with the helicopter 40, and as the distance increases, the flying object will approach or collide with the helicopter 40. becoming less dangerous. It is believed that the average speed of the helicopter 40 under stable flight conditions is involved in the relationship between distance and risk. As a specific example of the setting of the distance determination information, for example, the range representing "distant", the range representing "middle", and the range representing "near" correspond to the helicopter 40 in a stable flight state. is determined based on the average speed of Alternatively, these ranges may be ranges defined by a combination of the average velocity of the helicopter 40 in stable flight conditions and the classification of the flying object velocity (fast or slow) as shown in FIG.

判定部16は、判定用データと、検知飛行物体の移動方向と距離と速度との情報を利用して、物体検知部20による検知飛行物体が、ヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する。さらに、第1実施形態では、判定部16は、さらに、危険性のレベルを判定する。 The determination unit 16 determines whether there is a risk that the flying object detected by the object detection unit 20 will approach or collide with the helicopter 40 by using the determination data and information on the movement direction, distance, and speed of the detected flying object. determine whether or not Furthermore, in the first embodiment, the determination unit 16 further determines the level of risk.

表示制御部17は、操縦者44に向けて情報を報知する表示装置5の動作を制御する機能を備える。例えば、記憶装置11には、図5に表されるような報知制御用データが格納されているとする。報知制御用データは、表示制御部17が表示装置5の表示動作を制御する際に参照するデータであり、判定部16により判定された危険性のレベルに応じて表示する情報の種類とその表示手法を表すデータである。例えば、図5に表されている標準設定では、危険性がレベル1の場合には、検知部15により検知される飛行物体のマークおよび名称が緑色で小さく表示され、他の情報は表示されないという表示制御用の情報が設定されている。また、危険性がレベル6の場合には、検知部15により検知される飛行物体のマークおよび名称、距離、速度、移動方向、判定部16による危険性のレベルの情報および警告表示が赤色で極大表示されるという表示制御用の情報が設定されている。なお、飛行物体のマークとしては、例えば、図3に表されるようなマークが表示される。また、表示の大きさである「小」、「中」、「大」および「極大」は、表示装置5の表示領域の大きさに基づいて予め設定される。また、表示の色や、警告表示の文言、記号、文字飾りなどは、表示の明瞭さ等を考慮して適宜設定されるものである。 The display control unit 17 has a function of controlling the operation of the display device 5 that notifies the operator 44 of information. For example, it is assumed that the storage device 11 stores notification control data as shown in FIG. The notification control data is data that the display control unit 17 refers to when controlling the display operation of the display device 5. The type of information to be displayed according to the level of danger determined by the determination unit 16 and its display are determined. Data representing the method. For example, in the standard setting shown in FIG. 5, when the danger is level 1, the mark and name of the flying object detected by the detection unit 15 are displayed in green and small, and other information is not displayed. Information for display control is set. When the danger is level 6, the mark and name of the flying object detected by the detection unit 15, the distance, the speed, the direction of movement, and the information on the danger level and the warning display by the determination unit 16 are red and maximum. Information for display control to be displayed is set. As the flying object mark, for example, a mark as shown in FIG. 3 is displayed. Also, the display sizes “small”, “medium”, “large” and “maximum” are set in advance based on the size of the display area of the display device 5 . In addition, the color of the display, the wording of the warning display, the symbol, the character decoration, etc. are appropriately set in consideration of the clarity of the display.

また、ここでは、表示装置5によって報知し得る情報である飛行物体のマークおよび名称、距離、速度、移動方向、危険性のレベルの情報には、選択情報が関連付けられているとする。選択情報は、報知の要否を表す情報であり、可視化制御装置3に情報を入力する入力装置(図示せず)が例えば操縦者44により操作されることにより、報知の必要と不要の一方が選択されて選択情報と成す。この選択情報は、危険性のレベル毎に設定可能であるとする。 Here, it is assumed that selection information is associated with the flying object mark and name, distance, speed, moving direction, and risk level information that can be notified by the display device 5 . The selection information is information indicating whether notification is necessary or not, and when an input device (not shown) for inputting information to the visualization control device 3 is operated by, for example, the operator 44, either the necessity or the unnecessary of notification is determined. It is selected to form selection information. It is assumed that this selection information can be set for each risk level.

上述したような報知制御用データが記憶装置11に格納されている場合に、検知部15の検知動作により、飛行物体が検知され、さらに、検知された検知飛行物体に関する距離と速度と移動方向が検知されたとする。さらにまた、判定部16により、危険性の有無と危険レベルが判定されたとする。表示制御部17は、検知部15と判定部16による検知飛行物体の種類と危険性の有無およびレベルとの情報と、操縦者44による選択情報を含む報知制御用データとに基づいて、検知飛行物体に係る情報が操縦者44に向けて報知されるように表示装置5の動作を制御する。 When the notification control data as described above is stored in the storage device 11, the flying object is detected by the detection operation of the detection unit 15, and the distance, speed, and moving direction of the detected flying object are determined. Suppose it is detected. Furthermore, it is assumed that the judgment unit 16 has judged the presence or absence of danger and the danger level. The display control unit 17 controls the detection flight based on the information about the type of flying object detected by the detection unit 15 and the determination unit 16, the presence or absence of danger, and the level of danger, and the information control data including the information selected by the operator 44. The operation of the display device 5 is controlled so that the information regarding the object is notified to the operator 44 .

すなわち、表示制御部17は、表示装置5の動作を制御することによって、ヘリコプター40に接近あるいは衝突する危険性がある飛行物体が存在することを可視化して警告する機能を備える。 That is, the display control unit 17 has a function of visualizing and warning the presence of a flying object that may approach or collide with the helicopter 40 by controlling the operation of the display device 5 .

なお、図5に表される標準設定の例では、危険性が無い(レベル1)と判断された場合にも、検知部15と判定部16による検知飛行物体のマークおよび名称の情報が操縦者44に向けて表示装置5により報知される。ただ、レベル1である場合に、前述したような操縦者44による選択情報により、検知飛行物体のマークおよび名称の情報の報知が不要であると設定されている場合には、検知飛行物体のマークおよび名称の情報も(つまり、何も)表示装置5により表示されない。 In the example of the standard settings shown in FIG. 5, even when it is determined that there is no danger (level 1), the mark and name information of the flying object detected by the detection unit 15 and the determination unit 16 are not displayed by the operator. 44 by the display device 5. However, in the case of level 1, if the information selected by the operator 44 as described above is set so that notification of the detected flying object mark and name information is unnecessary, the detected flying object mark and name information (ie nothing) is displayed by the display device 5 .

更新部18は、ヘリコプター40が地上で待機している期間中(以下、ヘリコプター40の地上待機中とも称する)に、撮影装置4により撮影され記憶装置11に記憶されている撮影画像のデータを学習装置30に向けて出力する機能を備えている。すなわち、ヘリコプター40が地上で待機していることは、例えば、ヘリコプター40のプロペラの回転数を検知する回転数センサから出力されるセンサ出力を利用してプロペラが停止していることを検知することにより、検知可能である。これにより、更新部18は、プロペラの回転数センサのセンサ出力に基づいてヘリコプター40が地上で待機していることを検知している期間中に(例えば着陸を検知した時点で)、学習装置30に接続し、学習装置30に向けて記憶装置11の撮影画像のデータを出力する。出力される撮影画像のデータには、前述したように、撮影時刻の情報と、撮影した撮影装置4を識別する情報とが関連付けられている。 The updating unit 18 learns the data of the captured images captured by the imaging device 4 and stored in the storage device 11 while the helicopter 40 is on standby on the ground (hereinafter also referred to as the helicopter 40 on standby on the ground). It has a function of outputting to the device 30 . That is, the fact that the helicopter 40 is on standby on the ground means that the propeller of the helicopter 40 is stopped by detecting, for example, a sensor output from a rotation speed sensor that detects the rotation speed of the propeller of the helicopter 40. can be detected by As a result, the updating unit 18 detects that the helicopter 40 is waiting on the ground based on the sensor output of the propeller rotation speed sensor (for example, when detecting landing), the learning device 30 , and outputs the captured image data in the storage device 11 toward the learning device 30 . As described above, the data of the captured image to be output is associated with the information of the capturing time and the information for identifying the capturing device 4 that captured the image.

ヘリコプター40から撮影画像を受信した学習装置30においては、受信した撮影画像のデータがデータベース32に書き込まれ、また、受信し追加された撮影画像のデータに基づいた教師データを利用した機械学習により参考データが更新される。更新された参考データはデータベース32の参考データに上書きされる。 In the learning device 30 that has received the photographed image from the helicopter 40, the data of the received photographed image is written in the database 32, and the data of the photographed image that has been received and added is used for reference by machine learning using teacher data. Data is updated. The updated reference data overwrites the reference data in the database 32 .

更新部18は、さらに、ヘリコプター40の地上待機中に、学習装置30を介してヘリコプター40の記憶装置11に格納されている参考データを、データベース32の参考データに同期させる機能を備えている。参考データの同期を行うタイミングは、例えば、ヘリコプター40が稼動停止状態から稼動状態に遷移し、離陸しようとしていると想定されるタイミングが考えられる。これにより、ヘリコプター40の飛行中に、演算装置10における検知部15は、最新の参考データを利用した検知動作を行うことが可能となる。 The updating unit 18 further has a function of synchronizing the reference data stored in the storage device 11 of the helicopter 40 with the reference data in the database 32 via the learning device 30 while the helicopter 40 is on standby on the ground. The timing for synchronizing the reference data can be, for example, the timing when the helicopter 40 transitions from the non-operating state to the operating state and is about to take off. As a result, while the helicopter 40 is in flight, the detection unit 15 in the calculation device 10 can perform a detection operation using the latest reference data.

第1実施形態の可視化システム1および可視化制御装置3の構成は上記のように構成されている。次に、可視化制御装置3の動作例を図8のフローチャートを利用して説明する。 The configurations of the visualization system 1 and the visualization control device 3 of the first embodiment are configured as described above. Next, an operation example of the visualization control device 3 will be described using the flowchart of FIG.

例えば、ヘリコプター40を離陸させるべく離陸準備が開始されて電源が投入されると、可視化制御装置3の更新部18は、基地装置6の学習装置30と接続する。そして、更新部18は、学習装置30を介して、記憶装置11の参考データを、基地装置6のデータベース32の参考データに同期させる(ステップS101)。また、表示制御部17は、表示装置5により報知する情報を操縦者44に選択させる選択肢の情報を表示装置5によって操縦者44に向けて通知する。これを受けた操縦者44による入力装置の操作情報に基づいて、表示制御部17は、表示装置5による操縦者44への報知条件(つまり、報知制御用データの選択情報)を設定する(ステップS102)。 For example, when takeoff preparations are started to take off the helicopter 40 and power is turned on, the updating unit 18 of the visualization control device 3 connects to the learning device 30 of the base device 6 . Then, the update unit 18 synchronizes the reference data in the storage device 11 with the reference data in the database 32 of the base device 6 via the learning device 30 (step S101). In addition, the display control unit 17 notifies the operator 44 through the display device 5 of information of options for allowing the operator 44 to select the information notified by the display device 5 . Based on the received operation information of the input device by the operator 44, the display control unit 17 sets notification conditions (that is, selection information of notification control data) to the operator 44 by the display device 5 (step S102).

然る後に、ヘリコプター40が離陸した以降の飛行中において、検知部15は、撮影装置4による撮影画像を、参考データを利用したAI技術により解析し、ヘリコプター40の周辺の飛行物体を検知する。さらに、検知部15は、飛行物体を検知した場合には、検知飛行物体の移動方向と、ヘリコプター40と検知飛行物体との間の距離とを検知する。検知部15は、上述したような飛行物体の検知と、検知飛行物体の移動方向と距離とを検知する検知処理を実行する(ステップS103)。さらに、検知部15により飛行物体が検知された場合には、判定部16は、検知処理により検知された情報と、判定用データとに基づいて、検知飛行物体がヘリコプター40に接近あるいは衝突する危険性があるか否かを判定する判定処理を実行する(ステップS104)。さらに、表示制御部17は、報知制御用データを参照して表示装置5の動作を制御することにより、検知部15による検知処理による情報と、判定部16による判定処理による情報とを操縦者44に向けて報知する報知処理を実行する(ステップS105)。 After that, during the flight after the helicopter 40 takes off, the detection unit 15 analyzes the image captured by the imaging device 4 by AI technology using reference data, and detects flying objects around the helicopter 40 . Further, when detecting a flying object, the detection unit 15 detects the moving direction of the detected flying object and the distance between the helicopter 40 and the detected flying object. The detection unit 15 executes detection processing for detecting the above-described flying object and detecting the movement direction and distance of the detected flying object (step S103). Furthermore, when a flying object is detected by the detection unit 15, the determination unit 16 determines the danger of the detected flying object approaching or colliding with the helicopter 40 based on the information detected by the detection processing and the determination data. A judgment process for judging whether or not there is a property is executed (step S104). Furthermore, the display control unit 17 controls the operation of the display device 5 with reference to the notification control data, so that the information obtained by the detection processing by the detection unit 15 and the information obtained by the determination processing by the determination unit 16 are transmitted to the operator 44. (step S105).

上述したような検知処理と判定処理と報知処理は、ヘリコプター40の飛行中、繰り返し実行される。 The detection process, determination process, and notification process described above are repeatedly executed while the helicopter 40 is in flight.

その後、更新部18は、ヘリコプター40が着陸したことを検知した場合(ヘリコプター40の地上待機中)には、学習装置30に接続し、記憶装置11に格納されている撮影画像のデータを学習装置30に出力する(ステップS106)。撮影画像のデータを受信した学習装置30は、受信した撮影画像のデータをデータベース32に格納する。また、学習装置30は、追加された撮影画像のデータに基づいた教師データを利用して、可視化制御装置3における検知部15が利用する参考データを機械学習により更新し、更新した参考データをデータベース32の参考データに上書きする。 After that, when the update unit 18 detects that the helicopter 40 has landed (while the helicopter 40 is on standby on the ground), the update unit 18 connects to the learning device 30 and updates the captured image data stored in the storage device 11 to the learning device. 30 (step S106). The learning device 30 that has received the captured image data stores the received captured image data in the database 32 . Further, the learning device 30 updates the reference data used by the detection unit 15 in the visualization control device 3 by machine learning using the teacher data based on the data of the added captured image, and stores the updated reference data in the database. Overwrite the reference data of 32.

第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、撮影画像から、航空機であるヘリコプター40に衝突する危険性がある飛行物体を検知し、当該検知飛行物体に関する情報を可視化して操縦者44に向けて報知する機能を備えている。これにより、第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、ヘリコプター40の操縦者44に向けて、飛行物体との衝突を回避する動作を促す情報を通知できるという効果を得ることができる。 The visualization system 1 of the first embodiment and the visualization control device 3 constituting it detect a flying object that has a risk of colliding with a helicopter 40, which is an aircraft, from a captured image, and visualize information about the detected flying object. It has a function of notifying the operator 44 by pressing the button. As a result, the visualization system 1 of the first embodiment and the visualization control device 3 that constitutes it can notify the operator 44 of the helicopter 40 of information prompting an action to avoid a collision with a flying object. Obtainable.

また、第1実施形態では、表示装置5は、スマートグラスの態様であり、操縦者44が装着可能な装置であるから、ヘリコプター40の内部に表示装置5を固定する必要が無いことから、その分、ヘリコプター40の内部のスペースを拡げることができる。 Further, in the first embodiment, the display device 5 is in the form of smart glasses and is a device that can be worn by the operator 44. Therefore, there is no need to fix the display device 5 inside the helicopter 40. In addition, the space inside the helicopter 40 can be expanded.

さらに、第1実施形態では、危険性が有る旨の報知を行う場合に、危険性が有ることが明瞭に報知されるように表示装置5の動作が制御される。これにより、第1実施形態の可視化システム1およびそれを構成する可視化制御装置3は、ヘリコプター40の操縦者44に向けて、危険性が有る旨の報知を効果的に行うことができる。 Furthermore, in the first embodiment, the operation of the display device 5 is controlled so as to clearly notify that there is a danger when the danger is notified. As a result, the visualization system 1 of the first embodiment and the visualization control device 3 constituting it can effectively notify the operator 44 of the helicopter 40 that there is a danger.

さらに、第1実施形態では、可視化制御装置3は更新部18を備え、更新部18の機能によって、飛行中に撮影した撮影画像を基地装置6に提供し、学習装置30は、その撮影画像を参考データの機械学習に利用する構成を備えている。さらに、可視化制御装置3は、更新部18の機能によって、記憶装置11の参考データを、学習装置30による機械学習により更新された参考データと同期させることができる。このような構成により、可視化制御装置3は、更新済みの参考データを利用して、撮影画像から飛行物体を検知することができることとなり、これにより、飛行物体の検知に対する信頼性を高めることができる。 Furthermore, in the first embodiment, the visualization control device 3 is provided with the updating unit 18, and by the function of the updating unit 18, the base device 6 is provided with the photographed images taken during flight, and the learning device 30 provides the photographed images It has a configuration that can be used for machine learning of reference data. Furthermore, the visualization control device 3 can synchronize the reference data in the storage device 11 with the reference data updated by machine learning by the learning device 30 by the function of the updating unit 18 . With such a configuration, the visualization control device 3 can detect the flying object from the captured image using the updated reference data, thereby increasing the reliability of the detection of the flying object. .

さらに、第1実施形態では、可視化制御装置3は、ヘリコプター40の地上待機中に基地装置6に接続して基地装置6とのデータ通信を行う構成である。これにより、飛行中よりも通信不良が発生しにくい状況で、可視化制御装置3は、基地装置6とデータ通信できる。 Furthermore, in the first embodiment, the visualization control device 3 is configured to connect to the base device 6 and perform data communication with the base device 6 while the helicopter 40 is on standby on the ground. As a result, the visualization control device 3 can perform data communication with the base device 6 in a situation in which poor communication is less likely to occur than during flight.

なお、第1実施形態では、表示装置5は、スマートグラスの態様であり、操縦者44が装着可能な装置である。これに代えて、表示装置5は、図7に表されているような操縦者44の前面のガラス窓に情報を表示する例えばプロジェクタであってもよい。また、表示装置5は、操縦者44の操縦を妨げない態様で情報を操縦者44に通知できれば、スマートグラスや図7に表される態様以外の表示装置であってもよい。 In the first embodiment, the display device 5 is in the form of smart glasses and is a device that can be worn by the operator 44 . Alternatively, the display device 5 may be, for example, a projector that displays information on a glass window in front of the operator 44 as shown in FIG. Further, the display device 5 may be smart glasses or a display device other than that shown in FIG.

また、基地装置6は、複数のヘリコプター40と接続可能であり、学習装置30は、複数のヘリコプター40のそれぞれから受信した撮影装置4の撮影画像に基づいた教師データを利用して、可視化制御装置3が用いる参考データを機械学習する構成としてもよい。この場合には、参考データの機械学習に用いる教師データの数を、1台のヘリコプター40における撮影画像を利用する場合に比べて、増加することができ、また、飛行物体が撮影されている状況が様々に異なる撮影画像が得やすくなる。これにより、可視化制御装置3の検知部15による検知精度を高めることができる参考データを生成できるため、可視化システムおよび可視化制御装置3が操縦者44に報知する情報の信頼性を高めることができる。 In addition, the base device 6 can be connected to a plurality of helicopters 40, and the learning device 30 utilizes teacher data based on the captured images of the imaging device 4 received from each of the plurality of helicopters 40, and the visualization control device 3 may be configured to machine-learn the reference data used by . In this case, the number of teacher data used for machine learning of reference data can be increased compared to the case of using images captured by one helicopter 40, and the situation in which the flying object is captured can be increased. It becomes easy to obtain captured images in which the number is variously different. As a result, reference data that can improve the detection accuracy of the detection unit 15 of the visualization control device 3 can be generated, so the reliability of the information that the visualization system and the visualization control device 3 notify the operator 44 can be increased.

さらに、参考データは、検知したい飛行物体を機械学習したデータを含むだけでなく、検知しなくともよい飛行物体(例えば、ヘリコプター40への影響が小さいと想定される小鳥など)を、検知対象外のデータとして機械学習したデータが含まれる。 Further, the reference data not only includes machine-learned data of flying objects to be detected, but also flying objects that do not need to be detected (for example, small birds that are assumed to have a small impact on the helicopter 40) are excluded from detection targets. , which includes machine-learned data.

さらに、図6や図7の例では、距離や速度の情報は、「近い」、「速い」などの文字情報によって表示される例が示されているが、より具体的な数値情報が表示されてもよい。さらに、方向検知部22は、ヘリコプター40に対する検知飛行物体の移動方向を検知する機能を備えている例を示している。これに代えて、例えば、方向検知部22は、ヘリコプター40に搭載されている方位センサの情報をも利用することにより、検知飛行物体の移動方向として方位情報を検知してもよい。このような場合には、例えば、表示装置5により表示される方向の情報として、方位(例えば、「北向き」、「南東向き」)が表示されてもよい。 Furthermore, in the examples of FIGS. 6 and 7, the distance and speed information are displayed as character information such as "close" and "fast", but more specific numerical information is displayed. may Furthermore, the direction detection unit 22 shows an example having a function of detecting the moving direction of the detected flying object relative to the helicopter 40 . Alternatively, for example, the direction detection unit 22 may detect direction information as the movement direction of the detected flying object by also using information from a direction sensor mounted on the helicopter 40 . In such a case, for example, the direction information displayed by the display device 5 may be azimuth (for example, “northward” or “southeastward”).

さらに、可視化制御装置3は、図9に表されるような反応検知部19をさらに備えていてもよい。なお、図9においては、可視化制御装置3における記憶装置11と、演算装置10における検知部15と判定部16と更新部18との図示が省略されている。 Furthermore, the visualization control device 3 may further include a reaction detector 19 as shown in FIG. 9, the storage device 11 in the visualization control device 3 and the detection unit 15, the determination unit 16, and the update unit 18 in the calculation device 10 are omitted.

反応検知部19は、表示制御部17の動作によって表示装置5により危険性が高いことを表す情報が操縦者44に向けて報知されているのにも拘わらず、操縦者44の反応が無いことを検知する機能を備えている。例えば、反応検知部19は、表示装置5により危険性が高いことを表す情報が操縦者44に向けて報知されている場合に、操縦者44の反応があるか否かを判断する。ここでの操縦者44の反応とは、表示装置5により危険性が高いことを表す情報が報知されていることに対して、操縦者44が、ヘリコプター40の進行方向や飛行高度を変更する操縦を行うことである。このような操縦者44の反応は、操縦レバーなどの操作情報に基づいて検知される。 The reaction detection unit 19 determines that the operator 44 does not react even though the display device 5 has notified the operator 44 of the information indicating that the danger is high by the operation of the display control unit 17 . It has a function to detect For example, the reaction detection unit 19 determines whether or not the operator 44 reacts when the display device 5 informs the operator 44 of information indicating that the danger is high. Here, the response of the operator 44 means that the operator 44 makes a maneuver to change the traveling direction and flight altitude of the helicopter 40 in response to the information indicating that the danger is high by the display device 5. is to do Such a reaction of the operator 44 is detected based on operation information of a control lever or the like.

反応検知部19により操縦者44の反応が無いことが検知された場合に、表示制御部17は、危険性が高いことを報知する報知手法を、危険性が高いことをより明瞭に報知する方向に変更する機能をさらに備える。このような構成を備えることにより、可視化制御装置3は、より効果的に危険性が高いことを操縦者44に報知することができる。さらにまた、反応検知部19は、表示制御部17によって危険性が高いことをより明瞭に報知する方向に報知手法を変更したのにも拘わらず、変更してから所定時間を経過しても、操縦者44の反応が無いことを検知する機能を備えていてもよい。表示制御部17によって報知手法を変更したのにも拘わらず、操縦者44の反応が無いことが反応検知部19により検知された場合に、予め定められた通報先に通報する機能が可視化制御装置3に備えられていてもよい。その通報先は、例えば、ヘリコプター40の運航を管理している管理センターである。このような通報の構成を備えていることにより、管理センターからも、無線通信により、操縦者44に向けて注意喚起を行うことが可能となる。また、例えば、操縦者44が体調不良のために、危険性が高いという報知に反応できない重大な事態が発生していることを管理センターにて検知可能となる。 When the reaction detection unit 19 detects that the operator 44 does not react, the display control unit 17 changes the notification method of notifying that the risk is high to the direction of more clearly notifying that the risk is high. It further has a function to change to With such a configuration, the visualization control device 3 can more effectively notify the operator 44 of the high risk. Furthermore, although the reaction detection unit 19 has changed the notification method to more clearly notify the high risk by the display control unit 17, even if a predetermined time has passed since the change, A function of detecting that the operator 44 does not react may be provided. When the response detection unit 19 detects that the operator 44 does not respond despite the change in the notification method by the display control unit 17, the visualization control device has a function of reporting to a predetermined reporting destination. 3 may be provided. The report destination is, for example, a management center that manages the operation of the helicopter 40 . By providing such a notification structure, it becomes possible for the management center to alert the operator 44 by wireless communication. Further, for example, the control center can detect that a serious situation has occurred in which the operator 44 cannot respond to the notification that the danger is high due to poor physical condition.

<第2実施形態>
図10は、本発明に係る第2実施形態の可視化システムの構成を表すブロック図である。また、図11は、第2実施形態の可視化システムを構成する可視化制御装置の機能構成を表すブロック図である。
<Second embodiment>
FIG. 10 is a block diagram showing the configuration of a visualization system according to the second embodiment of the invention. Also, FIG. 11 is a block diagram showing the functional configuration of a visualization control device that constitutes the visualization system of the second embodiment.

第2実施形態の可視化システム50は、撮影装置51と、可視化制御装置52と、表示装置53と、学習装置54とを備えている。 A visualization system 50 of the second embodiment includes an imaging device 51 , a visualization control device 52 , a display device 53 and a learning device 54 .

撮影装置51は、航空機に搭載され航空機の周辺が撮影されている撮影画像を可視化制御装置52に提供する装置である。 The imaging device 51 is a device that is mounted on an aircraft and provides the visualization control device 52 with a captured image in which the surroundings of the aircraft are captured.

表示装置53は、可視化制御装置52によって航空機に接近あるいは衝突する危険性があると判定された飛行物体が存在することを可視化して警告する装置である。 The display device 53 is a device that visually warns the presence of a flying object that has been determined by the visualization control device 52 to approach or collide with an aircraft.

学習装置54は、撮影装置51による撮影画像に基づいた教師データを利用して可視化制御装置52が利用する参考データを機械学習により更新する機能を備える。 The learning device 54 has a function of updating reference data used by the visualization control device 52 by machine learning using teacher data based on images captured by the imaging device 51 .

可視化制御装置52は、図11に表されているように、検知部55と、判定部56と、表示制御部57と、更新部58とを備える。 The visualization control device 52 includes a detection unit 55, a determination unit 56, a display control unit 57, and an update unit 58, as shown in FIG.

検知部55は、撮影装置51による撮影画像から、学習装置54により生成され検知対象の飛行物体を表す参考データを利用して飛行物体を検知する機能を備える。また、検知部55は、飛行物体と航空機との間の距離、および、航空機に対する飛行物体の移動方向を検知する機能を備える。 The detection unit 55 has a function of detecting a flying object from an image captured by the imaging device 51 using reference data generated by the learning device 54 and representing the flying object to be detected. The detection unit 55 also has a function of detecting the distance between the flying object and the aircraft, and the moving direction of the flying object with respect to the aircraft.

判定部56は、検知された飛行物体の移動方向および距離を利用して、飛行物体が航空機に接近あるいは衝突する危険性があるか否かを判定する機能を備える。 The determination unit 56 has a function of determining whether or not there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object.

表示制御部57は、表示装置53の動作を制御することによって、航空機に接近あるいは衝突する危険性があると判定された飛行物体が存在することを可視化して警告する機能を備える。 The display control unit 57 has a function of visualizing and warning the presence of a flying object determined to be in danger of approaching or colliding with an aircraft by controlling the operation of the display device 53 .

更新部58は、航空機が地上で待機している期間中に、学習装置54に向けて、撮影装置51による撮影画像を出力し、また、学習装置54から、更新された参考データを取得する機能を備える。 The updating unit 58 outputs an image captured by the imaging device 51 to the learning device 54 while the aircraft is on standby on the ground, and acquires updated reference data from the learning device 54. Prepare.

次に、可視化制御装置52の動作例を図12を利用して説明する。例えば、可視化制御装置52の検知部55は、航空機の飛行中に、撮影装置51による撮影画像から、検知対象の飛行物体を検知し、また、飛行物体と航空機との間の距離、および、航空機に対する飛行物体の移動方向を検知する(ステップS301)。そして、判定部56は、検知された飛行物体の移動方向および距離を利用して、飛行物体が航空機に接近あるいは衝突する危険性があるか否かを判定する(ステップS302)。その後、表示制御部57は、航空機に接近あるいは衝突する危険性があると判定された場合には、表示装置53の動作を制御することによって、危険性があることを可視化して警告する(ステップS303)。然る後に、航空機が着陸した以降に、更新部58は、学習装置54に向けて、撮影装置51による撮影画像を出力する(ステップS304)。 Next, an operation example of the visualization control device 52 will be described with reference to FIG. For example, the detection unit 55 of the visualization control device 52 detects the flying object to be detected from the image captured by the imaging device 51 during flight of the aircraft, and also detects the distance between the flying object and the aircraft, and the distance between the aircraft and the aircraft. The moving direction of the flying object relative to is detected (step S301). Then, the determining unit 56 determines whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object (step S302). Thereafter, when it is determined that there is a risk of approaching or colliding with an aircraft, the display control unit 57 visually warns of the danger by controlling the operation of the display device 53 (step S303). After that, after the aircraft has landed, the update unit 58 outputs the image captured by the image capturing device 51 to the learning device 54 (step S304).

第2実施形態の可視化システム50および可視化制御装置52は、上記のような構成を備えることにより、第1実施形態と同様に、航空機の操縦者に向けて、飛行物体との衝突を回避する動作を促す情報を通知できるという効果を得ることができる。 The visualization system 50 and the visualization control device 52 of the second embodiment are configured as described above, so that, similarly to the first embodiment, the visualization system 50 and the visualization control device 52 are directed toward the aircraft operator to avoid a collision with a flying object. It is possible to obtain the effect of being able to notify the information prompting the

以上、上述した実施形態を模範的な例として本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、当業者が理解し得る様々な態様を適用することができる。 The present invention has been described above using the above-described embodiments as exemplary examples. However, the invention is not limited to the embodiments described above. That is, within the scope of the present invention, various aspects that can be understood by those skilled in the art can be applied to the present invention.

1,50 可視化システム
3,52 可視化制御装置
4,51 撮影装置
15,55 検知部
16,56 判定部
17,57 表示制御部
Reference Signs List 1, 50 visualization system 3, 52 visualization control device 4, 51 imaging device 15, 55 detection unit 16, 56 determination unit 17, 57 display control unit

Claims (8)

航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する検知手段と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する判定手段と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する表示制御手段と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する更新手段と
を備える可視化制御装置。
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and sensing means for sensing the distance between and the direction of movement of the flying object relative to the aircraft;
determining means for determining whether there is a risk that the flying object will approach or collide with the aircraft, using the detected moving direction and distance of the flying object;
display control means for controlling the operation of a display device mounted on the aircraft and visualizing and warning the presence of the flying object determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A visualization control device, comprising: updating means for outputting an image and acquiring the updated reference data from the learning device.
前記判定手段は、危険性の度合いを表すレベルをも判定する機能を備え、
前記表示制御手段は、前記レベルに応じて前記表示装置による警告の報知手法を変更する請求項1に記載の可視化制御装置。
The determination means has a function to determine a level representing the degree of risk,
2. The visualization control device according to claim 1, wherein said display control means changes a warning notification method by said display device according to said level.
前記更新手段は、前記航空機が地上で待機している期間中であって、離陸準備をしている場合に、更新された前記参考データを取得する請求項1又は請求項2に記載の可視化制御装置。 The visualization control according to claim 1 or 2, wherein the updating means acquires the updated reference data while the aircraft is waiting on the ground and preparing for takeoff. Device. 請求項1乃至請求項3の何れか一項に記載の可視化制御装置と、
前記航空機に搭載され前記航空機の周辺が撮影されている撮影画像を前記可視化制御装置に提供する撮影装置と、
前記可視化制御装置によって前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置と、
前記撮影装置による前記撮影画像に基づいた教師データを利用して前記可視化制御装置が利用する前記参考データを機械学習により更新する学習装置と
を備える可視化システム。
A visualization control device according to any one of claims 1 to 3;
a photographing device mounted on the aircraft and configured to provide the visualization control device with a photographed image in which the surroundings of the aircraft are photographed;
a display device that visualizes and warns the presence of the flying object determined by the visualization control device to be in danger of approaching or colliding with the aircraft;
and a learning device that updates the reference data used by the visualization control device by machine learning, using training data based on the image captured by the imaging device.
前記表示装置は、前記航空機の操縦者が装着する態様を備える請求項4に記載の可視化システム。 5. A visualization system according to claim 4, wherein said display device is adapted to be worn by an operator of said aircraft. 前記表示装置は、前記航空機における操縦者の前面の窓に情報を投射する態様を備える請求項4に記載の可視化システム。 5. The visualization system of claim 4, wherein the display device comprises aspects for projecting information onto a window in front of an operator of the aircraft. コンピュータによって、
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知し、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定し、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御し、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する可視化制御方法。
by computer,
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and the direction of movement of the flying object relative to the aircraft;
determining whether there is a risk of the flying object approaching or colliding with the aircraft using the detected moving direction and distance of the flying object;
controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and is determined to be in danger of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A visualization control method for outputting an image and acquiring the updated reference data from the learning device.
航空機に搭載されている撮影装置によって前記航空機の周辺が撮影されている撮影画像から、検知対象の飛行物体を表す参考データを利用して前記飛行物体を検知し、また、前記飛行物体と前記航空機との間の距離、および、前記航空機に対する前記飛行物体の移動方向を検知する処理と、
検知された前記飛行物体の前記移動方向および前記距離を利用して、前記飛行物体が前記航空機に接近あるいは衝突する危険性があるか否かを判定する処理と、
前記航空機に搭載され、かつ、前記航空機に接近あるいは衝突する危険性があると判定された前記飛行物体が存在することを可視化して警告する表示装置の動作を制御する処理と、
前記航空機が地上で待機している期間中に、前記撮影装置による前記撮影画像に基づいた教師データを利用して前記参考データを機械学習により更新する学習装置に向けて、前記撮影装置による前記撮影画像を出力し、また、前記学習装置から、更新された前記参考データを取得する処理と
をコンピュータに実行させるコンピュータプログラム。
The flying object is detected by using reference data representing the flying object to be detected from a photographed image of the surroundings of the aircraft taken by a photographing device mounted on the aircraft, and the flying object and the aircraft are detected. and detecting the direction of movement of the flying object relative to the aircraft;
a process of determining whether there is a risk of the flying object approaching or colliding with the aircraft, using the detected moving direction and distance of the flying object;
a process of controlling the operation of a display device that visualizes and warns the presence of the flying object that is mounted on the aircraft and that has been determined to be at risk of approaching or colliding with the aircraft;
During the period in which the aircraft is on standby on the ground, the image captured by the image capturing device is directed to a learning device that updates the reference data by machine learning using training data based on the image captured by the image capturing device. A computer program for causing a computer to execute a process of outputting an image and acquiring the updated reference data from the learning device.
JP2022509870A 2020-03-25 2020-03-25 Visualization control device, visualization system, visualization control method, and computer program Active JP7231113B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/013270 WO2021192080A1 (en) 2020-03-25 2020-03-25 Visualization control device, visualization system, visualization control method, and program storage medium

Publications (3)

Publication Number Publication Date
JPWO2021192080A1 JPWO2021192080A1 (en) 2021-09-30
JPWO2021192080A5 JPWO2021192080A5 (en) 2022-09-09
JP7231113B2 true JP7231113B2 (en) 2023-03-01

Family

ID=77891123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022509870A Active JP7231113B2 (en) 2020-03-25 2020-03-25 Visualization control device, visualization system, visualization control method, and computer program

Country Status (2)

Country Link
JP (1) JP7231113B2 (en)
WO (1) WO2021192080A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195965A (en) 2017-05-17 2018-12-06 日本電気株式会社 Flying object position detection apparatus, flying object position detection system, flying object position detection method, and program
US20190033861A1 (en) 2017-07-27 2019-01-31 SkyRyse, Inc. System and method for situational awareness, vehicle control, and/or contingency planning

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10453351B2 (en) * 2017-07-17 2019-10-22 Aurora Flight Sciences Corporation System and method for detecting obstacles in aerial systems
US10515559B2 (en) * 2017-08-11 2019-12-24 The Boeing Company Automated detection and avoidance system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018195965A (en) 2017-05-17 2018-12-06 日本電気株式会社 Flying object position detection apparatus, flying object position detection system, flying object position detection method, and program
US20190033861A1 (en) 2017-07-27 2019-01-31 SkyRyse, Inc. System and method for situational awareness, vehicle control, and/or contingency planning

Also Published As

Publication number Publication date
JPWO2021192080A1 (en) 2021-09-30
WO2021192080A1 (en) 2021-09-30

Similar Documents

Publication Publication Date Title
US11181935B2 (en) System and method for detecting obstacles in aerial systems
US7932853B1 (en) System and method for identifying incursion threat levels
US9824598B2 (en) Flight hindrance display apparatus, flight hindrance display method, and computer-readable medium
US9633567B1 (en) Ground collision avoidance system (iGCAS)
US11645434B2 (en) Systems and methods for autonomous vehicle systems testing
JP6915683B2 (en) Controls, control methods and programs
US20200029013A1 (en) Human-Automation Collaborative Tracker of Fused Object
US20200118366A1 (en) Adaptable Vehicle Monitoring System
US11827352B2 (en) Visual observer for unmanned aerial vehicles
JP2014041601A (en) Unpredictable vehicle navigation
KR101408077B1 (en) An apparatus and method for controlling unmanned aerial vehicle using virtual image
CN111540238A (en) System and method for identifying, delineating and alerting distress and special traffic based on at least call (SQUAWK) code
US20220343773A1 (en) Updating airspace awareness for unmanned aerial vehicles
JP2021162572A (en) Position calculation method and information processing system
US20230333552A1 (en) Methods and systems for human-in-the-loop vehicular command and control using immersive synthetic vision
US20180315322A1 (en) Method of visualization of the traffic around a reference aircraft in a compliant display zone, associated computer product program and visualization system
CN114724412A (en) Flight segment terminal visualization system and method for flight segment terminal visualization
JP7231113B2 (en) Visualization control device, visualization system, visualization control method, and computer program
WO2021133449A1 (en) Vehicle control system
EP4330946A1 (en) Unmanned aerial vehicle response to object detection
US20230016277A1 (en) System, Method, and Computer Program Product for Avoiding Ground Blindness in a Vehicle
Skoog et al. Ground collision avoidance system (iGCAS)
EP4357868A1 (en) Multiple aircraft flight management system, method, and program
JP7231283B2 (en) Operation support device, operation support method, and program
US20230282122A1 (en) Geofence management with an unmanned aerial vehicle

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220701

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R151 Written notification of patent or utility model registration

Ref document number: 7231113

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151