JP2023018398A - Control support device, control support method, and control support program - Google Patents

Control support device, control support method, and control support program Download PDF

Info

Publication number
JP2023018398A
JP2023018398A JP2021122498A JP2021122498A JP2023018398A JP 2023018398 A JP2023018398 A JP 2023018398A JP 2021122498 A JP2021122498 A JP 2021122498A JP 2021122498 A JP2021122498 A JP 2021122498A JP 2023018398 A JP2023018398 A JP 2023018398A
Authority
JP
Japan
Prior art keywords
detected
sensor
moving object
moving
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021122498A
Other languages
Japanese (ja)
Other versions
JP7241818B2 (en
Inventor
彰一 清水
Shoichi Shimizu
健太 ▲高▼木
Kenta Takagi
敬司 尾島
Keiji Ojima
智之 小松
Tomoyuki Komatsu
奨 山口
Susumu Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2021122498A priority Critical patent/JP7241818B2/en
Publication of JP2023018398A publication Critical patent/JP2023018398A/en
Application granted granted Critical
Publication of JP7241818B2 publication Critical patent/JP7241818B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

To help a controller in visual confirmation even in a case where only one of detection from image data and detection with a sensor is performed.SOLUTION: A control support device 10 generates a superimposed image by superimposing and displaying a tag generated from sensor information, on a display position in image data determined on the basis of a position where a mobile object is detected from the image data. With respect to a mobile object detected with only one of the image data and the sensor information, the control support device 10 superimposes and displays the tag by using information obtained in the past with the other one of the image data and the sensor information.SELECTED DRAWING: Figure 1

Description

本開示は、移動体の管制を支援するための画像を生成する技術に関する。 The present disclosure relates to technology for generating an image for assisting control of mobile objects.

管制業務は目視確認が原則である。しかし、空港拡張又はメンテナンス工事等に伴い、物理的に視界が遮られてしまうケースと、遠方あるいは雲又は悪天等により目視確認が難しいケースとが想定される。そのため、空港処理能力向上のためには管制官に対する目視確認の支援が必要である。 In principle, control work is based on visual confirmation. However, there may be cases where the field of view is physically blocked due to airport expansion or maintenance work, and cases where visual confirmation is difficult due to distance, clouds, bad weather, or the like. Therefore, it is necessary to support visual confirmation for air traffic controllers in order to improve airport processing capacity.

特許文献1には、管制対象の航空機が行き交う場所を撮影した撮影画像をもとに、撮影範囲の一部の領域を他の領域よりも少ない色で表示する表示画像を生成して表示することが記載されている。また、特許文献1には、表示画像において、航空機の隣に識別子を含むタグを表示することが記載されている。表示画像を表示することにより、特許文献1では、管制官に対する目視確認の支援を行っている。 In Patent Document 1, a display image is generated and displayed in which a part of the shooting range is displayed in fewer colors than the other areas based on a captured image of a place where aircraft to be controlled come and go. is described. Further, Patent Literature 1 describes displaying a tag including an identifier next to an aircraft in a display image. By displaying the display image, Patent Literature 1 assists the air traffic controller with visual confirmation.

特開2019-022178号公報JP 2019-022178 A

特許文献1では、撮影画像から航空機が検知されており、かつ、センサによって航空機が検知されていることが前提となっている。そのため、例えば、一時的にセンサによって航空機が検知されず、センサ情報が取得されなくなってしまうと、その航空機についての識別子等が表示されない状態になってしまい、管制官に対する目視確認の支援が適切に行えなくなってしまう。
本開示は、撮影画像からの検知と、センサによる検知とのどちらか一方だけがされている場合にも、管制官に対する目視確認の支援を可能にすることを目的とする。
In Patent Document 1, it is assumed that an aircraft is detected from a captured image and that the aircraft is detected by a sensor. Therefore, for example, if an aircraft is temporarily not detected by the sensors and sensor information cannot be acquired, the identifier of the aircraft will not be displayed, and it will not be possible to properly support visual confirmation for air traffic controllers. I can't go.
An object of the present disclosure is to enable visual confirmation support for air traffic controllers even when only one of detection from a captured image and detection by a sensor is performed.

本開示に係る管制支援装置は、
画像データから管制対象の移動体を検知する検知部と、
センサによって検知されて得られた前記管制対象の移動体についてのセンサ情報を取得するセンサ取得部と、
前記検知部によって移動体が検知された位置を基準として決められる、前記画像データにおける表示位置に、前記センサ取得部によって取得されたセンサ情報から生成されたタグを重畳表示して重畳画像を生成する重畳画像生成部であって、前記検知部と前記センサとのどちらか一方だけで検知された移動体については、前記検知部と前記センサとの他方で過去に得られた情報を用いてタグを重畳表示する重畳画像生成部と
を備える。
The control support device according to the present disclosure is
a detection unit that detects a moving object to be controlled from image data;
a sensor acquisition unit that acquires sensor information about the moving object to be controlled obtained by being detected by a sensor;
A superimposed image is generated by superimposing a tag generated from the sensor information acquired by the sensor acquisition unit on a display position in the image data determined based on the position where the moving object is detected by the detection unit. In the superimposed image generation unit, for a moving object detected by only one of the detection unit and the sensor, a tag is generated using information obtained in the past by the other of the detection unit and the sensor. and a superimposed image generation unit for superimposed display.

本開示では、検知部とセンサとのどちらか一方だけで検知された移動体については、過去に検知された情報を用いて重畳画像が生成される。これにより、画像データからの検知と、センサによる検知とのどちらか一方だけがされている場合にも、管制官に対する目視確認の適切な支援が可能である。 In the present disclosure, for a moving object detected by only one of the detection unit and the sensor, a superimposed image is generated using information detected in the past. As a result, even when only one of the detection from the image data and the detection by the sensor is performed, it is possible to appropriately support the visual confirmation for the air traffic controller.

実施の形態1に係る管制支援装置10の構成図。1 is a configuration diagram of a control support device 10 according to Embodiment 1. FIG. 実施の形態1に係る管制支援装置10の全体的な処理のフローチャート。4 is a flowchart of overall processing of the control support device 10 according to Embodiment 1; 実施の形態1に係る移動体リスト53の説明図。FIG. 4 is an explanatory diagram of a mobile object list 53 according to the first embodiment; FIG. 実施の形態1に係る重畳画像54の説明図。FIG. 5 is an explanatory diagram of a superimposed image 54 according to Embodiment 1; 実施の形態1に係る重畳画像生成処理のフローチャート。4 is a flowchart of superimposed image generation processing according to Embodiment 1; 実施の形態1に係る重畳画像生成処理の説明図。4A and 4B are explanatory diagrams of a superimposed image generation process according to the first embodiment; FIG. 実施の形態1に係る第2重畳処理の説明図。FIG. 8 is an explanatory diagram of second superimposition processing according to the first embodiment; 実施の形態1に係る第4重畳処理の説明図。FIG. 11 is an explanatory diagram of fourth superimposition processing according to the first embodiment; 実施の形態1に係る移動体51の検知状態の遷移の説明図。FIG. 4 is an explanatory diagram of transition of the detection state of the moving object 51 according to the first embodiment; 変形例1に係る管制支援装置10の構成図。FIG. 2 is a configuration diagram of a control support device 10 according to Modification 1; 実施の形態2に係る蓄積されたセンサ情報の説明図。FIG. 9 is an explanatory diagram of accumulated sensor information according to the second embodiment; 実施の形態2に係る蓄積されたパノラマ画像の説明図。FIG. 9 is an explanatory diagram of accumulated panoramic images according to the second embodiment; 実施の形態2に係る同一性判定処理のフローチャート。10 is a flowchart of identity determination processing according to the second embodiment; 実施の形態2に係るID設定処理のフローチャート。10 is a flowchart of ID setting processing according to the second embodiment; 実施の形態2に係る第1静動判定処理のフローチャート。10 is a flowchart of first static/movement determination processing according to the second embodiment; 実施の形態2に係る第2静動判定処理のフローチャート。10 is a flowchart of a second still/moving determination process according to the second embodiment; 実施の形態2に係る相関処理のフローチャート。10 is a flowchart of correlation processing according to Embodiment 2; 実施の形態2に係る高速相関処理のフローチャート。9 is a flowchart of high-speed correlation processing according to Embodiment 2; 実施の形態2に係る第1内積判定処理の説明図。FIG. 11 is an explanatory diagram of a first inner product determination process according to the second embodiment; FIG. 実施の形態2に係る第2内積判定処理の説明図。FIG. 11 is an explanatory diagram of a second inner product determination process according to the second embodiment; FIG.

実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る管制支援装置10の構成を説明する。
管制支援装置10は、コンピュータである。
管制支援装置10は、プロセッサ11と、メモリ12と、ストレージ13と、通信インタフェース14とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
Embodiment 1.
*** Configuration description ***
A configuration of a control support device 10 according to Embodiment 1 will be described with reference to FIG.
The control support device 10 is a computer.
The control support device 10 includes hardware including a processor 11 , a memory 12 , a storage 13 , and a communication interface 14 . The processor 11 is connected to other hardware via signal lines and controls these other hardware.

プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。 The processor 11 is an IC (Integrated Circuit) that performs processing. Specific examples of the processor 11 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).

メモリ12は、データを一時的に記憶する記憶装置である。メモリ12は、具体例としては、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)である。 The memory 12 is a storage device that temporarily stores data. Specific examples of the memory 12 include SRAM (Static Random Access Memory) and DRAM (Dynamic Random Access Memory).

ストレージ13は、データを保管する記憶装置である。ストレージ13は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ13は、SD(登録商標,Secure Digital)メモリカード、CF(CompactFlash,登録商標)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD(Digital Versatile Disk)といった可搬記録媒体であってもよい。 The storage 13 is a storage device that stores data. A specific example of the storage 13 is an HDD (Hard Disk Drive). In addition, the storage 13 is SD (registered trademark, Secure Digital) memory card, CF (Compact Flash, registered trademark), NAND flash, flexible disk, optical disk, compact disk, Blu-ray (registered trademark) disk, DVD (Digital Versatile Disk), etc. It may be a portable recording medium.

通信インタフェース14は、外部の装置と通信するためのインタフェースである。通信インタフェース14は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)、HDMI(登録商標,High-Definition Multimedia Interface)のポートである。
管制支援装置10は、通信インタフェース14を介して、センサ41と、撮影装置42と、表示装置43とに接続されている。図1では、センサ41及び撮影装置42は複数だが、1つでもよい。
The communication interface 14 is an interface for communicating with an external device. Specific examples of the communication interface 14 are Ethernet (registered trademark), USB (Universal Serial Bus), and HDMI (registered trademark, High-Definition Multimedia Interface) ports.
The control support device 10 is connected to the sensor 41 , the imaging device 42 and the display device 43 via the communication interface 14 . In FIG. 1, there are a plurality of sensors 41 and photographing devices 42, but they may be one.

管制支援装置10は、機能構成要素として、センサ取得部21と、タグ生成部22と、画像取得部23と、検知部24と、同一性判定部25と、重畳画像生成部26とを備える。管制支援装置10の各機能構成要素の機能はソフトウェアにより実現される。
ストレージ13には、管制支援装置10の各機能構成要素の機能を実現するプログラムが格納されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。これにより、管制支援装置10の各機能構成要素の機能が実現される。
The control support device 10 includes a sensor acquisition unit 21, a tag generation unit 22, an image acquisition unit 23, a detection unit 24, an identity determination unit 25, and a superimposed image generation unit 26 as functional components. The function of each functional component of the control support device 10 is realized by software.
The storage 13 stores a program that implements the function of each functional component of the control support device 10 . This program is read into the memory 12 by the processor 11 and executed by the processor 11 . Thereby, the function of each functional component of the control support device 10 is realized.

図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。 Only one processor 11 is shown in FIG. However, there may be a plurality of processors 11, and the plurality of processors 11 may cooperate to execute programs that implement each function.

***動作の説明***
図2から図9を参照して、実施の形態1に係る管制支援装置10の動作を説明する。
実施の形態1に係る管制支援装置10の動作手順は、実施の形態1に係る管制支援方法に相当する。また、実施の形態1に係る管制支援装置10の動作を実現するプログラムは、実施の形態1に係る管制支援プログラムに相当する。
***Description of operation***
The operation of the control support device 10 according to the first embodiment will be described with reference to FIGS. 2 to 9. FIG.
The operation procedure of the control support device 10 according to the first embodiment corresponds to the control support method according to the first embodiment. Also, a program that realizes the operation of the control support device 10 according to the first embodiment corresponds to the control support program according to the first embodiment.

図2を参照して、実施の形態1に係る管制支援装置10の全体的な処理を説明する。
(ステップS11:センサ取得処理)
センサ取得部21は、通信インタフェース14を介して、センサ41によって管制対象の移動体51が検知されて生成された1つ以上のセンサ情報を取得する。
センサ情報は、センサ41によって検知された移動体51毎に生成される。センサ情報は、移動体51の識別子である移動体IDと、移動体51の位置及び速度を示す位置情報と、移動体51から送信された移動体51に関する移動体情報とを含む。移動体情報は、具体例としては、移動体51の出発地である。実施の形態1では、移動体51は、航空機である。しかし、移動体51は、航空機の他に、空港を走行する車両等を含んでもよい。
Overall processing of the control support device 10 according to the first embodiment will be described with reference to FIG. 2 .
(Step S11: Sensor Acquisition Processing)
The sensor acquisition unit 21 acquires, via the communication interface 14 , one or more pieces of sensor information generated when the mobile object 51 to be controlled is detected by the sensor 41 .
Sensor information is generated for each moving object 51 detected by the sensor 41 . The sensor information includes a mobile body ID that is an identifier of the mobile body 51 , position information indicating the position and speed of the mobile body 51 , and mobile body information about the mobile body 51 transmitted from the mobile body 51 . The moving body information is, for example, the starting point of the moving body 51 . In Embodiment 1, the mobile object 51 is an aircraft. However, the mobile object 51 may include a vehicle traveling in an airport, etc., in addition to the aircraft.

(ステップS12:タグ生成処理)
タグ生成部22は、ステップS11で取得された1つ以上のセンサ情報それぞれを対象として、対象のセンサ情報から、対象のセンサ情報が示す移動体51についてのタグ52を生成する。
タグ52は、対象の移動体51についての移動体IDと位置情報と移動体情報との少なくともいずれかを示し、枠で囲まれた画像である。実施の形態1では、タグ52は、移動体IDを含む。
(Step S12: tag generation processing)
The tag generating unit 22 targets each of the one or more pieces of sensor information acquired in step S11, and generates a tag 52 for the moving body 51 indicated by the target sensor information from the target sensor information.
The tag 52 is an image surrounded by a frame indicating at least one of the mobile body ID, position information, and mobile body information of the target mobile body 51 . In one embodiment, tag 52 includes a mobile ID.

(ステップS13:画像取得処理)
画像取得部23は、通信インタフェース14を介して、各撮影装置42によって撮影されて得られた画像データを取得する。各撮影装置42は、空港及び空港の周辺を撮影するように設置されている。各撮影装置42は、撮影領域の一部が重なるように、少しずつ撮影領域をずらして設置されている。
(Step S13: Image Acquisition Processing)
The image acquisition unit 23 acquires image data captured by each imaging device 42 via the communication interface 14 . Each photographing device 42 is installed to photograph the airport and its surroundings. Each photographing device 42 is installed with its photographing area shifted little by little so that part of its photographing area overlaps.

(ステップS14:パノラマ生成処理)
画像取得部23は、ステップS13で取得された画像データを合成して、各撮影装置42の撮影領域全体を撮影した画像データであるパノラマ画像を生成する。画像データを合成する方法は、既存の手法を用いればよい。
(Step S14: panorama generation processing)
The image acquisition unit 23 synthesizes the image data acquired in step S<b>13 to generate a panorama image, which is image data obtained by capturing the entire imaging area of each imaging device 42 . An existing technique may be used as a method for synthesizing image data.

(ステップS15:検知処理)
検知部24は、ステップS14で生成されたパノラマ画像から、管制対象の移動体51を検知する。
具体的には、検知部24は、テンプレートマッチングを用いる、又はニューラルネットワークを用いた物体検知モデルを用いるといった方法により、パノラマ画像から管制対象の移動体51を検知する。
(Step S15: detection processing)
The detection unit 24 detects the moving body 51 to be controlled from the panorama image generated in step S14.
Specifically, the detection unit 24 detects the moving object 51 to be controlled from the panorama image by a method such as using template matching or using an object detection model using a neural network.

(ステップS16:同一性判定処理)
同一性判定部25は、ステップS11で取得されたセンサ情報が示す移動体51である第1移動体511と、ステップS14で検知された移動体51である第2移動体512とが同一の移動体51であるか否かを判定する。そして、同一性判定部25は、同一の移動体51であると判定された第1移動体511と第2移動体512とを対応付けして1つの移動体51として扱う。
これにより、図3に示すように、同一性判定部25は、検知部24とセンサ41との両方で検知された移動体51と、センサ41だけで検知された移動体51と、検知部24だけで検知された移動体51とに分類した移動体リスト53を生成する。ここで、第1移動体511と第2移動体512とが対応付けされた移動体51は、検知部24とセンサ41との両方で検知された移動体51である。第2移動体512と対応付けされなかった第1移動体511は、センサ41だけで検知された移動体51である。第1移動体511と対応付けされなかった第2移動体512は、検知部24だけで検知された移動体51である。
同一性判定部25は、移動体リスト53の移動体51に対して、それぞれを一意に識別できるように、識別番号を割り当てる。同一性判定部25は、前回検知された移動体51が次の検知状態更新のタイミングで再び検知された場合には、移動体リスト53に新たに行を追加するのではなく、当該識別番号の検知情報を更新する。例えば、同一性判定部25は、センサ41又は検知部24の一方だけにより検知された移動体51について次の検知状態更新のタイミングで両方で検知した場合には、移動体リスト53に新たに行を追加するのではなく、当該識別番号の検知情報を更新すればよい。
また、移動体リストは移動体51の検知部24及びセンサ24の前回検知状態を保持する。これは、現在の検知状態に更新するタイミングで、過去の検知状態を前回検知として記録するものである。
(Step S16: identity determination process)
The identity determination unit 25 determines whether the first moving body 511, which is the moving body 51 indicated by the sensor information acquired in step S11, and the second moving body 512, which is the moving body 51 detected in step S14, are the same movement. It is determined whether it is the body 51 or not. Then, the identity determining unit 25 associates the first moving body 511 and the second moving body 512 determined to be the same moving body 51 and treats them as one moving body 51 .
As a result, as shown in FIG. A moving body list 53 classified into moving bodies 51 detected only by Here, the moving body 51 with which the first moving body 511 and the second moving body 512 are associated is the moving body 51 detected by both the detection unit 24 and the sensor 41 . The first moving body 511 not associated with the second moving body 512 is the moving body 51 detected only by the sensor 41 . A second moving body 512 not associated with the first moving body 511 is the moving body 51 detected only by the detection unit 24 .
The identity determination unit 25 assigns an identification number to each of the moving bodies 51 in the moving body list 53 so that each can be uniquely identified. When the previously detected moving body 51 is detected again at the timing of the next detection state update, the identity determination unit 25 does not add a new row to the moving body list 53, but adds the identification number to the moving body list 53. Update detection information. For example, when the moving object 51 detected by either the sensor 41 or the detecting unit 24 is detected by both at the timing of the next detection state update, the identity determination unit 25 adds a new entry to the moving object list 53 . , the detection information of the identification number should be updated.
Further, the moving body list holds the previous detection state of the detection unit 24 and the sensor 24 of the moving body 51 . This records the past detection state as the previous detection at the timing of updating to the current detection state.

(ステップS17:重畳画像生成処理)
図4に示すように、重畳画像生成部26は、ステップS15で移動体51が検知された位置を基準として決められる、パノラマ画像における表示位置に、ステップS12で生成されたタグ52を重畳表示して重畳画像54を生成する。
具体的には、重畳画像生成部26は、検知部24とセンサ41との両方で検知された移動体51については、ステップS15で検知部24によって検知された位置から決められる、パノラマ画像における表示位置に、タグ52を重畳表示する。一方、重畳画像生成部26は、検知部24とセンサ41とのどちらか一方だけで検知された移動体51については、図3の移動体リストの前回検知状態に基づき、検知部24とセンサ41との他方で過去に検知された情報を用いて、パノラマ画像に対してタグ52を重畳表示する。
(Step S17: superimposed image generation processing)
As shown in FIG. 4, the superimposed image generator 26 superimposes the tag 52 generated in step S12 on the display position in the panorama image determined based on the position where the moving object 51 was detected in step S15. to generate a superimposed image 54 .
Specifically, the superimposed image generation unit 26 displays the moving object 51 detected by both the detection unit 24 and the sensor 41 in the panoramic image determined from the position detected by the detection unit 24 in step S15. A tag 52 is superimposed on the position. On the other hand, for the moving object 51 detected by only one of the detection unit 24 and the sensor 41, the superimposed image generation unit 26 determines whether the detection unit 24 or the sensor 41 detects the moving object 51 based on the previous detection state in the moving object list of FIG. On the other hand, the information detected in the past is used to display the tag 52 superimposed on the panorama image.

この際、重畳画像生成部26は、検知部24とセンサ41との両方で検知された移動体51と、センサ41だけで検知された移動体と、検知部24だけで検知された移動体51とで、パノラマ画像に対して区別した表示を行う。実施の形態1では、重畳画像生成部26は、検知部24とセンサ41との両方で検知された移動体51と、センサ41だけで検知された移動体と、検知部24だけで検知された移動体51とで、異なる態様の検知枠55を重畳表示する。検知枠55は、検知部24によって移動体51が検知された位置を示す枠であり、ここでは移動体51が検知された領域を囲む矩形の枠である。
図4では、検知部24とセンサ41との両方で検知された移動体51についての検知枠55は、実線で描かれている。センサ41だけで検知された移動体についての検知枠55は、破線で描かれている。検知部24だけで検知された移動体51についての検知枠55は、一点鎖線で描かれている。
At this time, the superimposed image generating unit 26 generates the moving object 51 detected by both the detecting unit 24 and the sensor 41, the moving object detected only by the sensor 41, and the moving object 51 detected only by the detecting unit 24. and display the panoramic image differently. In the first embodiment, the superimposed image generating unit 26 generates the moving object 51 detected by both the detecting unit 24 and the sensor 41, the moving object detected only by the sensor 41, and the moving object detected only by the detecting unit 24. A detection frame 55 in a different mode is superimposed and displayed with the moving object 51 . The detection frame 55 is a frame indicating the position where the moving body 51 is detected by the detection unit 24, and here is a rectangular frame surrounding the area where the moving body 51 is detected.
In FIG. 4, the detection frame 55 for the moving object 51 detected by both the detection unit 24 and the sensor 41 is drawn with a solid line. A detection frame 55 for a moving object detected only by the sensor 41 is drawn with a dashed line. A detection frame 55 for the moving body 51 detected only by the detection unit 24 is drawn with a dashed line.

(ステップS18:表示処理)
重畳画像生成部26は、ステップS17で生成された重畳画像54を表示装置43に表示する。
(Step S18: display processing)
The superimposed image generator 26 displays the superimposed image 54 generated in step S17 on the display device 43 .

図5を参照して、実施の形態1に係る重畳画像生成処理(図2のステップS17)を説明する。
重畳画像生成部26は、1秒毎に最新の検知状態に更新される移動体リスト53のレコードを入力として、ステップS21からステップS28の処理を実行する。
The superimposed image generation process (step S17 in FIG. 2) according to the first embodiment will be described with reference to FIG.
The superimposed image generation unit 26 receives as input the record of the moving object list 53 updated to the latest detection state every second, and executes the processes from step S21 to step S28.

(ステップS21:結果判定処理)
重畳画像生成部26は、処理対象の移動体51が、検知部24とセンサ41との両方で検知された移動体51と、センサ41だけで検知された移動体51と、検知部24だけで検知された移動体51とのいずれかであるかを判定する。
重畳画像生成部26は、処理対象の移動体51が、検知部24とセンサ41との両方で検知された移動体51である場合には、処理をステップS22に進める。重畳画像生成部26は、処理対象の移動体51が、センサ41だけで検知された移動体51である場合には、処理をステップS23に進める。重畳画像生成部26は、検知部24だけで検知された移動体51である場合には、処理をステップS26に進める。
(Step S21: result determination processing)
The superimposed image generating unit 26 determines whether the moving object 51 to be processed is the moving object 51 detected by both the detection unit 24 and the sensor 41, the moving object 51 detected only by the sensor 41, and the moving object 51 detected by the detection unit 24 alone. It is determined whether it is one of the detected mobile object 51 and the other.
When the moving object 51 to be processed is the moving object 51 detected by both the detecting unit 24 and the sensor 41, the superimposed image generating unit 26 advances the process to step S22. If the moving object 51 to be processed is the moving object 51 detected only by the sensor 41, the superimposed image generation unit 26 advances the process to step S23. If the moving object 51 is detected only by the detection unit 24, the superimposed image generation unit 26 advances the process to step S26.

(ステップS22:第1重畳処理)
重畳画像生成部26は、ステップS15で検知部24によって処理対象の移動体51が検知された位置から決められる、パノラマ画像における表示位置に、ステップS12で生成されたタグ52を重畳表示する。この際、図6に示すように、重畳画像生成部26は、検知部24によって処理対象の移動体51が検知された位置に検知枠55を実線で描く。
ここで、表示位置は、ステップS15で検知部24によって検知された位置の付近である。例えば、表示位置は、ステップS15で検知部24によって検知された位置を基準として、基準方向に基準距離だけずらした位置である。基準距離は、特定の撮影装置42から移動体51までの距離に応じて変更されてもよい。
(Step S22: first superimposing process)
The superimposed image generating unit 26 superimposes the tag 52 generated in step S12 on the display position in the panorama image determined from the position where the moving object 51 to be processed is detected by the detecting unit 24 in step S15. At this time, as shown in FIG. 6 , the superimposed image generation unit 26 draws a detection frame 55 with a solid line at the position where the moving body 51 to be processed is detected by the detection unit 24 .
Here, the display position is near the position detected by the detection unit 24 in step S15. For example, the display position is a position shifted by a reference distance in the reference direction with reference to the position detected by the detection unit 24 in step S15. The reference distance may be changed according to the distance from the specific photographing device 42 to the mobile object 51 .

(ステップS23:第1過去判定処理)
重畳画像生成部26は、処理対象の移動体51について、過去基準期間において検知部24により検知されていたか否かを判定する。センサ情報には、移動体51の移動体IDが含まれている。したがって、重畳画像生成部26は、過去基準期間に得られたセンサ情報から処理対象の移動体51の移動体IDを含むセンサ情報を抽出することにより、処理対象の移動体51を検知して得られたセンサ情報を特定できる。重畳画像生成部26は、特定されたセンサ情報が示す移動体51である第1移動体511が、第2移動体512と対応付けされたか否かにより、処理対象の移動体51が、検知部24により検知されていたか否かを判定することが可能である。
重畳画像生成部26は、検知されていた場合には、処理をステップS24に進める。一方、重畳画像生成部26は、検知されていなかった場合には、処理をステップS25に進める。
(Step S23: First past determination process)
The superimposed image generation unit 26 determines whether or not the moving object 51 to be processed was detected by the detection unit 24 in the past reference period. The sensor information includes the mobile body ID of the mobile body 51 . Therefore, the superimposed image generation unit 26 detects and obtains the moving body 51 to be processed by extracting sensor information including the moving body ID of the moving body 51 to be processed from the sensor information obtained during the past reference period. It is possible to identify the sensor information obtained by The superimposed image generating unit 26 determines whether the first moving body 511, which is the moving body 51 indicated by the identified sensor information, is associated with the second moving body 512, and the moving body 51 to be processed is detected by the detection unit. 24 has been detected.
The superimposed image generator 26 advances the process to step S24 when it is detected. On the other hand, if it is not detected, the superimposed image generator 26 advances the process to step S25.

(ステップS24:第2重畳処理)
重畳画像生成部26は、検知部24によって過去に処理対象の移動体51が検知された位置に基づき表示位置を決定する。そして、重畳画像生成部26は、パノラマ画像における表示位置に、タグ52を重畳表示する。この際、図6に示すように、重畳画像生成部26は、検知部24によって過去に処理対象の移動体51が検知された位置から特定される推定位置に検知枠55を破線で描き、検知枠55の右下に“*”を加える。
ここで、図7に示すように、重畳画像生成部26は、検知部24によって過去に処理対象の移動体51が検知された位置と、過去に取得された処理対象の移動体51についてのセンサ情報に含まれる位置情報が示す位置との差に基づき、新たに取得されたセンサ情報に含まれる位置情報が示す位置を補正して推定位置及び表示位置を決定する。図7に示すように、重畳画像生成部26は、過去基準期間における各時点において、検知部24によって検知された位置と取得されたセンサ情報に含まれる位置情報が示す位置との差の平均値を補正値として計算する。図7では、時刻t-1,t-2,t-3それぞれにおける差の平均値が補正値として計算されている。そして、重畳画像生成部26は、今回新たに取得されたセンサ情報に含まれる位置情報が示す位置を補正値により補正した位置を推定位置とする。重畳画像生成部26は、推定位置を基準として、基準方向に基準距離だけずらした位置を表示位置に決定する。
(Step S24: second superimposing process)
The superimposed image generation unit 26 determines the display position based on the position at which the moving object 51 to be processed was detected in the past by the detection unit 24 . Then, the superimposed image generator 26 superimposes the tag 52 on the display position in the panorama image. At this time, as shown in FIG. 6, the superimposed image generation unit 26 draws a detection frame 55 with a dashed line at an estimated position specified from the positions at which the moving body 51 to be processed was detected in the past by the detection unit 24, and detects it. “*” is added to the lower right of the frame 55 .
Here, as shown in FIG. 7, the superimposed image generation unit 26 generates a position where the moving object 51 to be processed has been detected by the detection unit 24 in the past and a sensor for the moving object 51 to be processed acquired in the past. Based on the difference from the position indicated by the position information included in the information, the estimated position and the display position are determined by correcting the position indicated by the position information included in the newly acquired sensor information. As shown in FIG. 7, the superimposed image generation unit 26 calculates the average value of the difference between the position detected by the detection unit 24 and the position indicated by the position information included in the acquired sensor information at each point in the past reference period. is calculated as the correction value. In FIG. 7, the average values of the differences at times t-1, t-2, and t-3 are calculated as correction values. Then, the superimposed image generation unit 26 sets the position indicated by the position information included in the sensor information newly acquired this time as the estimated position by correcting the position using the correction value. The superimposed image generator 26 determines a position shifted by the reference distance in the reference direction from the estimated position as the display position.

(ステップS25:第3重畳処理)
重畳画像生成部26は、センサ情報に含まれる位置情報が示す位置に基づき表示位置を決定する。そして、重畳画像生成部26は、パノラマ画像における表示位置に、タグ52を重畳表示する。この際、図6に示すように、重畳画像生成部26は、センサ情報に含まれる位置情報が示す位置から推測される移動体51の推測位置に検知枠55を破線で描く。なお、検知枠55の右下に“*”は加えられない。
センサ情報に含まれる位置情報が示す位置は、数秒程度前の移動体51の位置である。そのため、重畳画像生成部26は、過去のセンサ情報の位置の軌跡から移動体51の移動ベクトルを計算し、直近のセンサ情報に含まれる位置情報が示す位置を基準として、移動ベクトルに従い指定時間(数秒)後の位置を推定して推定位置を特定する。
(Step S25: third superimposing process)
The superimposed image generator 26 determines the display position based on the position indicated by the position information included in the sensor information. Then, the superimposed image generator 26 superimposes the tag 52 on the display position in the panorama image. At this time, as shown in FIG. 6, the superimposed image generation unit 26 draws a detection frame 55 with a dashed line at the estimated position of the moving body 51 estimated from the position indicated by the position information included in the sensor information. Note that “*” is not added to the lower right of the detection frame 55 .
The position indicated by the position information included in the sensor information is the position of the mobile object 51 about several seconds ago. Therefore, the superimposed image generation unit 26 calculates the movement vector of the moving body 51 from the trajectory of the position of the past sensor information, and uses the position indicated by the position information included in the most recent sensor information as a reference, according to the movement vector for the specified time ( a few seconds) and then identify the estimated position.

(ステップS26:第2過去判定処理)
重畳画像生成部26は、処理対象の移動体51について、過去基準期間においてセンサ41により検知されていたか否かを判定する。ここでは、検知部24によって検知された移動体51について追跡処理が行われているものとする。追跡処理は既存技術を用いて実現可能である。したがって、過去基準期間に検知部24によって検知された処理対象の移動体51を特定できる。重畳画像生成部26は、特定された処理対象の移動体51である第2移動体512が、第1移動体511と対応付けされたか否かにより、処理対象の移動体51が、センサ41により検知されていたか否かを判定することが可能である。
重畳画像生成部26は、検知されていた場合には、処理をステップS27に進める。一方、重畳画像生成部26は、検知されていなかった場合には、処理をステップS28に進める。
(Step S26: Second past determination process)
The superimposed image generator 26 determines whether or not the moving object 51 to be processed was detected by the sensor 41 during the past reference period. Here, it is assumed that the moving object 51 detected by the detection unit 24 is being tracked. The tracking process can be implemented using existing technology. Therefore, it is possible to identify the moving object 51 to be processed detected by the detection unit 24 during the past reference period. The superimposed image generation unit 26 determines whether the second moving body 512 , which is the specified moving body 51 to be processed, is associated with the first moving body 511 , and the moving body 51 to be processed is detected by the sensor 41 . It is possible to determine whether it has been detected.
The superimposed image generator 26 advances the process to step S27 when it is detected. On the other hand, if it is not detected, the superimposed image generator 26 advances the process to step S28.

(ステップS27:第4重畳処理)
重畳画像生成部26は、検知部24によって処理対象の移動体51が検知された位置から決められる、パノラマ画像における表示位置に、センサ41によって過去に検知され取得されたセンサ情報から生成されたタグ52を重畳表示する。この際、図6に示すように、重畳画像生成部26は、検知部24によって処理対象の移動体51が検知された位置に検知枠55を一点鎖線で描き、検知枠55の右下に“*”を加える。
重畳画像生成部26は、処理対象の移動体51について過去基準期間に複数のセンサ情報が得られている場合には、できるだけ新しいセンサ情報から生成されたタグ52を重畳表示する。図8に示すように、重畳画像生成部26は、過去基準期間における各時点において取得されたセンサ情報のうち、最も新しいセンサ情報から生成されたタグ52を取得して重畳表示する。
なお、表示位置は、ステップS22と同じ方法により決定される。
(Step S27: fourth superimposing process)
The superimposed image generating unit 26 adds a tag generated from sensor information detected and acquired in the past by the sensor 41 to a display position in the panorama image, which is determined from the position at which the moving object 51 to be processed is detected by the detection unit 24. 52 is displayed superimposed. At this time, as shown in FIG. 6, the superimposed image generation unit 26 draws a detection frame 55 at the position where the moving object 51 to be processed is detected by the detection unit 24 with a dashed line, and " *” is added.
The superimposed image generation unit 26 superimposes a tag 52 generated from as new sensor information as possible when a plurality of pieces of sensor information is obtained for the moving object 51 to be processed during the past reference period. As shown in FIG. 8, the superimposed image generator 26 acquires and superimposes the tag 52 generated from the latest sensor information among the sensor information acquired at each point in the past reference period.
The display position is determined by the same method as in step S22.

(ステップS28:第5重畳処理)
重畳画像生成部26は、検知部24によって処理対象の移動体51が検知された位置に検知枠55を一点鎖線で描く。なお、検知枠55の右下に“*”は加えられない。
ここでは、処理対象の移動体51について、センサ情報が得られないため、タグ52は重畳表示されない。
(Step S28: fifth superimposing process)
The superimposed image generation unit 26 draws a detection frame 55 with a dashed line at the position where the moving object 51 to be processed is detected by the detection unit 24 . Note that “*” is not added to the lower right of the detection frame 55 .
Here, since sensor information cannot be obtained for the moving object 51 to be processed, the tag 52 is not superimposed and displayed.

図9を参照して、実施の形態1に係る移動体51の検知状態の遷移を説明する。
移動体51の検知状態としては、検知部24とセンサ41との両方で検知されている両検知状態61と、センサ41だけで検知されたセンサ検知状態62と、検知部24だけで検知された画像検知状態63と、検知部24とセンサ41とのどちらでも検知されていない未検知状態64とがある。
図9において矢印で示すように、各検知状態の間で状態の遷移が発生する。遷移が発生するのは、図2のS16の同一性判定結果により図3の移動体リスト53の分類(航空機の状態)が更新された場合である。この遷移のうち、両検知状態61からセンサ検知状態62に遷移した場合において実行される処理が第2重畳処理(図5のステップS24)である。未検知状態64からセンサ検知状態62に遷移した場合において実行される処理が第3重畳処理(図5のステップS25)である。両検知状態61から画像検知状態63に遷移した場合において実行される処理が第4重畳処理(図5のステップS27)である。未検知状態64から画像検知状態63に遷移した場合において実行される処理が第5重畳処理(図5のステップS28)である。遷移元に関わらず、両検知状態61において実行される処理が第1重畳処理(図5のステップS22)である。
なお、検知部24で検知されないとは、例えば天候不良や障害物により画像データから移動体51が検知されない場合である。
A transition of the detection state of the moving body 51 according to Embodiment 1 will be described with reference to FIG. 9 .
The detection state of the moving body 51 includes a dual detection state 61 in which both the detection unit 24 and the sensor 41 are detected, a sensor detection state 62 in which only the sensor 41 is detected, and a sensor detection state 62 in which only the detection unit 24 is detected. There is an image detection state 63 and an undetected state 64 in which neither the detection unit 24 nor the sensor 41 detects.
As indicated by the arrows in FIG. 9, state transitions occur between each detection state. A transition occurs when the classification (aircraft status) of the mobile object list 53 in FIG. 3 is updated based on the result of identity determination in S16 in FIG. Among these transitions, the second superimposition process (step S24 in FIG. 5) is executed when the both detection state 61 transitions to the sensor detection state 62. FIG. The process executed when the non-detection state 64 transitions to the sensor detection state 62 is the third superimposition process (step S25 in FIG. 5). The fourth superimposing process (step S27 in FIG. 5) is executed when the both detection state 61 transitions to the image detection state 63. FIG. The process executed when the non-detection state 64 transitions to the image detection state 63 is the fifth superimposition process (step S28 in FIG. 5). The first superimposition process (step S22 in FIG. 5) is the process executed in the both detection state 61 regardless of the transition source.
Not being detected by the detection unit 24 means that the moving body 51 is not detected from the image data due to bad weather or an obstacle, for example.

***実施の形態1の効果***
以上のように、実施の形態1に係る管制支援装置10は、検知部24とセンサ41とのどちらか一方だけで検知された移動体51については、検知部24とセンサ41との他方で過去に検知された情報を用いて重畳画像が生成される。これにより、画像データからの検知と、センサ41による検知とのどちらか一方だけがされている場合にも、管制官に対する目視確認の適切な支援が可能である。
*** Effect of Embodiment 1 ***
As described above, the control support device 10 according to Embodiment 1 detects the moving object 51 detected by only one of the detection unit 24 and the sensor 41 in the past by the other of the detection unit 24 and the sensor 41 . A superimposed image is generated using the information detected at the time. As a result, even when only one of the detection from the image data and the detection by the sensor 41 is performed, it is possible to appropriately assist the air traffic controller with visual confirmation.

移動体51の検知状態は、図9に示すように変化する。状況によっては、数秒おきに検知状態が変化することがある。特に、両検知状態61とセンサ検知状態62との間での遷移と、両検知状態61と画像検知状態63との間での遷移とが頻繁に発生することがある。
両検知状態61とセンサ検知状態62との間での遷移と、両検知状態61と画像検知状態63との間での遷移といずれかが発生すると、従来はタグ52の表示がされない状態が発生していた。そのため、これらの遷移が頻繁に発生すると、管制官に対する目視確認の適切な支援が行えない状態になっていた。
実施の形態1に係る管制支援装置10は、これらの遷移が発生した場合には、過去に取得された情報を用いてタグ52を重畳表示する。これにより、これらの遷移が頻繁に発生しても、管制官に対する目視確認の適切な支援が可能である。
The detection state of the moving body 51 changes as shown in FIG. Depending on the situation, the detection state may change every few seconds. In particular, transitions between both sensing state 61 and sensor sensing state 62 and transitions between both sensing state 61 and image sensing state 63 may occur frequently.
Conventionally, when either the transition between the both detection state 61 and the sensor detection state 62 or the transition between the both detection state 61 and the image detection state 63 occurs, the tag 52 is not displayed. Was. Therefore, when these transitions occurred frequently, it was in a state where it was not possible to provide appropriate support for visual confirmation to the air traffic controller.
The air traffic control support device 10 according to Embodiment 1 superimposes the tag 52 using information acquired in the past when these transitions occur. As a result, even if these transitions occur frequently, it is possible to appropriately assist the air traffic controller with visual confirmation.

また、実施の形態1に係る管制支援装置10は、両検知状態61とセンサ検知状態62と画像検知状態63とで、パノラマ画像に対して区別した表示を行う。これにより、管制官は、検知状態がどの状態であるかを容易に判別可能である。そのため、検知状態を考慮した管制を行うことが可能である。 Further, the air traffic control support apparatus 10 according to Embodiment 1 displays the panorama image in the dual detection state 61, the sensor detection state 62, and the image detection state 63, respectively. This allows the controller to easily determine which state the detection state is. Therefore, it is possible to perform control in consideration of the detection state.

***他の構成***
<変形例1>
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例1として、各機能構成要素はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
***Other Configurations***
<Modification 1>
In Embodiment 1, each functional component is realized by software. However, as Modification 1, each functional component may be implemented by hardware. Differences between the first modification and the first embodiment will be described.

図10を参照して、変形例1に係る管制支援装置10の構成を説明する。
各機能構成要素がハードウェアで実現される場合には、管制支援装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、メモリ12と、ストレージ13との機能とを実現する専用の回路である。
The configuration of the control support device 10 according to Modification 1 will be described with reference to FIG. 10 .
When each functional component is implemented by hardware, the control support device 10 includes an electronic circuit 15 in place of the processor 11, memory 12, and storage 13. FIG. The electronic circuit 15 is a dedicated circuit that realizes the functions of each functional component, memory 12 and storage 13 .

電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
The electronic circuit 15 includes a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). is assumed.
Each functional component may be implemented by one electronic circuit 15, or each functional component may be implemented by being distributed among a plurality of electronic circuits 15. FIG.

<変形例2>
変形例2として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
<Modification 2>
As a modification 2, some functional components may be implemented by hardware and other functional components may be implemented by software.

プロセッサ11とメモリ12とストレージ13と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。 The processor 11, the memory 12, the storage 13 and the electronic circuit 15 are called a processing circuit. That is, the function of each functional component is realized by the processing circuit.

実施の形態2.
実施の形態2では、同一性判定処理について説明する。
Embodiment 2.
In the second embodiment, identity determination processing will be described.

ここでは、図11に示すように、ステップS11で過去基準期間に取得されたセンサ情報と、このセンサ情報からステップS12で生成されたタグ52とが関連付けされてメモリ12に蓄積されているものとする。 Here, as shown in FIG. 11, it is assumed that the sensor information acquired in the past reference period in step S11 and the tag 52 generated in step S12 from this sensor information are associated and stored in the memory 12. do.

また、図11に示すように、センサ情報に含まれる位置情報が示す位置が、パノラマ画像における画素の位置に変換された画素位置も、センサ情報に関連付けされてメモリ12に蓄積されているものとする。
センサ情報に含まれる位置情報が示す位置を、基準位置を原点とするENU(East
North Up)座標系の座標に変換し、ENU座標系の座標を、パノラマ画像における画素に変換することにより、位置情報が示す位置を画素位置に変換することができる。基準位置は、具体例としては、特定の撮影装置42の設置位置である。位置情報が示す位置は、緯度及び経度を示す。したがって、緯度及び経度とENU座標系の座標との対応関係を事前に設定しておくことにより、位置情報が示す位置をENU座標系の座標に変換することができる。また、ENU座標系の座標とパノラマ画像における画素との対応関係を事前に設定しておくことにより、ENU座標系の座標とパノラマ画像における画素に変換することができる。
Further, as shown in FIG. 11, the pixel positions obtained by converting the positions indicated by the position information included in the sensor information into pixel positions in the panorama image are also stored in the memory 12 in association with the sensor information. do.
ENU (East
The position indicated by the position information can be converted into a pixel position by converting the coordinates of the North Up) coordinate system and converting the coordinates of the ENU coordinate system into pixels in the panorama image. A specific example of the reference position is the installation position of a specific imaging device 42 . The position indicated by the position information indicates latitude and longitude. Therefore, by setting in advance the correspondence relationship between the latitude and longitude and the coordinates of the ENU coordinate system, the position indicated by the position information can be converted into the coordinates of the ENU coordinate system. Further, by previously setting the correspondence relationship between the coordinates of the ENU coordinate system and the pixels of the panoramic image, the coordinates of the ENU coordinate system and the pixels of the panoramic image can be converted.

センサ情報は、1秒毎に取得されるものとする。したがって、基準期間がN秒間であれば、センサ情報とタグ52と画素位置とはN個蓄積される。 Assume that the sensor information is acquired every second. Therefore, if the reference period is N seconds, N sensor information, tags 52 and pixel positions are accumulated.

また、図12に示すように、ステップS13で過去基準期間に取得された画像データから生成されたパノラマ画像と、このパノラマ画像からステップS15で検知された移動体51の検知枠55及び検知位置とが関連付けされてメモリ12に蓄積されているものとする。検知位置は、移動体51についての検知枠55の基準となる位置である。基準となる位置は、例えば、中心である。
パノラマ画像から検知された移動体51には、検知IDが付与されている。同一と判定された移動体51には、同一の検知IDが付与されるようになっている。
Further, as shown in FIG. 12, the panoramic image generated from the image data acquired in the past reference period in step S13, and the detection frame 55 and the detection position of the moving object 51 detected in step S15 from this panoramic image. are stored in the memory 12 in association with each other. The detection position is a reference position of the detection frame 55 for the moving object 51 . The reference position is, for example, the center.
A detection ID is assigned to the moving object 51 detected from the panorama image. The same detection ID is given to the moving bodies 51 determined to be the same.

画像データは1/30秒毎に取得されるものとする。したがって、基準期間がN秒間であれば、パノラマ画像はN×30個蓄積される。 Assume that image data is acquired every 1/30 second. Therefore, if the reference period is N seconds, N×30 panorama images are accumulated.

図13を参照して、実施の形態2に係る同一性判定処理(図2のステップS16)を説明する。
(ステップS31:センサ読出処理)
同一性判定部25は、メモリ12から過去基準期間に取得されたセンサ情報と、このセンサ情報に関連付けされたタグ52及び画素位置とを読み出す。
The identity determination process (step S16 in FIG. 2) according to the second embodiment will be described with reference to FIG.
(Step S31: Sensor reading process)
The identity determination unit 25 reads from the memory 12 the sensor information acquired during the past reference period, and the tag 52 and pixel position associated with this sensor information.

(ステップS32:第1静動判定処理)
同一性判定部25は、直近に取得された1つ以上のセンサ情報それぞれを対象のセンサ情報に設定する。同一性判定部25は、対象のセンサ情報が示す移動体51を、ステップS31で読み出された過去基準期間に取得されたセンサ情報に含まれる位置情報を用いて、静状態の移動体51と動状態の移動体51とに分類する。静状態の移動体51は、停止している移動体51である。なお、停止しているとは、完全に停止している状態に限らず、ほぼ停止しているとみなすことができる状態も含む。動状態の移動体51は、移動している移動体51である。
(Step S32: First still/movement determination process)
The identity determination unit 25 sets each of the recently acquired one or more pieces of sensor information as target sensor information. The identity determination unit 25 identifies the moving body 51 indicated by the target sensor information as the stationary moving body 51 using the position information included in the sensor information acquired during the past reference period read out in step S31. It is classified into a mobile body 51 in a moving state. A stationary mobile object 51 is a stationary mobile object 51 . Note that "stopped" includes not only a completely stopped state but also a state where it can be regarded as almost stopped. The moving body 51 in motion is the moving body 51 that is moving.

(ステップS33:検知位置読出処理)
同一性判定部25は、メモリ12から過去基準期間に取得された画像データから生成されたパノラマ画像と、このパノラマ画像に関連付けされた検知位置とを読み出す。
この際、同一性判定部25は、ステップS33で読み出されたパノラマ画像と検知位置との組を、センサ情報と同数になるように間引きする。ここでは、同一性判定部25は、1秒毎にパノラマ画像と検知位置との組を1つだけ抽出することによって、パノラマ画像と検知位置との組を、センサ情報と同数になるように間引きする。なお、間引きの基準は検知のタイムスタンプとし、検知位置の更新タイムスタンプと最も近い、パノラマ画像の更新タイムスタンプを選択して、それ以外のパノラマ画像を間引きする。
(Step S33: Detection position reading process)
The identity determination unit 25 reads from the memory 12 the panorama image generated from the image data acquired during the past reference period and the detection position associated with the panorama image.
At this time, the identity determination unit 25 thins out the pairs of the panorama image and the detection positions read out in step S33 so that the number of pairs becomes the same as that of the sensor information. Here, the sameness determination unit 25 extracts only one set of the panoramic image and the detection position every second, thereby thinning out the sets of the panoramic image and the detection position so that the same number of sets as the sensor information is obtained. do. Note that the detection time stamp is used as a reference for thinning out, and the update time stamp of the panorama image that is closest to the update time stamp of the detection position is selected, and other panorama images are thinned out.

(ステップS34:ID設定処理)
同一性判定部25は、直近のパノラマ画像から検知された1つ以上の移動体51それぞれについて、過去のパノラマ画像から検知された移動体51と同じ移動体51には同じ検知ID(IDentifier)が付与されるように、検知IDを付与する。
(Step S34: ID setting process)
For each of one or more moving bodies 51 detected from the latest panorama image, the identity determination unit 25 determines that the same detection ID (Identifier) is assigned to the same moving body 51 as the moving body 51 detected from the past panorama image. Give the detection ID as given.

(ステップS35:第2静動判定処理)
同一性判定部25は、直近のパノラマ画像から検知された1つ以上の移動体51それぞれを対象の移動体51に設定する。同一性判定部25は、対象の移動体51を、ステップS33で読み出された過去基準期間における検知位置を用いて、静状態の移動体51と動状態の移動体51とに分類する。
(Step S35: Second static/movement determination process)
The identity determination unit 25 sets each of one or more moving bodies 51 detected from the most recent panorama image as the target moving body 51 . The identity determination unit 25 classifies the target moving body 51 into the static state moving body 51 and the moving state moving body 51 using the detection position in the past reference period read in step S33.

(ステップS36:相関処理)
同一性判定部25は、直近に取得されたセンサ情報が示す移動体51である第1移動体511と、直近のパノラマ画像から検知された移動体51である第2移動体512との位置に相関があるか否かを判定する。ここでは、同一性判定部25は、ステップS32で静状態の移動体51と判定された第1移動体511と、ステップS36で静状態の移動体51と判定された第2移動体512との間で位置に相関があるか否かを判定する。また、同一性判定部25は、ステップS32で動状態の移動体51と判定された第1移動体511と、ステップS36で動状態の移動体51と判定された第2移動体512との間で位置に相関があるか否かを判定する。
同一性判定部25は、相関があると判定された第1移動体511と第2移動体512とは、同一の移動体51であるとして、第1移動体511と第2移動体512とを対応付けして1つの移動体51とする。そして、同一性判定部25は、相関があると判定された移動体51は、検知部24とセンサ41との両方で検知された移動体51に分類する。また、同一性判定部25は、相関があると判定されなかった、センサ情報が示す移動体51は、センサ41だけで検知された移動体51に分類する。また、同一性判定部25は、相関があると判定されなかった、パノラマ画像から検知された移動体51は、検知部24だけで検知された移動体51に分類する。そして、図3に示すような移動体リスト53を生成する。
(Step S36: Correlation processing)
The identity determination unit 25 determines the positions of the first moving body 511, which is the moving body 51 indicated by the most recently acquired sensor information, and the second moving body 512, which is the moving body 51 detected from the most recent panoramic image. Determine whether there is a correlation. Here, the identity determination unit 25 determines the difference between the first moving body 511 determined to be the moving body 51 in the static state in step S32 and the second moving body 512 determined to be the moving body 51 in the static state in step S36. It is determined whether there is a correlation in position between them. Further, the identity determination unit 25 determines the distance between the first moving body 511 determined to be the moving body 51 in step S32 and the second moving body 512 determined to be the moving body 51 in step S36. determines whether or not there is a correlation between the positions.
The identity determining unit 25 determines that the first moving body 511 and the second moving body 512 determined to have a correlation are the same moving body 51, and distinguishes the first moving body 511 and the second moving body 512 from each other. One moving object 51 is associated with them. Then, the identity determination unit 25 classifies the mobile object 51 determined to have a correlation into the mobile object 51 detected by both the detection unit 24 and the sensor 41 . Further, the identity determination unit 25 classifies the moving object 51 indicated by the sensor information, which is not determined to have a correlation, as the moving object 51 detected only by the sensor 41 . Further, the identity determination unit 25 classifies the moving object 51 detected from the panorama image, which is not determined to have a correlation, as the moving object 51 detected only by the detection unit 24 . Then, a moving body list 53 as shown in FIG. 3 is generated.

図14を参照して、実施の形態2に係るID設定処理(図13のステップS34)を説明する。
(ステップS41:追跡処理)
ここでは、図2のステップS15で移動体51を検知する際、同一の移動体51を追跡する追跡処理が行われているものとする。同一性判定部25は、追跡処理の結果を取得する。同一性判定部25は、過去のパノラマ画像から検知された移動体51と同じ移動体51には同じ検知IDを付与し、過去のパノラマ画像では検知されていなかった移動体51には新たな検知IDを付与する。
The ID setting process (step S34 in FIG. 13) according to the second embodiment will be described with reference to FIG.
(Step S41: Tracking process)
Here, it is assumed that tracking processing for tracking the same moving body 51 is being performed when the moving body 51 is detected in step S15 of FIG. The identity determination unit 25 acquires the result of the tracking process. The identity determination unit 25 assigns the same detection ID to the same moving object 51 as the moving object 51 detected from the past panoramic image, and newly detects the moving object 51 that was not detected from the past panoramic image. Give an ID.

直近のパノラマ画像から検知された1つ以上の移動体51それぞれを対象の移動体51として、ステップS42からステップS46の処理が実行される。 The processing from step S42 to step S46 is executed with one or more moving bodies 51 detected from the most recent panorama image as the target moving bodies 51, respectively.

(ステップS42:直前画像読出処理)
同一性判定部25は、メモリ12から直近のパノラマ画像の1つ前に取得されたパノラマ画像と、そのパノラマ画像から検知された移動体51についての検知ID及び検知枠55を読み出す。
(Step S42: immediately preceding image reading process)
The identity determination unit 25 reads out from the memory 12 the panorama image acquired one before the most recent panorama image, and the detection ID and detection frame 55 of the moving object 51 detected from the panorama image.

(ステップS43:ID判定処理)
同一性判定部25は、直近のパノラマ画像から検知された対象の移動体51に付与された検知IDが、1つ前のパノラマ画像から検知された移動体51に付与された検知IDに存在するか否かを判定する。
同一性判定部25は、存在しない場合には、処理をステップS44に進める。一方、同一性判定部25は、存在する場合には、処理をステップS45に進める。
(Step S43: ID determination processing)
The identity determination unit 25 determines that the detection ID given to the target moving body 51 detected from the most recent panorama image exists in the detection ID given to the moving body 51 detected from the previous panorama image. Determine whether or not
If the identity determination unit 25 does not exist, the process proceeds to step S44. On the other hand, if there is, identity determination unit 25 advances the process to step S45.

(ステップS44:重なり判定処理)
同一性判定部25は、対象の移動体51についての検知枠55が、直近数フレーム分のパノラマ画像から検知されたいずれかの移動体51についての検知枠55と重なっているか否かを判定する。
同一性判定部25は、重なっていない場合には、処理をステップS45に進める。一方、同一性判定部25は、重なっている場合には、処理をステップS46に進める。
(Step S44: Overlap determination processing)
The identity determination unit 25 determines whether or not the detection frame 55 for the target moving body 51 overlaps the detection frame 55 for any moving body 51 detected from the panorama images of the latest several frames. .
If they do not overlap, the identity determination unit 25 advances the process to step S45. On the other hand, if they overlap, identity determination unit 25 advances the process to step S46.

(ステップS45:ID確定処理)
同一性判定部25は、対象の移動体51に付与されている検知IDを、対象の移動体51の検知IDとして確定する。
(Step S45: ID confirmation process)
The identity determination unit 25 determines the detection ID assigned to the target moving body 51 as the detection ID of the target moving body 51 .

(ステップS46:ID引継処理)
同一性判定部25は、1つ前のパノラマ画像から検知された移動体51の検知枠55のうち、対象の移動体51についての検知枠55と重なる面積が最も大きい検知枠55を特定する。同一性判定部25は、特定された検知枠55に対応する移動体51に付与された検知IDを、対象の移動体51に対して付与する。
(Step S46: ID takeover process)
The identity determination unit 25 identifies the detection frame 55 having the largest area overlapping with the detection frame 55 of the target moving body 51 among the detection frames 55 of the moving body 51 detected from the previous panorama image. The identity determination unit 25 assigns the detection ID assigned to the moving object 51 corresponding to the identified detection frame 55 to the target moving object 51 .

図15を参照して、実施の形態2に係る第1静動判定処理(図13のステップS32)を説明する。
直近のセンサ情報が示す1つ以上の移動体51それぞれを対象の移動体51として、ステップS51からステップS54の処理が実行される。
The first stationary/movement determination process (step S32 in FIG. 13) according to the second embodiment will be described with reference to FIG.
The processing from step S51 to step S54 is executed with each of the one or more moving bodies 51 indicated by the most recent sensor information as the target moving bodies 51 .

(ステップS51:移動量計算処理)
同一性判定部25は、対象の移動体51について、直近の画素位置と、基準期間前の画素位置との差異を移動量として計算する。ここでは、同一性判定部25は、直近の画素位置と、基準期間前の画素位置とについて、u軸方向の差異をu移動量として計算し、v軸方向の差異をv移動量として計算する。
直近の画素位置は、直近のセンサ情報から得られた画素位置である。基準期間前の画素位置は、過去基準期間に取得されたセンサ情報のうち、対象の移動体51についての最も古いセンサ情報から得られた画素位置である。なお、センサ情報には、移動体51の移動体IDが含まれている。したがって、同一性判定部25は、過去基準期間に取得されたセンサ情報から、対象の移動体51の移動体IDが含まれるセンサ情報を特定することにより、対象の移動体51についてのセンサ情報を特定することができる。
(Step S51: Movement amount calculation processing)
The identity determination unit 25 calculates the difference between the most recent pixel position and the pixel position before the reference period as the movement amount for the target moving body 51 . Here, the identity determination unit 25 calculates the difference in the u-axis direction as the u movement amount and the difference in the v-axis direction as the v movement amount between the pixel position before the reference period and the most recent pixel position. .
The nearest pixel position is the pixel position obtained from the most recent sensor information. The pixel position before the reference period is the pixel position obtained from the oldest sensor information about the target moving body 51 among the sensor information obtained in the past reference period. Note that the sensor information includes the moving body ID of the moving body 51 . Therefore, the identity determination unit 25 identifies sensor information including the mobile body ID of the target mobile body 51 from the sensor information acquired during the past reference period, thereby obtaining sensor information about the target mobile body 51. can be specified.

(ステップS52:移動量判定処理)
同一性判定部25は、ステップS51で計算された移動量が閾値以下であるか否かを判定する。ここでは、同一性判定部25は、u移動量及びv移動量が閾値以下であるか否かを判定する。
同一性判定部25は、u移動量及びv移動量が閾値以下である場合には、処理をステップS53に進める。一方、同一性判定部25は、u移動量とv移動量との少なくともいずれかが閾値以下でない場合には、処理をステップS54に進める。
(Step S52: Movement amount determination processing)
The identity determination unit 25 determines whether or not the amount of movement calculated in step S51 is equal to or less than a threshold. Here, the identity determination unit 25 determines whether or not the u movement amount and the v movement amount are equal to or less than the threshold.
If the u movement amount and the v movement amount are equal to or less than the threshold, the identity determination unit 25 advances the process to step S53. On the other hand, if at least one of the u movement amount and the v movement amount is not equal to or less than the threshold value, the identity determination unit 25 advances the process to step S54.

(ステップS53:静状態分類処理)
同一性判定部25は、対象の移動体51を静状態に分類する。
(Step S53: static state classification process)
The identity determination unit 25 classifies the target moving body 51 into the static state.

(ステップS54:動状態分類処理)
同一性判定部25は、対象の移動体51を動状態に分類する。
(Step S54: dynamic state classification processing)
The identity determination unit 25 classifies the target moving object 51 into a moving state.

図16を参照して、実施の形態2に係る第2静動判定処理(図13のステップS35)を説明する。
直近のパノラマ画像から検知された1つ以上の移動体51それぞれを対象の移動体51として、ステップS61からステップS66の処理が実行される。
The second stationary/movement determination process (step S35 in FIG. 13) according to the second embodiment will be described with reference to FIG.
The processing from step S61 to step S66 is executed with each of one or more moving bodies 51 detected from the most recent panorama image as the target moving bodies 51 .

(ステップS61:変位量判定処理)
同一性判定部25は、対象の移動体51について、1つ前のパノラマ画像での検知位置から直近のパノラマ画像での検知位置までの距離を変位量として計算する。同一性判定部25は、計算された変位量が、対象の移動体51について前回計算された変位量と比較して、基準量以下の差であるか否かを判定する。
1つ前のパノラマ画像とは、直近のパノラマ画像の約1秒前に取得された画像データから生成されたパノラマ画像である。前回計算された変位量とは、1つ前のパノラマ画像を直近のパノラマ画像として計算された変位量である。
同一性判定部25は、基準量以下の差であり、かつ、対象の移動体51が静状態であると前回分類されていた場合には、処理をステップS65に進める。一方、同一性判定部25は、基準量以下の差でない場合と、対象の移動体51が静状態であると前回分類されていない場合との少なくともいずれかの場合には、処理をステップS62に進める。
(Step S61: Displacement amount determination processing)
The identity determination unit 25 calculates the distance from the detected position in the previous panorama image to the detected position in the latest panorama image as a displacement amount for the target moving body 51 . The identity determination unit 25 compares the calculated amount of displacement with the amount of displacement calculated last time for the target moving body 51 and determines whether the difference is equal to or less than a reference amount.
The preceding panorama image is a panorama image generated from image data acquired about one second before the latest panorama image. The displacement amount calculated last time is the displacement amount calculated with the previous panorama image as the latest panorama image.
If the difference is equal to or less than the reference amount and the target moving body 51 was previously classified as being in the static state, the identity determination unit 25 advances the process to step S65. On the other hand, if the difference is not equal to or less than the reference amount, or if the target moving body 51 was not previously classified as being in the static state, the identity determination unit 25 causes the process to proceed to step S62. proceed.

(ステップS62:標準偏差計算処理)
同一性判定部25は、対象の移動体51についての、過去計算期間における検知位置の標準偏差を計算する。計算期間は、例えば、センサ情報の取得間隔である1秒である。
(Step S62: standard deviation calculation process)
The identity determination unit 25 calculates the standard deviation of the detected positions in the past calculation period for the target moving object 51 . The calculation period is, for example, one second, which is the sensor information acquisition interval.

(ステップS63:標準偏差判定処理)
同一性判定部25は、ステップS62で計算された標準偏差が、基準値以下であるか否かを判定する。
同一性判定部25は、標準偏差が基準値以下である場合には、処理をステップS65に進める。一方、同一性判定部25は、標準偏差が基準値以下でない場合には、処理をステップS64に進める。
(Step S63: standard deviation determination process)
The identity determination unit 25 determines whether the standard deviation calculated in step S62 is equal to or less than the reference value.
If the standard deviation is equal to or less than the reference value, identity determination unit 25 advances the process to step S65. On the other hand, if the standard deviation is not equal to or less than the reference value, identity determination unit 25 advances the process to step S64.

(ステップS64:移動量判定処理)
同一性判定部25は、対象の移動体51について、直近の検知位置と、基準期間前の検知位置との差異を移動量として計算する。同一性判定部25は、移動量が閾値以下であるか否かを判定する。
同一性判定部25は、移動量が閾値以下である場合には、処理をステップS65に進める。一方、同一性判定部25は、移動量が閾値以下でない場合には、処理をステップS66に進める。
直近の検知位置は、直近のパノラマ画像から対象の移動体51が検知された検知位置である。基準期間前の検知位置は、過去基準期間におけるパノラマ画像のうち、対象の移動体51が検知された最も古いパノラマ画像から対象の移動体51が検知された検知位置である。なお、図13のステップS34において、同一の移動体51に対して同じ検知IDが付与されている。したがって、同一性判定部25は、対象の移動体51に付与された検知IDが付与された移動体51を特定することにより、過去基準期間におけるパノラマ画像から検知された対象の移動体51を特定することができる。
(Step S64: Movement amount determination processing)
The identity determination unit 25 calculates the difference between the most recent detected position and the detected position before the reference period as the amount of movement for the target moving body 51 . Identity determination unit 25 determines whether or not the amount of movement is equal to or less than a threshold.
If the movement amount is equal to or less than the threshold, the identity determination unit 25 advances the process to step S65. On the other hand, if the movement amount is not equal to or less than the threshold, the identity determination unit 25 advances the process to step S66.
The most recent detected position is the detected position where the target moving body 51 is detected from the most recent panorama image. The detection position before the reference period is the detection position at which the target moving body 51 is detected from the oldest panorama image in which the target moving body 51 is detected among the panorama images in the past reference period. It should be noted that the same detection ID is given to the same moving body 51 in step S34 of FIG. Therefore, the identity determination unit 25 identifies the target moving body 51 detected from the panorama image in the past reference period by specifying the moving body 51 to which the detection ID assigned to the target moving body 51 is assigned. can do.

(ステップS65:静状態分類処理)
同一性判定部25は、対象の移動体51を静状態に分類する。
(Step S65: static state classification process)
The identity determination unit 25 classifies the target moving body 51 into the static state.

(ステップS66:動状態分類処理)
同一性判定部25は、対象の移動体51を動状態に分類する。
(Step S66: dynamic state classification processing)
The identity determination unit 25 classifies the target moving object 51 into a moving state.

図17を参照して、実施の形態2に係る相関処理(図13のステップS36)を説明する。
直近のパノラマ画像から検知され、図16のステップS65で静状態に分類された1つ以上の移動体51それぞれを順に対象の第1移動体511として、ステップS71からステップS73の処理が実行される。
The correlation processing (step S36 in FIG. 13) according to the second embodiment will be described with reference to FIG.
One or more moving bodies 51 detected from the most recent panorama image and classified into the static state in step S65 of FIG. .

(ステップS71:第1距離計算処理)
同一性判定部25は、直近に取得されたセンサ情報が示す、図15のステップS53で静状態に分類された1つ以上の移動体51それぞれを対象の第2移動体512に設定する。但し、同一性判定部25は、ステップS73で既に対応付けされた移動体51については、対象の第2移動体512から除外する。
同一性判定部25は、対象の第1移動体511の検知位置と、センサ情報に含まれる位置情報が示す対象の第2移動体512の位置との距離を計算する。
(Step S71: first distance calculation process)
The identity determination unit 25 sets each of the one or more mobile bodies 51 classified as the static state in step S53 of FIG. However, the identity determination unit 25 excludes the moving body 51 already associated in step S73 from the target second moving body 512 .
The identity determination unit 25 calculates the distance between the detected position of the target first moving body 511 and the position of the target second moving body 512 indicated by the position information included in the sensor information.

(ステップS72:第1距離判定処理)
同一性判定部25は、ステップS71で計算された距離に、基準距離以下の距離が含まれているか否かを判定する。
同一性判定部25は、基準距離以下の距離が含まれている場合には、処理をステップS73に進める。一方、同一性判定部25は、基準距離以下の距離が含まれていない場合には、対象の第1移動体511についての処理を終了する。
(Step S72: First distance determination process)
The identity determination unit 25 determines whether or not the distance calculated in step S71 includes a distance equal to or less than the reference distance.
If a distance equal to or less than the reference distance is included, the identity determination unit 25 advances the process to step S73. On the other hand, if the distance equal to or less than the reference distance is not included, the identity determination unit 25 terminates the processing for the target first moving body 511 .

(ステップS73:第1対応処理)
同一性判定部25は、対象の第1移動体511と、ステップS71で計算された距離が最も短い対象の第2移動体512とを対応付けする。
(Step S73: first correspondence processing)
The identity determination unit 25 associates the target first moving body 511 with the target second moving body 512 having the shortest distance calculated in step S71.

つまり、ステップS71からステップS73で同一性判定部25は、静状態に分類された移動体51同士で、同一の移動体51であるか否かを判定する。この際、同一性判定部25は、パノラマ画像から検知された移動体51の検知位置と、センサ情報に含まれる位置情報が示す移動体51の位置との間の距離に基づき、同一の移動体51であるか否かを判定する。 In other words, from step S71 to step S73, the identity determination unit 25 determines whether or not the moving bodies 51 classified into the static state are the same moving body 51 or not. At this time, the identity determination unit 25 determines whether the same moving object is detected based on the distance between the detected position of the moving object 51 detected from the panoramic image and the position of the moving object 51 indicated by the position information included in the sensor information. 51 or not.

直近のパノラマ画像から検知され、図16のステップS66で動状態に分類された1つ以上の移動体51それぞれを順に対象の第1移動体511として、ステップS74からステップS76の処理が実行される。 One or more moving bodies 51 detected from the most recent panorama image and classified into the moving state in step S66 of FIG. .

(ステップS74:第2距離計算処理)
同一性判定部25は、直近に取得されたセンサ情報が示す、図15のステップS54で動状態に分類された1つ以上の移動体51それぞれを対象の第2移動体512に設定する。但し、同一性判定部25は、ステップS76で既に対応付けされた移動体51については、対象の第2移動体512から除外する。
同一性判定部25は、対象の第1移動体511の検知位置と、センサ情報に含まれる位置情報が示す対象の第2移動体512の位置との距離を計算する。
(Step S74: second distance calculation process)
The identity determination unit 25 sets each of the one or more moving bodies 51 classified as moving state in step S54 of FIG. However, the identity determination unit 25 excludes the moving body 51 already associated in step S76 from the target second moving body 512 .
The identity determination unit 25 calculates the distance between the detected position of the target first moving body 511 and the position of the target second moving body 512 indicated by the position information included in the sensor information.

(ステップS75:第2距離判定処理)
同一性判定部25は、ステップS74で計算された距離に、基準距離以下の距離が含まれているか否かを判定する。
同一性判定部25は、基準距離以下の距離が含まれている場合には、処理をステップS76に進める。一方、同一性判定部25は、基準距離以下の距離が含まれていない場合には、対象の第1移動体511についての処理を終了する。
(Step S75: second distance determination process)
The identity determination unit 25 determines whether or not the distance calculated in step S74 includes a distance equal to or less than the reference distance.
If a distance equal to or less than the reference distance is included, the identity determination unit 25 advances the process to step S76. On the other hand, if the distance equal to or less than the reference distance is not included, the identity determination unit 25 terminates the processing for the target first moving body 511 .

(ステップS76:第1対応処理)
同一性判定部25は、対象の第1移動体511と、ステップS74で計算された距離が最も短い対象の第2移動体512とを対応付けする。
(Step S76: first correspondence process)
The identity determination unit 25 associates the target first moving body 511 with the target second moving body 512 having the shortest distance calculated in step S74.

つまり、ステップS74からステップS76で同一性判定部25は、動状態に分類された移動体51同士で、同一の移動体51であるか否かを判定する。この際、同一性判定部25は、パノラマ画像から検知された移動体51の検知位置と、センサ情報に含まれる位置情報が示す移動体51の位置との間の距離に基づき、同一の移動体51であるか否かを判定する。 That is, in steps S74 to S76, the identity determination unit 25 determines whether or not the moving bodies 51 classified into the moving state are the same moving bodies 51 or not. At this time, the identity determination unit 25 determines whether the same moving object is detected based on the distance between the detected position of the moving object 51 detected from the panoramic image and the position of the moving object 51 indicated by the position information included in the sensor information. 51 or not.

(ステップS77:高速相関処理)
同一性判定部25は、直近のパノラマ画像から検知され、図16のステップS66で動状態に分類された1つ以上の移動体51のうち、ステップS76で対応付けされなかった移動体51を基準速度より速い高速で移動する第1移動体511に分類する。また、同一性判定部25は、直近に取得されたセンサ情報が示す、図15のステップS54で動状態に分類された1つ以上の移動体51のうち、ステップS76で対応付けされなかった移動体51を高速で移動する第2移動体512に分類する。
同一性判定部25は、高速で移動する第1移動体511と、高速で移動する第2移動体512とについて、同一の移動体であるか否かを判定する。
(Step S77: high-speed correlation processing)
The identity determination unit 25 selects the moving object 51 not associated in step S76 among the one or more moving objects 51 detected from the most recent panorama image and classified into the moving state in step S66 of FIG. It is classified as the first moving body 511 that moves at a higher speed than the speed. In addition, the identity determination unit 25 determines whether one or more moving objects 51, which are classified into the moving state in step S54 of FIG. The body 51 is classified as a second moving body 512 that moves at high speed.
The identity determination unit 25 determines whether or not the first moving body 511 moving at high speed and the second moving body 512 moving at high speed are the same moving body.

図18を参照して、実施の形態2に係る高速相関処理(図17のステップS77)を説明する。
高速で移動する第1移動体511それぞれを対象の第1移動体511としてステップS81からステップS86の処理が実行される。
The high-speed correlation processing (step S77 in FIG. 17) according to the second embodiment will be described with reference to FIG.
The processing from step S81 to step S86 is executed with each first moving body 511 moving at high speed as the target first moving body 511 .

(ステップS81:第1内積計算処理)
同一性判定部25は、高速で移動する第2移動体512を対象の第2移動体512に設定する。同一性判定部25は、対象の第1移動体511の移動ベクトルと、対象の第2移動体512の移動ベクトルとの内積を計算する。
対象の第1移動体511の移動ベクトルは、対象の第1移動体511についての直近のパノラマ画像における検知位置と、1つ前のパノラマ画像における検知位置とから特定される。対象の第2移動体512の移動ベクトルは、対象の第2移動体512についての直近のセンサ情報に含まれる位置情報が示す位置と、1つ前のセンサ情報に含まれる位置情報が示す位置とから特定される。
(Step S81: First inner product calculation process)
The identity determination unit 25 sets the second moving body 512 moving at high speed as the target second moving body 512 . Identity determination unit 25 calculates the inner product of the motion vector of target first moving body 511 and the motion vector of target second moving body 512 .
The motion vector of the target first moving body 511 is specified from the detected position in the most recent panorama image and the detected position in the previous panorama image for the target first moving body 511 . The movement vector of the target second moving body 512 is the position indicated by the position information included in the latest sensor information about the target second moving body 512 and the position indicated by the position information included in the previous sensor information. identified from

(ステップS82:第1内積判定処理)
同一性判定部25は、ステップS81で計算された内積に正の値が含まれているか否かを判定する。同一性判定部25は、内積が正の値である場合には、図19に示すように、移動方向が近いとして、対応付けの候補にする。
同一性判定部25は、正の値が含まれている場合には、処理をステップS83に進める。一方、同一性判定部25は、正の値が含まれていない場合には、対象の第1移動体511についての処理を終了する。
(Step S82: First inner product determination process)
The identity determination unit 25 determines whether or not the inner product calculated in step S81 includes a positive value. When the inner product is a positive value, the identity determination unit 25 considers that the moving directions are close to each other, and makes it a candidate for association, as shown in FIG. 19 .
If a positive value is included, identity determination unit 25 advances the process to step S83. On the other hand, if the positive value is not included, the identity determination unit 25 ends the processing for the target first moving body 511 .

(ステップS83:第2内積計算処理)
同一性判定部25は、高速で移動する第2移動体512のうち、ステップS81で計算された内積が正の値となった第2移動体512それぞれを対象の第2移動体512に設定する。同一性判定部25は、対象の第2移動体512についての直近のパノラマ画像における検知位置から、対象の第1移動体511について直近のセンサ情報に含まれる位置情報が示す位置へのベクトルを計算する。同一性判定部25は、対象の第2移動体512の移動ベクトルと、ステップS83で計算されたベクトルとの内積を計算する。
(Step S83: Second inner product calculation process)
Among the second mobile bodies 512 moving at high speed, the identity determination unit 25 sets each of the second mobile bodies 512 whose inner product calculated in step S81 has a positive value as the target second mobile body 512. . The identity determination unit 25 calculates a vector from the detected position in the most recent panorama image of the second moving body 512 of interest to the position indicated by the position information included in the most recent sensor information of the first moving body 511 of interest. do. The identity determination unit 25 calculates the inner product of the movement vector of the target second moving body 512 and the vector calculated in step S83.

(ステップS84:第2内積判定処理)
同一性判定部25は、ステップS83で計算された内積に負の値が含まれているか否かを判定する。センサ情報は、画像データよりも遅れて取得されるため、センサ情報に含まれる位置情報が示す位置は、少し前の移動体51の位置を示している。そのため、同一性判定部25は、内積が負の値である場合には、図20に示すように、位置関係が適切であるとして、対応付けの候補にする。
同一性判定部25は、負の値が含まれている場合には、処理をステップS85に進める。一方、同一性判定部25は、負の値が含まれていない場合には、対象の第1移動体511についての処理を終了する。
(Step S84: second inner product determination process)
The identity determination unit 25 determines whether or not the inner product calculated in step S83 includes a negative value. Since the sensor information is acquired later than the image data, the position indicated by the position information included in the sensor information indicates the position of the moving body 51 slightly earlier. Therefore, when the inner product is a negative value, the identity determination unit 25 considers that the positional relationship is appropriate and makes it a candidate for association, as shown in FIG.
If a negative value is included, identity determination unit 25 advances the process to step S85. On the other hand, if the negative value is not included, the identity determination unit 25 ends the processing for the target first moving body 511 .

(ステップS85:対応判定処理)
同一性判定部25は、ステップS83で計算された内積に含まれる負の値が1つだけであるか否かを判定する。負の値が1つだけである場合には、対象の第1移動体511に対応する第2移動体512が1つだけであることを意味する。
同一性判定部25は、負の値が1つだけである場合には、処理をステップS86に進める。一方、同一性判定部25は、負の値が1つだけでない場合には、対象の第1移動体511についての処理を終了する。
(Step S85: correspondence determination process)
The identity determination unit 25 determines whether or not there is only one negative value included in the inner product calculated in step S83. If there is only one negative value, it means that there is only one second moving body 512 corresponding to the target first moving body 511 .
If there is only one negative value, identity determination unit 25 advances the process to step S86. On the other hand, if there is more than one negative value, the identity determination unit 25 ends the processing for the target first moving body 511 .

(ステップS86:対応処理)
同一性判定部25は、対象の第1移動体511と、ステップS83で計算された内積が負であった第2移動体512とを対応付けする。
(Step S86: Correspondence process)
The identity determination unit 25 associates the target first moving body 511 with the second moving body 512 for which the inner product calculated in step S83 is negative.

***実施の形態2の効果***
以上のように、実施の形態2に係る管制支援装置10は、静状態の場合及び低速で移動している場合には、距離に基づき同一の移動体51であるか否かを判定し、高速で移動している場合には、移動方向に基づき同一の移動体51であるか否かを判定する。これにより、適切に移動体51の同一性を判定することが可能である。
*** Effect of Embodiment 2 ***
As described above, the air traffic control support apparatus 10 according to Embodiment 2 determines whether or not the moving object 51 is the same moving object 51 based on the distance when it is in a static state and when it is moving at a low speed. , it is determined whether or not they are the same moving body 51 based on the moving direction. Thereby, it is possible to appropriately determine the identity of the moving object 51 .

特に、実施の形態2に係る管制支援装置10は、高速で移動している場合には、パノラマ画像から特定された移動体51の移動方向と、パノラマ画像における検知位置からセンサ情報に含まれる位置情報が示す位置への方向との関係に基づき、同一の移動体51であるか否かを判定する。これにより、より適切に移動体51の同一性を判定することが可能である。 In particular, when the air traffic control support device 10 according to Embodiment 2 is moving at high speed, the movement direction of the moving body 51 specified from the panoramic image and the position included in the sensor information from the detected position in the panoramic image Based on the relationship with the direction to the position indicated by the information, it is determined whether or not they are the same moving body 51 . This makes it possible to determine the identity of the moving object 51 more appropriately.

適切に移動体51の同一性を判定することにより、検知部24とセンサ41とのどちらか一方だけで検知された移動体51について、適切な重畳画像を生成可能である。 By appropriately determining the identity of the moving body 51 , an appropriate superimposed image can be generated for the moving body 51 detected by only one of the detection unit 24 and the sensor 41 .

また、実施の形態2に係る管制支援装置10は、同一の移動体51と認められる場合に、検知IDを引き継ぐ。これにより、検知部24とセンサ41とのどちらか一方だけで検知された移動体51について、適切な重畳画像を生成可能である。 Further, the control support device 10 according to Embodiment 2 takes over the detection ID when the same moving object 51 is recognized. As a result, an appropriate superimposed image can be generated for the moving object 51 detected by only one of the detection unit 24 and the sensor 41 .

***他の構成***
<変形例3>
実施の形態2では、動状態に分類された移動体51について、距離に基づき対応付けされなかった移動体51について、高速で移動するとして、高速相関処理(図17のステップS77)が実行された。
しかし、同一性判定部25は、図13のステップS32及びステップS35で、移動体51が動状態である場合に、移動体51の移動履歴から移動速度を計算して、移動体51が低速で移動しているか、高速で移動しているかを分類してもよい。そして、同一性判定部25は、低速で移動している移動体51については、図17のステップS74からステップS76の処理により対応付けを行い、高速で移動している移動体51については、図18に示す処理により対応付けを行ってもよい。
***Other Configurations***
<Modification 3>
In the second embodiment, the moving bodies 51 classified into the moving state and not associated based on the distance are assumed to move at high speed, and high-speed correlation processing (step S77 in FIG. 17) is performed. .
However, in steps S32 and S35 of FIG. 13, if the moving body 51 is in a moving state, the identity determining unit 25 calculates the moving speed from the moving history of the moving body 51, and It may be classified as moving or moving at high speed. Then, the sameness determination unit 25 associates the moving object 51 moving at a low speed with the processing from step S74 to step S76 in FIG. The correspondence may be made by the process shown in 18. FIG.

なお、以上の説明における「部」を、「回路」、「工程」、「手順」、「処理」又は「処理回路」に読み替えてもよい。 Note that "unit" in the above description may be read as "circuit", "process", "procedure", "process", or "processing circuit".

以上、本開示の実施の形態及び変形例について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本開示は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。 The embodiments and modifications of the present disclosure have been described above. Some of these embodiments and modifications may be combined and implemented. Also, any one or some may be partially implemented. It should be noted that the present disclosure is not limited to the above embodiments and modifications, and various modifications are possible as necessary.

10 管制支援装置、11 プロセッサ、12 メモリ、13 ストレージ、14 通信インタフェース、15 電子回路、21 センサ取得部、22 タグ生成部、23 画像取得部、24 検知部、25 同一性判定部、26 重畳画像生成部、41 センサ、42 撮影装置、43 表示装置、51 移動体、511 第1移動体、512 第2移動体、52 タグ、53 移動体リスト、54 重畳画像、55 検知枠、61 両検知状態、62 センサ検知状態、63 画像検知状態、64 未検知状態。 10 control support device, 11 processor, 12 memory, 13 storage, 14 communication interface, 15 electronic circuit, 21 sensor acquisition unit, 22 tag generation unit, 23 image acquisition unit, 24 detection unit, 25 identity determination unit, 26 superimposed image Generating unit 41 sensor 42 imaging device 43 display device 51 moving body 511 first moving body 512 second moving body 52 tag 53 moving body list 54 superimposed image 55 detection frame 61 both detection states , 62 sensor detection state, 63 image detection state, 64 non-detection state.

Claims (12)

画像データから管制対象の移動体を検知する検知部と、
センサによって検知されて得られた前記管制対象の移動体についてのセンサ情報を取得するセンサ取得部と、
前記検知部によって移動体が検知された位置を基準として決められる、前記画像データにおける表示位置に、前記センサ取得部によって取得されたセンサ情報から生成されたタグを重畳表示して重畳画像を生成する重畳画像生成部であって、前記検知部と前記センサとのどちらか一方だけで検知された移動体については、前記検知部と前記センサとの他方で過去に得られた情報を用いてタグを重畳表示する重畳画像生成部と
を備える管制支援装置。
a detection unit that detects a moving object to be controlled from image data;
a sensor acquisition unit that acquires sensor information about the moving object to be controlled obtained by being detected by a sensor;
A superimposed image is generated by superimposing a tag generated from the sensor information acquired by the sensor acquisition unit on a display position in the image data determined based on the position where the moving object is detected by the detection unit. In the superimposed image generation unit, for a moving object detected by only one of the detection unit and the sensor, a tag is generated using information obtained in the past by the other of the detection unit and the sensor. A control support device comprising a superimposed image generation unit for superimposed display.
前記重畳画像生成部は、前記検知部と前記センサとの両方で検知された移動体と、前記センサだけで検知された移動体と、前記検知部だけで検知された移動体とで、区別した表示を行う
請求項1に記載の管制支援装置。
The superimposed image generation unit distinguishes between a moving object detected by both the detecting unit and the sensor, a moving object detected only by the sensor, and a moving object detected only by the detecting unit. 2. The control support device according to claim 1, which displays.
前記重畳画像生成部は、前記センサだけで検知された移動体については、前記検知部によって過去に移動体が検知された位置に基づき前記表示位置を決定する
請求項1又は2に記載の管制支援装置。
3. The air traffic control support according to claim 1, wherein the superimposed image generating unit determines the display position of a moving object detected only by the sensor based on a position where the moving object was detected in the past by the detecting unit. Device.
前記センサ情報には、移動体の位置を示す位置情報が含まれており、
前記重畳画像生成部は、前記検知部によって過去に移動体が検知された位置と、過去に取得されたセンサ情報に含まれる位置情報が示す位置との差に基づき、新たに取得されたセンサ情報に含まれる位置情報が示す位置を補正して前記表示位置を決定する
請求項3に記載の管制支援装置。
The sensor information includes position information indicating the position of the mobile body,
The superimposed image generation unit generates newly acquired sensor information based on a difference between a position at which the moving object was detected in the past by the detection unit and a position indicated by position information included in sensor information acquired in the past. 4. The control support device according to claim 3, wherein the display position is determined by correcting the position indicated by the position information included in the.
前記重畳画像生成部は、前記検知部だけで検知された移動体については、過去に取得されたセンサ情報から生成されたタグを重畳表示する
請求項1から4までのいずれか1項に記載の管制支援装置。
5. The superimposed image generation unit according to any one of claims 1 to 4, wherein for a moving object detected only by the detection unit, a tag generated from sensor information acquired in the past is superimposed and displayed. Control support equipment.
前記管制支援装置は、さらに、
前記検知部によって検知された移動体と、前記センサ取得部によって取得されたセンサ情報が示す移動体とが同一の移動体であるか否かを判定する同一性判定部
を備え、
前記重畳画像生成部は、前記検知部と前記センサとのどちらか一方だけで検知された移動体のうち、その移動体と同一の移動体であると前記同一性判定部によって判定された移動体については、前記検知部と前記センサとの他方で過去に得られた情報を用いてタグを重畳表示する
請求項1から5までのいずれか1項に記載の管制支援装置。
The control support device further includes:
An identity determination unit that determines whether the moving object detected by the detection unit and the moving object indicated by the sensor information acquired by the sensor acquisition unit are the same moving object,
The superimposed image generating unit determines, by the identity determining unit, that the moving object detected by only one of the detecting unit and the sensor is the same moving object as the moving object. 6. The control support device according to any one of claims 1 to 5, wherein a tag is superimposed and displayed using information obtained in the past by the other of said detection unit and said sensor.
前記センサ情報には、移動体の位置を示す位置情報が含まれており、
前記同一性判定部は、基準速度以下の速度で移動している移動体については、検知された移動体の位置とセンサ情報に含まれる位置情報が示す移動体の位置との間の距離に基づき、同一の移動体であるか否かを判定する
請求項6に記載の管制支援装置。
The sensor information includes position information indicating the position of the mobile body,
For a moving object moving at a speed equal to or lower than a reference speed, the identity determination unit determines the distance between the detected position of the moving object and the position of the moving object indicated by the position information included in the sensor information. 7. The control support system according to claim 6, wherein it is determined whether or not they are the same mobile object.
前記センサ情報には、移動体の位置を示す位置情報が含まれており、
前記同一性判定部は、基準速度よりも速い速度で移動している移動体については、検知された移動体の位置から特定される移動方向と、センサ情報に含まれる位置情報が示す移動体の位置から特定される移動方向との間の差に基づき、同一の移動体であるか否かを判定する
請求項6又は7に記載の管制支援装置。
The sensor information includes position information indicating the position of the mobile body,
For a moving object moving at a speed faster than a reference speed, the identity determination unit determines the moving direction specified from the detected position of the moving object and the moving object indicated by the position information included in the sensor information. 8. The air traffic control support system according to claim 6 or 7, wherein it is determined whether or not the moving objects are the same based on the difference between the direction of movement specified from the position.
前記同一性判定部は、検知された移動体の位置から特定される移動方向と、検知された移動体の位置からセンサ情報に含まれる位置情報が示す移動体の位置への方向との間の差に基づき、同一の移動体であるか否かを判定する
請求項8に記載の管制支援装置。
The identity determination unit determines a direction between a moving direction specified from the detected position of the moving body and a direction from the detected position of the moving body to the position of the moving body indicated by the position information included in the sensor information. 9. The control support system according to claim 8, wherein it is determined whether or not the mobile objects are the same based on the difference.
前記同一性判定部は、前記検知部によって移動体が検知された領域に基づき、新たに前記検知部によって検知された移動体と、過去に前記検知部によって検知された移動体との同一性を判定する
請求項6から9までのいずれか1項に記載の管制支援装置。
The identity determination unit determines the identity between the moving object newly detected by the detecting unit and the moving object previously detected by the detecting unit based on the area in which the moving object is detected by the detecting unit. 10. The control support device according to any one of claims 6 to 9.
コンピュータが、画像データから管制対象の移動体を検知し、
コンピュータが、センサによって検知されて得られた前記管制対象の移動体についてのセンサ情報を取得し、
コンピュータが、移動体が検知された位置を基準として決められる、前記画像データにおける表示位置に、センサ情報から生成されたタグを重畳表示して重畳画像を生成し、前記画像データと前記センサとのどちらか一方だけで検知された移動体については、前記画像データと前記センサとの他方で過去に得られた情報を用いてタグを重畳表示する管制支援方法。
The computer detects moving objects to be controlled from the image data,
A computer acquires sensor information about the moving object to be controlled obtained by being detected by a sensor;
The computer generates a superimposed image by superimposing a tag generated from the sensor information on a display position in the image data, which is determined based on the position where the moving object is detected, to generate a superimposed image, and the image data and the sensor. A control support method for superimposing and displaying a tag for a moving object detected by only one of the sensors, using information obtained in the past by the other of the image data and the sensor.
画像データから管制対象の移動体を検知する検知処理と、
センサによって検知されて得られた前記管制対象の移動体についてのセンサ情報を取得するセンサ取得処理と、
前記検知処理によって移動体が検知された位置を基準として決められる、前記画像データにおける表示位置に、前記センサ取得処理によって取得されたセンサ情報から生成されたタグを重畳表示して重畳画像を生成する重畳画像生成処理であって、前記検知処理と前記センサとのどちらか一方だけで検知された移動体については、前記検知処理と前記センサとの他方で過去に得られた情報を用いてタグを重畳表示する重畳画像生成処理と
を行う管制支援装置としてコンピュータを機能させる管制支援プログラム。
detection processing for detecting moving objects to be controlled from image data;
a sensor acquisition process for acquiring sensor information about the moving object to be controlled obtained by being detected by a sensor;
A superimposed image is generated by superimposing a tag generated from the sensor information acquired by the sensor acquisition process on a display position in the image data determined based on the position where the moving object is detected by the detection process. In the superimposed image generation process, for a moving object detected by only one of the detection process and the sensor, a tag is attached using information obtained in the past by the other of the detection process and the sensor. A control support program that causes a computer to function as a control support device that performs superimposed image generation processing for superimposed display.
JP2021122498A 2021-07-27 2021-07-27 Control support device, control support method, and control support program Active JP7241818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021122498A JP7241818B2 (en) 2021-07-27 2021-07-27 Control support device, control support method, and control support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021122498A JP7241818B2 (en) 2021-07-27 2021-07-27 Control support device, control support method, and control support program

Publications (2)

Publication Number Publication Date
JP2023018398A true JP2023018398A (en) 2023-02-08
JP7241818B2 JP7241818B2 (en) 2023-03-17

Family

ID=85158294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021122498A Active JP7241818B2 (en) 2021-07-27 2021-07-27 Control support device, control support method, and control support program

Country Status (1)

Country Link
JP (1) JP7241818B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281212A (en) * 1996-04-16 1997-10-31 Sony Corp Position detecting device for moving body
JPH11160424A (en) * 1997-11-27 1999-06-18 Nec Corp Airport ground surface monitor device
JP2002277544A (en) * 2001-03-21 2002-09-25 Toshiba Corp Airport runway monitoring device
JP2005207892A (en) * 2004-01-22 2005-08-04 Denso Corp Radio wave transmitter and navigation device
JP2006270404A (en) * 2005-03-23 2006-10-05 Mitsubishi Electric Corp Device and method for controlling photographing and photographing control program
JP2012070260A (en) * 2010-09-24 2012-04-05 Navicom Aviation Corp Aircraft managing system, onboard device, ground device, onboard device program, ground device program, and information processing method
JP2013161113A (en) * 2012-02-01 2013-08-19 Toyota Motor Corp Travel lane recognition device
JP2019022178A (en) * 2017-07-21 2019-02-07 三菱電機株式会社 Air traffic control support device, air traffic control support method, and air traffic control support program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281212A (en) * 1996-04-16 1997-10-31 Sony Corp Position detecting device for moving body
JPH11160424A (en) * 1997-11-27 1999-06-18 Nec Corp Airport ground surface monitor device
JP2002277544A (en) * 2001-03-21 2002-09-25 Toshiba Corp Airport runway monitoring device
JP2005207892A (en) * 2004-01-22 2005-08-04 Denso Corp Radio wave transmitter and navigation device
JP2006270404A (en) * 2005-03-23 2006-10-05 Mitsubishi Electric Corp Device and method for controlling photographing and photographing control program
JP2012070260A (en) * 2010-09-24 2012-04-05 Navicom Aviation Corp Aircraft managing system, onboard device, ground device, onboard device program, ground device program, and information processing method
JP2013161113A (en) * 2012-02-01 2013-08-19 Toyota Motor Corp Travel lane recognition device
JP2019022178A (en) * 2017-07-21 2019-02-07 三菱電機株式会社 Air traffic control support device, air traffic control support method, and air traffic control support program

Also Published As

Publication number Publication date
JP7241818B2 (en) 2023-03-17

Similar Documents

Publication Publication Date Title
JP7221089B2 (en) Stable simultaneous execution of location estimation and map generation by removing dynamic traffic participants
EP3420530B1 (en) A device and method for determining a pose of a camera
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
Akolkar et al. Real-time high speed motion prediction using fast aperture-robust event-driven visual flow
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
US11887318B2 (en) Object tracking
US9953225B2 (en) Image processing apparatus and image processing method
JP3279479B2 (en) Video monitoring method and device
US20130215270A1 (en) Object detection apparatus
US10867390B2 (en) Computer vision processing
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
JP2014137815A (en) System and method for correcting camera image with distortion
JP2006338272A (en) Vehicle behavior detector and vehicle behavior detection method
CN113396423A (en) Method of processing information from event-based sensors
Tsoukalas et al. Deep learning assisted visual tracking of evader-UAV
JPWO2018159467A1 (en) Moving object detecting device, moving object detecting method, and program
JP7241818B2 (en) Control support device, control support method, and control support program
Liu et al. Learning TBox with a cascaded anchor-free network for vehicle detection
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP2008026999A (en) Obstacle detection system and obstacle detection method
JP7384158B2 (en) Image processing device, moving device, method, and program
JP2020144758A (en) Moving object detector, moving object detection method, and computer program
JP2002027480A (en) Dynamic image processing method and apparatus thereof
JP2013179614A (en) Imaging apparatus
JP7026729B2 (en) Control support equipment, control support methods and control support programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150