JP2017175475A - Monitoring system and monitoring method - Google Patents

Monitoring system and monitoring method Download PDF

Info

Publication number
JP2017175475A
JP2017175475A JP2016060975A JP2016060975A JP2017175475A JP 2017175475 A JP2017175475 A JP 2017175475A JP 2016060975 A JP2016060975 A JP 2016060975A JP 2016060975 A JP2016060975 A JP 2016060975A JP 2017175475 A JP2017175475 A JP 2017175475A
Authority
JP
Japan
Prior art keywords
sound
image
sound source
area
sound pressure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016060975A
Other languages
Japanese (ja)
Other versions
JP6865371B2 (en
JP2017175475A5 (en
Inventor
宏之 松本
Hiroyuki Matsumoto
宏之 松本
信太郎 吉國
Shintaro Yoshikuni
信太郎 吉國
正成 宮本
Masanari Miyamoto
正成 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016060975A priority Critical patent/JP6865371B2/en
Priority to PCT/JP2017/005872 priority patent/WO2017163688A1/en
Priority to US15/454,722 priority patent/US10397525B2/en
Publication of JP2017175475A publication Critical patent/JP2017175475A/en
Publication of JP2017175475A5 publication Critical patent/JP2017175475A5/ja
Priority to JP2021044572A priority patent/JP7122708B2/en
Application granted granted Critical
Publication of JP6865371B2 publication Critical patent/JP6865371B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To visually present to a user in what kind of place in an imaging area of a camera device an unmanned flying body is detected and what kind of sound source exists in what other places in the same imaging area, without deteriorating visibility of the captured image of the camera device.SOLUTION: A sound source direction detection section 34, on the basis of a sound collected by a microphone array, derives a sound pressure that specifies magnitude of sound in an imaging area for each predetermined unit of pixels constituting a captured image. An output control section 35, in accordance with comparison between the sound pressure and a plurality of threshold values relating to the magnitude of sound, superimposes sound source visual information obtained by gradually converting the sound pressure into different visual images for each predetermined unit of the pixels constituting the captured image in the imaging area and displays them in a first monitor. The sound source direction detection section, when any one of the sound source positions in the captured image in the imaging area is specified, derives the sound pressure for each value obtained by dividing a predetermined unit of pixels constituting a rectangular range including the sound source position by a size ratio between the rectangular range and the captured image in the imaging area.SELECTED DRAWING: Figure 6

Description

本発明は、例えば無人飛行体が飛翔しているカメラ装置の撮像エリアをモニタリングするモニタリングシステム及びモニタリング方法に関する。   The present invention relates to a monitoring system and a monitoring method for monitoring an imaging area of a camera device in which an unmanned aerial vehicle is flying, for example.

従来、監視領域内に生じる音を方向毎に検知する複数の音検知部を用いて、物体の存在の検知と、物体の飛来方向の検知とが可能な飛来飛行物体監視装置が知られている(例えば特許文献1参照)。この飛来飛行物体監視装置の処理装置は、無指向性のマイクによる音検知によって飛行物体の飛来及びその飛来方向を検知すると、その飛行物体が飛来した方向に監視カメラを向ける。更に、処理装置は、この監視カメラで撮影された映像を表示装置に表示する。   Conventionally, a flying object monitoring apparatus capable of detecting the presence of an object and detecting the flying direction of the object by using a plurality of sound detection units that detect sound generated in the monitoring area for each direction is known. (For example, refer to Patent Document 1). When the flying flight object monitoring apparatus detects the flight of a flying object and its flying direction by sound detection using a non-directional microphone, the monitoring camera is directed in the direction in which the flying object has come. Further, the processing device displays the video image taken by the monitoring camera on the display device.

特開2006−168421号公報JP 2006-168421 A

特許文献1では、監視領域内の任意の方向に撮影方向を変向可能な監視カメラが設けられており、ヘリコプターやセスナ等の飛行物体が検出されると、この監視カメラの撮影方向を変向させることは開示されている。言い換えると、検出された飛行物体を注目して撮像するために、監視カメラの撮影方向を変向することは開示されている。   In Patent Document 1, a monitoring camera capable of changing the shooting direction in an arbitrary direction within the monitoring area is provided. When a flying object such as a helicopter or a Cessna is detected, the shooting direction of the monitoring camera is changed. Has been disclosed. In other words, it has been disclosed to change the shooting direction of the surveillance camera in order to capture an image of a detected flying object.

しかしながら、特許文献1には、撮像エリアに対するカメラ装置の画角の範囲内で検知された無人飛行体を含む周囲の撮像画像を広範に表示することは考慮されていない。このため、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、ユーザにとって視覚的に提示することはできないという課題があった。   However, Patent Document 1 does not consider displaying a wide range of surrounding captured images including an unmanned aerial vehicle detected within the range of the angle of view of the camera device with respect to the imaging area. For this reason, the unmanned flying object is detected in the imaging area of the camera device, and what kind of sound source is present in other locations in the same imaging area is visually presented to the user. There was a problem that it was not possible.

本発明は、上述した従来の状況に鑑みて案出され、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、カメラ装置の撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示するモニタリングシステム及びモニタリング方法を提供することを目的とする。   The present invention has been devised in view of the above-described conventional situation, and an unmanned air vehicle is detected at any location within the imaging area of the camera device, and any sound source at any other location within the same imaging area. It is an object of the present invention to provide a monitoring system and a monitoring method for visually presenting to a user whether or not they exist without degrading the visibility of a captured image of a camera device.

本発明は、撮像エリアを撮像するカメラと、前記撮像エリアの音声を収音するマイクアレイと、前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの撮像画像を構成する画素の所定単位毎に導出する音パラメータ導出部と、前記音パラメータ導出部により導出された前記音パラメータと音の大きさに関する閾値との比較に応じて、前記画素の所定単位毎の、前記音パラメータを視覚画像に変換した音源視覚画像を、前記撮像エリアの撮像画像の大きさに対応するように連結した音パラメータマップの半透明マップを生成する信号処理部と、を備え、前記信号処理部は、前記半透明マップを前記撮像エリアの撮像画像に重畳して前記モニタに表示する、モニタリングシステムを提供する。   The present invention provides a camera that captures an imaging area, a microphone array that collects sound in the imaging area, a monitor that displays a captured image of the imaging area captured by the camera, and a sound that is collected by the microphone array. A sound parameter deriving unit for deriving a sound parameter for specifying a loudness of the imaging area for each predetermined unit of a pixel constituting the captured image of the imaging area, and the sound parameter deriving unit A sound source visual image obtained by converting the sound parameter into a visual image for each predetermined unit of the pixel according to a comparison between the derived sound parameter and a threshold value related to a loudness is a size of a captured image of the imaging area. A signal processing unit that generates a semi-transparent map of sound parameter maps that are connected to correspond to each other, and the signal processing unit converts the translucent map into the semi-transparent map. Superimposed on the captured image of the image area displayed on the monitor, to provide a monitoring system.

また、本発明は、カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、前記カメラにより、撮像エリアを撮像し、前記マイクアレイにより、前記撮像エリアの音声を収音し、前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの撮像画像を構成する画素の所定単位毎に導出し、導出された前記音パラメータと音の大きさに関する閾値との比較に応じて、前記画素の所定単位毎の、前記音パラメータを視覚画像に変換した音源視覚画像を、前記撮像エリアの撮像画像の大きさに対応するように連結した音パラメータマップの半透明マップを生成し、生成された前記半透明マップを前記撮像エリアの撮像画像に重畳して前記モニタに表示する、モニタリング方法を提供する。   The present invention is also a monitoring method in a monitoring system having a camera and a microphone array, wherein an imaging area is imaged by the camera, sound of the imaging area is collected by the microphone array, and the camera is used. The captured image of the imaged area is displayed on a monitor, and based on the sound collected by the microphone array, a sound parameter for specifying the loudness of the imaged area, the captured image of the imaged area is displayed. A sound source visual image obtained by converting the sound parameter for each predetermined unit of the pixel into a visual image in accordance with a comparison between the derived sound parameter and a threshold value related to a loudness level. Generate a semi-transparent map of the sound parameter map that connects the images so as to correspond to the size of the captured image of the imaging area. Wherein the translucent map superimposed on the captured image of the imaging area displayed on the monitor, to provide a monitoring method.

本発明によれば、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示でき、その音源位置における音の大きさのユーザへの正確な把握に資することができる。   According to the present invention, the loudness of the sound at the sound source position can be presented in a fine stepwise manner regardless of the magnitude of the sound at the sound source position detected in the imaging area of the camera device. It can contribute to the accurate grasp to the user of size.

各実施形態の無人飛行体検知システムの概略構成の一例を示す図The figure which shows an example of schematic structure of the unmanned air vehicle detection system of each embodiment 音源検知ユニットの外観の一例を示す図The figure which shows an example of the external appearance of a sound source detection unit マイクアレイの内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of the microphone array in detail 全方位カメラの内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of an omnidirectional camera in detail PTZカメラの内部構成の一例を詳細に示すブロック図Block diagram showing in detail an example of the internal configuration of a PTZ camera 監視装置の内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of the monitoring device in detail メモリに登録されている無人飛行体の検知音信号のパターンの一例を示すタイミングチャートTiming chart showing an example of detection sound signal pattern of unmanned air vehicle registered in memory 周波数分析処理の結果として得られた検知音信号の周波数変化の一例を示すタイミングチャートTiming chart showing an example of frequency change of detected sound signal obtained as a result of frequency analysis processing 第1の実施形態における、無人飛行体の検知及び検知結果の表示の動作手順の一例を説明するシーケンス図The sequence diagram explaining an example of the operation procedure of detection of an unmanned air vehicle and display of a detection result in a 1st embodiment. 図9のステップS8の無人飛行体検知判定の動作手順の詳細の一例を説明するフローチャート9 is a flowchart for explaining an example of details of the operation procedure of unmanned air vehicle detection determination in step S8 of FIG. 監視エリア内で指向方向が順に走査され、無人飛行体が検知される様子の一例を示す図The figure which shows an example of a mode that a pointing direction is scanned in order within a monitoring area, and an unmanned air vehicle is detected マスキングエリアが設定されていない場合の第1モニタの表示画面例を示す図The figure which shows the example of a display screen of the 1st monitor when the masking area is not set 自動学習処理時におけるマスキングエリアの表示例を時系列に示す説明図Explanatory drawing showing a display example of the masking area in time series during automatic learning processing 第1の実施形態における、マスキングエリアの設定の動作手順の一例を説明するシーケンス図The sequence diagram explaining an example of the operation | movement procedure of the setting of a masking area in 1st Embodiment マスキングエリアが設定された場合の第1モニタの表示画面例を示す図The figure which shows the example of a display screen of the 1st monitor when a masking area is set 第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の概要説明図Outline explanatory drawing of dynamic change of display resolution of sound pressure heat map in the second embodiment 第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の動作手順の一例を説明するフローチャートThe flowchart explaining an example of the operation | movement procedure of the dynamic change of the display resolution of the sound pressure heat map in 2nd Embodiment. 第2の実施形態における、音圧値の度数分布に応じた閾値の幅調整と幅調整に伴う撮像画像の表示結果の概要説明図Outline explanatory drawing of the display result of the picked-up image accompanying the width adjustment of the threshold value according to the frequency distribution of the sound pressure value and the width adjustment in the second embodiment (A),(B)第2の実施形態における、音源視覚画像の使用を規定する閾値間の幅の設定変更の概要説明図(A), (B) Outline explanatory diagram of setting change of width between thresholds for defining use of sound source visual image in second embodiment 第2の実施形態における、紅色画像及び群青色画像の使用を規定する閾値間の幅の設定変更に伴う撮像画像の表示の概要説明図Outline explanatory drawing of display of picked-up image in connection with setting change of width between threshold values defining use of red image and group blue image in second embodiment 第2の実施形態における、閾値間の幅の設定変更の動作手順の一例を説明するフローチャートThe flowchart explaining an example of the operation | movement procedure of the setting change of the width | variety between threshold values in 2nd Embodiment. 第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の概要説明図Outline explanatory drawing of overlay display of omnidirectional image and translucent sound pressure heat map in the third embodiment 全方位画像と半透明音圧ヒートマップとがオーバーレイ表示された第1モニタの表示画面例を示す図The figure which shows the example of a display screen of the 1st monitor on which the omnidirectional image and the translucent sound pressure heat map were displayed by overlay. 第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の動作手順の一例を説明するシーケンス図The sequence diagram explaining an example of the operation | movement procedure of the overlay display of an omnidirectional image and a translucent sound pressure heat map in 3rd Embodiment

以下、適宜図面を参照しながら、本発明に係るモニタリングシステム及びモニタリング方法を具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, embodiments that specifically disclose a monitoring system and a monitoring method according to the present invention will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

以下、本発明に係るモニタリングシステムの一例として、監視対象となる無人飛行体(例えばドローン、ラジコンヘリコプタ)を検知するための無人飛行体検知システムを例示して説明する。また、本発明は、モニタリングシステムに限定されず、モニタリングシステムにおいて実行されるモニタリング方法として規定することも可能である。   Hereinafter, as an example of the monitoring system according to the present invention, an unmanned air vehicle detection system for detecting an unmanned air vehicle to be monitored (for example, a drone, a radio control helicopter) will be described as an example. Moreover, this invention is not limited to a monitoring system, It can also be prescribed | regulated as a monitoring method performed in a monitoring system.

以下、無人飛行体検知システムの使用者(例えば、監視エリアを見回り、警備等する監視員)を、単に「ユーザ」という。   Hereinafter, a user of an unmanned air vehicle detection system (for example, a monitor who looks around and guards a monitoring area) is simply referred to as a “user”.

図1は、各実施形態の無人飛行体検知システム5の概略構成の一例を示す図である。無人飛行体検知システム5は、検知対象としてユーザの目的とする無人飛行体dn(例えば図12参照)を検知する。無人飛行体dnは、例えばGPS(Global Positioning System)機能を利用して自律的に飛翔するドローン、第三者の無線操縦によって飛翔するラジコンヘリコプタ等である。このような無人飛行体dnは、例えばターゲットの空撮、監視、物資の運搬等に利用される。   FIG. 1 is a diagram illustrating an example of a schematic configuration of an unmanned air vehicle detection system 5 according to each embodiment. The unmanned aerial vehicle detection system 5 detects an unmanned aerial vehicle dn (for example, see FIG. 12) as a user's target as a detection target. The unmanned air vehicle dn is, for example, a drone that flies autonomously using a GPS (Global Positioning System) function, a radio controlled helicopter that flies by a third party's radio control, and the like. Such an unmanned air vehicle dn is used, for example, for aerial photography of a target, monitoring, transportation of goods, and the like.

各実施形態では、無人飛行体dnとして、複数のロータ(言い換えると、回転翼)を搭載したマルチコプタ型のドローンを例示する。マルチコプタ型のドローンでは、一般にロータの羽の枚数が2枚の場合、特定周波数に対し2倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。同様に、ロータの羽の枚数が3枚の場合、特定周波数に対し3倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。ロータの羽の枚数が4枚以上の場合も同様である。   In each embodiment, a multicopter type drone equipped with a plurality of rotors (in other words, rotor blades) is exemplified as the unmanned air vehicle dn. In a multi-copter type drone, generally, when the number of rotor wings is two, a harmonic having a frequency twice as high as a specific frequency and further a harmonic having a frequency multiplied by that frequency is generated. Similarly, when the number of rotor wings is three, harmonics having a frequency three times as high as a specific frequency and further harmonics having a frequency multiplied by the harmonics are generated. The same applies when the number of rotor wings is four or more.

無人飛行体検知システム5は、複数の音源検知ユニットUD1,…,UDk,…,UDnと、監視装置10と、第1モニタMN1と、第2モニタMN2と、レコーダRCとを含む構成である。nは2以上の自然数である。複数の音源検知ユニットUD1,…,UDk,…,UDnは、ネットワークNWを介して監視装置10と相互に接続される。kは、1〜nの自然数である。それぞれの音源検知ユニット(例えば音源検知ユニットUD1)は、マイクアレイMA1と、全方位カメラCA1と、PTZカメラCZ1とを有する構成であり、他の音源検知ユニットUDkも同様の構成を有する。   The unmanned air vehicle detection system 5 includes a plurality of sound source detection units UD1, ..., UDk, ..., UDn, a monitoring device 10, a first monitor MN1, a second monitor MN2, and a recorder RC. n is a natural number of 2 or more. The plurality of sound source detection units UD1, ..., UDk, ..., UDn are connected to the monitoring apparatus 10 via the network NW. k is a natural number of 1 to n. Each sound source detection unit (for example, the sound source detection unit UD1) has a configuration including a microphone array MA1, an omnidirectional camera CA1, and a PTZ camera CZ1, and the other sound source detection units UDk also have the same configuration.

なお、個々の音源検知ユニットを特に区別する必要がある場合を除き、音源検知ユニットUDk又は単に音源検知ユニットUDという。同様に、個々のマイクアレイ、全方位カメラ、PTZカメラを特に区別する必要がある場合を除き、マイクアレイMAk又はマイクアレイMA(図2参照)、全方位カメラCAk又は全方位カメラCA(図2参照)、PTZカメラCZk又はPTZカメラCZ(図2参照)という。   Note that the sound source detection unit UDk or simply the sound source detection unit UD is referred to unless the individual sound source detection units need to be particularly distinguished. Similarly, the microphone array MAk or microphone array MA (see FIG. 2), the omnidirectional camera CAk or the omnidirectional camera CA (FIG. 2) unless there is a particular need to distinguish between individual microphone arrays, omnidirectional cameras, and PTZ cameras. See PTZ camera CZk or PTZ camera CZ (see FIG. 2).

音源検知ユニットUDkでは、マイクアレイMAkは、自装置が設置された監視対象となるエリア(つまり、監視エリア)における全方位の音を無指向状態で収音する。マイクアレイMAkは、中央に所定幅の円筒形状の開口部が形成された筐体15(図2参照)を有する。マイクアレイMAkが収音対象とする音は、例えばドローンのような機械的な動作音、人間等が発する音声、その他の音を広く含み、可聴周波数(つまり、20Hz〜23khHz)域の音に限らず、可聴周波数より低い低周波音や可聴周波数を超える超音波音が含まれてもよい。   In the sound source detection unit UDk, the microphone array MAk collects sound in all directions in the area to be monitored (that is, the monitoring area) where the apparatus is installed in a non-directional state. The microphone array MAk has a housing 15 (see FIG. 2) in which a cylindrical opening having a predetermined width is formed at the center. The sound to be picked up by the microphone array MAk includes, for example, a mechanical operation sound such as a drone, a sound emitted by a human being, and other sounds, and is limited to a sound in an audible frequency range (that is, 20 Hz to 23 kHz). Alternatively, a low frequency sound lower than the audible frequency or an ultrasonic sound exceeding the audible frequency may be included.

マイクアレイMAkは、複数の無指向性のマイクロホンM1〜Mq(図3参照)を含む。qは2以上の自然数である。マイクロホンM1〜Mqは、筐体15に設けられた上記開口部の周囲に円周方向に沿って、同心円状に予め決められた間隔(例えば均一な間隔)で配置されている。マイクロホンM1〜Mqは、例えばエレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)が用いられる。マイクアレイMAkは、それぞれのマイクロホンM1〜Mqの収音により得られた音の音声データを、ネットワークNWを介して監視装置10に送信する。なお、上記の各マイクロホンM1〜Mqの配列は、一例であり、他の配列(例えば正方形状な配置、長方形状の配置)であってもよいが、各マイクロホンM1〜Mqは等間隔に並べて配置されることが好ましい。   Microphone array MAk includes a plurality of omnidirectional microphones M1 to Mq (see FIG. 3). q is a natural number of 2 or more. The microphones M <b> 1 to Mq are arranged around the opening provided in the housing 15 at a predetermined interval (for example, a uniform interval) concentrically along the circumferential direction. As the microphones M1 to Mq, for example, electret condenser microphones (ECM) are used. The microphone array MAk transmits sound data of sounds obtained by collecting the sounds of the microphones M1 to Mq to the monitoring device 10 via the network NW. The arrangement of the microphones M1 to Mq is an example, and other arrangements (for example, a square arrangement or a rectangular arrangement) may be used. However, the microphones M1 to Mq are arranged at equal intervals. It is preferred that

また、マイクアレイMAkは、複数のマイクロホンM1〜Mq(例えばq=32)、及び複数のマイクロホンM1〜Mqの出力信号をそれぞれ増幅する複数の増幅器(アンプ)PA1〜PAq(図3参照)を有する。各増幅器から出力されるアナログ信号は、後述するA/D変換器A1〜Aq(図3参照)でそれぞれデジタル信号に変換される。なお、マイクアレイMAkにおけるマイクロホンの数は、32個に限られず、他の数(例えば16個、64個、128個)であってもよい。   The microphone array MAk includes a plurality of microphones M1 to Mq (for example, q = 32) and a plurality of amplifiers (amplifiers) PA1 to PAq (see FIG. 3) that amplify output signals of the plurality of microphones M1 to Mq, respectively. . Analog signals output from each amplifier are converted into digital signals by A / D converters A1 to Aq (see FIG. 3), which will be described later. Note that the number of microphones in the microphone array MAk is not limited to 32, but may be other numbers (for example, 16, 64, 128).

マイクアレイMAkの筐体15(図2参照)の中央に形成された開口部の内側には、開口部の容積と略一致する全方位カメラCAkが収容される。つまり、マイクアレイMAkと全方位カメラCAkとは一体的かつ、それぞれの筐体中心が同軸方向となるように配置される(図2参照)。全方位カメラCAkは、全方位カメラCAkの撮像エリアとしての監視エリア(上述参照)の全方位画像を撮像可能な魚眼レンズ45a(図4参照)を搭載したカメラである。各実施形態において、マイクアレイMAkの収音エリアと全方位カメラCAkの撮像エリアとはともに共通の監視エリアとして説明するが、収音エリアと撮像エリアの空間的な大きさ(例えば体積)は同一でなくてもよい。例えば収音エリアの体積が撮像エリアの体積より大きくても良いし、小さくてもよい。要は、収音エリアと撮像エリアとは共通する空間部分があればよい。全方位カメラCAkは、例えば音源検知ユニットUDkが設置された撮像エリアを撮像可能な監視カメラとして機能する。つまり、全方位カメラCAkは、例えば垂直方向:180°、水平方向:360°の画角を有し、例えば半天球である監視エリア8(図11参照)を撮像エリアとして撮像する。   An omnidirectional camera CAk that substantially matches the volume of the opening is accommodated inside the opening formed in the center of the casing 15 (see FIG. 2) of the microphone array MAk. That is, the microphone array MAk and the omnidirectional camera CAk are integrated and arranged so that the center of each case is in the coaxial direction (see FIG. 2). The omnidirectional camera CAk is a camera equipped with a fisheye lens 45a (see FIG. 4) capable of capturing an omnidirectional image of a monitoring area (see above) as an imaging area of the omnidirectional camera CAk. In each embodiment, the sound collection area of the microphone array MAk and the imaging area of the omnidirectional camera CAk are both described as a common monitoring area, but the spatial size (for example, volume) of the sound collection area and the imaging area is the same. Not necessarily. For example, the volume of the sound collection area may be larger or smaller than the volume of the imaging area. In short, the sound collection area and the imaging area only need to have a common space. The omnidirectional camera CAk functions as a monitoring camera capable of imaging an imaging area where the sound source detection unit UDk is installed, for example. That is, the omnidirectional camera CAk has an angle of view of, for example, vertical direction: 180 ° and horizontal direction: 360 °, and images the monitoring area 8 (see FIG. 11), which is a hemisphere, for example, as an imaging area.

それぞれの音源検知ユニットUDkでは、全方位カメラCAkが筐体15の開口部の内側に嵌め込まれることで、全方位カメラCAとマイクアレイMAとが同軸上に配置される。このように、全方位カメラCAkの光軸とマイクアレイMAkの筐体の中心軸とが一致することで、軸周方向(つまり、水平方向)における撮像エリアと収音エリアとが略同一となり、全方位カメラCAkが撮像した全方位画像中の被写体の位置(言い換えれば、全方位カメラCAkから見た被写体の位置を示す方向)とマイクアレイMAkの収音対象となる音源の位置(言い換えれば、マイクアレイMAkから見た音源の位置を示す方向)とが同じ座標系(例えば(水平角,垂直角)で示される座標)で表現可能となる。なお、それぞれの音源検知ユニットUDkは、上空で飛翔している無人飛行体dnを検知するために、例えば天地方向の上向きが収音面及び撮像面となるように、取り付けられる(図2参照)。   In each sound source detection unit UDk, the omnidirectional camera CAk and the microphone array MA are arranged coaxially by fitting the omnidirectional camera CAk inside the opening of the housing 15. As described above, the optical axis of the omnidirectional camera CAk and the central axis of the housing of the microphone array MAk coincide with each other, so that the imaging area and the sound collection area in the axial circumferential direction (that is, the horizontal direction) become substantially the same. The position of the subject in the omnidirectional image captured by the omnidirectional camera CAk (in other words, the direction indicating the position of the subject as viewed from the omnidirectional camera CAk) and the position of the sound source to be collected by the microphone array MAk (in other words, Can be expressed in the same coordinate system (for example, coordinates indicated by (horizontal angle, vertical angle)). Each sound source detection unit UDk is attached so that, for example, the upward direction in the top-and-bottom direction is the sound collection surface and the imaging surface in order to detect the unmanned air vehicle dn flying in the sky (see FIG. 2). .

監視装置10は、例えばPC(Personal Computer)又はサーバを用いて構成される。監視装置10は、マイクアレイMAkにより収音された全方位の音に対して、ユーザの操作に基づいて任意の方向を主ビーム方向とする指向性を形成(つまり、ビームフォーミング)し、その指向方向の音を強調することができる。なお、マイクアレイMAkによって収音された音をビームフォーミングするための音データの指向性制御処理に関する技術は、例えば参考特許文献1,2に示されるように、公知の技術である。   The monitoring device 10 is configured using, for example, a PC (Personal Computer) or a server. The monitoring apparatus 10 forms directivity with the arbitrary beam direction as the main beam direction (that is, beam forming) based on the user's operation with respect to the omnidirectional sound collected by the microphone array MAk. The sound of direction can be emphasized. In addition, the technique regarding the directivity control processing of the sound data for beam forming the sound collected by the microphone array MAk is a known technique as shown in Reference Patent Documents 1 and 2, for example.

(参考特許文献1)特開2014−143678号公報
(参考特許文献2)特開2015−029241号公報
(Reference Patent Document 1) JP-A-2014-143678 (Reference Patent Document 2) JP-A-2015-029241

監視装置10は、全方位カメラCAkにより撮像された画像(以下、「撮像画像」と略記することがある)を用いて、撮像画像を処理して全方位画像を生成する。なお、全方位画像は、監視装置10ではなく、全方位カメラCAkにより生成されてもよい。   The monitoring device 10 generates an omnidirectional image by processing the captured image using an image captured by the omnidirectional camera CAk (hereinafter, sometimes abbreviated as “captured image”). The omnidirectional image may be generated not by the monitoring device 10 but by the omnidirectional camera CAk.

監視装置10は、全方位カメラCAkにより撮像された撮像画像に、マイクアレイMAkにより収音された音の大きさを特定する音パラメータ(例えば後述する音圧)の算出値に基づく音圧ヒートマップの画像(図15参照)を重畳して第1モニタMN1等へ出力して表示する。   The monitoring apparatus 10 includes a sound pressure heat map based on a calculated value of a sound parameter (for example, a sound pressure described later) that specifies the magnitude of sound collected by the microphone array MAk in a captured image captured by the omnidirectional camera CAk. The image (see FIG. 15) is superimposed and output to the first monitor MN1 or the like and displayed.

また、監視装置10は、全方位画像IMG1に、検知された無人飛行体dnをユーザにとって視覚的に判別し易い視覚画像(例えば識別マーク(不図示))を第1モニタMN1の無人飛行体dnの位置に表示してもよい。視覚画像とは、例えば全方位画像IMG1において、ユーザが全方位画像IMG1を見た時に、他の被写体とは明確に識別可能な程度に表された情報であることを意味し、以下同様とする。   In addition, the monitoring apparatus 10 displays a visual image (for example, an identification mark (not shown)) that is easy for the user to visually identify the detected unmanned air vehicle dn in the omnidirectional image IMG1, and the unmanned air vehicle dn of the first monitor MN1. It may be displayed at the position. The visual image means, for example, information that is represented in such a way that when the user views the omnidirectional image IMG1 in the omnidirectional image IMG1, it can be clearly distinguished from other subjects. .

第1モニタMN1は、全方位カメラCAkにより撮像された全方位画像IMG1を表示する。第2モニタMN2は、全方位カメラCAkにより撮像された全方位画像IMG1を表示する。また、第1モニタMN1は、全方位画像IMG1に上述した識別マーク(不図示)を重畳した合成画像を生成して表示する。なお図1では、第1モニタMN1及び第2モニタMN2と2つのモニタが監視装置10に接続されているが、例えば第1モニタMN1のみ接続されても構わない。また、第1モニタMN1又は第2モニタMN2、或いは第1モニタMN1及び第2モニタMN2は、監視装置10と一体の装置として構成されてもよい。   The first monitor MN1 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk. The second monitor MN2 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk. The first monitor MN1 generates and displays a composite image in which the above-described identification mark (not shown) is superimposed on the omnidirectional image IMG1. In FIG. 1, the first monitor MN1 and the second monitor MN2 and the two monitors are connected to the monitoring device 10, but only the first monitor MN1 may be connected, for example. Further, the first monitor MN1 or the second monitor MN2, or the first monitor MN1 and the second monitor MN2 may be configured as an apparatus integrated with the monitoring apparatus 10.

レコーダRCは、例えばハードディスク(Hard Disk Drive)又はフラッシュメモリ等の半導体メモリを用いて構成され、監視装置10により生成された各種画像のデータ(後述参照)や、それぞれの音源検知ユニットUDkから送信された全方位画像や音声の各種データを保存する。なお、レコーダRCは、監視装置10と一体の装置として構成されてもよいし、無人飛行体検知システム5の構成から省かれても構わない。   The recorder RC is configured using, for example, a semiconductor memory such as a hard disk (Hard Disk Drive) or a flash memory, and is transmitted from various image data (see below) generated by the monitoring device 10 and from each sound source detection unit UDk. Save various omnidirectional images and audio data. Note that the recorder RC may be configured as an apparatus integrated with the monitoring device 10 or may be omitted from the configuration of the unmanned air vehicle detection system 5.

図1では、複数の音源検知ユニットUDk及び監視装置10は、通信インタフェースを有し、ネットワークNWを介して相互にデータ通信可能に接続されている。ネットワークNWは、有線ネットワーク(例えばイントラネット、インターネット、有線LAN(Local Area Network)でもよいし、無線ネットワーク(例えば無線LAN)でもよい。なお、音源検知ユニットUDkと監視装置10とは、ネットワークNWを介することなく、直接に接続されてもよい。また、監視装置10、第1モニタMN1、第2モニタMN2、レコーダRCは、いずれもユーザが監視時において常駐する監視室RMに設置される。   In FIG. 1, the plurality of sound source detection units UDk and the monitoring device 10 have a communication interface and are connected to each other via a network NW so that data communication is possible. The network NW may be a wired network (for example, an intranet, the Internet, a wired LAN (Local Area Network), or a wireless network (for example, a wireless LAN) Note that the sound source detection unit UDk and the monitoring device 10 are connected via the network NW. In addition, the monitoring device 10, the first monitor MN1, the second monitor MN2, and the recorder RC are all installed in the monitoring room RM where the user resides during monitoring.

図2は、音源検知ユニットUDの外観の一例を示す図である。音源検知ユニットUDは、上述したマイクアレイMA、全方位カメラCA、PTZカメラCZの他、これらを機械的に支持する支持台70を有する。支持台70は、三脚71と、三脚71の天板71aに固定された2本のレール72と、2本のレール72の両端部にそれぞれ取り付けられた第1取付板73及び第2取付板74とが組み合わされた構造を有する。   FIG. 2 is a diagram illustrating an example of the appearance of the sound source detection unit UD. The sound source detection unit UD includes the above-described microphone array MA, omnidirectional camera CA, and PTZ camera CZ, and a support base 70 that mechanically supports them. The support base 70 includes a tripod 71, two rails 72 fixed to the top plate 71 a of the tripod 71, and a first mounting plate 73 and a second mounting plate 74 that are respectively attached to both ends of the two rails 72. And has a combined structure.

第1取付板73と第2取付板74は、2本のレール72を跨るように取り付けられており、略同一の平面を有する。また、第1取付板73及び第2取付板74は、2本のレール72上を摺動自在であり、互いに離間もしくは接近した位置に調節されて固定される。   The first attachment plate 73 and the second attachment plate 74 are attached so as to straddle the two rails 72 and have substantially the same plane. Further, the first mounting plate 73 and the second mounting plate 74 are slidable on the two rails 72, and are adjusted and fixed at positions separated or approached from each other.

第1取付板73は円盤状の板材である。第1取付板73の中央には、開口部73aが形成されている。開口部73aには、マイクアレイMAの筐体15が収容されて固定される。一方、第2取付板74は略長方形の板材である。第2取付板74の外側に近い部分には、開口部74aが形成されている。開口部74aには、PTZカメラCZが収容されて固定される。   The first mounting plate 73 is a disk-shaped plate material. An opening 73 a is formed at the center of the first mounting plate 73. A housing 15 of the microphone array MA is accommodated and fixed in the opening 73a. On the other hand, the second mounting plate 74 is a substantially rectangular plate material. An opening 74 a is formed in a portion near the outside of the second mounting plate 74. The PTZ camera CZ is accommodated and fixed in the opening 74a.

図2に示すように、マイクアレイMAの筐体15に収容される全方位カメラCAの光軸L1と、第2取付板74に取り付けられたPTZカメラCZの光軸L2とは、初期設置状態においてそれぞれ平行になるように設定される。   As shown in FIG. 2, the optical axis L1 of the omnidirectional camera CA housed in the casing 15 of the microphone array MA and the optical axis L2 of the PTZ camera CZ attached to the second mounting plate 74 are in the initial installation state. Are set to be parallel to each other.

三脚71は、3本の脚71bで接地面に支えられており、手動操作により、接地面に対して垂直方向に天板71aの位置を移動自在であり、かつ、パン方向及びチルト方向に天板71aの向きを調節可能である。これにより、マイクアレイMAの収音エリア(言い換えると、全方位カメラCAの撮像エリア又は無人飛行体検知システム5の監視エリア)を任意の向きに設定することができる。   The tripod 71 is supported on the grounding surface by three legs 71b, and the position of the top plate 71a can be moved in the vertical direction with respect to the grounding surface by manual operation, and the top and bottom can be moved in the pan and tilt directions. The direction of the plate 71a can be adjusted. Thereby, the sound collection area of the microphone array MA (in other words, the imaging area of the omnidirectional camera CA or the monitoring area of the unmanned air vehicle detection system 5) can be set in an arbitrary direction.

図3は、マイクアレイMAkの内部構成の一例を詳細に示すブロック図である。図3に示すマイクアレイMAkは、複数のマイクロホンM1〜Mq(例えばq=32)、複数のマイクロホンM1〜Mqの出力信号をそれぞれ増幅する複数の増幅器(アンプ)PA1〜PAq、各増幅器PA1〜PAqから出力されるアナログ信号をそれぞれデジタル信号に変換する複数のA/D変換器A1〜Aq、圧縮処理部25及び送信部26を含む構成である。   FIG. 3 is a block diagram showing in detail an example of the internal configuration of the microphone array MAk. The microphone array MAk shown in FIG. 3 includes a plurality of microphones M1 to Mq (for example, q = 32), a plurality of amplifiers (amplifiers) PA1 to PAq that amplify output signals of the plurality of microphones M1 to Mq, and amplifiers PA1 to PAq. Are configured to include a plurality of A / D converters A1 to Aq that convert each analog signal output from the digital signal into a digital signal, a compression processing unit 25, and a transmission unit 26.

圧縮処理部25は、A/D変換器A1〜Anから出力されるデジタル音声信号を基に、音声データのパケットを生成する。送信部26は、圧縮処理部25で生成された音声データのパケットを、ネットワークNWを介して監視装置10に送信する。   The compression processing unit 25 generates audio data packets based on the digital audio signals output from the A / D converters A1 to An. The transmission unit 26 transmits the audio data packet generated by the compression processing unit 25 to the monitoring apparatus 10 via the network NW.

このように、マイクアレイMAkは、マイクロホンM1〜Mqの出力信号を増幅器PA1〜PAqで増幅し、A/D変換器A1〜Aqでデジタル音声信号に変換する。その後、マイクアレイMAkは、圧縮処理部25で音声データのパケットを生成し、この音声データのパケットを、ネットワークNWを介して監視装置10に送信する。   Thus, the microphone array MAk amplifies the output signals of the microphones M1 to Mq with the amplifiers PA1 to PAq, and converts them into digital audio signals with the A / D converters A1 to Aq. Thereafter, the microphone array MAk generates a voice data packet in the compression processing unit 25 and transmits the voice data packet to the monitoring apparatus 10 via the network NW.

図4は、全方位カメラCAkの内部構成の一例を詳細に示すブロック図である。図4に示す全方位カメラCAkは、CPU41、通信部42、電源管理部44、イメージセンサ45、魚眼レンズ45a、メモリ46及びネットワークコネクタ47を含む構成である。   FIG. 4 is a block diagram showing in detail an example of the internal configuration of the omnidirectional camera CAk. The omnidirectional camera CAk shown in FIG. 4 includes a CPU 41, a communication unit 42, a power management unit 44, an image sensor 45, a fisheye lens 45a, a memory 46, and a network connector 47.

CPU41は、全方位カメラCAkの各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。CPU41の代わりに、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)等のプロセッサが設けられてもよい。   The CPU 41 performs signal processing for overall control of operations of each unit of the omnidirectional camera CAk, data input / output processing with other units, data calculation processing, and data storage processing. Instead of the CPU 41, a processor such as an MPU (Micro Processing Unit) or a DSP (Digital Signal Processor) may be provided.

例えばCPU41は、監視装置10を操作するユーザの指定により、全方位画像データのうち特定の範囲(方向)の画像を切り出した2次元パノラマ画像データ(つまり、2次元パノラマ変換した画像データ)を生成してメモリ46に保存する。   For example, the CPU 41 generates two-dimensional panoramic image data (that is, image data obtained by two-dimensional panorama conversion) obtained by cutting out an image in a specific range (direction) from the omnidirectional image data according to the designation of the user who operates the monitoring device 10. And stored in the memory 46.

イメージセンサ45は、例えばCMOS(Complementary Metal Oxide Semiconductor)センサ、又はCCD(Charge Coupled Device)センサを用いて構成され、魚眼レンズ45aにより集光された撮像エリアからの被写体光の光学像を受光面において撮像処理することで、撮像エリアの全方位画像データを取得する。   The image sensor 45 is configured using, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor, and captures an optical image of subject light from the imaging area collected by the fisheye lens 45a on the light receiving surface. By processing, omnidirectional image data of the imaging area is acquired.

魚眼レンズ45aは、撮像エリアの全方位からの被写体光を入射して集光し、イメージセンサ45の受光面(不図示)に被写体光の光学像を結像する。   The fish-eye lens 45a receives and collects subject light from all directions of the imaging area, and forms an optical image of the subject light on a light receiving surface (not shown) of the image sensor 45.

メモリ46は、全方位カメラCAkの動作を規定するためのプログラムや設定値のデータが格納されたROM46zと、全方位画像データ又はその一部の範囲が切り出された切り出し画像データやワークデータを記憶するRAM46yと、全方位カメラCAkに挿抜自在に接続され、各種データが記憶されるメモリカード46xとを有する。   The memory 46 stores a ROM 46z in which a program for defining the operation of the omnidirectional camera CAk and data of setting values are stored, and omnidirectional image data or cutout image data or work data obtained by cutting out a part of the range. And a memory card 46x that is detachably connected to the omnidirectional camera CAk and stores various data.

通信部42は、ネットワークコネクタ47を介して接続されるネットワークNWとの間のデータ通信を制御するネットワークインタフェース(I/F)である。   The communication unit 42 is a network interface (I / F) that controls data communication with the network NW connected via the network connector 47.

電源管理部44は、全方位カメラCAkの各部に直流電源を供給する。また、電源管理部44は、ネットワークコネクタ47を介してネットワークNWに接続される機器に直流電源を供給してもよい。   The power management unit 44 supplies DC power to each unit of the omnidirectional camera CAk. Further, the power management unit 44 may supply DC power to devices connected to the network NW via the network connector 47.

ネットワークコネクタ47は、全方位画像データ又は2次元パノラマ画像データを、ネットワークNWを介して監視装置10に伝送し、また、ネットワークケーブルを介して給電可能なコネクタである。   The network connector 47 is a connector capable of transmitting omnidirectional image data or two-dimensional panoramic image data to the monitoring apparatus 10 via the network NW and supplying power via the network cable.

図5は、PTZカメラCZkの内部構成の一例を詳細に示すブロック図である。全方位カメラCAkと同様の各部については、図4の各部に対応する符号を付すことでその説明を省略する。PTZカメラCZkは、監視装置10からの画角変更指示により、光軸方向(撮像方向ともいうことがある)を調整可能なカメラである。   FIG. 5 is a block diagram showing in detail an example of the internal configuration of the PTZ camera CZk. About each part similar to omnidirectional camera CAk, the code | symbol corresponding to each part of FIG. 4 is attached | subjected, and the description is abbreviate | omitted. The PTZ camera CZk is a camera that can adjust the optical axis direction (sometimes referred to as an imaging direction) in accordance with a view angle change instruction from the monitoring device 10.

PTZカメラCZkは、全方位カメラCAkと同様、CPU51、通信部52、電源管理部54、イメージセンサ55、撮像レンズ55a、メモリ56及びネットワークコネクタ57を有する他、撮像方向制御部58及びレンズ駆動モータ59を有する。CPU51は、監視装置10の画角変更指示があると、撮像方向制御部58に画角変更指示を通知する。   Similar to the omnidirectional camera CAk, the PTZ camera CZk includes a CPU 51, a communication unit 52, a power management unit 54, an image sensor 55, an imaging lens 55a, a memory 56, and a network connector 57, an imaging direction control unit 58, and a lens drive motor. 59. When there is a view angle change instruction of the monitoring device 10, the CPU 51 notifies the imaging direction control unit 58 of the view angle change instruction.

撮像方向制御部58は、CPU51から通知された画角変更指示に従い、PTZカメラCZの撮像方向をパン方向及びチルト方向のうち少なくとも1つを制御し、さらに必要に応じて、ズーム倍率を変更するための制御信号をレンズ駆動モータ59に出力する。レンズ駆動モータ59は、この制御信号に従って、撮像レンズ55aを駆動し、その撮像方向(図2に示す光軸L2の方向)を変更するとともに、撮像レンズ55aの焦点距離を調節してズーム倍率を変更する。   The imaging direction control unit 58 controls the imaging direction of the PTZ camera CZ in at least one of the pan direction and the tilt direction according to the view angle change instruction notified from the CPU 51, and further changes the zoom magnification as necessary. The control signal for output is output to the lens drive motor 59. The lens drive motor 59 drives the imaging lens 55a according to this control signal, changes its imaging direction (direction of the optical axis L2 shown in FIG. 2), and adjusts the focal length of the imaging lens 55a to increase the zoom magnification. change.

撮像レンズ55aは、1又は2以上のレンズを用いて構成される。撮像レンズ55aでは、撮像方向制御部58からの制御信号に応じたレンズ駆動モータ59の駆動により、パン回転、チルト回転の光軸方向が変更される。   The imaging lens 55a is configured using one or two or more lenses. In the imaging lens 55a, the optical axis directions of pan rotation and tilt rotation are changed by driving the lens driving motor 59 according to the control signal from the imaging direction control unit 58.

図6は、監視装置10の内部構成の一例を詳細に示すブロック図である。図6に示す監視装置10は、通信部31と、操作部32と、信号処理部33と、スピーカ装置(SPK)37と、メモリ38と、設定管理部39とを少なくとも含む構成を有する。   FIG. 6 is a block diagram illustrating an example of the internal configuration of the monitoring apparatus 10 in detail. 6 has a configuration including at least a communication unit 31, an operation unit 32, a signal processing unit 33, a speaker device (SPK) 37, a memory 38, and a setting management unit 39.

通信部31は、全方位カメラCAkが送信した全方位画像データ又は2次元パノラマ画像データと、マイクアレイMAkが送信した音声データとを受信して信号処理部33に出力する。   The communication unit 31 receives omnidirectional image data or two-dimensional panoramic image data transmitted from the omnidirectional camera CAk and audio data transmitted from the microphone array MAk and outputs the received data to the signal processing unit 33.

操作部32は、ユーザの入力操作の内容を信号処理部33に通知するためのユーザインターフェース(UI:User Interface)であり、例えばマウス、キーボード等のポインティングデバイスで構成される。また、操作部32は、例えば第1モニタMN1や第2モニタMN2の各画面に対応して配置され、ユーザの指やスタイラスペンによって直接入力操作が可能なタッチパネル又はタッチパッドを用いて構成されてもよい。   The operation unit 32 is a user interface (UI) for notifying the signal processing unit 33 of the content of a user input operation, and is configured by a pointing device such as a mouse or a keyboard. Further, the operation unit 32 is arranged using, for example, a touch panel or a touch pad that is arranged corresponding to each screen of the first monitor MN1 and the second monitor MN2 and can be directly input by a user's finger or stylus pen. Also good.

操作部32は、第1モニタMN1や第2モニタMN2においていずれかの全方位カメラCAkの撮像画像(全方位画像IMG1)に重畳されて表示された音圧ヒートマップ(図15参照)の赤領域RD1がユーザにより指定されると、指定された位置を示す座標データを取得して信号処理部33に出力する。信号処理部33は、全方位カメラCAkに対応するマイクアレイMAkにより収音された音データをメモリ38から読み出し、マイクアレイMAkから、指定された位置に対応する実際の音源位置に向かう方向に指向性を形成した上でスピーカ装置37から出力する。これにより、ユーザは、無人飛行体dnに限らず、ユーザ自身が撮像画像(全方位画像IMG1)上で指定された位置における音が強調された状態で鮮明に確認することができる。   The operation unit 32 displays a red region of a sound pressure heat map (see FIG. 15) displayed on the first monitor MN1 or the second monitor MN2 so as to be superimposed on the captured image (omnidirectional image IMG1) of any omnidirectional camera CAk. When RD1 is designated by the user, coordinate data indicating the designated position is acquired and output to the signal processing unit 33. The signal processing unit 33 reads out the sound data collected by the microphone array MAk corresponding to the omnidirectional camera CAk from the memory 38 and directs the sound data from the microphone array MAk toward the actual sound source position corresponding to the designated position. Output from the speaker device 37. Thus, the user can clearly check not only the unmanned air vehicle dn but also the sound at the position specified by the user on the captured image (omnidirectional image IMG1) is emphasized.

信号処理部33は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、監視装置10の各部の動作を統括して制御するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。信号処理部33は、音源方向検知部34、出力制御部35、指向性処理部63、周波数分析部64、対象物検知部65、検知結果判定部66、走査制御部67、検知方向制御部68、マスキングエリア設定部69a及び閾値調整部69bを含む。また、監視装置10は第1モニタMN1や第2モニタMN2に接続される。   The signal processing unit 33 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor), and performs control processing for controlling the operation of each unit of the monitoring apparatus 10 in an integrated manner. Data input / output processing, data calculation (calculation) processing, and data storage processing are performed with respect to other units. The signal processing unit 33 includes a sound source direction detection unit 34, an output control unit 35, a directivity processing unit 63, a frequency analysis unit 64, an object detection unit 65, a detection result determination unit 66, a scanning control unit 67, and a detection direction control unit 68. , A masking area setting unit 69a and a threshold adjustment unit 69b. The monitoring device 10 is connected to the first monitor MN1 and the second monitor MN2.

音源方向検知部34は、例えば公知の白色化相互相関法(CSP(Cross-power Spectrum Phase analysis)法)に従って、マイクアレイMAkにより収音された監視エリア8の音声の音声データを用いて音源位置を推定する。CSP法では、音源方向検知部34は、図11に示す監視エリア8を複数のブロックに分割し、マイクアレイMAkで音が収音されると、ブロック毎に音圧又は音量等の閾値を超える音があるか否かを判定することで、監視エリア8内の音源位置をおおまかに推定することができる。   The sound source direction detection unit 34 uses, for example, the sound data of the sound in the monitoring area 8 collected by the microphone array MAk according to a known whitening cross-correlation method (CSP (Cross-power Spectrum Phase analysis) method). Is estimated. In the CSP method, the sound source direction detection unit 34 divides the monitoring area 8 shown in FIG. 11 into a plurality of blocks, and when sound is collected by the microphone array MAk, the sound pressure or sound volume exceeds a threshold value for each block. By determining whether there is sound, the position of the sound source in the monitoring area 8 can be roughly estimated.

また、音パラメータ導出部としての音源方向検知部34は、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。音源方向検知部34は、音圧の算出結果である算出値を出力制御部35に出力する。この音圧の算出処理は公知技術であり、詳細な処理の説明は割愛する。   The sound source direction detection unit 34 as a sound parameter derivation unit is also based on the omnidirectional image data captured by the omnidirectional camera CAk and the sound data collected by the microphone array MAk, and the omnidirectional image of the monitoring area 8. The sound pressure as the sound parameter is calculated for each pixel constituting the data. The sound source direction detection unit 34 outputs a calculated value that is a calculation result of the sound pressure to the output control unit 35. This sound pressure calculation process is a known technique, and a detailed description of the process is omitted.

設定管理部39は、全方位カメラCAkで撮像された全方位画像データが表示された第1モニタMN1の画面に対してユーザにより指定された位置の座標変換に関する座標変換式を有している。この座標変換式は、例えば全方位カメラCAkの設置位置(図2参照)とPTZカメラCZkの設置位置(図2参照)との物理的な距離差に基づき、全方位画像データ上のユーザの指定位置の座標(つまり、(水平角,垂直角))を、PTZカメラCZkから見た方向の座標に変換するための数式である。   The setting management unit 39 has a coordinate conversion formula related to the coordinate conversion of the position specified by the user on the screen of the first monitor MN1 on which the omnidirectional image data captured by the omnidirectional camera CAk is displayed. This coordinate conversion formula is specified by the user on the omnidirectional image data based on the physical distance difference between the installation position of the omnidirectional camera CAk (see FIG. 2) and the installation position of the PTZ camera CZk (see FIG. 2), for example. This is a mathematical formula for converting the coordinates of the position (that is, (horizontal angle, vertical angle)) into the coordinates in the direction viewed from the PTZ camera CZk.

信号処理部33は、設定管理部39が保持する上記座標変換式を用いて、PTZカメラCZkの設置位置(図2参照)を基準として、PTZカメラCZkの設置位置から、ユーザによって指定された位置に対応する実際の音源位置に向かう指向方向を示す座標(θMAh,θMAv)を算出する。θMAhは、PTZカメラCZkの設置位置から見て、ユーザにより指定された位置に対応する実際の音源位置に向かう方向の水平角である。θMAvは、PTZカメラCZkの設置位置から見て、ユーザにより指定された位置に対応する実際の音源位置に向かう方向の垂直角である。図2に示すように、全方位カメラCAkとPTZカメラCZkとの距離は既知であり、かつそれぞれの光軸L1,L2は平行であるため、上記の座標変換式の算出処理は、例えば公知の幾何学計算により実現可能である。音源位置は、第1モニタMN1,第2モニタMN2に表示された映像データに対し、ユーザの指又はスタイラスペンの操作によって操作部32から指定された位置に対応する実際の音源位置である。   The signal processing unit 33 uses the coordinate conversion formula held by the setting management unit 39 to determine the position designated by the user from the installation position of the PTZ camera CZk with reference to the installation position of the PTZ camera CZk (see FIG. 2). The coordinates (θMAh, θMAv) indicating the directivity direction toward the actual sound source position corresponding to is calculated. θMAh is a horizontal angle in a direction toward the actual sound source position corresponding to the position specified by the user as viewed from the installation position of the PTZ camera CZk. θMAv is a vertical angle in a direction toward the actual sound source position corresponding to the position specified by the user as viewed from the installation position of the PTZ camera CZk. As shown in FIG. 2, since the distance between the omnidirectional camera CAk and the PTZ camera CZk is known and the optical axes L1 and L2 are parallel to each other, the calculation processing of the coordinate conversion formula is, for example, It can be realized by geometric calculation. The sound source position is an actual sound source position corresponding to the position designated from the operation unit 32 by the operation of the user's finger or the stylus pen with respect to the video data displayed on the first monitor MN1 and the second monitor MN2.

なお、図2に示すように、各実施形態において全方位カメラCAkの光軸方向とマイクアレイMAkの筐体の中心軸とは同軸上となるように全方位カメラCAk及びマイクアレイMAkはそれぞれ配置されている。このため、全方位画像データが表示された第1モニタMN1に対するユーザの指定に応じて全方位カメラCAkが導出するユーザ指定位置の座標は、マイクアレイMAkから見た音の強調方向(指向方向ともいう)と同一にみなすことができる。言い換えると、監視装置10は、全方位画像データが表示された第1モニタMN1(なお、第2モニタMN2でも可)に対するユーザの指定があると、全方位画像データ上の指定位置の座標を全方位カメラCAkに送信する。これにより、全方位カメラCAkは、監視装置10から送信された指定位置の座標を用いて、全方位カメラCAkから見た、ユーザ指定位置に対応する音源位置の方向を示す座標(水平角,垂直角)を算出する。全方位カメラCAkにおける算出処理は、公知技術であるため、説明は割愛する。全方位カメラCAkは、音源位置の方向を示す座標の算出結果を監視装置10に送信する。監視装置10は、全方位カメラCAkにより算出された座標(水平角,垂直角)を、マイクアレイMAkから見た音源位置の方向を示す座標(水平角,垂直角)として使用することができる。   As shown in FIG. 2, in each embodiment, the omnidirectional camera CAk and the microphone array MAk are arranged so that the optical axis direction of the omnidirectional camera CAk and the central axis of the casing of the microphone array MAk are coaxial. Has been. For this reason, the coordinates of the user-specified position derived by the omnidirectional camera CAk in accordance with the user's specification for the first monitor MN1 on which the omnidirectional image data is displayed are the sound emphasizing direction viewed from the microphone array MAk (both the directional direction). Can be regarded as the same. In other words, when the user designates the first monitor MN1 (which may be the second monitor MN2) on which the omnidirectional image data is displayed, the monitoring apparatus 10 sets all the coordinates of the designated position on the omnidirectional image data. It transmits to the direction camera CAk. As a result, the omnidirectional camera CAk uses the coordinates of the designated position transmitted from the monitoring device 10, and the coordinates (horizontal angle, vertical) indicating the direction of the sound source position corresponding to the user designated position as seen from the omnidirectional camera CAk. Corner). Since the calculation process in the omnidirectional camera CAk is a known technique, the description thereof is omitted. The omnidirectional camera CAk transmits a calculation result of coordinates indicating the direction of the sound source position to the monitoring device 10. The monitoring apparatus 10 can use the coordinates (horizontal angle and vertical angle) calculated by the omnidirectional camera CAk as coordinates (horizontal angle and vertical angle) indicating the direction of the sound source position as viewed from the microphone array MAk.

但し、全方位カメラCAkとマイクアレイMAkとが同軸上に配置されていない場合には、設定管理部39は、例えば特開2015−029241号に記載されている方法に従って、全方位カメラCAkが導出した座標を、マイクアレイMAkから見た方向の座標に変換する必要がある。   However, when the omnidirectional camera CAk and the microphone array MAk are not coaxially arranged, the setting management unit 39 derives the omnidirectional camera CAk according to a method described in, for example, Japanese Patent Laid-Open No. 2015-029241. It is necessary to convert the coordinates thus obtained into coordinates in the direction viewed from the microphone array MAk.

また、設定管理部39は、音源方向検知部34で算出された全方位画像データ又は2次元パノラマ画像データを構成する画素毎の音圧pと比較される第1閾値th1、第2閾値th2及び第3閾値th3(例えば図9参照)を保持する。ここで、音圧pは、音源に関する音パラメータの一例として使用されており、マイクアレイMAで収音される音の大きさを表しており、スピーカ装置37から出力される音の大きさを表す音量とは区別している。第1閾値th1、第2閾値th2及び第3閾値th3は、監視エリア8内で発生した音の音圧と比較される値であり、例えば無人飛行体dnが発する音を判断するための所定値に設定される。また、閾値は、上述した第1閾値th1、第2閾値th2及び第3閾値th3以外にも複数設定可能であり、ここでは簡単に説明するために、例えば第1閾値th1と、これより大きな値である第2閾値th2と、さらに大きな値である第3閾値th3の3つが設定される(第1閾値th1<第2閾値th2<第3閾値th3)。   In addition, the setting management unit 39 compares the first threshold th1, the second threshold th2, and the sound pressure p for each pixel constituting the omnidirectional image data or the two-dimensional panoramic image data calculated by the sound source direction detection unit 34. A third threshold th3 (see, for example, FIG. 9) is held. Here, the sound pressure p is used as an example of a sound parameter relating to the sound source, represents the loudness of sound collected by the microphone array MA, and represents the loudness output from the speaker device 37. It is distinguished from the volume. The first threshold th1, the second threshold th2, and the third threshold th3 are values that are compared with the sound pressure of the sound generated in the monitoring area 8, and are, for example, predetermined values for determining the sound emitted by the unmanned air vehicle dn. Set to A plurality of threshold values can be set in addition to the first threshold value th1, the second threshold value th2, and the third threshold value th3 described above. For the sake of simple explanation, for example, the first threshold value th1 and a larger value are set. Are set, and a third threshold value th3, which is a larger value (first threshold value th1 <second threshold value th2 <third threshold value th3).

また、後述するように、出力制御部35により生成される音圧ヒートマップでは、第3閾値th3より大きな音圧が得られた画素の赤領域RD1(図15参照)は、全方位画像データが表示された第1モニタMN1上で、例えば赤色で描画される。また、第2閾値th2より大きく第3閾値th3以下の音圧が得られた画素のピンク領域PD1は、全方位画像データが表示された第1モニタMN1上で、例えばピンク色で描画される。第1閾値th1より大きく第2閾値th2以下の音圧が得られた画素の青領域BD1は、全方位画像データが表示された第1モニタMN1上で、例えば青色で描画される。また、第1閾値th1以下の画素の音圧の領域N1は、全方位画像データが表示された第1モニタMN1で、例えば無色で描画され、つまり、全方位画像データの表示色と何ら変わらない。   As will be described later, in the sound pressure heat map generated by the output control unit 35, the omnidirectional image data is stored in the red region RD1 (see FIG. 15) of the pixel in which the sound pressure greater than the third threshold th3 is obtained. On the displayed first monitor MN1, for example, it is drawn in red. Further, the pink area PD1 of the pixel in which the sound pressure greater than the second threshold th2 and less than or equal to the third threshold th3 is obtained is drawn, for example, in pink on the first monitor MN1 on which the omnidirectional image data is displayed. A blue region BD1 of a pixel in which a sound pressure greater than the first threshold th1 and less than or equal to the second threshold th2 is obtained is rendered, for example, in blue on the first monitor MN1 on which the omnidirectional image data is displayed. In addition, the sound pressure region N1 of the pixel equal to or less than the first threshold th1 is drawn, for example, in a colorless manner on the first monitor MN1 on which the omnidirectional image data is displayed, that is, the display color of the omnidirectional image data is not different. .

スピーカ装置37は、マイクアレイMAkが収音した音声データ、又はマイクアレイMAkが収音して信号処理部33によって指向性が形成された音声データを音声出力する。なお、スピーカ装置37は、監視装置10とは別体の装置として構成されてもよい。   The speaker device 37 outputs sound data picked up by the microphone array MAk or sound data picked up by the microphone array MAk and having directivity formed by the signal processing unit 33. Note that the speaker device 37 may be configured as a separate device from the monitoring device 10.

メモリ38は、例えばROMやRAMを用いて構成され、例えば一定区間の音データを含む各種データ、設定情報、プログラム等を保持する。また、メモリ38は、個々の無人飛行体dnに固有な音パターンが登録されたパターンメモリ(図7参照)を有する。さらに、メモリ38は、出力制御部35により生成される音圧ヒートマップのデータを記憶する。また、メモリ38には、無人飛行体dnの位置を模式的に表す識別マーク(不図示)が登録されている。ここで用いられる識別マークは、一例として、星形の記号である。なお、識別マークとしては、星形に限らず、円形や四角形、さらには、無人飛行体dnを連想させる「卍」形等の記号や文字であってもよい。また、昼間と夜間とで、識別マークの表示態様を変えてもよく、例えば、昼間には星形で、夜間には星と見間違わないような四角形としてもよい。また、識別マークを動的に変化させてよい。例えば星形の記号を点滅表示したり、回転させたりしてもよく、より一層、ユーザに注意を喚起できる。   The memory 38 is configured using, for example, a ROM or a RAM, and holds various data including sound data of a certain section, setting information, a program, and the like. The memory 38 has a pattern memory (see FIG. 7) in which a sound pattern unique to each unmanned air vehicle dn is registered. Further, the memory 38 stores sound pressure heat map data generated by the output control unit 35. In the memory 38, an identification mark (not shown) schematically representing the position of the unmanned air vehicle dn is registered. The identification mark used here is, for example, a star symbol. The identification mark is not limited to a star shape, but may be a circle or a rectangle, or a symbol or character such as a “卍” shape reminiscent of an unmanned air vehicle dn. Further, the display mode of the identification mark may be changed between daytime and nighttime. For example, it may have a star shape during the daytime and a quadrangle that is not mistaken for a star at nighttime. Further, the identification mark may be changed dynamically. For example, a star symbol may be blinked or rotated, and the user can be further alerted.

図7は、メモリ38に登録されている無人飛行体dnの検知音のパターンの一例を示すタイミングチャートである。図7に示す検知音のパターンは、周波数パターンの組み合わせであり、マルチコプタ型の無人飛行体dnに搭載された4つのロータの回転等によって発生する4つの周波数f1,f2,f3,f4の音を含む。それぞれの周波数の信号は、例えば各ロータに軸支された複数枚の羽の回転に伴って発生する、異なる音の周波数の信号である。   FIG. 7 is a timing chart showing an example of a detection sound pattern of the unmanned air vehicle dn registered in the memory 38. The detected sound pattern shown in FIG. 7 is a combination of frequency patterns, and sounds of four frequencies f1, f2, f3, and f4 generated by the rotation of four rotors mounted on the multicopter type unmanned air vehicle dn. Including. The signals of the respective frequencies are signals having different sound frequencies that are generated, for example, with the rotation of a plurality of wings pivotally supported by each rotor.

図7では、斜線で示された周波数の領域が、音圧の高い領域である。なお、検知音のパターンは、複数の周波数の音の数や音圧だけでなく、その他の音情報を含んでもよい。例えば各周波数の音圧の比率を表す音圧比等が挙げられる。ここでは、一例として無人飛行体dnの検知は、検知音のパターンに含まれる、それぞれの周波数の音圧が閾値を超えているか否かによって判断される。   In FIG. 7, the frequency region indicated by the oblique lines is a region where the sound pressure is high. The detected sound pattern may include not only the number of sounds having a plurality of frequencies and the sound pressure but also other sound information. For example, a sound pressure ratio representing a ratio of sound pressures at each frequency can be used. Here, as an example, detection of the unmanned air vehicle dn is determined based on whether or not the sound pressure of each frequency included in the detection sound pattern exceeds a threshold value.

指向性処理部63は、無指向性のマイクロホンM1〜Mqで収音された音信号(音データともいう)とマスキングエリア設定部69aの設定結果とを用い、上述した指向性形成処理(ビームフォーミング)を行い、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアの方向を指向方向とする音データの抽出処理を行う。また、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアの方向の範囲を指向範囲とする音データの抽出処理を行うことも可能である。ここで、指向範囲は、隣接する指向方向を複数含む範囲であり、指向方向と比較すると、ある程度の指向方向の広がりを含むことを意図する。   The directivity processing unit 63 uses the sound signals (also referred to as sound data) collected by the non-directional microphones M1 to Mq and the setting result of the masking area setting unit 69a, and uses the directivity forming process (beam forming) described above. The sound data is extracted with the direction of the area other than the masking area set by the masking area setting unit 69a as the pointing direction. The directivity processing unit 63 can also perform sound data extraction processing in which the direction range of other areas excluding the masking area set by the masking area setting unit 69a is set as the directivity range. Here, the directivity range is a range including a plurality of adjacent directivity directions, and is intended to include a certain extent of directivity direction compared to the directivity direction.

周波数分析部64は、指向性処理部63によって指向方向に抽出処理された音データに対し、周波数分析処理を行う。この周波数分析処理では、指向方向の音データに含まれる周波数及びその音圧が検知される。   The frequency analysis unit 64 performs frequency analysis processing on the sound data extracted in the directivity direction by the directivity processing unit 63. In this frequency analysis process, the frequency and the sound pressure included in the sound data in the directivity direction are detected.

図8は、周波数分析処理の結果として得られた検知音信号の周波数変化の一例を示すタイミングチャートである。図8では、検知音信号(つまり、検知音データ)として、4つの周波数f11,f12,f13,f14及び各周波数の音圧が得られている。図中、不規則に変化する各周波数の変動は、例えば無人飛行体dnが無人飛行体dn自身の機体の姿勢を制御する際に僅かに変化するロータ(回転翼)の回転変動によって起こる。   FIG. 8 is a timing chart showing an example of the frequency change of the detected sound signal obtained as a result of the frequency analysis processing. In FIG. 8, four frequencies f11, f12, f13, f14 and sound pressures at the respective frequencies are obtained as detected sound signals (that is, detected sound data). In the figure, the fluctuation of each frequency that changes irregularly occurs, for example, due to the rotational fluctuation of the rotor (rotary blade) that slightly changes when the unmanned aerial vehicle dn controls the attitude of its own aircraft.

検知部としての対象物検知部65は、周波数分析部64の周波数分析処理結果を用いて、無人飛行体dnの検知処理を行う。具体的には、無人飛行体dnの検知処理では、対象物検知部65は、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアにおいて、周波数分析処理の結果として得られた検知音のパターン(図8参照)(周波数f11〜f14)と、メモリ38のパターンメモリに予め登録された検知音のパターン(図7参照)(周波数f1〜f4)とを比較する。対象物検知部65は、両者の検知音のパターンが近似するか否かを判定する。   The object detection unit 65 as the detection unit performs detection processing of the unmanned air vehicle dn using the frequency analysis processing result of the frequency analysis unit 64. Specifically, in the detection process of the unmanned air vehicle dn, the object detection unit 65 detects the detection sound obtained as a result of the frequency analysis process in other areas excluding the masking area set by the masking area setting unit 69a. (See FIG. 8) (frequency f11 to f14) and the detection sound pattern (see FIG. 7) (frequency f1 to f4) registered in advance in the pattern memory of the memory 38 are compared. The object detection unit 65 determines whether or not the patterns of both detection sounds are approximate.

両者のパターンが近似するか否かは、例えば以下のように判断される。4つの周波数f1,f2,f3,f4のうち、検知音データに含まれる少なくとも2つの周波数の音圧がそれぞれ閾値を超える場合、音パターンが近似しているとして、対象物検知部65は、無人飛行体dnを検知する。なお、他の条件を満たした場合に無人飛行体dnが検知されてもよい。   Whether or not both patterns are approximated is determined, for example, as follows. Of the four frequencies f1, f2, f3, and f4, if the sound pressures of at least two frequencies included in the detected sound data exceed the threshold values, the object detection unit 65 determines that the sound pattern is approximated, The flying object dn is detected. The unmanned air vehicle dn may be detected when other conditions are satisfied.

検知結果判定部66は、無人飛行体dnが存在しないと判定された場合、次の指向方向での無人飛行体dnの検知に移行するように検知方向制御部68に指示する。検知結果判定部66は、指向方向の走査の結果、無人飛行体dnが存在すると判定された場合、無人飛行体dnの検知結果を出力制御部35に通知する。なお、この検知結果には、検知された無人飛行体dnの情報が含まれる。無人飛行体dnの情報には、例えば無人飛行体dnの識別情報、収音空間における無人飛行体dnの位置情報(例えば方向情報)が含まれる。   When it is determined that the unmanned air vehicle dn does not exist, the detection result determination unit 66 instructs the detection direction control unit 68 to shift to detection of the unmanned air vehicle dn in the next pointing direction. The detection result determination unit 66 notifies the output control unit 35 of the detection result of the unmanned air vehicle dn when it is determined that the unmanned air vehicle dn exists as a result of the scanning in the pointing direction. The detection result includes information on the detected unmanned air vehicle dn. The information of the unmanned air vehicle dn includes, for example, identification information of the unmanned air vehicle dn and position information (for example, direction information) of the unmanned air vehicle dn in the sound collection space.

検知方向制御部68は、検知結果判定部66からの指示に基づいて、収音空間において無人飛行体dnを検知するための方向を制御する。例えば検知方向制御部68は、収音空間全体(つまり、監視エリア8)の中で、音源方向検知部34により推定された音源位置を含む指向範囲BF1(図11参照)の任意の方向を検知方向として設定する。   The detection direction control unit 68 controls the direction for detecting the unmanned air vehicle dn in the sound collection space based on an instruction from the detection result determination unit 66. For example, the detection direction control unit 68 detects an arbitrary direction of the directivity range BF1 (see FIG. 11) including the sound source position estimated by the sound source direction detection unit 34 in the entire sound collection space (that is, the monitoring area 8). Set as direction.

走査制御部67は、検知方向制御部68により設定された検知方向を指向方向としてビームフォーミングするよう、指向性処理部63に対して指示する。   The scanning control unit 67 instructs the directivity processing unit 63 to perform beam forming with the detection direction set by the detection direction control unit 68 as the directivity direction.

指向性処理部63は、走査制御部67から指示された指向方向に対して、ビームフォーミングする。なお、初期設定では、指向性処理部63は、音源方向検知部34によって推定された音源位置を含む指向範囲BF1(図11参照)内の初期位置を指向方向BF2とする。指向方向BF2は、検知方向制御部68により、指向範囲BF1の中で次々に設定される。   The directivity processing unit 63 performs beam forming with respect to the directivity direction designated by the scanning control unit 67. In the initial setting, the directivity processing unit 63 sets the initial position in the directivity range BF1 (see FIG. 11) including the sound source position estimated by the sound source direction detection unit 34 as the directivity direction BF2. The directivity direction BF2 is sequentially set by the detection direction control unit 68 within the directivity range BF1.

マスキングエリア設定部69aは、全方位カメラCAkにより撮像された監視エリア8の全方位画像データ又は2次元パノラマ画像データとマイクアレイMAkにより収音された監視エリア8の音声データとを基に、全方位画像又は2次元パノラマ画像(つまり、撮像画像)に現れる無人飛行体dnの検知を除外するためのマスキングエリアを設定する。マスキングエリアの設定の詳細については、図13及び図14を参照して後述する。   The masking area setting unit 69a is based on the omnidirectional image data or two-dimensional panoramic image data of the monitoring area 8 captured by the omnidirectional camera CAk and the audio data of the monitoring area 8 collected by the microphone array MAk. A masking area for excluding detection of the unmanned air vehicle dn appearing in the orientation image or the two-dimensional panoramic image (that is, the captured image) is set. Details of the setting of the masking area will be described later with reference to FIGS.

出力制御部35は、第1モニタMN1、第2モニタMN2及びスピーカ装置37の各動作を制御するとともに、全方位カメラCAkから送信された全方位画像データ或いは2次元パノラマ画像データを第1モニタMN1,第2モニタMN2に出力して表示し、さらに、マイクアレイMAから送信された音声データをスピーカ装置37に音声出力する。また、出力制御部35は、無人飛行体dnが検知された場合、無人飛行体dnを表す識別マーク(不図示)を、全方位画像に重畳して表示するために、第1モニタMN1(第2モニタMN2でも可)に出力する。   The output control unit 35 controls the operations of the first monitor MN1, the second monitor MN2, and the speaker device 37, and the omnidirectional image data or the two-dimensional panoramic image data transmitted from the omnidirectional camera CAk is transmitted to the first monitor MN1. , Output to the second monitor MN2 for display, and further output the audio data transmitted from the microphone array MA to the speaker device 37 as audio. In addition, when the unmanned air vehicle dn is detected, the output control unit 35 displays the identification mark (not shown) representing the unmanned air vehicle dn in a superimposed manner on the omnidirectional image and displays the first monitor MN1 (first 2 monitor MN2).

また、出力制御部35は、マイクアレイMAkにより収音された音声データと全方位カメラCAkにより導出された音源位置の方向を示す座標とを用いて、マイクアレイMAkにより収音された音データの指向性形成処理を行うことで、指向方向の音データを強調処理する。音声データの指向性形成処理は、例えば特開2015−029241号公報に記載されている公知の技術である。   In addition, the output control unit 35 uses the audio data collected by the microphone array MAk and the coordinates indicating the direction of the sound source position derived by the omnidirectional camera CAk to output the sound data collected by the microphone array MAk. By performing directivity formation processing, sound data in the directivity direction is emphasized. The directivity forming process for audio data is a known technique described in, for example, Japanese Patent Application Laid-Open No. 2015-029241.

また、出力制御部35は、音源方向検知部34により算出された全方位画像データ又は2次元パノラマ画像データを構成する画素毎の音圧値を用いて、全方位画像データ又は2次元パノラマ画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図15に示すような音圧ヒートマップを生成する。   Further, the output control unit 35 uses the sound pressure value for each pixel constituting the omnidirectional image data or the two-dimensional panoramic image data calculated by the sound source direction detection unit 34 to use the omnidirectional image data or the two-dimensional panoramic image data. A sound pressure map in which a calculated value of sound pressure is assigned to the position of the corresponding pixel is generated for each pixel that constitutes. Furthermore, the output control unit 35 performs a color conversion process on the sound pressure value for each pixel of the generated sound pressure map to a visual image (for example, a colored image) so that the user can visually and easily discriminate. Then, a sound pressure heat map as shown in FIG. 15 is generated.

なお、出力制御部35は、画素単位で算出した音圧値を該当する画素の位置に割り当てた音圧マップ又は音圧ヒートマップを生成すると説明したが、一つ一つの画素毎に音圧を算出せず、所定数(例えば2×2個、4×4個)の画素からなる画素ブロック単位で音圧値の平均値を算出し、該当する所定数の画素に対応する音圧値の平均値を割り当てることで、音圧マップや音圧ヒートマップを生成してもよい。   The output control unit 35 has been described as generating a sound pressure map or a sound pressure heat map in which the sound pressure value calculated in units of pixels is assigned to the position of the corresponding pixel, but the sound pressure is calculated for each pixel. Without calculating, an average value of sound pressure values is calculated for each pixel block composed of a predetermined number (for example, 2 × 2, 4 × 4) of pixels, and an average of the sound pressure values corresponding to the corresponding predetermined number of pixels is calculated. A sound pressure map or a sound pressure heat map may be generated by assigning values.

なお、閾値調整部69bの詳細については、後述する第2の実施形態において説明し、ここでは詳細な説明を省略する。   The details of the threshold adjustment unit 69b will be described in a second embodiment to be described later, and detailed description thereof is omitted here.

次に、本実施形態の無人飛行体検知システム5の動作について、詳細に説明する。   Next, operation | movement of the unmanned air vehicle detection system 5 of this embodiment is demonstrated in detail.

図9は、第1の実施形態における、無人飛行体dnの検知及び検知結果の表示の動作の一例を説明するシーケンス図である。無人飛行体検知システム5の各装置(例えば第1モニタMN1、監視装置10、全方位カメラCAk、マイクアレイMAk)にそれぞれ電源が投入されると、無人飛行体検知システム5は動作を開始する。また、図9の説明の前提として、無人飛行体dnの検知を除外するためのマスキングエリアは既に設定され、そのマスキングエリアを示す情報はメモリ38に登録されているとする。   FIG. 9 is a sequence diagram for explaining an example of the operation of detecting the unmanned air vehicle dn and displaying the detection result in the first embodiment. When the power of each device (for example, the first monitor MN1, the monitoring device 10, the omnidirectional camera CAk, and the microphone array MAk) of the unmanned air vehicle detection system 5 is turned on, the unmanned air vehicle detection system 5 starts its operation. Further, as a premise of the description of FIG. 9, it is assumed that a masking area for excluding detection of the unmanned air vehicle dn is already set, and information indicating the masking area is registered in the memory 38.

初期動作では、監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(S1)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(S2)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。   In the initial operation, the monitoring device 10 issues an image distribution request to the omnidirectional camera CAk (S1). The omnidirectional camera CAk starts imaging processing according to power-on in accordance with this image distribution request. Moreover, the monitoring apparatus 10 performs an audio | voice delivery request | requirement with respect to microphone array MAk (S2). The microphone array MA starts sound collection processing in response to power-on in accordance with the voice distribution request.

初期動作が終了すると、全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(S3)。なお、図9では説明を簡単にするために、全方位カメラCAkから全方位画像データが送信されるとして説明しているが、2次元パノラマ画像データが送信されてもよく、図14においても同様である。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(S4)。第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータ(図12、図15参照)を表示する。   When the initial operation ends, the omnidirectional camera CAk transmits data of omnidirectional images (for example, still images and moving images) obtained by imaging to the monitoring apparatus 10 via the network NW (S3). In FIG. 9, for the sake of simplicity, it is described that omnidirectional image data is transmitted from the omnidirectional camera CAk. However, two-dimensional panoramic image data may be transmitted, and the same applies to FIG. It is. The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk into display data such as NTSC, and outputs it to the first monitor MN1 to instruct the display of the omnidirectional image data (S4). When the display data transmitted from the monitoring apparatus 10 is input, the first monitor MN1 displays the omnidirectional image IMG1 data (see FIGS. 12 and 15) by the omnidirectional camera CAk on the screen.

また、マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(S5)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出し、さらに、監視エリア8内の音源位置を推定する(S6)。この推定された音源位置は、監視装置10が無人飛行体dnを検知する際、初期の指向方向が設定されるために必要となる指向範囲BF1の基準位置として使用される。   Further, the microphone array MAk encodes the audio data of the monitoring area 8 obtained by sound collection via the network NW and transmits the encoded audio data to the monitoring device 10 (S5). In the monitoring device 10, the sound source direction detection unit 34 configures omnidirectional image data in the monitoring area 8 based on the omnidirectional image data captured by the omnidirectional camera CAk and the audio data collected by the microphone array MAk. The sound pressure as the sound parameter is calculated for each pixel to be used, and the sound source position in the monitoring area 8 is estimated (S6). This estimated sound source position is used as a reference position of the directivity range BF1 necessary for setting the initial directivity direction when the monitoring apparatus 10 detects the unmanned air vehicle dn.

また、監視装置10では、出力制御部35が、音源方向検知部34により算出された全方位画像データを構成する画素毎の音圧値を用いて、全方位画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図15に示すような音圧ヒートマップを生成する(S7)。   Further, in the monitoring device 10, the output control unit 35 uses the sound pressure value for each pixel that configures the omnidirectional image data calculated by the sound source direction detection unit 34, to configure each omnidirectional image data. For each pixel, a sound pressure map in which a calculated value of sound pressure is assigned to the position of the corresponding pixel is generated. Furthermore, the output control unit 35 performs a color conversion process on the sound pressure value for each pixel of the generated sound pressure map to a visual image (for example, a colored image) so that the user can visually and easily discriminate. Then, a sound pressure heat map as shown in FIG. 15 is generated (S7).

さらに、監視装置10では、信号処理部33が、ステップS5においてマイクアレイMAkから送信された音声データを用いて、マスキングエリア設定部69aにより設定されたマスキングエリアの領域外に対して順次指向性を形成することで、指向性を形成した指向方向毎に無人飛行体dnの検知判定を行う(S8)。この無人飛行体dnの検知判定処理の詳細については、図10及び図11を参照して後述する。   Further, in the monitoring device 10, the signal processing unit 33 uses the audio data transmitted from the microphone array MAk in step S5 to sequentially provide directivity to the outside of the masking area set by the masking area setting unit 69a. By forming, detection determination of the unmanned air vehicle dn is performed for each directivity direction in which directivity is formed (S8). Details of the detection determination process for the unmanned air vehicle dn will be described later with reference to FIGS. 10 and 11.

検知判定処理の結果、無人飛行体dnが検知された場合、監視装置10内の出力制御部35は、第1モニタMN1の画面に表示された全方位画像IMG1に、ステップS7において生成した音圧ヒートマップ、並びにステップS8において検知した指向方向に存在する無人飛行体dnを表す識別マーク(不図示)を重畳して表示することを指示する(S9)。   When the unmanned air vehicle dn is detected as a result of the detection determination process, the output control unit 35 in the monitoring device 10 generates the sound pressure generated in step S7 on the omnidirectional image IMG1 displayed on the screen of the first monitor MN1. An instruction is given to superimpose and display the heat map and an identification mark (not shown) representing the unmanned air vehicle dn present in the pointing direction detected in step S8 (S9).

第1モニタMN1は、監視装置10からの指示に従い、全方位画像IMG1に、音圧ヒートマップを合成(重畳)して表示するとともに、無人飛行体dnを表す識別マーク(不図示)を合成(重畳)して表示する(S10)。この後、無人飛行体検知システム5の処理はステップS3に戻り、例えば電源がオフに操作される等の所定のイベントが検知されるまで、ステップS3〜S10の各処理が繰り返される。   The first monitor MN1 synthesizes (superimposes) and displays a sound pressure heat map on the omnidirectional image IMG1 in accordance with an instruction from the monitoring device 10 and synthesizes an identification mark (not shown) representing the unmanned air vehicle dn (not shown). (S10). Thereafter, the process of the unmanned air vehicle detection system 5 returns to step S3, and the processes of steps S3 to S10 are repeated until a predetermined event such as a power-off operation is detected.

図10は、図9のステップS8の無人飛行体検知判定の動作手順の詳細の一例を説明するフローチャートである。音源検知ユニットUDkにおいて、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリアの情報を用いて、マスキングエリア外であってかつ音源方向検知部34によって推定された音源位置に基づく指向範囲BF1を、指向方向BF2の初期位置として設定する(S21)。マスキングエリアの情報とは、マイクアレイMAkから見たマスキングエリアを向く方向の座標である。   FIG. 10 is a flowchart for explaining an example of details of the operation procedure of the unmanned air vehicle detection determination in step S8 of FIG. In the sound source detection unit UDk, the directivity processing unit 63 uses the masking area information set by the masking area setting unit 69a and is based on the sound source position that is outside the masking area and estimated by the sound source direction detection unit 34. The directivity range BF1 is set as the initial position of the directivity direction BF2 (S21). The masking area information is coordinates in a direction facing the masking area as viewed from the microphone array MAk.

図11は、監視エリア8内で指向方向BF2が順に走査され、無人飛行体dnが検知される様子の一例を示す図である。なお、初期位置は、マスキングエリア設定部69aにより設定されたマスキングエリア外であればよく、音源方向検知部34により推定された監視エリア8の音源位置に基づく指向範囲BF1に限定されなくてもよい。つまり、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、ユーザにより指定された任意の位置を初期位置として設定して、監視エリア8内が順次、走査されてもよい。初期位置が限定されないことで、推定された音源位置に基づく指向範囲BF1に含まれる音源が無人飛行体でなかった場合でも、他の指向方向に飛来する無人飛行体を早期に検知することが可能となる。   FIG. 11 is a diagram illustrating an example of a state in which the pointing direction BF2 is sequentially scanned in the monitoring area 8 and the unmanned air vehicle dn is detected. Note that the initial position may be outside the masking area set by the masking area setting unit 69a, and may not be limited to the directivity range BF1 based on the sound source position of the monitoring area 8 estimated by the sound source direction detecting unit 34. . That is, if it is outside the masking area set by the masking area setting unit 69a, the monitoring area 8 may be sequentially scanned by setting an arbitrary position designated by the user as the initial position. Since the initial position is not limited, even if the sound source included in the directivity range BF1 based on the estimated sound source position is not an unmanned air vehicle, it is possible to detect an unmanned air vehicle flying in another directivity direction at an early stage. It becomes.

指向性処理部63は、マイクアレイMAkで収音され、A/D変換器An1〜Aqでデジタル値に変換された音データがメモリ38に一時的に記憶されたか否かを判定する(S22)。記憶されていない場合(S22、NO)、指向性処理部63の処理はステップS21に戻る。   The directivity processing unit 63 determines whether or not the sound data collected by the microphone array MAk and converted into digital values by the A / D converters An1 to Aq is temporarily stored in the memory 38 (S22). . If not stored (S22, NO), the processing of the directivity processing unit 63 returns to step S21.

マイクアレイMAにより収音された音データがメモリ38に一時的に記憶されていると(S22、YES)、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリア外であって、かつ監視エリア8の指向範囲BF1における任意の指向方向BF2に対してビームフォーミングし、この指向方向BF2の音データを抽出処理する(S23)。   When the sound data collected by the microphone array MA is temporarily stored in the memory 38 (S22, YES), the directivity processing unit 63 is outside the masking area set by the masking area setting unit 69a. In addition, beam forming is performed for an arbitrary directivity direction BF2 in the directivity range BF1 of the monitoring area 8, and sound data in the directivity direction BF2 is extracted (S23).

周波数分析部64は、抽出処理された音データの周波数及びその音圧を検知する(S24)。   The frequency analysis unit 64 detects the frequency of the extracted sound data and the sound pressure thereof (S24).

対象物検知部65は、メモリ38のパターンメモリに登録された検知音のパターンと、周波数分析処理の結果得られた検知音のパターンとを比較し、無人飛行体の検知を行う(S25)。   The object detection unit 65 compares the detection sound pattern registered in the pattern memory of the memory 38 with the detection sound pattern obtained as a result of the frequency analysis process, and detects the unmanned flying object (S25).

検知結果判定部66は、この比較の結果を出力制御部35に通知するとともに、検知方向制御部68へ検知方向移行について通知する(S26)。   The detection result determination unit 66 notifies the result of the comparison to the output control unit 35 and also notifies the detection direction control unit 68 of the detection direction shift (S26).

例えば対象物検知部65は、周波数分析処理の結果得られた検知音のパターンと、メモリ38のパターンメモリに登録されている4つの周波数f1,f2,f3,f4とを比較する。対象物検知部65は、比較の結果、両検知音のパターンにおいて同じ周波数を少なくとも2つ有し、かつ、これらの周波数の音圧が第1閾値th1より大きい場合、両者の検知音のパターンが近似し、無人飛行体dnが存在すると判定する。   For example, the object detection unit 65 compares the detected sound pattern obtained as a result of the frequency analysis processing with the four frequencies f1, f2, f3, and f4 registered in the pattern memory of the memory 38. As a result of the comparison, the object detection unit 65 has at least two of the same frequency in both detection sound patterns, and when the sound pressure of these frequencies is greater than the first threshold th1, the detection sound patterns of both are Approximate and determine that the unmanned air vehicle dn exists.

なお、ここでは、少なくとも2つの周波数が一致している場合を想定したが、対象物検知部65は、1つの周波数が一致し、この周波数の音圧が第1閾値th1より大きい場合、近似していると判定してもよい。   Here, it is assumed that at least two frequencies match, but the object detection unit 65 approximates when one frequency matches and the sound pressure at this frequency is greater than the first threshold th1. It may be determined that

また、対象物検知部65は、それぞれの周波数に対し、許容される周波数の誤差を設定し、この誤差範囲内の周波数は同じ周波数であるとして、上記近似の有無を判定してもよい。   In addition, the object detection unit 65 may set an error of an allowable frequency for each frequency, and may determine the presence or absence of the approximation assuming that the frequencies within the error range are the same frequency.

また、対象物検知部65は、周波数及び音圧の比較に加えて、それぞれの周波数の音の音圧比が略一致することを判定条件に加えて判定してもよい。この場合、判定条件が厳しくなるので、音源検知ユニットUDkは、検知された無人飛行体dnを予め登録された対象物であるとして特定し易くなり、無人飛行体dnの検知精度を向上できる。   Further, in addition to the comparison of the frequency and the sound pressure, the object detection unit 65 may determine that the sound pressure ratios of the sounds of the respective frequencies substantially match in addition to the determination condition. In this case, since the determination conditions become strict, the sound source detection unit UDk can easily identify the detected unmanned air vehicle dn as a previously registered object, and the detection accuracy of the unmanned air vehicle dn can be improved.

検知結果判定部66は、ステップS26の結果、無人飛行体dnが存在するか存在しないかを判別する(S27)。   The detection result determination unit 66 determines whether or not the unmanned air vehicle dn exists or not as a result of step S26 (S27).

無人飛行体dnが存在する場合(S27、YES)、検知結果判定部66は、出力制御部35に無人飛行体dnが存在する旨(無人飛行体dnの検知結果)を通知する(S28)。   When the unmanned air vehicle dn exists (S27, YES), the detection result determination unit 66 notifies the output control unit 35 that the unmanned air vehicle dn exists (detection result of the unmanned air vehicle dn) (S28).

一方、無人飛行体dnが存在しない場合(S27、NO)、検知結果判定部66は、監視エリア8内における走査対象の指向方向BF2を次の異なる方向に移動する旨を走査制御部67に指示する。走査制御部67は、検知結果判定部66からの指示に応じて、監視エリア8内における走査対象の指向方向BF2を次の異なる方向に移動させる(S29)。なお、無人飛行体dnの検知結果の通知は、1つの指向方向の検知処理が終了したタイミングでなく、全方位走査完了した後にまとめて行われてもよい。   On the other hand, when the unmanned air vehicle dn does not exist (S27, NO), the detection result determination unit 66 instructs the scanning control unit 67 to move the pointing direction BF2 to be scanned in the monitoring area 8 in the next different direction. To do. In response to the instruction from the detection result determination unit 66, the scanning control unit 67 moves the pointing direction BF2 to be scanned in the monitoring area 8 in the next different direction (S29). The notification of the detection result of the unmanned air vehicle dn may be performed collectively after the omnidirectional scanning is completed, not at the timing when the detection processing of one directivity direction is completed.

また、監視エリア8で指向方向BF2を順番に移動させる順序は、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、例えば監視エリア8の指向範囲BF1内或いは監視エリア8の全範囲内で、外側の円周から内側の円周に向かうように、又は内側の円周から外側の円周に向かうように、螺旋状(渦巻状)の順序でもよい。   Further, if the order in which the directing direction BF2 is sequentially moved in the monitoring area 8 is outside the masking area set by the masking area setting unit 69a, for example, within the directivity range BF1 of the monitoring area 8 or within the entire range of the monitoring area 8. Thus, a spiral (spiral) order may be employed so as to go from the outer circumference to the inner circumference or from the inner circumference to the outer circumference.

また、検知方向制御部68は、一筆書きのように連続して指向方向を走査するのではなく、監視エリア8内に予め位置を設定しておき、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、任意の順序で各位置に指向方向BF2を移動させてもよい。これにより、監視装置10は、例えば無人飛行体dnが侵入し易い位置から検知処理を開始でき、検知処理を効率化できる。   In addition, the detection direction control unit 68 does not continuously scan the directivity direction as in a single stroke, but sets a position in the monitoring area 8 in advance, and sets the masking area set by the masking area setting unit 69a. If it is outside, the directing direction BF2 may be moved to each position in an arbitrary order. Thereby, the monitoring apparatus 10 can start a detection process from the position where the unmanned air vehicle dn easily enters, for example, and can improve the detection process.

走査制御部67は、監視エリア8における全方位の走査を完了したか否かを判定する(S30)。全方位の走査が完了していない場合(S30、NO)、信号処理部33の処理はステップS23に戻り、ステップS23〜S30までの処理が繰り返される。つまり、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリア外において、ステップS29で移動された位置の指向方向BF2にビームフォーミングし、この指向方向BF2の音データを抽出処理する。これにより、音源検知ユニットUDkは、1つの無人飛行体dnが検知されても、他にも存在する可能性のある無人飛行体dnの検知を続行するので、複数の無人飛行体dnの検知が可能である。   The scanning control unit 67 determines whether or not the omnidirectional scanning in the monitoring area 8 has been completed (S30). When the omnidirectional scanning has not been completed (S30, NO), the signal processing unit 33 returns to step S23, and the processes from step S23 to S30 are repeated. That is, the directivity processing unit 63 performs beam forming in the directivity direction BF2 at the position moved in step S29 outside the masking area set by the masking area setting unit 69a, and extracts sound data in the directivity direction BF2. . Thereby, even if one unmanned air vehicle dn is detected, the sound source detection unit UDk continues the detection of the unmanned air vehicles dn that may exist, so that the detection of a plurality of unmanned air vehicles dn is possible. Is possible.

一方、ステップS30で全方位の走査が完了すると(S30、YES)、指向性処理部63は、メモリ38に一時的に記憶された、マイクアレイMAkで収音された音データを消去する(S31)。また、指向性処理部63は、マイクアレイMAkで収音された音データをメモリ38から消去し、かつレコーダRCに保存してもよい。   On the other hand, when the omnidirectional scanning is completed in step S30 (S30, YES), the directivity processing unit 63 deletes the sound data collected by the microphone array MAk temporarily stored in the memory 38 (S31). ). The directivity processing unit 63 may erase the sound data collected by the microphone array MAk from the memory 38 and store it in the recorder RC.

音データの消去後、信号処理部33は、無人飛行体dnの検知処理を終了するか否かを判別する(S32)。この無人飛行体dnの検知処理の終了は、所定のイベントに応じて行われる。例えばステップS26で無人飛行体dnが検知されなかった回数をメモリ38に保持し、この回数が所定回数以上となった場合、無人飛行体dnの検知処理を終了してもよい。また、タイマによるタイムアップや、操作部32が有するUI(User Interface)(不図示)に対するユーザ操作に基づいて、信号処理部33が無人飛行体dnの検知処理を終了してもよい。また、監視装置10の電源がオフとなる場合に、終了してもよい。   After erasing the sound data, the signal processing unit 33 determines whether or not to end the detection process of the unmanned air vehicle dn (S32). The detection process of the unmanned air vehicle dn is terminated according to a predetermined event. For example, the number of times that the unmanned air vehicle dn was not detected in step S26 is held in the memory 38, and when this number exceeds a predetermined number, the detection process for the unmanned air vehicle dn may be terminated. Further, the signal processing unit 33 may end the detection process of the unmanned air vehicle dn based on time-up by a timer or a user operation on a UI (User Interface) (not shown) of the operation unit 32. Moreover, you may complete | finish when the power supply of the monitoring apparatus 10 turns off.

なお、ステップS24の処理では、周波数分析部64は、周波数を分析するとともに、その周波数の音圧も計測する。検知結果判定部66は、周波数分析部64によって測定された音圧レベルが時間経過とともに徐々に大きくなっていると、音源検知ユニットUDkに対して無人飛行体dnが接近していると判定してもよい。   In the process of step S24, the frequency analysis unit 64 analyzes the frequency and also measures the sound pressure at that frequency. The detection result determination unit 66 determines that the unmanned air vehicle dn is approaching the sound source detection unit UDk when the sound pressure level measured by the frequency analysis unit 64 gradually increases with time. Also good.

例えば時刻t11で測定された所定の周波数の音圧レベルが、時刻t11よりも後の時刻t12で測定された同じ周波数の音圧レベルよりも小さい場合、時間経過とともに音圧が大きくなっており、無人飛行体dnが接近していると判定されてもよい。また、3回以上にわたって音圧レベルを測定し、統計値(例えば分散値、平均値、最大値、最小値等)の推移に基づいて、無人飛行体dnが接近していると判定されてもよい。   For example, when the sound pressure level of a predetermined frequency measured at time t11 is smaller than the sound pressure level of the same frequency measured at time t12 after time t11, the sound pressure increases with time. It may be determined that the unmanned air vehicle dn is approaching. Even if the sound pressure level is measured three times or more and it is determined that the unmanned air vehicle dn is approaching based on the transition of statistical values (for example, dispersion value, average value, maximum value, minimum value, etc.). Good.

また、測定された音圧レベルが警戒レベルである警戒閾値より大きい場合に、検知結果判定部66が、無人飛行体dnが警戒エリアに侵入したと判定してもよい。   In addition, when the measured sound pressure level is larger than a warning threshold that is a warning level, the detection result determination unit 66 may determine that the unmanned air vehicle dn has entered the warning area.

なお、警戒閾値は、例えば上述した第3閾値th3よりも大きな値である。警戒エリアは、例えば監視エリア8と同じエリア、又は監視エリア8に含まれ監視エリア8よりも狭いエリアである。警戒エリアは、例えば無人飛行体dnの侵入が規制されたエリアである。また、無人飛行体dnの接近判定や侵入判定は、検知結果判定部66により実行されてもよい。   The warning threshold is a value larger than the above-described third threshold th3, for example. The warning area is, for example, the same area as the monitoring area 8 or an area included in the monitoring area 8 and narrower than the monitoring area 8. The alert area is an area where intrusion of the unmanned air vehicle dn is restricted, for example. Moreover, the approach determination and the intrusion determination of the unmanned air vehicle dn may be executed by the detection result determination unit 66.

図12は、マスキングエリアMSK3が設定されていない場合の第1モニタMN1の表示画面例を示す図である。図12では、第1モニタMN1において、全方位画像IMG1の図12紙面の右上側に、監視装置10により検知された無人飛行体dnが映っている。さらに、無人飛行体dnや、全方位カメラCAkの撮像画角の範囲内において発生している音源にそれぞれ対応する音圧ヒートマップが重畳されて表示されている。   FIG. 12 is a diagram showing a display screen example of the first monitor MN1 when the masking area MSK3 is not set. In FIG. 12, in the first monitor MN1, the unmanned air vehicle dn detected by the monitoring device 10 is shown on the upper right side of the paper of FIG. 12 of the omnidirectional image IMG1. Furthermore, sound pressure heat maps corresponding to the unmanned air vehicle dn and the sound source generated within the range of the imaging angle of view of the omnidirectional camera CAk are superimposed and displayed.

図9を参照して説明したように、本実施形態では、音源方向検知部34により算出された画素毎の音圧値が第1閾値th1以下であれば無色で表示され、音圧値が第1閾値th1より大きくかつ第2閾値th2以下であれば青色で表示され、音圧値が第2閾値th2より大きくかつ第3閾値th3以下であればピンク色で表示され、音圧値が第3閾値th3より大きければ赤色で表示されている。   As described with reference to FIG. 9, in this embodiment, if the sound pressure value for each pixel calculated by the sound source direction detection unit 34 is equal to or less than the first threshold th <b> 1, the display is colorless, and the sound pressure value is the first value. If it is greater than the first threshold th1 and less than or equal to the second threshold th2, it is displayed in blue, and if the sound pressure value is greater than the second threshold th2 and less than or equal to the third threshold th3, it is displayed in pink, and the sound pressure value is third. If it is larger than the threshold th3, it is displayed in red.

図12では、例えば無人飛行体dnの筐体中心の周囲の回転翼やロータ付近では音圧値が第3閾値th3より大きいため、赤領域RD1,RD2,RD3,RD4で描画されている。同様に、赤領域の周囲には、赤領域の次に音圧値が大きいことを示すピンク領域PD1,PD2,PD3,PD4が描画されている。同様に、さらにピンク領域の周囲には、ピンク領域の次に音圧値が大きいことを示す青領域BD1,BD2,BD3,BD4が描画されている。   In FIG. 12, for example, the sound pressure value is larger than the third threshold th3 in the vicinity of the rotor wing and the rotor around the center of the casing of the unmanned air vehicle dn, so that the red regions RD1, RD2, RD3, and RD4 are drawn. Similarly, pink areas PD1, PD2, PD3, and PD4 indicating that the sound pressure value is next to the red area are drawn around the red area. Similarly, blue areas BD1, BD2, BD3, and BD4 indicating that the sound pressure value is the second largest after the pink area are drawn around the pink area.

また、図12では、オフィスビルにおいても音源が存在していることが示されており、音源方向検知部34により算出された画素毎の音圧値が第3閾値th3を超えている画素又はその集合に対しては赤領域R1,R2,R3,R4,R5,R6,R7が描画されている。同様に、オフィスビルの赤領域の周囲には、赤領域の次に音圧値が大きいことを示すピンク領域P1,P2,P3,P4,P5が描画されている。同様に、オフィスビルのピンク領域の周囲には、ピンク領域の次に音圧値が大きいことを示す青領域B1,B2が描画されている。なお、全方位画像IMG1のその他の領域では、音圧値が第1閾値th1以下であるため、無色領域N1で描画されており、背景となる全方位画像IMG1の視認性を劣化させていない。   In addition, FIG. 12 shows that a sound source also exists in an office building, and the sound pressure value for each pixel calculated by the sound source direction detecting unit 34 exceeds the third threshold th3 or the pixel Red regions R1, R2, R3, R4, R5, R6, and R7 are drawn for the set. Similarly, pink areas P1, P2, P3, P4, and P5 indicating that the sound pressure value is next to the red area are drawn around the red area of the office building. Similarly, blue areas B1 and B2 indicating that the sound pressure value is next to the pink area are drawn around the pink area of the office building. In the other areas of the omnidirectional image IMG1, since the sound pressure value is equal to or less than the first threshold th1, it is drawn in the colorless area N1, and the visibility of the omnidirectional image IMG1 serving as the background is not deteriorated.

次に、本実施形態におけるマスキングエリアの設定の詳細について、図13、図14及び図15を参照して説明する。図13は、自動学習処理時におけるマスキングエリアの表示例を時系列に示す説明図である。図14は、第1の実施形態における、マスキングエリアの設定の動作手順の一例を説明するシーケンス図である。図15は、マスキングエリアが設定された場合の第1モニタの表示画面例を示す図である。図14に示すシーケンスは、図9に示すシーケンスの動作の開始前に実行される、所謂、初期設定である。   Next, details of the setting of the masking area in the present embodiment will be described with reference to FIGS. FIG. 13 is an explanatory diagram showing a display example of the masking area in time series in the automatic learning process. FIG. 14 is a sequence diagram illustrating an example of an operation procedure for setting a masking area in the first embodiment. FIG. 15 is a diagram illustrating a display screen example of the first monitor when a masking area is set. The sequence shown in FIG. 14 is a so-called initial setting executed before the operation of the sequence shown in FIG. 9 is started.

図14において、ユーザは例えば操作部32を用いて、監視装置10に対して、マスキングエリアの自動学習処理の開始を指示する(T1)。監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(T2)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(T3)。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(T4)。これにより、第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータを表示する(図13紙面左上参照)。   In FIG. 14, the user instructs the monitoring apparatus 10 to start the automatic learning process of the masking area using the operation unit 32, for example (T1). The monitoring apparatus 10 makes an image distribution request to the omnidirectional camera CAk (T2). The omnidirectional camera CAk starts imaging processing according to power-on in accordance with this image distribution request. The omnidirectional camera CAk transmits data of omnidirectional images (for example, still images and moving images) obtained by imaging to the monitoring apparatus 10 via the network NW (T3). The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk into display data such as NTSC, and outputs it to the first monitor MN1 to instruct the display of the omnidirectional image data (T4). Thus, when the display data transmitted from the monitoring device 10 is input, the first monitor MN1 displays the data of the omnidirectional image IMG1 from the omnidirectional camera CAk on the screen (see the upper left of FIG. 13).

また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(T5)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(T6)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。   In addition, the monitoring device 10 issues a voice distribution request to the microphone array MAk (T5). The microphone array MA starts sound collection processing in response to power-on in accordance with the voice distribution request. The microphone array MAk encodes the audio data of the monitoring area 8 obtained by sound collection via the network NW and transmits it to the monitoring device 10 (T6). In the monitoring device 10, the sound source direction detection unit 34 configures omnidirectional image data in the monitoring area 8 based on the omnidirectional image data captured by the omnidirectional camera CAk and the audio data collected by the microphone array MAk. A sound pressure as a sound parameter is calculated for each pixel.

さらに、マスキングエリア設定部69aは、音源方向検知部34による音圧の算出値が所定のマスキングエリア閾値(例えば上述した第3閾値th3)以上となった画素又はその集合を判定する。マスキングエリア設定部69aは、判定された画素又はその集合を示す情報を、マスキングエリアを示す情報としてメモリ38に保存して登録する(T7)。マスキングエリアを示す情報とは、具体的には、音圧の算出値がマスキングエリア閾値以上となった画素の位置を特定する全方位画像上の座標である。マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリア(つまり、音圧の算出値がマスキングエリア閾値以上となった画素又はその集合)を所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T8)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面右上参照)。なお、図13紙面右上の全方位画像IMG1では、マスキングエリアMSK1は、所定色で塗りつぶされたエリアの全体を示す。   Further, the masking area setting unit 69a determines a pixel or a set of pixels whose calculated sound pressure by the sound source direction detection unit 34 is equal to or greater than a predetermined masking area threshold (for example, the above-described third threshold th3). The masking area setting unit 69a stores and registers information indicating the determined pixel or a set thereof in the memory 38 as information indicating the masking area (T7). Specifically, the information indicating the masking area is coordinates on the omnidirectional image that specify the position of the pixel at which the calculated sound pressure value is equal to or greater than the masking area threshold. The masking area setting unit 69a outputs, via the output control unit 35, information indicating the masking area and the masking area (that is, a pixel or a set of the sound pressure calculated values equal to or greater than the masking area threshold) to a predetermined color (for example, red). ) Is output to the first monitor MN1 (T8). Thereby, the first monitor MN1 performs a process of painting the position of the coordinates corresponding to the masking area MSK1 on the omnidirectional image IMG with a predetermined color according to the instruction transmitted from the monitoring device 10 (see the upper right in FIG. 13). . In the omnidirectional image IMG1 on the upper right side of FIG. 13, the masking area MSK1 indicates the entire area painted in a predetermined color.

同様に、マイクアレイMAは、監視装置10からの音声配信要求に従い、ネットワークNWを介して、継続して行っている収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(T9)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。   Similarly, the microphone array MA encodes the audio data of the monitoring area 8 obtained by the continuous sound collection via the network NW in accordance with the audio distribution request from the monitoring device 10 to the monitoring device 10. Transmit (T9). In the monitoring device 10, the sound source direction detection unit 34 configures omnidirectional image data in the monitoring area 8 based on the omnidirectional image data captured by the omnidirectional camera CAk and the audio data collected by the microphone array MAk. A sound pressure as a sound parameter is calculated for each pixel.

さらに、マスキングエリア設定部69aは、音源方向検知部34による音圧の算出値がマスキングエリア閾値以上となった画素又はその集合を判定する。マスキングエリア設定部69aは、判定された画素又はその集合を示す情報を、マスキングエリアを示す情報としてメモリ38に保存して登録する(T10)。マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリアを所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T11)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1に対して累積されたマスキングエリアMSK2に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面右下参照)。なお、図13紙面右下の全方位画像IMG1では、マスキングエリアMSK2は、所定色で塗りつぶされたエリアの全体を示す。   Further, the masking area setting unit 69a determines a pixel or a set thereof in which the calculated sound pressure by the sound source direction detection unit 34 is equal to or greater than the masking area threshold value. The masking area setting unit 69a stores and registers information indicating the determined pixel or a set thereof in the memory 38 as information indicating the masking area (T10). The masking area setting unit 69a outputs, via the output control unit 35, information indicating the masking area and an instruction to fill the masking area with a predetermined color (for example, red) to the first monitor MN1 (T11). Thereby, the first monitor MN1 fills the position of the coordinates corresponding to the masking area MSK2 accumulated with respect to the masking area MSK1 on the omnidirectional image IMG with a predetermined color according to the instruction transmitted from the monitoring device 10. (Refer to the lower right of FIG. 13). In the omnidirectional image IMG1 on the lower right side of FIG. 13, the masking area MSK2 indicates the entire area painted with a predetermined color.

ここで、操作部32を用いたユーザ操作により、監視装置10に対して、マスキングエリアの自動学習処理の終了が指示される(T12)。監視装置10は、この指示により、マイクアレイMAkに対し、音声配信停止要求を送信する(T13)。これにより、マイクアレイMAkは、収音により得た監視エリア8の音声データの監視装置10への配信(送信)を停止する。   Here, a user operation using the operation unit 32 instructs the monitoring device 10 to end the automatic learning process of the masking area (T12). In response to this instruction, the monitoring device 10 transmits a voice distribution stop request to the microphone array MAk (T13). Thereby, the microphone array MAk stops the delivery (transmission) of the audio data in the monitoring area 8 obtained by sound collection to the monitoring device 10.

また、操作部32を用いたユーザ操作により、図13紙面右下のマスキングエリアMSK2が示された第1モニタMN1に対して、マスキングエリアの修正(つまり、マスキングエリアの追加、削除)の操作がなされると(T14)、監視装置10では、マスキングエリア設定部69aは、ユーザ操作により、指定された全方位画像IMG1上の位置をマスキングエリアとして追加し、又はマスキングエリアから削除した上で、その修正後のマスキングエリアMSK3を示す情報をメモリ38に保存して登録する(T15)。   Further, by a user operation using the operation unit 32, an operation for correcting the masking area (that is, adding or deleting the masking area) is performed on the first monitor MN1 on which the masking area MSK2 on the lower right side of FIG. 13 is shown. When done (T14), in the monitoring apparatus 10, the masking area setting unit 69a adds or deletes the specified position on the omnidirectional image IMG1 as a masking area by the user operation, Information indicating the masking area MSK3 after correction is stored in the memory 38 and registered (T15).

例えばステップT14では、図13紙面右下のマスキングエリアMSK2が示された第1モニタMN1に対して、ユーザの判断の下でマスキングエリアとして不要な領域GOM1,GOM2,GOM3を削除するための操作(例えば範囲指定操作)がなされたり、マスキングエリアMSK2により覆われる背景のオフィスビル一帯をマスキングエリアとして追加するための操作(つまり、描画操作)がなされたりする。   For example, in step T14, an operation for deleting unnecessary areas GOM1, GOM2, and GOM3 as masking areas (at the discretion of the user) with respect to the first monitor MN1 showing the masking area MSK2 at the lower right of FIG. For example, a range specifying operation) is performed, or an operation for adding a background office building area covered by the masking area MSK2 as a masking area (that is, a drawing operation) is performed.

マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリアを所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T16)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1,MSK2に対して累積されたマスキングエリアMSK3に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面左下参照)。なお、図13紙面左下の全方位画像IMG1では、マスキングエリアMSK3は、所定色で塗りつぶされたエリアの全体を示す。従って、上空はマスキングエリアMSK3から設定除外されたことになる。   The masking area setting unit 69a outputs, via the output control unit 35, information indicating the masking area and an instruction to fill the masking area with a predetermined color (for example, red) to the first monitor MN1 (T16). As a result, the first monitor MN1 displays the position of the coordinates corresponding to the masking area MSK3 accumulated with respect to the masking areas MSK1 and MSK2 on the omnidirectional image IMG in a predetermined color according to the instruction transmitted from the monitoring device 10. A painting process is performed (see the lower left of FIG. 13). In the omnidirectional image IMG1 on the lower left side of FIG. 13, the masking area MSK3 indicates the entire area painted with a predetermined color. Accordingly, the setting is excluded from the masking area MSK3.

これにより、図14に示すシーケンスによれば、本実施形態の検知対象としての無人飛行体dnは、全方位カメラCAkの撮像画角の範囲内において、周囲に音源が殆ど存在していない上空を飛翔する傾向があることに鑑み、マイクアレイMAkからの音声データの解析によってマスキングエリア閾値以上となる音圧が発した音源が上空では見当たらなかったので、上空を無人飛行体dnの検知対象として設定可能となる。その一方で、周囲に音源が数多く存在するようなオフィスビル一帯をマスキングエリアと設定することで、無人飛行体dn以外の音源を本来検知したい無人飛行体dnとして誤検知してしまうことを回避することができ、無人飛行体dnの検知精度及び検知処理速度を向上することが可能となる。   Thereby, according to the sequence shown in FIG. 14, the unmanned air vehicle dn as the detection target of the present embodiment is in the sky where there is almost no sound source in the vicinity of the imaging field angle of the omnidirectional camera CAk. In view of the tendency to fly, since no sound source with a sound pressure exceeding the masking area threshold was found in the sky by analysis of the sound data from the microphone array MAk, the sky was set as a detection target for the unmanned air vehicle dn. It becomes possible. On the other hand, by setting an office building with many sound sources in the surrounding area as a masking area, it is possible to avoid erroneous detection of a sound source other than the unmanned air vehicle dn as an unmanned air vehicle dn originally intended to be detected. It is possible to improve the detection accuracy and the detection processing speed of the unmanned air vehicle dn.

言い換えると、図15に示すように、全方位画像IMG1において、マスキングエリアMSK3外の他のエリアにおいてのみ無人飛行体dnの検知がなされる。その結果として、図12に示す全方位画像IMG1と比べて、マスキングエリアMSK3を除く他のエリアにおいて検知された無人飛行体dnの周囲の音源位置に、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップが重畳して表示されている。その一方で、マスキングエリアMSK3において検知された無人飛行体ではない他の音源(例えばオフィスビルにいる人の怒鳴り声)の周囲には、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップの重畳表示は省かれている。   In other words, as shown in FIG. 15, in the omnidirectional image IMG1, the unmanned air vehicle dn is detected only in another area outside the masking area MSK3. As a result, compared with the omnidirectional image IMG1 shown in FIG. 12, the sound pressure value of the sound generated at the sound source position at the sound source position around the unmanned air vehicle dn detected in the other area except the masking area MSK3. Is superimposed and displayed with a sound pressure heat map converted into a visual image. On the other hand, the sound pressure value of the sound generated at the sound source position is displayed in the visual image around other sound sources that are not unmanned air vehicles detected in the masking area MSK3 (for example, a yelling voice of a person in an office building). The superimposed display of the converted sound pressure heat map is omitted.

なお、本実施形態では、マスキングエリア設定部69aによりマスキングエリアが設定された場合に、図15に示すように、無人飛行体dnの周囲に、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップが重畳して表示されている。しかし、マスキングエリア設定部69aによりマスキングエリアが設定されていない場合には、図12に示すように、全方位画像IMG1上において、検知された音源の音圧値に対応する音圧ヒートマップが重畳して表示されても構わない。   In the present embodiment, when the masking area is set by the masking area setting unit 69a, the sound pressure value of the sound generated at the sound source position is visually displayed around the unmanned air vehicle dn as shown in FIG. The sound pressure heat map converted into an image is displayed superimposed. However, when the masking area is not set by the masking area setting unit 69a, a sound pressure heat map corresponding to the detected sound pressure value of the sound source is superimposed on the omnidirectional image IMG1 as shown in FIG. May be displayed.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の撮像画像(全方位画像IMG1)に現れる無人飛行体dnの検知を除外するためのマスキングエリアをマスキングエリア設定部69aにより設定する。監視装置10は、マイクアレイMAkにより収音された音声データとマスキングエリアを示す情報とを用いて、マスキングエリアを除く他のエリアにおい無人飛行体dnを検知する。また、監視装置10は、マスキングエリア外で無人飛行体dnを検知した場合に、全方位画像IMG1における無人飛行体dnの音源位置に、その音源位置における音の大きさを示す音源視覚画像(つまり、赤領域RD1,ピンク領域PD1,青領域BD1,…の視覚画像)を重畳して第1モニタMN1に表示する。   As described above, in the unmanned air vehicle detection system 5 of the present embodiment, the monitoring device 10 uses the voice data collected by the microphone array MAk to perform unmanned flight that appears in the captured image (omnidirectional image IMG1) of the monitoring area 8. A masking area for excluding detection of the body dn is set by the masking area setting unit 69a. The monitoring device 10 detects the unmanned air vehicle dn in other areas excluding the masking area using the voice data collected by the microphone array MAk and the information indicating the masking area. When the monitoring device 10 detects the unmanned air vehicle dn outside the masking area, the monitoring device 10 displays the sound source visual image (that is, the sound level at the sound source position) at the sound source position of the unmanned air vehicle dn in the omnidirectional image IMG1. , Red region RD1, pink region PD1, blue region BD1,...) Are superimposed and displayed on first monitor MN1.

これにより、無人飛行体検知システム5は、全方位カメラCAkの撮像対象となる監視エリア8に対して、検知対象となる無人飛行体dnの検知処理を除外するためのマスキングエリアを自動的に設定できるので、マスキングエリア内の音源位置の物体を無人飛行体dnとして誤検知する確率を低減でき、無人飛行体dnの検知精度の劣化を抑制することができる。また、無人飛行体検知システム5は、全方位カメラCAkの撮像画角(つまり、全方位画像IMG1の全域)にわたって無人飛行体dnを検知する必要がなく、マスキングエリアを省いたエリアに対して無人飛行体dnの検知判定を行えばよいので、無人飛行体dnの検知処理も一層向上できる。   Thereby, the unmanned air vehicle detection system 5 automatically sets a masking area for excluding the detection process of the unmanned air vehicle dn to be detected for the monitoring area 8 to be imaged by the omnidirectional camera CAk. Therefore, the probability of erroneous detection of an object at the sound source position in the masking area as the unmanned air vehicle dn can be reduced, and deterioration in detection accuracy of the unmanned air vehicle dn can be suppressed. Further, the unmanned air vehicle detection system 5 does not need to detect the unmanned air vehicle dn over the imaging angle of view of the omnidirectional camera CAk (that is, the entire area of the omnidirectional image IMG1), and is unmanned for an area where the masking area is omitted. Since the detection determination of the flying object dn may be performed, the detection process of the unmanned flying object dn can be further improved.

また、無人飛行体検知システム5では、音源方向検知部34は、マイクアレイMAkにより収音された音声データを基に、監視エリア8の音の大きさを特定する音圧を、全方位画像IMG1を構成する画素の所定単位毎に算出する。マスキングエリア設定部69aは、音圧の算出値が音の大きさに関するマスキングエリア閾値以上となった音源の位置又はその位置を含む領域を第1モニタMN1に重畳して表示し、さらに、ユーザ確定操作により、第1モニタMN1に表示された音源領域をマスキングエリアとして設定する。これにより、ユーザは、無人飛行体dnが飛翔する可能性は少ないがその他の音源(例えば人物の怒鳴り声)が発生しそうな場所を、無人飛行体dnの検知対象のエリアから省くためのマスキングエリアとして、第1モニタMN1を目視で確認しながら簡易に設定できる。   In the unmanned aerial vehicle detection system 5, the sound source direction detection unit 34 determines the sound pressure for specifying the loudness of the monitoring area 8 based on the sound data collected by the microphone array MAk as an omnidirectional image IMG1. Is calculated for each predetermined unit of the pixels constituting the. The masking area setting unit 69a displays the position of the sound source where the calculated value of the sound pressure is equal to or greater than the masking area threshold related to the loudness or a region including the position superimposed on the first monitor MN1, and further confirms the user. By the operation, the sound source area displayed on the first monitor MN1 is set as a masking area. Thereby, the user can reduce the possibility that the unmanned air vehicle dn will fly, but the masking area for omitting the place where the other sound source (for example, a person's yell) is likely to occur from the detection target area of the unmanned air vehicle dn. The first monitor MN1 can be easily set while visually confirming.

また、マスキングエリア設定部69aは、第1モニタMN1に表示された音源領域(つまり、マスキングエリアの候補となる領域)をさらに追加するためのユーザ追加操作により、ユーザ追加操作後の音源領域をマスキングエリアとして設定する。これにより、ユーザは、監視装置10により自動的にマスキングエリアの候補として所定色に塗りつぶされた箇所を第1モニタMN1上で目視によって確認しながら、自らの判断でさらにマスキングエリアに追加したい箇所を簡単に指定しながらマスキングエリアを設定でき、ユーザの使い勝手が向上する。   Further, the masking area setting unit 69a masks the sound source area after the user addition operation by the user addition operation for further adding the sound source area displayed on the first monitor MN1 (that is, the area as a masking area candidate). Set as area. As a result, the user automatically confirms a portion of the first monitor MN1 that is painted in a predetermined color as a masking area candidate by the monitoring device 10 while visually checking the portion that the user desires to add to the masking area. The masking area can be set while specifying easily, improving user convenience.

また、マスキングエリア設定部69aは、第1モニタMN1に表示された音源領域(つまり、マスキングエリアの候補となる領域)の少なくとも一部を削除するためのユーザ削除操作により、ユーザ削除操作後の音源領域をマスキングエリアとして設定する。これにより、ユーザは、監視装置10により自動的にマスキングエリアの候補として所定色に塗りつぶされた箇所を第1モニタMN1上で目視によって確認しながら、自らの判断で所定色で塗りつぶされている箇所からマスキングエリアとして除外したい一部の箇所を簡単に指定しながらマスキングエリアを設定でき、ユーザの使い勝手が向上する。   Further, the masking area setting unit 69a performs the sound source after the user deletion operation by the user deletion operation for deleting at least a part of the sound source region (that is, the masking area candidate region) displayed on the first monitor MN1. Set the area as a masking area. As a result, the user can visually check on the first monitor MN1 the portion that has been painted in a predetermined color as a masking area candidate by the monitoring device 10 and is painted in the predetermined color by his / her own judgment. Therefore, it is possible to set a masking area while easily specifying a part to be excluded as a masking area.

また、出力制御部35は、音圧の算出値と音の大きさに関する複数の閾値との比較に応じて、音圧を異なる視覚画像に段階的に変換した音源視覚画像を、監視エリア8の全方位画像IMG1を構成する画素の所定単位毎に重畳して第1モニタMN1に表示する。これにより、ユーザは、第1モニタMN1を見ることで、全方位カメラCAkにより撮像された監視エリア8の全方位画像IMG1の中で、監視エリア8の広範な様子を全方位画像として知ることができるだけでなく、その監視エリア8のマスキングエリア外において発生した音の発生源(例えば無人飛行体dn)の場所、さらにその音の大きさを視覚的な画像として分かり易く確認することができる。   Further, the output control unit 35 converts the sound source visual image obtained by converting the sound pressure into different visual images in a stepwise manner in the monitoring area 8 according to the comparison between the calculated sound pressure value and a plurality of threshold values related to the sound volume. The omnidirectional image IMG1 is displayed on the first monitor MN1 in a superimposed manner for each predetermined unit of pixels constituting the omnidirectional image IMG1. Thereby, the user can know a wide state of the monitoring area 8 as an omnidirectional image in the omnidirectional image IMG1 of the monitoring area 8 captured by the omnidirectional camera CAk by looking at the first monitor MN1. In addition, the location of the sound source (eg, unmanned air vehicle dn) generated outside the masking area of the monitoring area 8 and the magnitude of the sound can be easily confirmed as a visual image.

(第2の実施形態に至る経緯)
上述した特許文献1には、ヘリコプターやセスナ等の飛行物体に特有の周波数における音圧を既定の設定レベルと比較することで、設定レベル以上であれば、監視対象の飛行物体と判断することは開示されている。
(Background to the second embodiment)
In Patent Document 1 described above, by comparing the sound pressure at a frequency peculiar to a flying object such as a helicopter or Cessna with a predetermined setting level, if it is equal to or higher than the setting level, it is determined that the flying object is a monitoring object. It is disclosed.

しかしながら、上述した特許文献1には、測定された音圧が複数の段階が規定された音圧のうちいずれの段階であるかを定量的に示すことは考慮されていない。このため、カメラ装置の撮像エリア内で何かしらの音が検知された場合に、その検知された音源位置における音の大きさの大小に拘わりなく、その音の大きさをきめ細かい音の視覚情報で具体的に提示することはできないという課題があった。   However, Patent Document 1 described above does not take into account that the measured sound pressure quantitatively indicates which of the sound pressures in which a plurality of stages are defined. For this reason, when any sound is detected in the imaging area of the camera device, the sound level is specified by detailed visual information regardless of the size of the sound at the detected sound source position. There is a problem that it cannot be presented.

そこで、第2の実施形態では、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資するモニタリングシステムの例について説明する。   Therefore, in the second embodiment, regardless of the magnitude of the sound at the sound source position detected in the imaging area of the camera device, the loudness of the sound at the sound source position is presented in a fine stepwise manner. An example of a monitoring system that contributes to an accurate grasp of the loudness of sound in the user will be described.

(第2の実施形態)
第2の実施形態において、無人飛行体検知システム5を構成する各装置の内部構成は第1の実施形態の無人飛行体検知システム5を構成する各装置の内部構成を同様であるため、同一の内容については同一の符号を付して説明を省略し、異なる内容について説明する。
(Second Embodiment)
In the second embodiment, the internal configuration of each device constituting the unmanned air vehicle detection system 5 is the same as the internal configuration of each device constituting the unmanned air vehicle detection system 5 of the first embodiment. The contents are denoted by the same reference numerals, description thereof is omitted, and different contents are described.

第2の実施形態では、監視装置10は、第1の実施形態において説明した音圧ヒートマップを生成して第1モニタMN1に表示した後、ユーザの操作部32に対する操作(後述参照)により、その音圧ヒートマップの生成に必要となった音圧の算出値と複数の閾値(後述参照)との関係に応じて、音圧ヒートマップをきめ細かく解析して表示する。以下、3通りの解析方法を説明していく。   In the second embodiment, the monitoring device 10 generates the sound pressure heat map described in the first embodiment and displays the heat pressure heat map on the first monitor MN1, and then the user operates the operation unit 32 (see below). The sound pressure heat map is finely analyzed and displayed according to the relationship between the calculated value of the sound pressure necessary for generating the sound pressure heat map and a plurality of threshold values (see later). Hereinafter, three analysis methods will be described.

(第1の解析方法)
第1の解析方法では、監視装置10は、全方位画像IMG2に対応する音圧ヒートマップを全方位画像IMG2に重畳して第1モニタMN1に表示した後、ユーザが全方位画像IMG2の一部の範囲を指定すると、その指定された範囲の音圧ヒートマップの表示解像度を、全体となる全方位画像IMG2の表示解像度と同一となるように変更する。この第1の解析方法の動作例について、図16及び図17を参照して説明する。図16は、第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の概要説明図である。図17は、第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の動作手順の一例を説明するフローチャートである。
(First analysis method)
In the first analysis method, the monitoring apparatus 10 superimposes the sound pressure heat map corresponding to the omnidirectional image IMG2 on the omnidirectional image IMG2 and displays the sound map on the first monitor MN1, and then the user performs a part of the omnidirectional image IMG2. When the range is designated, the display resolution of the sound pressure heat map in the designated range is changed to be the same as the display resolution of the entire omnidirectional image IMG2. An example of the operation of the first analysis method will be described with reference to FIGS. FIG. 16 is a schematic explanatory diagram of dynamic change of the display resolution of the sound pressure heat map in the second embodiment. FIG. 17 is a flowchart for explaining an example of an operation procedure for dynamically changing the display resolution of the sound pressure heat map in the second embodiment.

図17において、監視装置10は、マイクアレイMAkから送信された監視エリア8の音声データを入力している(S41)。操作部32を用いたユーザ操作により、第1モニタMN1上に対する全方位画像IMG2(図16紙面左上参照)の一部の切り出し範囲が指定されたかどうかが判断される(S42)。   In FIG. 17, the monitoring apparatus 10 has input the audio data of the monitoring area 8 transmitted from the microphone array MAk (S41). It is determined whether or not a partial clipping range of the omnidirectional image IMG2 (see the upper left of FIG. 16) on the first monitor MN1 has been designated by a user operation using the operation unit 32 (S42).

ここで、図16紙面左上において、第1モニタMN1に表示された全方位画像IMG2は、全方位画像IMG2のX方向の表示サイズが「Wmax」かつY方向の表示サイズが「Hmax」とした場合に、「Wmax×Hmax」の表示解像度を有する。また、ユーザ操作により指定される、全方位画像IMG2の一部となる切り出し範囲の端点の座標は、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の矩形である。図16では、同矩形の対角線上に存在する(X1,Y1)及び(X2,Y2)のみ図示されている。   Here, in the upper left of FIG. 16, the omnidirectional image IMG2 displayed on the first monitor MN1 has a display size in the X direction “Wmax” and a display size in the Y direction “Hmax” of the omnidirectional image IMG2. Furthermore, it has a display resolution of “Wmax × Hmax”. In addition, the coordinates of the end points of the cutout range, which are specified by the user operation and become a part of the omnidirectional image IMG2, are (X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2). It is a rectangle. In FIG. 16, only (X1, Y1) and (X2, Y2) existing on the diagonal of the same rectangle are shown.

ユーザ操作により、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の4点を端点とする矩形が指定されていない場合には(S42、NO)、監視装置10の音源方向検知部34は、全方位画像IMG2の全体に対する音圧マップを生成するために、(X,Y)=(0,0)と設定し(S43)、座標(X,Y)=(0,0)における音圧P(X,Y)を算出する(S45)。   If a rectangle with four endpoints (X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2) as end points is not specified by the user operation (S42, NO), monitoring The sound source direction detection unit 34 of the apparatus 10 sets (X, Y) = (0, 0) (S43) and generates coordinates (X, Y) in order to generate a sound pressure map for the entire omnidirectional image IMG2. = Sound pressure P (X, Y) at (0,0) is calculated (S45).

さらに、音源方向検知部34は、全方位画像IMG2のX座標が最大値のWmaxに一致していない場合には(S46、NO)、全方位画像IMG2の全体に対する音圧マップを生成するために、X座標を1インクリメントし(S47)、インクリメント後の(X,Y)において音圧P(X,Y)を算出する。   Further, when the X coordinate of the omnidirectional image IMG2 does not coincide with the maximum value Wmax (S46, NO), the sound source direction detection unit 34 generates a sound pressure map for the entire omnidirectional image IMG2. The X coordinate is incremented by 1 (S47), and the sound pressure P (X, Y) is calculated at the incremented (X, Y).

音源方向検知部34は、全方位画像IMG2のX座標が最大値Wmaxに一致した場合に(S46、YES)、全方位画像IMG2のY座標が最大値のHmaxに一致していない場合には(S48、NO)、全方位画像IMG2の全体に対する音圧マップを生成するために、X座標を0に戻しかつY座標を1インクリメントし(S49)、インクリメント後の(X,Y)において音圧P(X,Y)を算出する。音源方向検知部34は、全方位画像IMG2のY座標が最大値Hmaxに一致するまでステップ45〜S49の各処理を繰り返すことで、第1の実施形態と同様に、全方位画像IMG2の全体に対する音圧マップを生成することができ、メモリ38に保存して登録する(S50)。   When the X coordinate of the omnidirectional image IMG2 matches the maximum value Wmax (S46, YES), the sound source direction detection unit 34 (when the Y coordinate of the omnidirectional image IMG2 does not match the maximum value Hmax) ( S48, NO), in order to generate a sound pressure map for the entire omnidirectional image IMG2, the X coordinate is returned to 0 and the Y coordinate is incremented by 1 (S49), and the sound pressure P is increased at (X, Y) after the increment. (X, Y) is calculated. The sound source direction detection unit 34 repeats the processes in steps 45 to S49 until the Y coordinate of the omnidirectional image IMG2 coincides with the maximum value Hmax, so that the entire omnidirectional image IMG2 is processed as in the first embodiment. A sound pressure map can be generated and stored in the memory 38 and registered (S50).

一方、ユーザ操作により、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の4点を端点とする矩形が指定された場合には(S42、YES)、監視装置10の音源方向検知部34は、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、(X,Y)=(X1,Y1)と設定し(S44)、座標(X,Y)=(X1,Y1)における音圧P(X,Y)を算出する(S45)。   On the other hand, when a rectangle having four end points (X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2) is designated by a user operation (S42, YES), The sound source direction detection unit 34 of the monitoring device 10 sets (X, Y) = (X1, Y1) in order to generate a sound pressure map for the range specified by the user operation in the omnidirectional image IMG2 (S44). ), The sound pressure P (X, Y) at the coordinates (X, Y) = (X1, Y1) is calculated (S45).

さらに、音源方向検知部34は、全方位画像IMG2のX座標が最大値のWmaxに一致していない場合には(S46、NO)、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、X座標を(X2−X1)/Wmaxほど増加し(S47)、増加後の(X,Y)において音圧P(X,Y)を算出する。   Furthermore, when the X coordinate of the omnidirectional image IMG2 does not match the maximum value Wmax (S46, NO), the sound source direction detection unit 34 generates sound for the range designated by the user operation in the omnidirectional image IMG2. In order to generate the pressure map, the X coordinate is increased by (X2-X1) / Wmax (S47), and the sound pressure P (X, Y) is calculated at (X, Y) after the increase.

音源方向検知部34は、全方位画像IMG2のX座標が最大値Wmaxに一致した場合に(S46、YES)、全方位画像IMG2のY座標が最大値のHmaxに一致していない場合には(S48、NO)、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、X座標をX1に戻しかつY座標を(Y2−Y1)/Hmaxほど増加し(S49)、増加後の(X,Y)において音圧P(X,Y)を算出する。音源方向検知部34は、全方位画像IMG2のY座標が最大値Hmaxに一致するまでステップ45〜S49の各処理を繰り返すことで、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成することができ、メモリ38に保存して登録する(S50)。ステップS50の後、監視装置10の処理はステップS41に戻り、ステップS41において入力された音声データに対し、ステップS42〜S50の処理が繰り返される。   When the X coordinate of the omnidirectional image IMG2 matches the maximum value Wmax (S46, YES), the sound source direction detection unit 34 (when the Y coordinate of the omnidirectional image IMG2 does not match the maximum value Hmax) ( (S48, NO), in order to generate a sound pressure map for the range designated by the user operation in the omnidirectional image IMG2, the X coordinate is returned to X1, and the Y coordinate is increased by (Y2-Y1) / Hmax (S49). ), The sound pressure P (X, Y) is calculated at (X, Y) after the increase. The sound source direction detection unit 34 repeats the processes in steps 45 to S49 until the Y coordinate of the omnidirectional image IMG2 coincides with the maximum value Hmax, so that the sound pressure with respect to the range designated by the user operation in the omnidirectional image IMG2 A map can be generated and stored in the memory 38 and registered (S50). After step S50, the process of the monitoring apparatus 10 returns to step S41, and the processes of steps S42 to S50 are repeated for the voice data input in step S41.

従って、監視装置10は、図16紙面右上に示すように、ユーザ操作により指定された範囲を単に切り出してその範囲を構成する画素毎の音圧値に応じて、音声ヒートマップを生成して第1モニタMN1に重畳すると、表示解像度が低い(つまり、粗い)画像を表示することしかできない。   Therefore, as shown in the upper right of FIG. 16, the monitoring device 10 simply cuts out a range specified by a user operation and generates an audio heat map according to the sound pressure value for each pixel constituting the range. When superimposed on one monitor MN1, it is only possible to display an image with a low display resolution (that is, a coarse image).

ところが、本実施形態の第1の解析方法により、監視装置10は、ユーザ操作により指定された全方位画像IMG2の一部の切り出し範囲について、その切り出し範囲の表示解像度を全方位画像IMG2全体の表示解像度と同一となるように、音圧P(X,Y)をきめ細かい単位(つまり、X方向においては(X2−X1)/Wmax毎、Y方向においては(Y2−Y1)/Hmax毎)で算出する。これにより、監視装置10は、図16紙面右下に示すように、ユーザ操作により指定された切り出し範囲の音圧ヒートマップを、単に切り出した時の音圧ヒートマップにおける表示解像度よりもきめ細かい分解能(単位)で高精度に第1モニタMN1に表示することができ、ユーザに対して、ユーザ操作により指定された切り出し範囲における音源の分布の詳細をより正確に把握させることができる。   However, according to the first analysis method of the present embodiment, the monitoring apparatus 10 displays the display resolution of the cutout range for the partial cutout range of the omnidirectional image IMG2 designated by the user operation as the entire omnidirectional image IMG2. Sound pressure P (X, Y) is calculated in fine units (that is, every (X2-X1) / Wmax in the X direction and every (Y2-Y1) / Hmax in the Y direction) so as to be the same as the resolution. To do. As a result, as shown in the lower right corner of FIG. 16, the monitoring apparatus 10 has a finer resolution than the display resolution in the sound pressure heat map when the sound pressure heat map in the cutout range specified by the user operation is simply cut out ( (Unit) can be displayed on the first monitor MN1 with high accuracy, and the user can more accurately grasp the details of the distribution of the sound source in the clipping range specified by the user operation.

(第2の解析方法)
第2の解析方法を説明する前に、図18〜図20に共通する事項として、本実施形態では、音の大きさを段階的に規定する複数の閾値の幅について説明する。図18は、第2の実施形態における、音圧値の度数分布に応じた閾値の幅調整と幅調整に伴う撮像画像の表示結果との概要説明図である。図18〜図20では、音圧値が下限から上限に向かって、閾値間に対応する音源視覚画像が、群青色画像、藍色画像、青色画像、水色画像、青緑画像、黄緑画像、黄色画像、橙色画像、赤色画像、紅色画像が使用されると規定されている。音圧値が最小(つまり下限)の場合には群青色画像が使用され、音圧値が最大(つまり上限)の場合には紅色画像が使用される。
(Second analysis method)
Before describing the second analysis method, as a matter common to FIGS. 18 to 20, in the present embodiment, a plurality of threshold widths that define the volume of sound stepwise will be described. FIG. 18 is a schematic explanatory diagram of threshold width adjustment according to the frequency distribution of sound pressure values and a captured image display result associated with the width adjustment in the second embodiment. In FIG. 18 to FIG. 20, sound source visual images corresponding to the threshold values from the lower limit toward the upper limit are a group blue image, an indigo image, a blue image, a light blue image, a blue-green image, a yellow-green image, It is specified that a yellow image, an orange image, a red image, and a red image are used. When the sound pressure value is minimum (that is, lower limit), the group blue image is used, and when the sound pressure value is maximum (that is, upper limit), the red image is used.

例えば図18紙面左側に示すように、音圧値の大きさに対応するように閾値が計10個規定されており、例えば図18紙面左側の例では、それぞれの音圧値の軸に設けられた目盛りがそれぞれ閾値に相当している。このため、この図18紙面左側の例では、音圧値がある閾値(例えば5)と次に大きい閾値(例えば6)との間に含まれる場合には、音圧ヒートマップの生成時には、その音圧値が含まれる閾値間に対応する色画像(例えば黄緑画像)がその音圧値を視覚的に示すための音源視覚画像として使用される。   For example, as shown on the left side of FIG. 18, a total of ten threshold values are defined so as to correspond to the magnitude of the sound pressure value. For example, in the example on the left side of FIG. Each scale corresponds to a threshold value. For this reason, in the example on the left side of FIG. 18, when the sound pressure value is included between a certain threshold value (for example, 5) and the next largest threshold value (for example, 6), A color image (for example, a yellow-green image) corresponding to a threshold value including a sound pressure value is used as a sound source visual image for visually indicating the sound pressure value.

第2の解析方法では、監視装置10の閾値調整部69bは、出力制御部35が全方位画像に対応する音圧ヒートマップを生成する際、全方位画像を構成する画素毎(画素の所定単位毎でも可。以下同様。)に算出した音圧値の発生頻度(言い換えると、度数分布)を基に、計10個の閾値又はその閾値間の幅を動的に変更する。つまり、閾値調整部69bは、複数の閾値と音源視覚画像との対応関係の設定を、全方位画像に応じて動的に変更する。例えば図18を参照すると、閾値調整部69bは、音圧値が閾値5〜閾値6の間であれば音源視覚画像として黄緑画像を使用する設定を保持していたが、音圧値が閾値5〜閾値6となる出現頻度が全方位画像の全体の画素の中で高い場合には、黄緑画像を使用するための閾値間の幅LG1(例えば閾値5〜閾値6)を、より狭くなった幅LG2(例えば閾値4.5〜閾値4.8)に変更する。   In the second analysis method, when the output control unit 35 generates the sound pressure heat map corresponding to the omnidirectional image, the threshold adjustment unit 69b of the monitoring device 10 is configured for each pixel constituting the omnidirectional image (a predetermined unit of pixels). Based on the frequency of occurrence of sound pressure values calculated in other ways (in other words, frequency distribution), a total of 10 threshold values or the width between the threshold values is dynamically changed. That is, the threshold adjustment unit 69b dynamically changes the setting of the correspondence between the plurality of thresholds and the sound source visual image according to the omnidirectional image. For example, referring to FIG. 18, if the sound pressure value is between the threshold value 5 and the threshold value 6, the threshold adjustment unit 69 b holds the setting for using the yellow-green image as the sound source visual image. When the appearance frequency of 5 to threshold 6 is high among all the pixels of the omnidirectional image, the width LG1 (for example, threshold 5 to threshold 6) between the thresholds for using the yellow-green image becomes narrower. Width LG2 (for example, threshold value 4.5 to threshold value 4.8).

従って、全方位画像を構成する画素毎の音圧値が特定の色画像が使用されるための閾値間の幅AR1に集中している場合には、図18紙面左下に示すように、音圧ヒートマップVMP1として、同一の色画像又は視覚的に似たような色画像(例えば黄緑画像と青緑画像)が音源視覚画像として使用されてしまい、全方位画像に出現する音源の分布をきめ細かくユーザに提示することが難しい。   Therefore, when the sound pressure values for each pixel constituting the omnidirectional image are concentrated in the width AR1 between the thresholds for using a specific color image, as shown in the lower left of FIG. As the heat map VMP1, the same color image or visually similar color images (for example, a yellow-green image and a blue-green image) are used as the sound source visual image, and the distribution of the sound source appearing in the omnidirectional image is finely defined. It is difficult to present to the user.

しかしながら、本実施形態の第2の解析方法によれば、監視装置10は、閾値調整部69bにより、全方位画像を構成する画素毎の音圧値の出現頻度(度数分布)に応じて、音源視覚画像と複数の閾値との対応関係の設定を動的に変更し、その変更を反映した上で全方位画像に対応する音圧ヒートマップVMP2を第1モニタMN1に表示する。これにより、監視装置10は、図18紙面右下に示すように、音圧ヒートマップVMP2として、きめ細かな音圧分布をユーザに対して提示でき、音源位置の分布をユーザにより正確に把握させることができる。   However, according to the second analysis method of the present embodiment, the monitoring apparatus 10 uses the threshold adjustment unit 69b to generate a sound source according to the appearance frequency (frequency distribution) of the sound pressure value for each pixel constituting the omnidirectional image. The setting of the correspondence relationship between the visual image and the plurality of threshold values is dynamically changed, and the sound pressure heat map VMP2 corresponding to the omnidirectional image is displayed on the first monitor MN1 after reflecting the change. As a result, the monitoring device 10 can present a fine sound pressure distribution to the user as the sound pressure heat map VMP2 as shown in the lower right of FIG. 18, and the user can accurately grasp the sound source position distribution. Can do.

(第3の解析方法)
第3の解析方法では、監視装置10は、操作部32を用いたユーザ操作により、音源視覚画像(つまり、色画像)の使用を規定するためのそれぞれの閾値の上限、下限又はその両方を任意に指定可能である。図19(A)及び(B)は、第2の実施形態における、音源視覚画像の使用を規定する閾値間の幅の設定変更の概要説明図である。
(Third analysis method)
In the third analysis method, the monitoring apparatus 10 arbitrarily sets an upper limit, a lower limit, or both of the respective thresholds for defining the use of the sound source visual image (that is, the color image) by a user operation using the operation unit 32. Can be specified. FIGS. 19A and 19B are schematic explanatory diagrams of the setting change of the width between the thresholds defining the use of the sound source visual image in the second embodiment.

例えば図19(A)では、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅が閾値9〜閾値10から、閾値6〜閾値10に変更され、さらに、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅が閾値0〜閾値1から、閾値0〜閾値2に変更されている。これにより、監視装置10は、残りの8個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   For example, in FIG. 19A, the width between thresholds (upper threshold) for defining the use of a sound source visual image (that is, a red image) indicating that the sound pressure value is the highest (that is, the upper limit) is the threshold. 9 to threshold value 10 to threshold value 6 to threshold value 10, and further to specify the use of a sound source visual image (that is, an ultramarine image) indicating that the sound pressure value is the lowest (that is, the lower limit). The width between the thresholds (lower threshold) is changed from threshold 0 to threshold 1 to threshold 0 to threshold 2. Accordingly, the monitoring device 10 dynamically changes the remaining eight threshold values so that the widths between the threshold values are equal, and is different from the width between the two threshold values changed by the user operation. Thus, the width between the threshold values can be changed.

また例えば図19(B)では、図19(A)に示すように変更された後に、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅が閾値6〜閾値10から、閾値9.3〜閾値10に変更され、さらに、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅が閾値0〜閾値2から、閾値0〜閾値5に変更されている。これにより、監視装置10は、同様に残りの8個の閾値について、図19(A)に示す例とはそれぞれの閾値は異なるが、残り8個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   Further, for example, in FIG. 19B, use of a sound source visual image (that is, a red image) indicating that the sound pressure value is the highest (that is, the upper limit) after being changed as illustrated in FIG. The threshold value for defining the threshold value (upper threshold value) is changed from threshold value 6 to threshold value 10 to threshold value 9.3 to threshold value 10, and further indicates that the sound pressure value is the lowest (that is, the lower limit). The width between threshold values (lower threshold values) for defining the use of the sound source visual image (that is, the group blue image) is changed from threshold value 0 to threshold value 2 to threshold value 0 to threshold value 5. As a result, the monitoring device 10 similarly sets the remaining eight threshold values so that the respective threshold values are different from the example shown in FIG. 19A, but the widths between the remaining eight threshold values are equal. The width between the threshold values can be changed so as to be different from the width between the two threshold values that are changed dynamically by a user operation.

また図19(A)及び(B)では、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅と、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅との両方が変更される例を説明したが、いずれか一方だけの変更においても同様である。   In FIGS. 19A and 19B, between the thresholds (upper thresholds) for defining the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit). And the width between the thresholds (lower threshold) to specify the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed. Although the example to be described was demonstrated, it is the same also in the change of either one.

つまり、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅のみが変更された場合には、監視装置10は、同様に残りの9個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   In other words, when only the width between the thresholds (upper threshold) for defining the use of the sound source visual image (that is, the red image) indicating the highest sound pressure value (that is, the upper limit) is changed Similarly, the monitoring device 10 dynamically changes so that the width between the remaining nine threshold values becomes equal, and the threshold value is different from the width between the single threshold values changed by the user operation. The width can be changed.

また、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅のみが変更された場合には、監視装置10は、同様に残りの9個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   Also, when only the width between the thresholds (lower threshold) for defining the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed. Similarly, the monitoring device 10 dynamically changes the widths between the remaining nine thresholds so that they are equally spaced, and the threshold values are different from the widths between the single thresholds changed by the user operation. The width of can be changed.

ここで、第3の解析方法による、閾値幅の設定変更に関する動作について、図20及び図21を参照して説明する。図20は、第2の実施形態における、紅色画像及び群青色画像の使用を規定する閾値間の幅の設定変更に伴う撮像画像の表示の概要説明図である。図21は、第2の実施形態における、閾値間の幅の設定変更の動作手順の一例を説明するフローチャートである。   Here, the operation related to the threshold width setting change according to the third analysis method will be described with reference to FIGS. FIG. 20 is a schematic explanatory diagram of display of a captured image in accordance with a setting change of a width between thresholds that defines use of a red color image and a group blue image in the second embodiment. FIG. 21 is a flowchart for explaining an example of an operation procedure for changing the setting of the width between thresholds in the second embodiment.

図20に示すように、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)と、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)とのそれぞれの使用を規定する閾値間の幅がともに変更されたとする。この場合、監視装置10では、閾値調整部69bは、図21に示すように、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブル(不図示、対応関係)の設定を動的に変更する。   As shown in FIG. 20, the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) and the sound pressure value that is the lowest (that is, the lower limit) are indicated. Assume that both the widths between the thresholds that define the use of the sound source visual image (that is, the group blue image) are changed. In this case, in the monitoring device 10, as shown in FIG. 21, the threshold adjustment unit 69b has a correspondence table (not shown, correspondence relationship) between the sound source visual image and the threshold value that defines the use of the sound source visual image or the width between the threshold values. Change the setting dynamically.

従って、監視装置10は、図20に示す例では、全方位画像(つまり、撮像画像)に重畳される音圧ヒートマップVMP2が紅色画像のみであったが、ユーザ操作により、きめ細かい色の種類の音源視覚画像を用いた音圧ヒートマップVMP2Aを生成し、その音圧ヒートマップVMP2Aを全方位画像(つまり、撮像画像)に重畳して第1モニタMN1に表示する。ユーザ操作は、例えば第1モニタMN1上に表示された閾値又は閾値間の幅の入力画面(不図示)に対する入力操作、又は第1モニタMN1上に表示された閾値間の幅の表示画面に対するドラッグ操作が該当するが、これらの操作に限定されない。   Therefore, in the example shown in FIG. 20, the monitoring device 10 has only a red image in the sound pressure heat map VMP2 superimposed on the omnidirectional image (that is, the captured image). A sound pressure heat map VMP2A using the sound source visual image is generated, and the sound pressure heat map VMP2A is superimposed on the omnidirectional image (that is, the captured image) and displayed on the first monitor MN1. The user operation is, for example, an input operation on an input screen (not shown) of a threshold value or a width between threshold values displayed on the first monitor MN1, or a drag on a display screen of a width between threshold values displayed on the first monitor MN1. Although applicable, it is not limited to these operations.

図21において、閾値調整部69bは、操作部32を用いたユーザ操作により、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S61)。音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更された場合(S61、YES)、閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S62)。   In FIG. 21, the threshold adjustment unit 69 b defines the use of a sound source visual image (that is, a red image) indicating that the sound pressure value is the highest (that is, the upper limit) by a user operation using the operation unit 32. It is determined whether or not the width between the thresholds has been changed (S61). When the width between the thresholds that defines the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) is changed (S61, YES), the threshold adjustment unit 69b Then, it is determined whether or not the width between the thresholds for defining the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed (S62).

閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更された場合に(S62、YES)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S63)。例えば閾値調整部69bは、残りの8個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値と群青色画像の使用を規定する閾値との間の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   The threshold adjustment unit 69b changes the width between the thresholds that regulates the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) (S62, YES), in accordance with the change result, the correspondence table between the sound source visual image and the threshold value defining the use of the sound source visual image or the width between the threshold values is corrected (S63). For example, the threshold value adjustment unit 69b dynamically changes the remaining eight threshold values so that the widths between the threshold values are equal to each other, and is different from the width between the two threshold values changed by the user operation. Change the width between thresholds. Thereby, for example, when a large number of sound pressure values between the threshold value that defines the use of the red color image and the threshold value that defines the use of the ultramarine image are obtained, the monitoring apparatus 10 can obtain a width between the threshold values by the user. Through the adjustment operation, the distribution around the pixel where many sound pressure values are concentrated can be displayed as a fine sound pressure heat map.

閾値調整部69bは、音圧値が最も低い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されない場合に(S62、NO)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S64)。例えば閾値調整部69bは、残りの9個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値以下の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   The threshold adjustment unit 69b determines that the width between the thresholds defining the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the lowest (that is, the upper limit) is not changed (S62, NO). Depending on the change result, the correspondence table between the sound source visual image and the threshold value that defines the use of the sound source visual image or the width between the threshold values is corrected (S64). For example, the threshold adjustment unit 69b dynamically changes the remaining nine thresholds so that the widths between the thresholds are equally spaced, so that the width between the single thresholds changed by the user operation is different. Change the width between thresholds. Thereby, for example, when many sound pressure values less than or equal to a threshold value that regulates the use of a red image are obtained, the monitoring apparatus 10 concentrates a large number of sound pressure values by adjusting the width between the threshold values by the user. It is possible to display the distribution around the pixel in detail as a sound pressure heat map.

一方、ステップS61において、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されない場合(S61、NO)、閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S65)。なお、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されない場合には(S65、NO)、閾値調整部69bの処理はステップS61に戻る。   On the other hand, in step S61, when the width between the thresholds that regulates the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) is not changed (S61, NO), The threshold adjustment unit 69b determines whether or not the width between the thresholds defining use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) has been changed. (S65). In addition, when the width between the threshold values defining use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is not changed (S65, NO), the threshold value is changed. The process of the adjustment unit 69b returns to step S61.

閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更された場合に(S65、YES)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S66)。例えば閾値調整部69bは、残りの9個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば群青色画像の使用を規定する閾値以上の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   When the width between the thresholds that regulates the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed (S65, YES), in accordance with the change result, the correspondence table between the sound source visual image and the threshold value defining the use of the sound source visual image or the width between the threshold values is corrected (S66). For example, the threshold adjustment unit 69b dynamically changes the remaining nine thresholds so that the widths between the thresholds are equally spaced, so that the width between the single thresholds changed by the user operation is different. Change the width between thresholds. Thereby, for example, when many sound pressure values greater than or equal to a threshold value that regulates the use of the group blue image are obtained, the monitoring apparatus 10 can obtain a large number of sound pressure values by adjusting the width between the threshold values by the user. The distribution around the concentrated pixels can be displayed as a fine sound pressure heat map.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG2)を構成する画素の所定単位毎に算出する。監視装置10は、音圧の算出値と音の大きさに関する複数の閾値との比較に応じて、音圧を異なる視覚画像に段階的に変換した音源視覚画像を、撮像画像を構成する画素の所定単位毎に重畳して第1モニタMN1に表示する。監視装置10は、音源視覚画像が重畳された撮像画像の中でいずれかの音源位置が指定されると、その音源位置を含む矩形範囲を構成する画素の所定単位を撮像画像と矩形範囲とのサイズ比で除した値毎に、音圧を算出する。   As described above, in the unmanned air vehicle detection system 5 of the present embodiment, the monitoring device 10 monitors the sound pressure that specifies the sound level of the monitoring area 8 using the sound data collected by the microphone array MAk. Calculation is performed for each predetermined unit of pixels constituting the captured image (omnidirectional image IMG2) of area 8. According to the comparison between the calculated sound pressure value and a plurality of threshold values relating to the sound volume, the monitoring device 10 converts the sound source visual image obtained by stepwise conversion of the sound pressure into different visual images of the pixels constituting the captured image. The information is displayed on the first monitor MN1 in a superimposed manner for each predetermined unit. When any sound source position is specified in the captured image on which the sound source visual image is superimposed, the monitoring device 10 determines a predetermined unit of pixels constituting the rectangular range including the sound source position between the captured image and the rectangular range. Sound pressure is calculated for each value divided by the size ratio.

これにより、監視装置10は、ユーザ操作により指定された矩形範囲(つまり、切り出し範囲)の音圧ヒートマップを、単に切り出した時の音圧ヒートマップにおける表示解像度よりもきめ細かい分解能(単位)で高精度に第1モニタMN1に表示することができ、ユーザに対して、ユーザ操作により指定された切り出し範囲における音源の分布の詳細をより正確に把握させることができる。言い換えると、監視装置10は、全方位カメラCAkの監視エリア8で検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資することができる。   As a result, the monitoring apparatus 10 can increase the sound pressure heat map in the rectangular range (that is, the cutout range) designated by the user operation with a finer resolution (unit) than the display resolution in the sound pressure heat map when the cutout is simply cut out. The information can be displayed on the first monitor MN1 with high accuracy, and the user can be made to grasp the details of the distribution of the sound source in the clipping range designated by the user operation more accurately. In other words, the monitoring device 10 presents the sound level at the sound source position in a fine and stepwise manner regardless of the sound level at the sound source position detected in the monitoring area 8 of the omnidirectional camera CAk. This can contribute to the accurate grasp of the sound volume at the sound source position to the user.

また、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG2)を構成する画素の所定単位毎に算出する。監視装置10は、音の大きさを段階的に規定する複数の閾値の各閾値と、各閾値との比較に応じて音圧が異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、監視エリア8の撮像画像(つまり、全方位画像)に応じて動的に変更する。監視装置10は、音圧の算出値と変更された対応関係の設定とを基に、撮像画像を構成する画素の所定単位毎に、音圧の算出値に対応する音源視覚画像を撮像画像に重畳して第1モニタMN1に表示する。   Further, in the unmanned air vehicle detection system 5 of the present embodiment, the monitoring device 10 uses the audio data collected by the microphone array MAk to determine the sound pressure that specifies the loudness of the monitoring area 8. It calculates for every predetermined unit of the pixel which comprises the eight captured images (omnidirectional image IMG2). The monitoring apparatus 10 corresponds to each threshold value of a plurality of threshold values that prescribes the volume of sound in a stepwise manner and a sound source visual image that is converted stepwise into visual images having different sound pressures in accordance with comparison with each threshold value. The setting of the relationship is dynamically changed according to the captured image (that is, the omnidirectional image) of the monitoring area 8. The monitoring apparatus 10 uses the sound source visual image corresponding to the calculated sound pressure value as the captured image for each predetermined unit of the pixels constituting the captured image based on the calculated sound pressure value and the changed setting of the correspondence relationship. The information is superimposed and displayed on the first monitor MN1.

これにより、監視装置10は、全方位カメラCAkにより撮像された撮像画像に応じて、監視エリア8で収音された音源の位置を視覚的に示すための音圧ヒートマップとして、きめ細かな音圧分布をユーザに対して提示でき、音源位置の分布をユーザにより正確に把握させることができる。   As a result, the monitoring device 10 uses a fine sound pressure as a sound pressure heat map for visually indicating the position of the sound source picked up in the monitoring area 8 according to the captured image captured by the omnidirectional camera CAk. The distribution can be presented to the user, and the distribution of the sound source position can be accurately grasped by the user.

また、監視装置10の閾値調整部69bは、監視エリア8の撮像画像を構成する画素の所定単位毎の音圧の出現頻度を基に、音源視覚画像を規定する各閾値間の幅を変更する。これにより、監視装置10は、出現頻度の高い音圧算出値に対応する画素には音源視覚画像の種類を増加し、一方、出現頻度の低い音圧算出値に対応する画素には音源視覚画像の種類を減少した上で音圧ヒートマップを生成するので、単調な色合いではなく、きめ細かく多様な色合いの音圧分布を提示でき、音源位置の分布をユーザにより正確に把握させることができる。   Further, the threshold adjustment unit 69b of the monitoring device 10 changes the width between the thresholds that define the sound source visual image based on the appearance frequency of the sound pressure for each predetermined unit of the pixels constituting the captured image of the monitoring area 8. . As a result, the monitoring device 10 increases the type of the sound source visual image for the pixel corresponding to the sound pressure calculation value having a high appearance frequency, while the sound source visual image is applied to the pixel corresponding to the sound pressure calculation value having a low appearance frequency. Since the sound pressure heat map is generated after the number of types is reduced, it is possible to present sound pressure distributions of fine and diverse shades instead of monotonous shades, and the distribution of sound source positions can be accurately grasped by the user.

また、監視装置10の閾値調整部69bは、音圧の上限値に対応する音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅の変更操作に応じて、その幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値以下の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   Further, the threshold adjustment unit 69b of the monitoring device 10 changes its width in accordance with an operation for changing the width between the thresholds that regulates the use of the sound source visual image (that is, the red image) corresponding to the upper limit value of the sound pressure. The widths between all other thresholds except for the width between the thresholds after are changed equally. Thereby, for example, when many sound pressure values less than or equal to a threshold value that regulates the use of a red image are obtained, the monitoring apparatus 10 concentrates a large number of sound pressure values by adjusting the width between the threshold values by the user. It is possible to display the distribution around the pixel in detail as a sound pressure heat map.

また、監視装置10の閾値調整部69bは、音圧の下限値に対応する音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅の変更操作に応じて、その幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば群青色画像の使用を規定する閾値以上の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   In addition, the threshold adjustment unit 69b of the monitoring device 10 changes its width according to an operation of changing the width between thresholds that regulates the use of the sound source visual image (that is, the group blue image) corresponding to the lower limit value of the sound pressure. The widths between all other thresholds except for the width between the thresholds after being changed are uniformly changed. Thereby, for example, when many sound pressure values greater than or equal to a threshold value that regulates the use of the group blue image are obtained, the monitoring apparatus 10 can obtain a large number of sound pressure values by adjusting the width between the threshold values by the user. The distribution around the concentrated pixels can be displayed as a fine sound pressure heat map.

また、監視装置10の閾値調整部69bは、音圧の上限値に対応する音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅と音圧の下限値に対応する音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅の変更操作に応じて、それらの幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値と群青色画像の使用を規定する閾値との間の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   Further, the threshold adjustment unit 69b of the monitoring device 10 has a sound source visual image corresponding to the width between the thresholds that defines the use of the sound source visual image (that is, the red image) corresponding to the upper limit value of the sound pressure and the lower limit value of the sound pressure. (In other words, according to the operation of changing the width between the thresholds that regulates the use of the ultramarine image), the width between all other thresholds is changed equally except for the width between the thresholds after the width is changed. To do. Thereby, for example, when a large number of sound pressure values between the threshold value that defines the use of the red color image and the threshold value that defines the use of the ultramarine image are obtained, the monitoring apparatus 10 can obtain a width between the threshold values by the user. Through the adjustment operation, the distribution around the pixel where many sound pressure values are concentrated can be displayed as a fine sound pressure heat map.

(第3の実施形態に至る経緯)
上述した特許文献1では、監視領域内の任意の方向に撮影方向を変向可能な監視カメラが設けられており、ヘリコプターやセスナ等の飛行物体が検出されると、この監視カメラの撮影方向を変向させることは開示されている。言い換えると、検出された飛行物体を注目して撮像するために、監視カメラの撮影方向を変向することは開示されている。
(Background to the third embodiment)
In Patent Document 1 described above, a monitoring camera capable of changing the shooting direction in an arbitrary direction within the monitoring area is provided. When a flying object such as a helicopter or a Cessna is detected, the shooting direction of the monitoring camera is changed. Turning is disclosed. In other words, it has been disclosed to change the shooting direction of the surveillance camera in order to capture an image of a detected flying object.

しかしながら、上述した特許文献1には、撮像エリアに対するカメラ装置の画角の範囲内で検知された無人飛行体を含む周囲の撮像画像を広範に表示することは考慮されていない。このため、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、ユーザにとって視覚的に提示することはできないという課題があった。   However, the above-described Patent Document 1 does not consider displaying a wide range of captured images including unmanned aerial vehicles detected within the range of the angle of view of the camera device with respect to the imaging area. For this reason, the unmanned flying object is detected in the imaging area of the camera device, and what kind of sound source is present in other locations in the same imaging area is visually presented to the user. There was a problem that it was not possible.

そこで、第3の実施形態では、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、カメラ装置の撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示するモニタリングシステムの例について説明する。   Therefore, in the third embodiment, the unmanned flying object is detected in the imaging area of the camera device, and what kind of sound source exists elsewhere in the same imaging area. An example of a monitoring system that visually presents to a user without degrading the visibility of a captured image of the apparatus will be described.

(第3の実施形態)
第3の実施形態において、無人飛行体検知システム5を構成する各装置の内部構成は第1の実施形態の無人飛行体検知システム5を構成する各装置の内部構成を同様であるため、同一の内容については同一の符号を付して説明を省略し、異なる内容について説明する。
(Third embodiment)
In 3rd Embodiment, since the internal structure of each apparatus which comprises the unmanned air vehicle detection system 5 of 1st Embodiment is the same as that of each apparatus which comprises the unmanned air vehicle detection system 5 of 1st Embodiment, it is the same. The contents are denoted by the same reference numerals, description thereof is omitted, and different contents are described.

第3の実施形態では、監視装置10は、第1の実施形態において説明した音圧ヒートマップ(音パラメータマップ)を生成した後、その音圧ヒートマップの半透明画像(半透明マップ)となる半透明音圧ヒートマップを生成し、この半透明音圧ヒートマップを全方位画像に重畳して第1モニタMN1に表示する(図22参照)。図22は、第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の概要説明図である。   In the third embodiment, the monitoring device 10 generates the sound pressure heat map (sound parameter map) described in the first embodiment, and then becomes a translucent image (semi-transparent map) of the sound pressure heat map. A translucent sound pressure heat map is generated, and this translucent sound pressure heat map is superimposed on the omnidirectional image and displayed on the first monitor MN1 (see FIG. 22). FIG. 22 is a schematic explanatory diagram of overlay display of an omnidirectional image and a translucent sound pressure heat map in the third embodiment.

本実施形態では、監視装置10は、図22に示すように、全方位カメラCAkにより撮像された全方位画像IMG1を第1モニタMN1に表示する。また、監視装置10は、全方位画像IMG1を構成する画素毎又はその画素の所定単位毎に算出した音圧値を異なる視覚画像に段階的に変換した音源視覚画像を用いて、全方位画像IGM1に対応する音圧ヒートマップを生成し、さらに、この音圧ヒートマップを半透明画像に変換した半透明音圧ヒートマップTRL1を生成して第2モニタMN2に表示する。   In the present embodiment, as shown in FIG. 22, the monitoring apparatus 10 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk on the first monitor MN1. Further, the monitoring apparatus 10 uses the sound source visual image obtained by stepwise converting the sound pressure value calculated for each pixel constituting the omnidirectional image IMG1 or for each predetermined unit of the pixel into different visual images, and thereby using the omnidirectional image IGM1. And a translucent sound pressure heat map TRL1 obtained by converting the sound pressure heat map into a translucent image is generated and displayed on the second monitor MN2.

なお、図22では、監視装置10は、全方位画像IMG1を第1モニタMN1、半透明音圧ヒートマップTRL1を第2モニタMN2と別々のモニタに表示しているが、全方位画像IMG1において、例えばウインドウに全方位画像IMG1を表示し、別のウインドウに半透明音圧ヒートマップTRL1を表示してもよい。   In FIG. 22, the monitoring device 10 displays the omnidirectional image IMG1 on the first monitor MN1 and the translucent sound pressure heat map TRL1 on a separate monitor from the second monitor MN2, but in the omnidirectional image IMG1, For example, the omnidirectional image IMG1 may be displayed in the window, and the translucent sound pressure heat map TRL1 may be displayed in another window.

さらに、監視装置10は、全方位画像IMG1に半透明音圧ヒートマップTRL1を重畳した全方位画像IMG1Aを第1モニタMN1に表示する(図23参照)。図23は、全方位画像IMG1と半透明音圧ヒートマップTRL1とがオーバーレイ表示された第1モニタMN1の表示画面例を示す図である。   Furthermore, the monitoring apparatus 10 displays an omnidirectional image IMG1A in which the translucent sound pressure heat map TRL1 is superimposed on the omnidirectional image IMG1 on the first monitor MN1 (see FIG. 23). FIG. 23 is a diagram illustrating a display screen example of the first monitor MN1 in which the omnidirectional image IMG1 and the translucent sound pressure heat map TRL1 are displayed in an overlay manner.

図23では、第1モニタMN1において、全方位画像IMG1Aの図23紙面の右上側に、監視装置10により検知された無人飛行体dnが映っている。さらに、無人飛行体dnや、全方位カメラCAkの撮像画角の範囲内において発生している音源にそれぞれ対応する半透明音圧ヒートマップが重畳されて表示されている。   In FIG. 23, in the first monitor MN1, the unmanned air vehicle dn detected by the monitoring device 10 is shown on the upper right side of the omnidirectional image IMG1A in FIG. Further, semi-transparent sound pressure heat maps corresponding to the unmanned air vehicle dn and the sound source generated within the range of the imaging field angle of the omnidirectional camera CAk are superimposed and displayed.

図24を参照して説明するように、本実施形態では、音源方向検知部34により算出された画素毎の音圧値が第1閾値th1以下であれば無色の半透明色(つまり、無色)で表示され、音圧値が第1閾値th1より大きくかつ第2閾値th2以下であれば青色の半透明色で表示され、音圧値が第2閾値th2より大きくかつ第3閾値th3以下であればピンク色の半透明色で表示され、音圧値が第3閾値th3より大きければ赤色の半透明色で表示されている。   As described with reference to FIG. 24, in this embodiment, if the sound pressure value for each pixel calculated by the sound source direction detection unit 34 is equal to or less than the first threshold th1, a colorless translucent color (that is, colorless) is used. If the sound pressure value is greater than the first threshold th1 and less than or equal to the second threshold th2, it is displayed in a blue translucent color, and the sound pressure value is greater than the second threshold th2 and less than or equal to the third threshold th3. If the sound pressure value is larger than the third threshold th3, it is displayed in a red translucent color.

図23では、例えば無人飛行体dnの筐体中心の周囲の回転翼やロータ付近では音圧値が第3閾値th3より大きいため、半透明赤領域RD1A,RD2A,RD3A,RD4Aで描画されている。同様に、半透明赤領域の周囲には、半透明赤領域の次に音圧値が大きいことを示す半透明ピンク領域PD1A,PD2A,PD3A,PD4Aが描画されている。同様に、さらに半透明ピンク領域の周囲には、半透明ピンク領域の次に音圧値が大きいことを示す半透明青領域BD1A,BD2A,BD3A,BD4Aが描画されている。   In FIG. 23, for example, the sound pressure value is larger than the third threshold th3 in the vicinity of the rotor wing and the rotor around the housing center of the unmanned air vehicle dn, so that the unillustrated aircraft dn is drawn in the translucent red regions RD1A, RD2A, RD3A, and RD4A. . Similarly, semi-transparent pink areas PD1A, PD2A, PD3A, and PD4A indicating that the sound pressure value is next to the semi-transparent red area are drawn around the semi-transparent red area. Similarly, semi-transparent blue areas BD1A, BD2A, BD3A, and BD4A are drawn around the semi-transparent pink area and indicate that the sound pressure value is the second highest after the semi-transparent pink area.

また、図23では、オフィスビルにおいても音源が存在していることが示されており、音源方向検知部34により算出された画素毎の音圧値が第3閾値th3を超えている画素又はその集合に対しては半透明赤領域R1A,R2A,R3A,R4A,R5A,R6A,R7Aが描画されている。同様に、オフィスビルの半透明赤領域の周囲には、半透明赤領域の次に音圧値が大きいことを示す半透明ピンク領域P1A,P2A,P3A,P4A,P5Aが描画されている。同様に、オフィスビルの半透明ピンク領域の周囲には、半透明ピンク領域の次に音圧値が大きいことを示す半透明青領域B1A,B2Aが描画されている。なお、全方位画像IMG1Aのその他の領域では、音圧値が第1閾値th1以下であるため、無色領域で描画されている。   FIG. 23 also shows that a sound source exists in an office building, and the sound pressure value for each pixel calculated by the sound source direction detecting unit 34 exceeds the third threshold th3 or its pixel. Translucent red regions R1A, R2A, R3A, R4A, R5A, R6A, and R7A are drawn for the set. Similarly, semi-transparent pink areas P1A, P2A, P3A, P4A, and P5A indicating that the sound pressure value is next to the semi-transparent red area are drawn around the semi-transparent red area of the office building. Similarly, semi-transparent blue areas B1A and B2A indicating that the sound pressure value is next to the semi-transparent pink area are drawn around the semi-transparent pink area of the office building. In the other areas of the omnidirectional image IMG1A, since the sound pressure value is equal to or less than the first threshold th1, the area is drawn in a colorless area.

このように、本実施形態では、監視装置10は、第1の実施形態とは異なる半透明音圧ヒートマップTRL1を全方位画像IMG1に重畳して第1モニタMN1に表示するので、全方位画像IMG1に出現する音源の位置やその位置における音の大きさを視覚的にユーザに判別させることができ、さらに、全方位画像IMG1の視認性も劣化させないことができる。   As described above, in the present embodiment, the monitoring device 10 displays the translucent sound pressure heat map TRL1 different from that in the first embodiment on the omnidirectional image IMG1 and displays it on the first monitor MN1. The user can visually determine the position of the sound source that appears in the IMG 1 and the volume of the sound at that position, and the visibility of the omnidirectional image IMG 1 can be prevented from being deteriorated.

次に、本実施形態の無人飛行体検知システム5の動作について、図24を参照して詳細に説明する。   Next, operation | movement of the unmanned air vehicle detection system 5 of this embodiment is demonstrated in detail with reference to FIG.

図24は、第3の実施形態における、全方位画像IMG1と半透明音圧ヒートマップTRL1とのオーバーレイ表示の動作手順の一例を説明するシーケンス図である。無人飛行体検知システム5の各装置(例えば第1モニタMN1、監視装置10、全方位カメラCAk、マイクアレイMAk)にそれぞれ電源が投入されると、無人飛行体検知システム5は動作を開始する。また、図24の説明では、第1の実施形態において説明したマスキングエリアを用いてもよいし用いなくてもよい。図24では例えばマスキングエリアを用いる場合を例示して説明する。マスキングエリアを用いる場合には、そのマスキングエリアを示す情報はメモリ38に登録されているとする。   FIG. 24 is a sequence diagram illustrating an example of an operation procedure for overlay display of the omnidirectional image IMG1 and the translucent sound pressure heat map TRL1 in the third embodiment. When the power of each device (for example, the first monitor MN1, the monitoring device 10, the omnidirectional camera CAk, and the microphone array MAk) of the unmanned air vehicle detection system 5 is turned on, the unmanned air vehicle detection system 5 starts its operation. In the description of FIG. 24, the masking area described in the first embodiment may or may not be used. For example, FIG. 24 illustrates a case where a masking area is used. When a masking area is used, it is assumed that information indicating the masking area is registered in the memory 38.

監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(S71)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(S72)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。   The monitoring apparatus 10 makes an image distribution request to the omnidirectional camera CAk (S71). The omnidirectional camera CAk starts imaging processing according to power-on in accordance with this image distribution request. In addition, the monitoring apparatus 10 makes a voice distribution request to the microphone array MAk (S72). The microphone array MA starts sound collection processing in response to power-on in accordance with the voice distribution request.

初期動作が終了すると、全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(S73)。なお、図24では説明を簡単にするために、全方位カメラCAkから全方位画像データが送信されるとして説明しているが、2次元パノラマ画像データが送信されてもよい。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(S74)。第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータ(図22紙面左上参照)を表示する。   When the initial operation ends, the omnidirectional camera CAk transmits data of omnidirectional images (for example, still images and moving images) obtained by imaging to the monitoring apparatus 10 via the network NW (S73). In FIG. 24, for the sake of simplicity of explanation, it is assumed that omnidirectional image data is transmitted from the omnidirectional camera CAk, but two-dimensional panoramic image data may be transmitted. The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk into display data such as NTSC, and outputs it to the first monitor MN1 to instruct the display of the omnidirectional image data (S74). When the display data transmitted from the monitoring apparatus 10 is input, the first monitor MN1 displays the omnidirectional image IMG1 data (see the upper left of FIG. 22) from the omnidirectional camera CAk on the screen.

また、マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(S75)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出し、さらに、監視エリア8内の音源位置を推定する(S76)。この推定された音源位置は、監視装置10が無人飛行体dnを検知する際、初期の指向方向が設定されるために必要となる指向範囲BF1の基準位置として使用される。   Further, the microphone array MAk encodes the audio data of the monitoring area 8 obtained by sound collection via the network NW and transmits the encoded audio data to the monitoring device 10 (S75). In the monitoring device 10, the sound source direction detection unit 34 configures omnidirectional image data in the monitoring area 8 based on the omnidirectional image data captured by the omnidirectional camera CAk and the audio data collected by the microphone array MAk. The sound pressure as the sound parameter is calculated for each pixel to be calculated, and the sound source position in the monitoring area 8 is estimated (S76). This estimated sound source position is used as a reference position of the directivity range BF1 necessary for setting the initial directivity direction when the monitoring apparatus 10 detects the unmanned air vehicle dn.

また、監視装置10では、出力制御部35が、音源方向検知部34により算出された全方位画像データを構成する画素毎の音圧値を用いて、全方位画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図22紙面右上に示すような半透明音圧ヒートマップを生成する(S77)。半透明音圧ヒートマップの生成方法は、例えば出力制御部35が第1次的に音圧ヒートマップ(図9のステップS7参照)を生成し、第2次的にその音圧ヒートマップを半透明処理することで、半透明音圧ヒートマップを生成するという手順である。   Further, in the monitoring device 10, the output control unit 35 uses the sound pressure value for each pixel that configures the omnidirectional image data calculated by the sound source direction detection unit 34, to configure each omnidirectional image data. For each pixel, a sound pressure map in which a calculated value of sound pressure is assigned to the position of the corresponding pixel is generated. Furthermore, the output control unit 35 performs a color conversion process on the sound pressure value for each pixel of the generated sound pressure map to a visual image (for example, a colored image) so that the user can visually and easily discriminate. A translucent sound pressure heat map as shown in the upper right of FIG. 22 is generated (S77). For example, the output control unit 35 firstly generates a sound pressure heat map (see step S7 in FIG. 9) and secondarily generates the sound pressure heat map semi-transparently. This is a procedure of generating a translucent sound pressure heat map by performing transparent processing.

さらに、監視装置10では、信号処理部33が、ステップS75においてマイクアレイMAkから送信された音声データを用いて、マスキングエリア設定部69aにより設定されたマスキングエリアの領域外に対して順次指向性を形成することで、指向性を形成した指向方向毎に無人飛行体dnの検知判定を行う(S78)。この無人飛行体dnの検知判定処理の詳細については、図10及び図11を参照して説明したので、ここでは説明を割愛する。   Further, in the monitoring apparatus 10, the signal processing unit 33 uses the audio data transmitted from the microphone array MAk in step S75 to sequentially provide directivity to the outside of the masking area set by the masking area setting unit 69a. By forming, detection determination of the unmanned air vehicle dn is performed for each directivity direction in which directivity is formed (S78). Since the details of the detection determination process for the unmanned air vehicle dn have been described with reference to FIGS. 10 and 11, the description thereof is omitted here.

検知判定処理の結果、無人飛行体dnが検知された場合、監視装置10内の出力制御部35は、第1モニタMN1の画面に表示された全方位画像IMG1に、ステップS77において生成した半透明音圧ヒートマップ、並びにステップS78において検知した指向方向に存在する無人飛行体dnを表す識別マーク(不図示)を重畳して表示することを指示する(S79)。   As a result of the detection determination process, when the unmanned air vehicle dn is detected, the output control unit 35 in the monitoring device 10 generates the translucent image generated in step S77 in the omnidirectional image IMG1 displayed on the screen of the first monitor MN1. An instruction is given to superimpose the sound pressure heat map and an identification mark (not shown) representing the unmanned air vehicle dn present in the pointing direction detected in step S78 (S79).

第1モニタMN1は、監視装置10からの指示に従い、全方位画像IMG1に、半透明音圧ヒートマップを合成(重畳)して表示するとともに、無人飛行体dnを表す識別マーク(不図示)を合成(重畳)して表示する(S80)。この後、無人飛行体検知システム5の処理はステップS73に戻り、例えば電源がオフに操作される等の所定のイベントが検知されるまで、ステップS73〜S80の各処理が繰り返される。   The first monitor MN1 synthesizes (superimposes) and displays a translucent sound pressure heat map on the omnidirectional image IMG1 according to an instruction from the monitoring device 10, and also displays an identification mark (not shown) representing the unmanned air vehicle dn. Combined (superimposed) and displayed (S80). Thereafter, the process of the unmanned air vehicle detection system 5 returns to step S73, and the processes of steps S73 to S80 are repeated until a predetermined event is detected, for example, the power is turned off.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG1)を構成する画素の所定単位毎に算出する。監視装置10は、音圧の算出値と音の大きさに関する閾値との比較に応じて、画素の所定単位毎の、音圧を視覚画像に変換した音源視覚画像を、監視エリア8の全方位画像の大きさに対応するように連結した半透明音圧ヒートマップを生成する。監視装置10は、半透明音圧ヒートマップを監視エリア8の撮像画像に重畳して第1モニタMN1に表示する。   As described above, in the unmanned air vehicle detection system 5 of the present embodiment, the monitoring device 10 monitors the sound pressure that specifies the sound level of the monitoring area 8 using the sound data collected by the microphone array MAk. Calculation is performed for each predetermined unit of pixels constituting the captured image (omnidirectional image IMG1) of area 8. The monitoring device 10 converts the sound source visual image obtained by converting the sound pressure into a visual image for each predetermined unit of pixels in all directions of the monitoring area 8 according to the comparison between the calculated value of the sound pressure and the threshold value related to the sound volume. A translucent sound pressure heat map connected so as to correspond to the size of the image is generated. The monitoring device 10 superimposes the translucent sound pressure heat map on the captured image of the monitoring area 8 and displays it on the first monitor MN1.

これにより、無人飛行体検知システム5では、全方位カメラCAkの監視エリア8内のどのような場所で無人飛行体が検知され、同じ監視エリア8内で他にどのような場所でどんな音源が存在しているかを、全方位カメラCAkの撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示することができる。   Thereby, in the unmanned air vehicle detection system 5, the unmanned air vehicle is detected at any location within the monitoring area 8 of the omnidirectional camera CAk, and any other sound source is present at any other location within the same monitoring area 8. This can be visually presented to the user without degrading the visibility of the captured image of the omnidirectional camera CAk.

また、音の大きさに関する閾値は複数設けられ、監視装置10は、音圧と複数の閾値との比較に応じて、画素の所定単位毎の、音圧を異なる視覚画像に段階的に変換した音源視覚画像を用いて、複数種類の音源視覚画像を有する半透明音圧ヒートマップを生成する。これにより、監視装置10は、全方位カメラCAkにより撮像された全方位画像の中で、複数の閾値によって規定される複数種類の段階を有する音圧の存在を、視覚的な音源視覚画像によって、ユーザに対してより一層明示的に判別させることができる。   Further, a plurality of threshold values relating to the volume of sound are provided, and the monitoring device 10 converts the sound pressure for each predetermined unit of pixels into different visual images step by step according to the comparison between the sound pressure and the plurality of threshold values. Using the sound source visual image, a translucent sound pressure heat map having a plurality of types of sound source visual images is generated. As a result, the monitoring device 10 uses the visual sound source visual image to indicate the presence of sound pressure having a plurality of types of stages defined by a plurality of thresholds in the omnidirectional image captured by the omnidirectional camera CAk. It is possible to make the user more explicitly discriminate.

また、本実施形態においても、監視装置10は、第1の実施形態において説明したマスキングエリアを設定し、マイクアレイMAkにより収音された音声データとマスキングエリアを示す情報とを用いて、マスキングエリア外において無人飛行体を検知する。監視装置10は、マスキングエリア外で無人飛行体を検知した場合に、全方位画像中の無人飛行体の周囲(言い換えると、無人飛行体の音源位置)に、無人飛行体から出ている音の大きさを示す音源視覚画像を半透明化して第1モニタMN1に表示する。これにより、監視装置10は、マスキングエリア内を無人飛行体の検知対象から除外できるので、マスキングエリアの検知精度の劣化を抑制でき、無人飛行体の検知スピードも向上できる。また、監視装置10は、マスキングエリア外で検知した無人飛行体dnの音源位置に、無人飛行体から出ている音の大きさのレベルを音源視覚画像の半透明化画像によってその大きさだけでなく、周囲の撮像画像の視認性を劣化させないことができる。   Also in this embodiment, the monitoring apparatus 10 sets the masking area described in the first embodiment, and uses the audio data collected by the microphone array MAk and the information indicating the masking area to use the masking area. Detect unmanned air vehicles outside. When the monitoring device 10 detects an unmanned aerial vehicle outside the masking area, the sound of the sound emitted from the unmanned aerial vehicle around the unmanned air vehicle in the omnidirectional image (in other words, the sound source position of the unmanned air vehicle) is detected. The sound source visual image indicating the size is made translucent and displayed on the first monitor MN1. Thereby, since the monitoring apparatus 10 can exclude the inside of a masking area from the detection target of an unmanned air vehicle, it can suppress the deterioration of the detection accuracy of a masking area, and can also improve the detection speed of an unmanned air vehicle. In addition, the monitoring device 10 can detect the level of the sound level emitted from the unmanned air vehicle at the sound source position of the unmanned air vehicle dn detected outside the masking area, using the translucent image of the sound source visual image. In addition, the visibility of surrounding captured images can be prevented from being deteriorated.

また、本実施形態においても、監視装置10は、音の大きさを段階的に規定する複数の閾値の各閾値と複数種類の音源視覚画像との対応関係の設定を、撮像エリアの撮像画像に応じて変更する。監視装置10は、音圧の算出値と変更された対応関係とを基に、画素の所定単位毎の音源視覚画像を撮像エリアの撮像画像の大きさに対応するように連結した半透明音圧ヒートマップを生成する。これにより、監視装置10は、全方位カメラCAkにより撮像された全方位画像(撮像画像)の内容に応じて、その撮像画像を構成する画素毎又は画素の所定単位毎に得た音圧の算出値とその音圧の算出値に対応する音源視覚画像との対応関係を可変にできる。従って、監視装置10は、例えば特定の音圧算出値が集中している箇所では、その辺りでの音源視覚画像を単一色の音源視覚画像ではなく複数種類色の音源視覚画像を用いて、より鮮明かつきめ細かに撮像画像に現れた音源における音の大きさの分布をユーザに対して詳細に把握させることができる。   Also in the present embodiment, the monitoring device 10 sets the correspondence relationship between each threshold value of a plurality of threshold values that defines the volume of sound step by step and a plurality of types of sound source visual images in the captured image of the imaging area. Change accordingly. Based on the calculated sound pressure value and the changed correspondence, the monitoring apparatus 10 connects the sound source visual image for each predetermined unit of the pixel so as to correspond to the size of the captured image in the imaging area. Generate a heat map. Thereby, the monitoring apparatus 10 calculates the sound pressure obtained for each pixel or for each predetermined unit of the pixel constituting the captured image according to the content of the omnidirectional image (captured image) captured by the omnidirectional camera CAk. The correspondence between the value and the sound source visual image corresponding to the calculated value of the sound pressure can be made variable. Therefore, for example, in a place where specific sound pressure calculation values are concentrated, the monitoring device 10 uses a plurality of types of sound source visual images instead of a single color sound source visual image as a sound source visual image in the vicinity. It is possible to allow the user to grasp in detail the distribution of the loudness of the sound source that appears in the captured image clearly and finely.

以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   While various embodiments have been described above with reference to the drawings, it goes without saying that the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

本発明は、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、カメラ装置の撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示するモニタリングシステム及びモニタリング方法として有用である。   According to the present invention, an unmanned air vehicle is detected at which location in the imaging area of the camera device, and what kind of sound source exists at what other location in the same imaging area. The present invention is useful as a monitoring system and a monitoring method for visually presenting to a user without deteriorating visibility.

5 無人飛行体検知システム
10 監視装置
31 通信部
32 操作部
33 信号処理部
34 音源方向検知部
35 出力制御部
37 スピーカ装置(SPK)
38 メモリ
39 設定管理部
63 指向性処理部
64 周波数分析部
65 対象物検知部
66 検知結果判定部
67 走査制御部
68 検知方向制御部
69a マスキングエリア設定部
69b 閾値調整部
CA1,CAk,CAn 全方位カメラ
CZ1,CZk,CZn PTZカメラ
MA1,MAk,MAn マイクアレイ
MN1 第1モニタ
MN2 第2モニタ
NW ネットワーク
RC レコーダ
UD1,UDn 音源検知ユニット
5 Unmanned flying object detection system 10 Monitoring device 31 Communication unit 32 Operation unit 33 Signal processing unit 34 Sound source direction detection unit 35 Output control unit 37 Speaker device (SPK)
38 Memory 39 Setting management unit 63 Directivity processing unit 64 Frequency analysis unit 65 Object detection unit 66 Detection result determination unit 67 Scan control unit 68 Detection direction control unit 69a Masking area setting unit 69b Threshold adjustment units CA1, CAk, CAn Omnidirectional Camera CZ1, CZk, CZn PTZ camera MA1, MAk, MAn Microphone array MN1 First monitor MN2 Second monitor NW Network RC recorder UD1, UDn Sound source detection unit

Claims (5)

撮像エリアを撮像するカメラと、
前記撮像エリアの音声を収音するマイクアレイと、
前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、
前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの撮像画像を構成する画素の所定単位毎に導出する音パラメータ導出部と、
前記音パラメータ導出部により導出された前記音パラメータと音の大きさに関する閾値との比較に応じて、前記画素の所定単位毎の、前記音パラメータを視覚画像に変換した音源視覚画像を、前記撮像エリアの撮像画像の大きさに対応するように連結した音パラメータマップの半透明マップを生成する信号処理部と、を備え、
前記信号処理部は、前記半透明マップを前記撮像エリアの撮像画像に重畳して前記モニタに表示する、
モニタリングシステム。
A camera for imaging the imaging area;
A microphone array for picking up sound in the imaging area;
A monitor for displaying a captured image of the imaging area captured by the camera;
A sound parameter deriving unit for deriving a sound parameter for specifying the volume of sound in the imaging area for each predetermined unit of pixels constituting the captured image in the imaging area based on the sound collected by the microphone array; ,
The sound source visual image obtained by converting the sound parameter into a visual image for each predetermined unit of the pixel according to the comparison between the sound parameter derived by the sound parameter deriving unit and a threshold value related to sound volume is captured. A signal processing unit that generates a semi-transparent map of a sound parameter map connected so as to correspond to the size of a captured image of the area,
The signal processing unit superimposes the semi-transparent map on a captured image of the imaging area and displays it on the monitor.
Monitoring system.
請求項1に記載のモニタリングシステムであって、
前記音の大きさに関する閾値は複数設けられ、
前記信号処理部は、前記音パラメータと前記複数の閾値との比較に応じて、前記画素の所定単位毎の、前記音パラメータを異なる視覚画像に段階的に変換した音源視覚画像を用いて、複数種類の前記音源視覚画像を有する前記音パラメータマップの半透明マップを生成する、
モニタリングシステム。
The monitoring system according to claim 1,
A plurality of thresholds related to the volume of the sound are provided,
The signal processing unit uses a sound source visual image obtained by gradually converting the sound parameter into different visual images for each predetermined unit of the pixel according to the comparison between the sound parameter and the plurality of threshold values. Generating a translucent map of the sound parameter map having the sound source visual image of a type;
Monitoring system.
請求項1に記載のモニタリングシステムであって、
前記マイクアレイにより収音された音声を基に、前記撮像エリアの撮像画像に現れる無人飛行体の検知を除外するためのマスキングエリアを設定するマスキングエリア設定部と、
前記マイクアレイにより収音された音声と前記マスキングエリア設定部により設定された前記マスキングエリアとを基に、前記無人飛行体を検知する検知部と、をさらに備え、
前記信号処理部は、前記マスキングエリア外で前記無人飛行体が検知された場合に、前記撮像エリアの撮像画像中の前記無人飛行体の周囲に、前記無人飛行体の音の大きさを示す前記音源視覚画像を半透明化して前記モニタに表示する、
モニタリングシステム。
The monitoring system according to claim 1,
Based on the sound collected by the microphone array, a masking area setting unit for setting a masking area for excluding detection of an unmanned air vehicle appearing in a captured image of the imaging area;
A detection unit for detecting the unmanned air vehicle based on the voice collected by the microphone array and the masking area set by the masking area setting unit;
When the unmanned air vehicle is detected outside the masking area, the signal processing unit indicates the loudness of the unmanned air vehicle around the unmanned air vehicle in the captured image of the imaging area. The sound source visual image is made translucent and displayed on the monitor.
Monitoring system.
請求項2に記載のモニタリングシステムであって、
音の大きさを段階的に規定する複数の閾値の各閾値と複数種類の前記音源視覚画像との対応関係の設定を、前記撮像エリアの撮像画像に応じて変更する閾値調整部、をさらに備え、
前記信号処理部は、前記音パラメータ導出部により導出された前記音パラメータと前記閾値調整部により変更された前記対応関係とを基に、前記画素の所定単位毎の音源視覚画像を前記撮像エリアの撮像画像の大きさに対応するように連結した音パラメータマップの半透明マップを生成する、
モニタリングシステム。
The monitoring system according to claim 2,
A threshold adjustment unit that changes the setting of the correspondence between each of the plurality of thresholds that define the volume of sound in stages and the plurality of types of sound source visual images according to the captured images of the imaging area; ,
The signal processing unit, based on the sound parameter derived by the sound parameter deriving unit and the correspondence changed by the threshold adjustment unit, generates a sound source visual image for each predetermined unit of the pixel in the imaging area. Generate a semi-transparent map of the sound parameter map connected to correspond to the size of the captured image,
Monitoring system.
カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、
前記カメラにより、撮像エリアを撮像し、
前記マイクアレイにより、前記撮像エリアの音声を収音し、
前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、
前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの撮像画像を構成する画素の所定単位毎に導出し、
導出された前記音パラメータと音の大きさに関する閾値との比較に応じて、前記画素の所定単位毎の、前記音パラメータを視覚画像に変換した音源視覚画像を、前記撮像エリアの撮像画像の大きさに対応するように連結した音パラメータマップの半透明マップを生成し、
生成された前記半透明マップを前記撮像エリアの撮像画像に重畳して前記モニタに表示する、
モニタリング方法。
A monitoring method in a monitoring system having a camera and a microphone array,
The imaging area is imaged by the camera,
The microphone array picks up the sound of the imaging area,
Displaying a captured image of the imaging area captured by the camera on a monitor;
Based on the sound collected by the microphone array, a sound parameter for specifying the sound volume of the imaging area is derived for each predetermined unit of pixels constituting the captured image of the imaging area,
A sound source visual image obtained by converting the sound parameter into a visual image for each predetermined unit of the pixel according to a comparison between the derived sound parameter and a threshold value related to a loudness is a size of a captured image of the imaging area. Generate a semi-transparent map of sound parameter maps connected to correspond to
The generated translucent map is superimposed on the captured image of the imaging area and displayed on the monitor.
Monitoring method.
JP2016060975A 2016-03-24 2016-03-24 Monitoring system and monitoring method Active JP6865371B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016060975A JP6865371B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method
PCT/JP2017/005872 WO2017163688A1 (en) 2016-03-24 2017-02-17 Monitoring system and monitoring method
US15/454,722 US10397525B2 (en) 2016-03-24 2017-03-09 Monitoring system and monitoring method
JP2021044572A JP7122708B2 (en) 2016-03-24 2021-03-18 Image processing device, monitoring system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060975A JP6865371B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021044572A Division JP7122708B2 (en) 2016-03-24 2021-03-18 Image processing device, monitoring system and image processing method

Publications (3)

Publication Number Publication Date
JP2017175475A true JP2017175475A (en) 2017-09-28
JP2017175475A5 JP2017175475A5 (en) 2019-04-25
JP6865371B2 JP6865371B2 (en) 2021-04-28

Family

ID=59972370

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016060975A Active JP6865371B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method
JP2021044572A Active JP7122708B2 (en) 2016-03-24 2021-03-18 Image processing device, monitoring system and image processing method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021044572A Active JP7122708B2 (en) 2016-03-24 2021-03-18 Image processing device, monitoring system and image processing method

Country Status (1)

Country Link
JP (2) JP6865371B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109003425A (en) * 2018-08-10 2018-12-14 北京车和家信息技术有限公司 A kind of method for early warning and relevant device
WO2019093297A1 (en) * 2017-11-13 2019-05-16 日本電気株式会社 Information processing device, control method, and program
WO2020065973A1 (en) * 2018-09-28 2020-04-02 日本電気株式会社 Detection system, detection method and program
CN112004028A (en) * 2020-09-03 2020-11-27 杭州宣迅电子科技有限公司 Intelligent security monitoring management system for smart community based on machine vision
CN112147570A (en) * 2019-06-27 2020-12-29 上海银基信息安全技术股份有限公司 Positioning method and system
CN113851002A (en) * 2021-10-15 2021-12-28 江阴市人人达科技有限公司 Ectopic facility interactive synchronization system and method
JP7459391B2 (en) 2021-01-29 2024-04-01 クゥアルコム・インコーポレイテッド Psychoacoustic enhancement based on audio source directionality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2015198413A (en) * 2014-04-03 2015-11-09 日本電信電話株式会社 Sound collection system and sound emitting system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005004518A (en) * 2003-06-12 2005-01-06 Sharp Corp Monitoring device
KR100677156B1 (en) * 2004-12-08 2007-02-02 삼성전자주식회사 Method of managing sound source and an apparatus thereof
JP5189536B2 (en) * 2009-03-26 2013-04-24 池上通信機株式会社 Monitoring device
EP2680615B1 (en) * 2012-06-25 2018-08-08 LG Electronics Inc. Mobile terminal and audio zooming method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006261900A (en) * 2005-03-16 2006-09-28 Casio Comput Co Ltd Imaging apparatus, and imaging control program
JP2015198413A (en) * 2014-04-03 2015-11-09 日本電信電話株式会社 Sound collection system and sound emitting system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019093297A1 (en) * 2017-11-13 2019-05-16 日本電気株式会社 Information processing device, control method, and program
JPWO2019093297A1 (en) * 2017-11-13 2020-11-19 日本電気株式会社 Information processing equipment, control methods, and programs
US11727579B2 (en) 2017-11-13 2023-08-15 Nec Corporation Information processing apparatus, control method, and program
CN109003425A (en) * 2018-08-10 2018-12-14 北京车和家信息技术有限公司 A kind of method for early warning and relevant device
WO2020065973A1 (en) * 2018-09-28 2020-04-02 日本電気株式会社 Detection system, detection method and program
CN112147570A (en) * 2019-06-27 2020-12-29 上海银基信息安全技术股份有限公司 Positioning method and system
CN112004028A (en) * 2020-09-03 2020-11-27 杭州宣迅电子科技有限公司 Intelligent security monitoring management system for smart community based on machine vision
JP7459391B2 (en) 2021-01-29 2024-04-01 クゥアルコム・インコーポレイテッド Psychoacoustic enhancement based on audio source directionality
CN113851002A (en) * 2021-10-15 2021-12-28 江阴市人人达科技有限公司 Ectopic facility interactive synchronization system and method

Also Published As

Publication number Publication date
JP6865371B2 (en) 2021-04-28
JP7122708B2 (en) 2022-08-22
JP2021097416A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP7122708B2 (en) Image processing device, monitoring system and image processing method
JP5979458B1 (en) Unmanned air vehicle detection system and unmanned air vehicle detection method
WO2017163688A1 (en) Monitoring system and monitoring method
JP6598064B2 (en) Object detection apparatus, object detection system, and object detection method
JP2018026792A (en) Unmanned flying object detection system and unmanned flying object detection method
US10791395B2 (en) Flying object detection system and flying object detection method
JP5939341B1 (en) Monitoring system and monitoring method
JP2018101987A (en) Sound source display system in monitoring area and sound source display method
JP2017138947A (en) Flight altitude control device, unmanned aerial vehicle, flight altitude control method, and flight altitude control program
JP6664119B2 (en) Monitoring system and monitoring method
CN102348102A (en) Roof safety monitoring system and method thereof
JP2017092938A (en) Audio source detection system and audio source detection method
WO2019225147A1 (en) Airborne object detection device, airborne object detection method, and airborne object detection system
JP2005252660A (en) Photographing system and photographing control method
JP2017175473A (en) Monitoring system and monitoring method
KR101600699B1 (en) Flight recording system and operating method thereof
WO2018020965A1 (en) Unmanned aerial vehicle detection system and unmanned aerial vehicle detection method
JP2019009520A (en) Information processing apparatus, information processing method, and program
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
JP2004128646A (en) Monitoring system and controller
KR20150056379A (en) Surveillance camera performing panning and tilting
JP2021103410A (en) Mobile body and imaging system
JP6551088B2 (en) Camera control apparatus, camera control method, program and monitoring system
JP4846203B2 (en) Image area setting apparatus and image area setting method
JP2019168886A (en) Detection body region detecting device, imaging device, flying device, detection body region detecting method, imaging method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R151 Written notification of patent or utility model registration

Ref document number: 6865371

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151