JP6664119B2 - Monitoring system and monitoring method - Google Patents

Monitoring system and monitoring method Download PDF

Info

Publication number
JP6664119B2
JP6664119B2 JP2016060974A JP2016060974A JP6664119B2 JP 6664119 B2 JP6664119 B2 JP 6664119B2 JP 2016060974 A JP2016060974 A JP 2016060974A JP 2016060974 A JP2016060974 A JP 2016060974A JP 6664119 B2 JP6664119 B2 JP 6664119B2
Authority
JP
Japan
Prior art keywords
sound
imaging area
image
unit
sound pressure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016060974A
Other languages
Japanese (ja)
Other versions
JP2017175474A (en
JP2017175474A5 (en
Inventor
宏之 松本
宏之 松本
信太郎 吉國
信太郎 吉國
正成 宮本
正成 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2016060974A priority Critical patent/JP6664119B2/en
Priority to PCT/JP2017/005872 priority patent/WO2017163688A1/en
Priority to US15/454,722 priority patent/US10397525B2/en
Publication of JP2017175474A publication Critical patent/JP2017175474A/en
Publication of JP2017175474A5 publication Critical patent/JP2017175474A5/ja
Application granted granted Critical
Publication of JP6664119B2 publication Critical patent/JP6664119B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)

Description

本発明は、例えば無人飛行体が飛翔しているカメラ装置の撮像エリアをモニタリングするモニタリングシステム及びモニタリング方法に関する。   The present invention relates to a monitoring system and a monitoring method for monitoring an imaging area of a camera device in which an unmanned aerial vehicle is flying, for example.

従来、監視領域内に生じる音を方向毎に検知する複数の音検知部を用いて、物体の存在の検知と、物体の飛来方向の検知とが可能な飛来飛行物体監視装置が知られている(例えば特許文献1参照)。この飛来飛行物体監視装置の処理装置は、無指向性のマイクによる音検知によって飛行物体の飛来及びその飛来方向を検知すると、その飛行物体が飛来した方向に監視カメラを向ける。更に、処理装置は、この監視カメラで撮影された映像を表示装置に表示する。   2. Description of the Related Art Conventionally, there is known a flying object monitoring apparatus capable of detecting the presence of an object and detecting the direction in which the object is flying by using a plurality of sound detectors for detecting sounds generated in a monitoring area for each direction. (See, for example, Patent Document 1). When the processing device of the flying object monitoring apparatus detects the flying of the flying object and the direction of the flying object by sound detection using a non-directional microphone, the processing device turns the monitoring camera in the direction in which the flying object has flew. Further, the processing device displays an image captured by the monitoring camera on a display device.

特開2006−168421号公報JP 2006-168421 A

特許文献1には、ヘリコプターやセスナ等の飛行物体に特有の周波数における音圧を既定の設定レベルと比較することで、設定レベル以上であれば、監視対象の飛行物体と判断することは開示されている。   Patent Document 1 discloses that a sound pressure at a frequency specific to a flying object such as a helicopter or a Cessna is compared with a predetermined setting level, and if the sound pressure is equal to or higher than the setting level, it is determined that the flying object is a monitoring target. ing.

しかしながら、特許文献1には、測定された音圧が複数の段階が規定された音圧のうちいずれの段階であるかを定量的に示すことは考慮されていない。このため、カメラ装置の撮像エリア内で何かしらの音が検知された場合に、その検知された音源位置における音の大きさの大小に拘わりなく、その音の大きさをきめ細かい音の視覚情報で具体的に提示することはできないという課題があった。   However, Patent Literature 1 does not take into account that the measured sound pressure quantitatively indicates which of a plurality of specified sound pressures. For this reason, when any sound is detected in the imaging area of the camera device, the loudness of the sound is determined by detailed visual information of fine sound regardless of the loudness of the sound at the detected sound source position. There was a problem that it could not be presented in a typical way.

本発明は、上述した従来の状況に鑑みて案出され、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資するモニタリングシステム及びモニタリング方法を提供することを目的とする。   The present invention has been devised in view of the above-described conventional situation, and irrespective of the magnitude of the sound volume at the sound source position detected in the imaging area of the camera device, the sound volume at the sound source position is finely and stepwisely adjusted. And a monitoring system and a monitoring method that contribute to accurate grasp of the loudness of the sound at the sound source position to the user.

本発明は、撮像エリアを撮像するカメラと、前記撮像エリアの音声を収音するマイクアレイと、前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出する音パラメータ導出部と、前記音パラメータ導出部により導出された前記音パラメータと音の大きさに関する複数の閾値との比較に応じて、前記音パラメータを異なる視覚画像に段階的に変換した音源視覚画像を、前記撮像エリアの音パラメータ導出単位毎に重畳して前記モニタに表示する信号処理部と、を備え、前記音パラメータ導出部は、前記音源視覚画像が重畳された前記撮像エリアの撮像画像の中で一部の矩形範囲が指定されると、前記撮像エリアの音パラメータ導出単位を前記撮像エリアの撮像画像と前記矩形範囲とのサイズ比で除した値毎に、前記矩形範囲の音パラメータを導出する、モニタリングシステムを提供する。 The present invention provides a camera that captures an image of an imaging area, a microphone array that collects sound of the imaging area, a monitor that displays a captured image of the imaging area captured by the camera, and a captured image of the imaging area. a predetermined number of pixels constituting a sound parameter derivation unit of the imaging area, based on sound collected by the microphone array, sound parameters specifying the loudness of the imaging area, the sound of the image pickup area A sound parameter deriving unit for deriving for each parameter deriving unit, and stepping the sound parameter into different visual images according to a comparison between the sound parameter derived by the sound parameter deriving unit and a plurality of thresholds relating to a loudness. specifically the converted sound visual images, a signal processing unit to be displayed on the monitor superimposed on each sound parameter derivation unit of the imaging area, the For example, the sound parameter deriving unit, a part of the rectangular area in the captured image of the imaging area of the sound source visual image is superimposed is designated, the sound parameter derivation unit of the imaging area of the imaging area Provided is a monitoring system that derives sound parameters of the rectangular range for each value divided by a size ratio between a captured image and the rectangular range.

また、本発明は、撮像エリアを撮像するカメラと、前記撮像エリアの音声を収音するマイクアレイと、前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出する音パラメータ導出部と、音の大きさを段階的に規定する複数の閾値の各閾値と、前記各閾値との比較に応じて前記音パラメータが異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、前記撮像エリアの撮像画像に応じて変更する閾値調整部と、前記音パラメータ導出部により導出された前記音パラメータと前記閾値調整部により変更された前記対応関係とを基に、前記撮像エリアの音パラメータ導出単位毎に、前記音パラメータに対応する前記音源視覚画像を前記撮像エリアの撮像画像に重畳して前記モニタに表示する信号処理部と、を備える、モニタリングシステムを提供する。 Further, the present invention provides a camera for capturing an image of an imaging area, a microphone array for picking up sound of the imaging area, a monitor for displaying a captured image of the imaging area captured by the camera, and an imaging of the imaging area. Using a predetermined number of pixels constituting an image as a unit for deriving a sound parameter of the imaging area, a sound parameter for specifying a loudness of the sound in the imaging area based on the sound collected by the microphone array, A sound parameter deriving unit that derives for each sound parameter deriving unit, each of a plurality of thresholds that defines the loudness of the sound in stages, and a visual image in which the sound parameters are different according to a comparison with each of the thresholds. The setting of the correspondence relationship with the sound source visual image that is stepwise converted is derived by the threshold adjustment unit that changes according to the captured image of the imaging area and the sound parameter derivation unit. Based on said correspondence relation changed by the sound parameter and the threshold adjustment unit is, for each sound parameter derivation unit of the imaging area, the sound source visual image corresponding to the sound parameters captured image of the imaging area And a signal processing unit for superimposing the signal on the monitor and displaying the signal on the monitor.

また、本発明は、カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、前記カメラにより、撮像エリアを撮像し、前記マイクアレイにより、前記撮像エリアの音声を収音し、前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出し、導出された前記音パラメータと音の大きさに関する複数の閾値との比較に応じて、前記音パラメータを異なる視覚画像に段階的に変換した音源視覚画像を、前記撮像エリアの音パラメータ導出単位毎に重畳して前記モニタに表示することを特徴とし、さらに、前記音源視覚画像が重畳された前記撮像エリアの撮像画像の中で一部の矩形範囲が指定されると、前記撮像エリアの音パラメータ導出単位を前記撮像エリアの撮像画像と前記矩形範囲とのサイズ比で除した値毎に、前記矩形範囲の音パラメータを導出する、モニタリング方法を提供する。 Further, the present invention is a monitoring method in a monitoring system having a camera and a microphone array, wherein the camera captures an image of an imaging area, the microphone array collects sound of the imaging area, and the camera A captured image of the imaged area is displayed on a monitor, and a predetermined number of pixels constituting the imaged image of the imaged area are used as sound parameter derivation units of the imaged area, based on sound collected by the microphone array. A sound parameter specifying the loudness of the sound in the imaging area is derived for each sound parameter deriving unit of the shooting area, and the derived sound parameter is compared with a plurality of thresholds relating to the loudness of the sound. Te, the source visual images stepwise convert the sound parameters to different visual images, sound parameters guiding the imaging area Superimposed on each unit is characterized in that displayed on the monitor, further, a part of the rectangular area in the captured image of the image pickup area source visual image is superimposed is designated, the imaging area A monitoring method is provided for deriving a sound parameter of the rectangular range for each value obtained by dividing a sound parameter deriving unit by a size ratio between a captured image of the imaging area and the rectangular range.

また、本発明は、カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、前記カメラにより、撮像エリアを撮像し、前記マイクアレイにより、前記撮像エリアの音声を収音し、前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出し、音の大きさを段階的に規定する複数の閾値の各閾値と、前記各閾値との比較に応じて前記音パラメータが異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、前記撮像エリアの撮像画像に応じて変更し、導出された前記音パラメータと変更された前記対応関係とを基に、前記撮像エリアの音パラメータ導出単位毎に、前記音パラメータに対応する前記音源視覚画像を前記撮像エリアの撮像画像に重畳して前記モニタに表示する、モニタリング方法を提供する。 Further, the present invention is a monitoring method in a monitoring system having a camera and a microphone array, wherein the camera captures an image of an imaging area, the microphone array collects sound of the imaging area, and the camera A captured image of the imaged area is displayed on a monitor, and a predetermined number of pixels constituting the imaged image of the imaged area are used as sound parameter derivation units of the imaged area, based on sound collected by the microphone array. A sound parameter that specifies the loudness of the sound in the imaging area is derived for each sound parameter deriving unit of the shooting area, and each of a plurality of thresholds that defines the loudness of the sound in a stepwise manner. Setting the correspondence with a sound source visual image that is stepwise converted to a visual image in which the sound parameters are different according to a comparison with a threshold value, Changed according to the rear of the captured image, the derived based on said correspondence has been changed to the sound parameters for each sound parameter derivation unit of the imaging area, the sound source visual image corresponding to the sound parameter A monitoring method is provided, which superimposes on a captured image of the imaging area and displays the image on the monitor.

本発明によれば、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示でき、その音源位置における音の大きさのユーザへの正確な把握に資することができる。   According to the present invention, regardless of the loudness of the sound at the sound source position detected in the imaging area of the camera device, the loudness of the sound at the sound source position can be finely presented in a stepwise manner. It is possible to contribute to accurate understanding of the size by the user.

各実施形態の無人飛行体検知システムの概略構成の一例を示す図FIG. 1 is a diagram illustrating an example of a schematic configuration of an unmanned aerial vehicle detection system of each embodiment. 音源検知ユニットの外観の一例を示す図Diagram showing an example of the appearance of a sound source detection unit マイクアレイの内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of the microphone array in detail 全方位カメラの内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of the omnidirectional camera in detail PTZカメラの内部構成の一例を詳細に示すブロック図The block diagram which shows an example of the internal structure of a PTZ camera in detail. 監視装置の内部構成の一例を詳細に示すブロック図Block diagram showing an example of the internal configuration of the monitoring device in detail メモリに登録されている無人飛行体の検知音信号のパターンの一例を示すタイミングチャートA timing chart showing an example of a pattern of a detection sound signal of the unmanned aerial vehicle registered in the memory 周波数分析処理の結果として得られた検知音信号の周波数変化の一例を示すタイミングチャートA timing chart showing an example of a frequency change of a detected sound signal obtained as a result of the frequency analysis processing 第1の実施形態における、無人飛行体の検知及び検知結果の表示の動作手順の一例を説明するシーケンス図Sequence diagram illustrating an example of an operation procedure of detecting an unmanned aerial vehicle and displaying a detection result in the first embodiment. 図9のステップS8の無人飛行体検知判定の動作手順の詳細の一例を説明するフローチャート9 is a flowchart for explaining an example of the details of the operation procedure for unmanned flying object detection determination in step S8 in FIG. 9. 監視エリア内で指向方向が順に走査され、無人飛行体が検知される様子の一例を示す図The figure which shows an example of a mode that a directional direction is scanned in order within a monitoring area, and an unmanned aerial vehicle is detected. マスキングエリアが設定されていない場合の第1モニタの表示画面例を示す図The figure which shows the example of a display screen of the 1st monitor when a masking area is not set. 自動学習処理時におけるマスキングエリアの表示例を時系列に示す説明図Explanatory diagram showing a display example of a masking area in a time series during an automatic learning process 第1の実施形態における、マスキングエリアの設定の動作手順の一例を説明するシーケンス図Sequence diagram illustrating an example of an operation procedure for setting a masking area according to the first embodiment. マスキングエリアが設定された場合の第1モニタの表示画面例を示す図The figure which shows the example of the display screen of the 1st monitor when a masking area is set. 第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の概要説明図Schematic description of dynamic change of display resolution of sound pressure heat map in the second embodiment 第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の動作手順の一例を説明するフローチャート9 is a flowchart illustrating an example of an operation procedure of dynamically changing a display resolution of a sound pressure heat map according to the second embodiment. 第2の実施形態における、音圧値の度数分布に応じた閾値の幅調整と幅調整に伴う撮像画像の表示結果の概要説明図Schematic explanatory diagram of a threshold width adjustment according to the frequency distribution of sound pressure values and a display result of a captured image accompanying the width adjustment in the second embodiment. (A),(B)第2の実施形態における、音源視覚画像の使用を規定する閾値間の幅の設定変更の概要説明図(A), (B) Schematic explanatory diagram of a setting change of a width between thresholds defining use of a sound source visual image in the second embodiment. 第2の実施形態における、紅色画像及び群青色画像の使用を規定する閾値間の幅の設定変更に伴う撮像画像の表示の概要説明図FIG. 11 is a schematic explanatory diagram of a display of a captured image according to a change in setting of a width between thresholds that defines use of a red image and a group of blue images in the second embodiment. 第2の実施形態における、閾値間の幅の設定変更の動作手順の一例を説明するフローチャート9 is a flowchart for explaining an example of an operation procedure for changing the setting of the width between threshold values in the second embodiment. 第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の概要説明図FIG. 9 is a schematic explanatory diagram of an overlay display of an omnidirectional image and a translucent sound pressure heat map in the third embodiment. 全方位画像と半透明音圧ヒートマップとがオーバーレイ表示された第1モニタの表示画面例を示す図The figure which shows the example of the display screen of the 1st monitor on which the omnidirectional image and the translucent sound pressure heat map were overlaid. 第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の動作手順の一例を説明するシーケンス図FIG. 7 is a sequence diagram illustrating an example of an operation procedure of overlay display of an omnidirectional image and a translucent sound pressure heat map in the third embodiment.

以下、適宜図面を参照しながら、本発明に係るモニタリングシステム及びモニタリング方法を具体的に開示した各実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, each embodiment which specifically discloses a monitoring system and a monitoring method according to the present invention will be described in detail with reference to the drawings as appropriate. However, an unnecessary detailed description may be omitted. For example, a detailed description of a well-known item or a redundant description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding of those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the claimed subject matter.

以下、本発明に係るモニタリングシステムの一例として、監視対象となる無人飛行体(例えばドローン、ラジコンヘリコプタ)を検知するための無人飛行体検知システムを例示して説明する。また、本発明は、モニタリングシステムに限定されず、モニタリングシステムにおいて実行されるモニタリング方法として規定することも可能である。   Hereinafter, as an example of a monitoring system according to the present invention, an unmanned aerial vehicle detection system for detecting an unmanned aerial vehicle (for example, a drone or a radio control helicopter) to be monitored will be described as an example. Further, the present invention is not limited to the monitoring system, but can be defined as a monitoring method executed in the monitoring system.

以下、無人飛行体検知システムの使用者(例えば、監視エリアを見回り、警備等する監視員)を、単に「ユーザ」という。   Hereinafter, the user of the unmanned aerial vehicle detection system (for example, a guard who looks around the guard area and guards) is simply referred to as a “user”.

図1は、各実施形態の無人飛行体検知システム5の概略構成の一例を示す図である。無人飛行体検知システム5は、検知対象としてユーザの目的とする無人飛行体dn(例えば図12参照)を検知する。無人飛行体dnは、例えばGPS(Global Positioning System)機能を利用して自律的に飛翔するドローン、第三者の無線操縦によって飛翔するラジコンヘリコプタ等である。このような無人飛行体dnは、例えばターゲットの空撮、監視、物資の運搬等に利用される。   FIG. 1 is a diagram illustrating an example of a schematic configuration of an unmanned aerial vehicle detection system 5 of each embodiment. The unmanned aerial vehicle detection system 5 detects an unmanned aerial vehicle dn (for example, see FIG. 12) that is intended by the user as a detection target. The unmanned aerial vehicle dn is, for example, a drone that flies autonomously using a GPS (Global Positioning System) function, a radio-controlled helicopter that flies by radio control of a third party, or the like. Such an unmanned aerial vehicle dn is used, for example, for aerial photography of a target, monitoring, transportation of goods, and the like.

各実施形態では、無人飛行体dnとして、複数のロータ(言い換えると、回転翼)を搭載したマルチコプタ型のドローンを例示する。マルチコプタ型のドローンでは、一般にロータの羽の枚数が2枚の場合、特定周波数に対し2倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。同様に、ロータの羽の枚数が3枚の場合、特定周波数に対し3倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。ロータの羽の枚数が4枚以上の場合も同様である。   In each embodiment, a multi-copter type drone equipped with a plurality of rotors (in other words, rotating wings) is illustrated as an unmanned aerial vehicle dn. In a multi-copter type drone, when the number of blades of the rotor is two, a harmonic having a frequency twice as large as a specific frequency, and a harmonic having a frequency multiplied by the specific frequency are generally generated. Similarly, when the number of blades of the rotor is three, a harmonic having a frequency three times as high as the specific frequency and a harmonic having a frequency multiplied by three times are generated. The same applies when the number of rotor blades is four or more.

無人飛行体検知システム5は、複数の音源検知ユニットUD1,…,UDk,…,UDnと、監視装置10と、第1モニタMN1と、第2モニタMN2と、レコーダRCとを含む構成である。nは2以上の自然数である。複数の音源検知ユニットUD1,…,UDk,…,UDnは、ネットワークNWを介して監視装置10と相互に接続される。kは、1〜nの自然数である。それぞれの音源検知ユニット(例えば音源検知ユニットUD1)は、マイクアレイMA1と、全方位カメラCA1と、PTZカメラCZ1とを有する構成であり、他の音源検知ユニットUDkも同様の構成を有する。   The unmanned air vehicle detection system 5 is configured to include a plurality of sound source detection units UD1,..., UDk,..., UDn, a monitoring device 10, a first monitor MN1, a second monitor MN2, and a recorder RC. n is a natural number of 2 or more. , UDk,..., UDn are mutually connected to the monitoring device 10 via the network NW. k is a natural number of 1 to n. Each sound source detection unit (for example, sound source detection unit UD1) has a configuration including a microphone array MA1, an omnidirectional camera CA1, and a PTZ camera CZ1, and the other sound source detection units UDk have the same configuration.

なお、個々の音源検知ユニットを特に区別する必要がある場合を除き、音源検知ユニットUDk又は単に音源検知ユニットUDという。同様に、個々のマイクアレイ、全方位カメラ、PTZカメラを特に区別する必要がある場合を除き、マイクアレイMAk又はマイクアレイMA(図2参照)、全方位カメラCAk又は全方位カメラCA(図2参照)、PTZカメラCZk又はPTZカメラCZ(図2参照)という。   Note that the sound source detection units UDk or simply the sound source detection units UD, unless it is necessary to distinguish the individual sound source detection units. Similarly, the microphone array MAk or the microphone array MA (see FIG. 2), the omnidirectional camera CAk or the omnidirectional camera CA (see FIG. 2) unless the individual microphone array, omnidirectional camera, and PTZ camera need to be particularly distinguished. ), PTZ camera CZk or PTZ camera CZ (see FIG. 2).

音源検知ユニットUDkでは、マイクアレイMAkは、自装置が設置された監視対象となるエリア(つまり、監視エリア)における全方位の音を無指向状態で収音する。マイクアレイMAkは、中央に所定幅の円筒形状の開口部が形成された筐体15(図2参照)を有する。マイクアレイMAkが収音対象とする音は、例えばドローンのような機械的な動作音、人間等が発する音声、その他の音を広く含み、可聴周波数(つまり、20Hz〜23khHz)域の音に限らず、可聴周波数より低い低周波音や可聴周波数を超える超音波音が含まれてもよい。   In the sound source detection unit UDk, the microphone array MAk collects sound in all directions in the area to be monitored (that is, the monitoring area) in which the own apparatus is installed in a non-directional state. The microphone array MAk has a housing 15 (see FIG. 2) in which a cylindrical opening having a predetermined width is formed in the center. The sound to be picked up by the microphone array MAk includes, for example, mechanical operation sounds such as drones, sounds emitted by human beings, and other sounds, and is limited to sounds in the audible frequency range (that is, 20 Hz to 23 kHz). Alternatively, a low-frequency sound lower than the audio frequency or an ultrasonic sound higher than the audio frequency may be included.

マイクアレイMAkは、複数の無指向性のマイクロホンM1〜Mq(図3参照)を含む。qは2以上の自然数である。マイクロホンM1〜Mqは、筐体15に設けられた上記開口部の周囲に円周方向に沿って、同心円状に予め決められた間隔(例えば均一な間隔)で配置されている。マイクロホンM1〜Mqは、例えばエレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)が用いられる。マイクアレイMAkは、それぞれのマイクロホンM1〜Mqの収音により得られた音の音声データを、ネットワークNWを介して監視装置10に送信する。なお、上記の各マイクロホンM1〜Mqの配列は、一例であり、他の配列(例えば正方形状な配置、長方形状の配置)であってもよいが、各マイクロホンM1〜Mqは等間隔に並べて配置されることが好ましい。   The microphone array MAk includes a plurality of omnidirectional microphones M1 to Mq (see FIG. 3). q is a natural number of 2 or more. The microphones M1 to Mq are arranged at predetermined intervals (for example, uniform intervals) concentrically around the opening provided in the housing 15 along the circumferential direction. As the microphones M1 to Mq, for example, an electret condenser microphone (ECM) is used. The microphone array MAk transmits, to the monitoring device 10 via the network NW, sound data of sounds obtained by collecting the microphones M1 to Mq. Note that the arrangement of the microphones M1 to Mq is merely an example, and other arrangements (for example, a square arrangement or a rectangular arrangement) may be used. However, the microphones M1 to Mq are arranged at equal intervals. Is preferably performed.

また、マイクアレイMAkは、複数のマイクロホンM1〜Mq(例えばq=32)、及び複数のマイクロホンM1〜Mqの出力信号をそれぞれ増幅する複数の増幅器(アンプ)PA1〜PAq(図3参照)を有する。各増幅器から出力されるアナログ信号は、後述するA/D変換器A1〜Aq(図3参照)でそれぞれデジタル信号に変換される。なお、マイクアレイMAkにおけるマイクロホンの数は、32個に限られず、他の数(例えば16個、64個、128個)であってもよい。   The microphone array MAk includes a plurality of microphones M1 to Mq (for example, q = 32) and a plurality of amplifiers (amplifiers) PA1 to PAq (see FIG. 3) for amplifying output signals of the plurality of microphones M1 to Mq, respectively. . Analog signals output from the amplifiers are converted into digital signals by A / D converters A1 to Aq (see FIG. 3) described later. Note that the number of microphones in the microphone array MAk is not limited to 32, but may be another number (for example, 16, 64, or 128).

マイクアレイMAkの筐体15(図2参照)の中央に形成された開口部の内側には、開口部の容積と略一致する全方位カメラCAkが収容される。つまり、マイクアレイMAkと全方位カメラCAkとは一体的かつ、それぞれの筐体中心が同軸方向となるように配置される(図2参照)。全方位カメラCAkは、全方位カメラCAkの撮像エリアとしての監視エリア(上述参照)の全方位画像を撮像可能な魚眼レンズ45a(図4参照)を搭載したカメラである。各実施形態において、マイクアレイMAkの収音エリアと全方位カメラCAkの撮像エリアとはともに共通の監視エリアとして説明するが、収音エリアと撮像エリアの空間的な大きさ(例えば体積)は同一でなくてもよい。例えば収音エリアの体積が撮像エリアの体積より大きくても良いし、小さくてもよい。要は、収音エリアと撮像エリアとは共通する空間部分があればよい。全方位カメラCAkは、例えば音源検知ユニットUDkが設置された撮像エリアを撮像可能な監視カメラとして機能する。つまり、全方位カメラCAkは、例えば垂直方向:180°、水平方向:360°の画角を有し、例えば半天球である監視エリア8(図11参照)を撮像エリアとして撮像する。   An omnidirectional camera CAk substantially matching the volume of the opening is accommodated inside the opening formed in the center of the housing 15 (see FIG. 2) of the microphone array MAk. That is, the microphone array MAk and the omnidirectional camera CAk are disposed integrally and with their respective housing centers coaxial with each other (see FIG. 2). The omnidirectional camera CAk is a camera equipped with a fisheye lens 45a (see FIG. 4) capable of capturing an omnidirectional image of a monitoring area (see above) as an imaging area of the omnidirectional camera CAk. In each embodiment, the sound collection area of the microphone array MAk and the imaging area of the omnidirectional camera CAk are both described as a common monitoring area, but the sound collection area and the imaging area have the same spatial size (for example, volume). It does not have to be. For example, the volume of the sound collection area may be larger or smaller than the volume of the imaging area. In short, it is sufficient that the sound collection area and the imaging area have a common space portion. The omnidirectional camera CAk functions as, for example, a surveillance camera that can image an imaging area in which the sound source detection unit UDk is installed. That is, the omnidirectional camera CAk has an angle of view of, for example, 180 ° in the vertical direction and 360 ° in the horizontal direction, and captures an image of the monitoring area 8 (see FIG. 11), which is, for example, a semi-celestial sphere, as an imaging area.

それぞれの音源検知ユニットUDkでは、全方位カメラCAkが筐体15の開口部の内側に嵌め込まれることで、全方位カメラCAとマイクアレイMAとが同軸上に配置される。このように、全方位カメラCAkの光軸とマイクアレイMAkの筐体の中心軸とが一致することで、軸周方向(つまり、水平方向)における撮像エリアと収音エリアとが略同一となり、全方位カメラCAkが撮像した全方位画像中の被写体の位置(言い換えれば、全方位カメラCAkから見た被写体の位置を示す方向)とマイクアレイMAkの収音対象となる音源の位置(言い換えれば、マイクアレイMAkから見た音源の位置を示す方向)とが同じ座標系(例えば(水平角,垂直角)で示される座標)で表現可能となる。なお、それぞれの音源検知ユニットUDkは、上空で飛翔している無人飛行体dnを検知するために、例えば天地方向の上向きが収音面及び撮像面となるように、取り付けられる(図2参照)。   In each sound source detection unit UDk, the omnidirectional camera CAk is fitted inside the opening of the housing 15 so that the omnidirectional camera CA and the microphone array MA are coaxially arranged. As described above, since the optical axis of the omnidirectional camera CAk and the central axis of the housing of the microphone array MAk match, the imaging area and the sound collection area in the axial circumferential direction (that is, the horizontal direction) become substantially the same, The position of the subject in the omnidirectional image captured by the omnidirectional camera CAk (in other words, the direction indicating the position of the subject viewed from the omnidirectional camera CAk) and the position of the sound source to be picked up by the microphone array MAk (in other words, The direction indicating the position of the sound source viewed from the microphone array MAk) can be expressed in the same coordinate system (for example, coordinates indicated by (horizontal angle, vertical angle)). Each sound source detection unit UDk is attached so that, for example, the sound pickup surface and the image pickup surface are directed upward in the vertical direction in order to detect the unmanned aerial vehicle dn flying in the sky (see FIG. 2). .

監視装置10は、例えばPC(Personal Computer)又はサーバを用いて構成される。監視装置10は、マイクアレイMAkにより収音された全方位の音に対して、ユーザの操作に基づいて任意の方向を主ビーム方向とする指向性を形成(つまり、ビームフォーミング)し、その指向方向の音を強調することができる。なお、マイクアレイMAkによって収音された音をビームフォーミングするための音データの指向性制御処理に関する技術は、例えば参考特許文献1,2に示されるように、公知の技術である。   The monitoring device 10 is configured using, for example, a PC (Personal Computer) or a server. The monitoring apparatus 10 forms directivity (that is, beam forming) in which an arbitrary direction is set as a main beam direction based on a user's operation, with respect to the omnidirectional sound collected by the microphone array MAk. The sound in the direction can be emphasized. The technology related to the directivity control processing of the sound data for beamforming the sound collected by the microphone array MAk is a known technology, for example, as shown in Reference Documents 1 and 2.

(参考特許文献1)特開2014−143678号公報
(参考特許文献2)特開2015−029241号公報
(Reference Patent Document 1) JP-A-2014-143678 (Reference Patent Document 2) JP-A-2015-029241

監視装置10は、全方位カメラCAkにより撮像された画像(以下、「撮像画像」と略記することがある)を用いて、撮像画像を処理して全方位画像を生成する。なお、全方位画像は、監視装置10ではなく、全方位カメラCAkにより生成されてもよい。   The monitoring device 10 processes the captured image using an image captured by the omnidirectional camera CAk (hereinafter, may be abbreviated as “captured image”) to generate an omnidirectional image. The omnidirectional image may be generated by the omnidirectional camera CAk instead of the monitoring device 10.

監視装置10は、全方位カメラCAkにより撮像された撮像画像に、マイクアレイMAkにより収音された音の大きさを特定する音パラメータ(例えば後述する音圧)の算出値に基づく音圧ヒートマップの画像(図15参照)を重畳して第1モニタMN1等へ出力して表示する。   The monitoring device 10 adds a sound pressure heat map to a captured image captured by the omnidirectional camera CAk based on a calculated value of a sound parameter (for example, a sound pressure to be described later) that specifies the volume of the sound collected by the microphone array MAk. (See FIG. 15) is superimposed and output to the first monitor MN1 or the like for display.

また、監視装置10は、全方位画像IMG1に、検知された無人飛行体dnをユーザにとって視覚的に判別し易い視覚画像(例えば識別マーク(不図示))を第1モニタMN1の無人飛行体dnの位置に表示してもよい。視覚画像とは、例えば全方位画像IMG1において、ユーザが全方位画像IMG1を見た時に、他の被写体とは明確に識別可能な程度に表された情報であることを意味し、以下同様とする。   In addition, the monitoring device 10 displays, on the omnidirectional image IMG1, a visual image (for example, an identification mark (not shown)) that allows the user to visually distinguish the detected unmanned aerial vehicle dn from the unmanned aerial vehicle dn of the first monitor MN1. May be displayed at the position. The visual image means, for example, information that is displayed in the omnidirectional image IMG1 to such an extent that it can be clearly distinguished from other subjects when the user views the omnidirectional image IMG1, and so on. .

第1モニタMN1は、全方位カメラCAkにより撮像された全方位画像IMG1を表示する。第2モニタMN2は、全方位カメラCAkにより撮像された全方位画像IMG1を表示する。また、第1モニタMN1は、全方位画像IMG1に上述した識別マーク(不図示)を重畳した合成画像を生成して表示する。なお図1では、第1モニタMN1及び第2モニタMN2と2つのモニタが監視装置10に接続されているが、例えば第1モニタMN1のみ接続されても構わない。また、第1モニタMN1又は第2モニタMN2、或いは第1モニタMN1及び第2モニタMN2は、監視装置10と一体の装置として構成されてもよい。   The first monitor MN1 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk. The second monitor MN2 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk. Further, the first monitor MN1 generates and displays a composite image in which the above-described identification mark (not shown) is superimposed on the omnidirectional image IMG1. In FIG. 1, two monitors, the first monitor MN1 and the second monitor MN2, are connected to the monitoring device 10, but, for example, only the first monitor MN1 may be connected. Further, the first monitor MN1 or the second monitor MN2, or the first monitor MN1 and the second monitor MN2 may be configured as an integrated device with the monitoring device 10.

レコーダRCは、例えばハードディスク(Hard Disk Drive)又はフラッシュメモリ等の半導体メモリを用いて構成され、監視装置10により生成された各種画像のデータ(後述参照)や、それぞれの音源検知ユニットUDkから送信された全方位画像や音声の各種データを保存する。なお、レコーダRCは、監視装置10と一体の装置として構成されてもよいし、無人飛行体検知システム5の構成から省かれても構わない。   The recorder RC is configured using a semiconductor memory such as a hard disk (Hard Disk Drive) or a flash memory, and is transmitted from various image data (see below) generated by the monitoring device 10 and the respective sound source detection units UDk. Saves various omnidirectional image and audio data. Note that the recorder RC may be configured as an integrated device with the monitoring device 10 or may be omitted from the configuration of the unmanned flying object detection system 5.

図1では、複数の音源検知ユニットUDk及び監視装置10は、通信インタフェースを有し、ネットワークNWを介して相互にデータ通信可能に接続されている。ネットワークNWは、有線ネットワーク(例えばイントラネット、インターネット、有線LAN(Local Area Network)でもよいし、無線ネットワーク(例えば無線LAN)でもよい。なお、音源検知ユニットUDkと監視装置10とは、ネットワークNWを介することなく、直接に接続されてもよい。また、監視装置10、第1モニタMN1、第2モニタMN2、レコーダRCは、いずれもユーザが監視時において常駐する監視室RMに設置される。   In FIG. 1, the plurality of sound source detection units UDk and the monitoring device 10 have a communication interface and are connected to each other via a network NW so that data communication is possible. The network NW may be a wired network (for example, an intranet, the Internet, a wired LAN (Local Area Network), or a wireless network (for example, a wireless LAN). The sound source detection unit UDk and the monitoring device 10 are connected via the network NW. The monitoring device 10, the first monitor MN1, the second monitor MN2, and the recorder RC are all installed in a monitoring room RM where the user is resident at the time of monitoring.

図2は、音源検知ユニットUDの外観の一例を示す図である。音源検知ユニットUDは、上述したマイクアレイMA、全方位カメラCA、PTZカメラCZの他、これらを機械的に支持する支持台70を有する。支持台70は、三脚71と、三脚71の天板71aに固定された2本のレール72と、2本のレール72の両端部にそれぞれ取り付けられた第1取付板73及び第2取付板74とが組み合わされた構造を有する。   FIG. 2 is a diagram illustrating an example of the appearance of the sound source detection unit UD. The sound source detection unit UD includes the microphone array MA, the omnidirectional camera CA, the PTZ camera CZ, and a support base 70 that mechanically supports these units. The support base 70 includes a tripod 71, two rails 72 fixed to a top plate 71 a of the tripod 71, and a first mounting plate 73 and a second mounting plate 74 respectively mounted on both ends of the two rails 72. Has a combined structure.

第1取付板73と第2取付板74は、2本のレール72を跨るように取り付けられており、略同一の平面を有する。また、第1取付板73及び第2取付板74は、2本のレール72上を摺動自在であり、互いに離間もしくは接近した位置に調節されて固定される。   The first mounting plate 73 and the second mounting plate 74 are mounted so as to straddle the two rails 72 and have substantially the same plane. Further, the first mounting plate 73 and the second mounting plate 74 are slidable on the two rails 72, and are adjusted and fixed to positions separated or approached from each other.

第1取付板73は円盤状の板材である。第1取付板73の中央には、開口部73aが形成されている。開口部73aには、マイクアレイMAの筐体15が収容されて固定される。一方、第2取付板74は略長方形の板材である。第2取付板74の外側に近い部分には、開口部74aが形成されている。開口部74aには、PTZカメラCZが収容されて固定される。   The first mounting plate 73 is a disk-shaped plate. An opening 73a is formed at the center of the first mounting plate 73. The housing 15 of the microphone array MA is accommodated and fixed in the opening 73a. On the other hand, the second mounting plate 74 is a substantially rectangular plate material. An opening 74a is formed in a portion near the outside of the second mounting plate 74. The PTZ camera CZ is housed and fixed in the opening 74a.

図2に示すように、マイクアレイMAの筐体15に収容される全方位カメラCAの光軸L1と、第2取付板74に取り付けられたPTZカメラCZの光軸L2とは、初期設置状態においてそれぞれ平行になるように設定される。   As shown in FIG. 2, the optical axis L1 of the omnidirectional camera CA housed in the housing 15 of the microphone array MA and the optical axis L2 of the PTZ camera CZ mounted on the second mounting plate 74 are in the initial installation state. Are set to be parallel to each other.

三脚71は、3本の脚71bで接地面に支えられており、手動操作により、接地面に対して垂直方向に天板71aの位置を移動自在であり、かつ、パン方向及びチルト方向に天板71aの向きを調節可能である。これにより、マイクアレイMAの収音エリア(言い換えると、全方位カメラCAの撮像エリア又は無人飛行体検知システム5の監視エリア)を任意の向きに設定することができる。   The tripod 71 is supported on the ground surface by three legs 71b. The position of the top plate 71a can be freely moved in the vertical direction with respect to the ground surface by manual operation, and the tripod 71 can be moved in the pan and tilt directions. The direction of the plate 71a can be adjusted. Accordingly, the sound collection area of the microphone array MA (in other words, the imaging area of the omnidirectional camera CA or the monitoring area of the unmanned aerial vehicle detection system 5) can be set to an arbitrary direction.

図3は、マイクアレイMAkの内部構成の一例を詳細に示すブロック図である。図3に示すマイクアレイMAkは、複数のマイクロホンM1〜Mq(例えばq=32)、複数のマイクロホンM1〜Mqの出力信号をそれぞれ増幅する複数の増幅器(アンプ)PA1〜PAq、各増幅器PA1〜PAqから出力されるアナログ信号をそれぞれデジタル信号に変換する複数のA/D変換器A1〜Aq、圧縮処理部25及び送信部26を含む構成である。   FIG. 3 is a block diagram showing an example of the internal configuration of the microphone array MAk in detail. The microphone array MAk illustrated in FIG. 3 includes a plurality of microphones M1 to Mq (for example, q = 32), a plurality of amplifiers (amplifiers) PA1 to PAq that respectively amplify output signals of the plurality of microphones M1 to Mq, and each of the amplifiers PA1 to PAq. Are configured to include a plurality of A / D converters A1 to Aq for converting analog signals output from the A / D converter into digital signals, a compression processing unit 25, and a transmission unit 26, respectively.

圧縮処理部25は、A/D変換器A1〜Anから出力されるデジタル音声信号を基に、音声データのパケットを生成する。送信部26は、圧縮処理部25で生成された音声データのパケットを、ネットワークNWを介して監視装置10に送信する。   The compression processing unit 25 generates audio data packets based on the digital audio signals output from the A / D converters A1 to An. The transmitting unit 26 transmits the packet of the audio data generated by the compression processing unit 25 to the monitoring device 10 via the network NW.

このように、マイクアレイMAkは、マイクロホンM1〜Mqの出力信号を増幅器PA1〜PAqで増幅し、A/D変換器A1〜Aqでデジタル音声信号に変換する。その後、マイクアレイMAkは、圧縮処理部25で音声データのパケットを生成し、この音声データのパケットを、ネットワークNWを介して監視装置10に送信する。   As described above, the microphone array MAk amplifies the output signals of the microphones M1 to Mq with the amplifiers PA1 to PAq, and converts the output signals into digital audio signals with the A / D converters A1 to Aq. Thereafter, the microphone array MAk generates a packet of audio data in the compression processing unit 25, and transmits the packet of the audio data to the monitoring device 10 via the network NW.

図4は、全方位カメラCAkの内部構成の一例を詳細に示すブロック図である。図4に示す全方位カメラCAkは、CPU41、通信部42、電源管理部44、イメージセンサ45、魚眼レンズ45a、メモリ46及びネットワークコネクタ47を含む構成である。   FIG. 4 is a block diagram showing an example of the internal configuration of the omnidirectional camera CAk in detail. The omnidirectional camera CAk shown in FIG. 4 has a configuration including a CPU 41, a communication unit 42, a power management unit 44, an image sensor 45, a fisheye lens 45a, a memory 46, and a network connector 47.

CPU41は、全方位カメラCAkの各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。CPU41の代わりに、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)等のプロセッサが設けられてもよい。   The CPU 41 performs signal processing for integrally controlling the operation of each unit of the omnidirectional camera CAk, data input / output processing with other units, data calculation processing, and data storage processing. Instead of the CPU 41, a processor such as an MPU (Micro Processing Unit) or a DSP (Digital Signal Processor) may be provided.

例えばCPU41は、監視装置10を操作するユーザの指定により、全方位画像データのうち特定の範囲(方向)の画像を切り出した2次元パノラマ画像データ(つまり、2次元パノラマ変換した画像データ)を生成してメモリ46に保存する。   For example, the CPU 41 generates two-dimensional panoramic image data (that is, two-dimensional panorama-converted image data) obtained by cutting out an image in a specific range (direction) from the omnidirectional image data according to a specification of a user who operates the monitoring device 10. And store it in the memory 46.

イメージセンサ45は、例えばCMOS(Complementary Metal Oxide Semiconductor)センサ、又はCCD(Charge Coupled Device)センサを用いて構成され、魚眼レンズ45aにより集光された撮像エリアからの被写体光の光学像を受光面において撮像処理することで、撮像エリアの全方位画像データを取得する。   The image sensor 45 is configured using, for example, a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor, and captures an optical image of subject light from an imaging area condensed by a fisheye lens 45a on a light receiving surface. By performing the processing, omnidirectional image data of the imaging area is obtained.

魚眼レンズ45aは、撮像エリアの全方位からの被写体光を入射して集光し、イメージセンサ45の受光面(不図示)に被写体光の光学像を結像する。   The fish-eye lens 45a receives and converges subject light from all directions in the imaging area, and forms an optical image of the subject light on a light receiving surface (not shown) of the image sensor 45.

メモリ46は、全方位カメラCAkの動作を規定するためのプログラムや設定値のデータが格納されたROM46zと、全方位画像データ又はその一部の範囲が切り出された切り出し画像データやワークデータを記憶するRAM46yと、全方位カメラCAkに挿抜自在に接続され、各種データが記憶されるメモリカード46xとを有する。   The memory 46 stores a ROM 46z in which a program for defining the operation of the omnidirectional camera CAk and data of set values are stored, and omnidirectional image data or cutout image data or work data in which a part of the range is cut out. And a memory card 46x which is connected to the omnidirectional camera CAk so as to be freely inserted and removed and stores various data.

通信部42は、ネットワークコネクタ47を介して接続されるネットワークNWとの間のデータ通信を制御するネットワークインタフェース(I/F)である。   The communication unit 42 is a network interface (I / F) that controls data communication with a network NW connected via the network connector 47.

電源管理部44は、全方位カメラCAkの各部に直流電源を供給する。また、電源管理部44は、ネットワークコネクタ47を介してネットワークNWに接続される機器に直流電源を供給してもよい。   The power management unit 44 supplies DC power to each unit of the omnidirectional camera CAk. Further, the power management unit 44 may supply DC power to devices connected to the network NW via the network connector 47.

ネットワークコネクタ47は、全方位画像データ又は2次元パノラマ画像データを、ネットワークNWを介して監視装置10に伝送し、また、ネットワークケーブルを介して給電可能なコネクタである。   The network connector 47 is a connector that can transmit omnidirectional image data or two-dimensional panoramic image data to the monitoring device 10 via the network NW and can supply power via a network cable.

図5は、PTZカメラCZkの内部構成の一例を詳細に示すブロック図である。全方位カメラCAkと同様の各部については、図4の各部に対応する符号を付すことでその説明を省略する。PTZカメラCZkは、監視装置10からの画角変更指示により、光軸方向(撮像方向ともいうことがある)を調整可能なカメラである。   FIG. 5 is a block diagram showing an example of the internal configuration of the PTZ camera CZk in detail. The same parts as those in the omnidirectional camera CAk are denoted by the same reference numerals as those in FIG. 4 and the description thereof is omitted. The PTZ camera CZk is a camera that can adjust the optical axis direction (also referred to as an imaging direction) in response to an angle-of-view change instruction from the monitoring device 10.

PTZカメラCZkは、全方位カメラCAkと同様、CPU51、通信部52、電源管理部54、イメージセンサ55、撮像レンズ55a、メモリ56及びネットワークコネクタ57を有する他、撮像方向制御部58及びレンズ駆動モータ59を有する。CPU51は、監視装置10の画角変更指示があると、撮像方向制御部58に画角変更指示を通知する。   Like the omnidirectional camera CAk, the PTZ camera CZk includes a CPU 51, a communication unit 52, a power management unit 54, an image sensor 55, an imaging lens 55a, a memory 56, a network connector 57, an imaging direction control unit 58, and a lens driving motor. 59. When there is an instruction to change the angle of view of the monitoring device 10, the CPU 51 notifies the imaging direction control unit 58 of the instruction to change the angle of view.

撮像方向制御部58は、CPU51から通知された画角変更指示に従い、PTZカメラCZの撮像方向をパン方向及びチルト方向のうち少なくとも1つを制御し、さらに必要に応じて、ズーム倍率を変更するための制御信号をレンズ駆動モータ59に出力する。レンズ駆動モータ59は、この制御信号に従って、撮像レンズ55aを駆動し、その撮像方向(図2に示す光軸L2の方向)を変更するとともに、撮像レンズ55aの焦点距離を調節してズーム倍率を変更する。   The imaging direction control unit 58 controls at least one of the pan direction and the tilt direction for the imaging direction of the PTZ camera CZ according to the angle-of-view change instruction notified from the CPU 51, and further changes the zoom magnification as necessary. Is output to the lens drive motor 59. The lens drive motor 59 drives the imaging lens 55a according to the control signal, changes the imaging direction (the direction of the optical axis L2 shown in FIG. 2), and adjusts the focal length of the imaging lens 55a to increase the zoom magnification. change.

撮像レンズ55aは、1又は2以上のレンズを用いて構成される。撮像レンズ55aでは、撮像方向制御部58からの制御信号に応じたレンズ駆動モータ59の駆動により、パン回転、チルト回転の光軸方向が変更される。   The imaging lens 55a is configured using one or two or more lenses. In the imaging lens 55a, the optical axis directions of the pan rotation and the tilt rotation are changed by driving the lens driving motor 59 according to the control signal from the imaging direction control unit 58.

図6は、監視装置10の内部構成の一例を詳細に示すブロック図である。図6に示す監視装置10は、通信部31と、操作部32と、信号処理部33と、スピーカ装置(SPK)37と、メモリ38と、設定管理部39とを少なくとも含む構成を有する。   FIG. 6 is a block diagram illustrating an example of the internal configuration of the monitoring device 10 in detail. The monitoring device 10 illustrated in FIG. 6 has a configuration including at least a communication unit 31, an operation unit 32, a signal processing unit 33, a speaker device (SPK) 37, a memory 38, and a setting management unit 39.

通信部31は、全方位カメラCAkが送信した全方位画像データ又は2次元パノラマ画像データと、マイクアレイMAkが送信した音声データとを受信して信号処理部33に出力する。   The communication unit 31 receives the omnidirectional image data or the two-dimensional panoramic image data transmitted by the omnidirectional camera CAk and the audio data transmitted by the microphone array MAk, and outputs the audio data to the signal processing unit 33.

操作部32は、ユーザの入力操作の内容を信号処理部33に通知するためのユーザインターフェース(UI:User Interface)であり、例えばマウス、キーボード等のポインティングデバイスで構成される。また、操作部32は、例えば第1モニタMN1や第2モニタMN2の各画面に対応して配置され、ユーザの指やスタイラスペンによって直接入力操作が可能なタッチパネル又はタッチパッドを用いて構成されてもよい。   The operation unit 32 is a user interface (UI) for notifying the content of the user's input operation to the signal processing unit 33, and includes a pointing device such as a mouse and a keyboard. The operation unit 32 is arranged, for example, in correspondence with each screen of the first monitor MN1 and the second monitor MN2, and is configured using a touch panel or a touch pad that can be directly operated by a user's finger or a stylus pen. Is also good.

操作部32は、第1モニタMN1や第2モニタMN2においていずれかの全方位カメラCAkの撮像画像(全方位画像IMG1)に重畳されて表示された音圧ヒートマップ(図15参照)の赤領域RD1がユーザにより指定されると、指定された位置を示す座標データを取得して信号処理部33に出力する。信号処理部33は、全方位カメラCAkに対応するマイクアレイMAkにより収音された音データをメモリ38から読み出し、マイクアレイMAkから、指定された位置に対応する実際の音源位置に向かう方向に指向性を形成した上でスピーカ装置37から出力する。これにより、ユーザは、無人飛行体dnに限らず、ユーザ自身が撮像画像(全方位画像IMG1)上で指定された位置における音が強調された状態で鮮明に確認することができる。   The operation unit 32 is a red area of the sound pressure heat map (see FIG. 15) displayed on the first monitor MN1 and the second monitor MN2 so as to be superimposed on the captured image (omnidirectional image IMG1) of one of the omnidirectional cameras CAk. When RD <b> 1 is specified by the user, coordinate data indicating the specified position is obtained and output to the signal processing unit 33. The signal processing unit 33 reads the sound data collected by the microphone array MAk corresponding to the omnidirectional camera CAk from the memory 38, and directs the sound data from the microphone array MAk toward the actual sound source position corresponding to the designated position. After the characteristics are formed, the signal is output from the speaker device 37. Thereby, the user can clearly check not only the unmanned aerial vehicle dn but also the sound at the position designated by the user himself on the captured image (omnidirectional image IMG1) in an emphasized state.

信号処理部33は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成され、監視装置10の各部の動作を統括して制御するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理及びデータの記憶処理を行う。信号処理部33は、音源方向検知部34、出力制御部35、指向性処理部63、周波数分析部64、対象物検知部65、検知結果判定部66、走査制御部67、検知方向制御部68、マスキングエリア設定部69a及び閾値調整部69bを含む。また、監視装置10は第1モニタMN1や第2モニタMN2に接続される。   The signal processing unit 33 is configured using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor), and performs control processing for integrally controlling the operation of each unit of the monitoring device 10. It performs data input / output processing with other units, data calculation (calculation) processing, and data storage processing. The signal processing unit 33 includes a sound source direction detection unit 34, an output control unit 35, a directivity processing unit 63, a frequency analysis unit 64, an object detection unit 65, a detection result determination unit 66, a scan control unit 67, and a detection direction control unit 68. , A masking area setting unit 69a and a threshold adjustment unit 69b. The monitoring device 10 is connected to the first monitor MN1 and the second monitor MN2.

音源方向検知部34は、例えば公知の白色化相互相関法(CSP(Cross-power Spectrum Phase analysis)法)に従って、マイクアレイMAkにより収音された監視エリア8の音声の音声データを用いて音源位置を推定する。CSP法では、音源方向検知部34は、図11に示す監視エリア8を複数のブロックに分割し、マイクアレイMAkで音が収音されると、ブロック毎に音圧又は音量等の閾値を超える音があるか否かを判定することで、監視エリア8内の音源位置をおおまかに推定することができる。   The sound source direction detection unit 34 uses the sound data of the sound in the monitoring area 8 collected by the microphone array MAk in accordance with, for example, a known whitening cross-correlation method (CSP (Cross-power Spectrum Phase analysis) method). Is estimated. In the CSP method, the sound source direction detection unit 34 divides the monitoring area 8 shown in FIG. 11 into a plurality of blocks, and when a sound is collected by the microphone array MAk, the sound pressure or the volume exceeds a threshold value for each block. By determining whether or not there is a sound, the position of the sound source in the monitoring area 8 can be roughly estimated.

また、音パラメータ導出部としての音源方向検知部34は、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。音源方向検知部34は、音圧の算出結果である算出値を出力制御部35に出力する。この音圧の算出処理は公知技術であり、詳細な処理の説明は割愛する。   In addition, the sound source direction detection unit 34 as a sound parameter derivation unit is configured to generate an omnidirectional image of the monitoring area 8 based on omnidirectional image data captured by the omnidirectional camera CAk and audio data collected by the microphone array MAk. The sound pressure as a sound parameter is calculated for each pixel constituting the data. The sound source direction detection unit 34 outputs a calculated value, which is a calculation result of the sound pressure, to the output control unit 35. The process of calculating the sound pressure is a known technique, and a detailed description of the process is omitted.

設定管理部39は、全方位カメラCAkで撮像された全方位画像データが表示された第1モニタMN1の画面に対してユーザにより指定された位置の座標変換に関する座標変換式を有している。この座標変換式は、例えば全方位カメラCAkの設置位置(図2参照)とPTZカメラCZkの設置位置(図2参照)との物理的な距離差に基づき、全方位画像データ上のユーザの指定位置の座標(つまり、(水平角,垂直角))を、PTZカメラCZkから見た方向の座標に変換するための数式である。   The setting management unit 39 has a coordinate conversion formula for coordinate conversion of a position designated by the user on the screen of the first monitor MN1 on which the omnidirectional image data captured by the omnidirectional camera CAk is displayed. This coordinate conversion formula is based on, for example, a physical distance difference between the installation position of the omnidirectional camera CAk (see FIG. 2) and the installation position of the PTZ camera CZk (see FIG. 2). This is a mathematical expression for converting the coordinates of the position (that is, (horizontal angle, vertical angle)) into coordinates in the direction viewed from the PTZ camera CZk.

信号処理部33は、設定管理部39が保持する上記座標変換式を用いて、PTZカメラCZkの設置位置(図2参照)を基準として、PTZカメラCZkの設置位置から、ユーザによって指定された位置に対応する実際の音源位置に向かう指向方向を示す座標(θMAh,θMAv)を算出する。θMAhは、PTZカメラCZkの設置位置から見て、ユーザにより指定された位置に対応する実際の音源位置に向かう方向の水平角である。θMAvは、PTZカメラCZkの設置位置から見て、ユーザにより指定された位置に対応する実際の音源位置に向かう方向の垂直角である。図2に示すように、全方位カメラCAkとPTZカメラCZkとの距離は既知であり、かつそれぞれの光軸L1,L2は平行であるため、上記の座標変換式の算出処理は、例えば公知の幾何学計算により実現可能である。音源位置は、第1モニタMN1,第2モニタMN2に表示された映像データに対し、ユーザの指又はスタイラスペンの操作によって操作部32から指定された位置に対応する実際の音源位置である。   The signal processing unit 33 uses the above-mentioned coordinate conversion formula held by the setting management unit 39 to set the position specified by the user from the installation position of the PTZ camera CZk with reference to the installation position of the PTZ camera CZk (see FIG. 2). Are calculated (θMAh, θMAv) indicating the directivity direction toward the actual sound source position corresponding to. θMAh is a horizontal angle in the direction toward the actual sound source position corresponding to the position specified by the user when viewed from the installation position of the PTZ camera CZk. θMAv is the vertical angle in the direction toward the actual sound source position corresponding to the position specified by the user, as viewed from the installation position of the PTZ camera CZk. As shown in FIG. 2, the distance between the omnidirectional camera CAk and the PTZ camera CZk is known, and the respective optical axes L1 and L2 are parallel. It can be realized by geometric calculation. The sound source position is an actual sound source position corresponding to the position specified by the operation unit 32 by operating the user's finger or stylus pen with respect to the video data displayed on the first monitor MN1 and the second monitor MN2.

なお、図2に示すように、各実施形態において全方位カメラCAkの光軸方向とマイクアレイMAkの筐体の中心軸とは同軸上となるように全方位カメラCAk及びマイクアレイMAkはそれぞれ配置されている。このため、全方位画像データが表示された第1モニタMN1に対するユーザの指定に応じて全方位カメラCAkが導出するユーザ指定位置の座標は、マイクアレイMAkから見た音の強調方向(指向方向ともいう)と同一にみなすことができる。言い換えると、監視装置10は、全方位画像データが表示された第1モニタMN1(なお、第2モニタMN2でも可)に対するユーザの指定があると、全方位画像データ上の指定位置の座標を全方位カメラCAkに送信する。これにより、全方位カメラCAkは、監視装置10から送信された指定位置の座標を用いて、全方位カメラCAkから見た、ユーザ指定位置に対応する音源位置の方向を示す座標(水平角,垂直角)を算出する。全方位カメラCAkにおける算出処理は、公知技術であるため、説明は割愛する。全方位カメラCAkは、音源位置の方向を示す座標の算出結果を監視装置10に送信する。監視装置10は、全方位カメラCAkにより算出された座標(水平角,垂直角)を、マイクアレイMAkから見た音源位置の方向を示す座標(水平角,垂直角)として使用することができる。   As shown in FIG. 2, in each embodiment, the omnidirectional camera CAk and the microphone array MAk are respectively arranged so that the optical axis direction of the omnidirectional camera CAk and the center axis of the housing of the microphone array MAk are coaxial. Have been. For this reason, the coordinates of the user-specified position derived by the omnidirectional camera CAk in accordance with the user's specification on the first monitor MN1 on which the omnidirectional image data is displayed are determined according to the sound enhancement direction (both directions) from the microphone array MAk. The same). In other words, when the user specifies the first monitor MN1 on which the omnidirectional image data is displayed (or the second monitor MN2 is also acceptable), the monitoring device 10 changes the coordinates of the specified position on the omnidirectional image data to all. Transmit to azimuth camera CAk. Thereby, the omnidirectional camera CAk uses the coordinates of the designated position transmitted from the monitoring device 10 to indicate the coordinates (horizontal angle, vertical angle) indicating the direction of the sound source position corresponding to the user-specified position as viewed from the omnidirectional camera CAk. Angle). The calculation processing in the omnidirectional camera CAk is a known technique, and thus the description is omitted. The omnidirectional camera CAk transmits the calculation result of the coordinates indicating the direction of the sound source position to the monitoring device 10. The monitoring device 10 can use the coordinates (horizontal angle, vertical angle) calculated by the omnidirectional camera CAk as coordinates (horizontal angle, vertical angle) indicating the direction of the sound source position viewed from the microphone array MAk.

但し、全方位カメラCAkとマイクアレイMAkとが同軸上に配置されていない場合には、設定管理部39は、例えば特開2015−029241号に記載されている方法に従って、全方位カメラCAkが導出した座標を、マイクアレイMAkから見た方向の座標に変換する必要がある。   However, when the omnidirectional camera CAk and the microphone array MAk are not coaxially arranged, the setting management unit 39 derives the omnidirectional camera CAk according to a method described in, for example, JP-A-2015-029241. It is necessary to convert the obtained coordinates into coordinates in the direction viewed from the microphone array MAk.

また、設定管理部39は、音源方向検知部34で算出された全方位画像データ又は2次元パノラマ画像データを構成する画素毎の音圧pと比較される第1閾値th1、第2閾値th2及び第3閾値th3(例えば図9参照)を保持する。ここで、音圧pは、音源に関する音パラメータの一例として使用されており、マイクアレイMAで収音される音の大きさを表しており、スピーカ装置37から出力される音の大きさを表す音量とは区別している。第1閾値th1、第2閾値th2及び第3閾値th3は、監視エリア8内で発生した音の音圧と比較される値であり、例えば無人飛行体dnが発する音を判断するための所定値に設定される。また、閾値は、上述した第1閾値th1、第2閾値th2及び第3閾値th3以外にも複数設定可能であり、ここでは簡単に説明するために、例えば第1閾値th1と、これより大きな値である第2閾値th2と、さらに大きな値である第3閾値th3の3つが設定される(第1閾値th1<第2閾値th2<第3閾値th3)。   In addition, the setting management unit 39 includes a first threshold value th1, a second threshold value th2, and a first threshold value th which are compared with the sound pressure p of each pixel constituting the omnidirectional image data or the two-dimensional panoramic image data calculated by the sound source direction detection unit. The third threshold value th3 (for example, see FIG. 9) is held. Here, the sound pressure p is used as an example of a sound parameter relating to a sound source, represents a loudness of a sound collected by the microphone array MA, and represents a loudness of a sound output from the speaker device 37. It is distinguished from volume. The first threshold value th1, the second threshold value th2, and the third threshold value th3 are values to be compared with the sound pressure of the sound generated in the monitoring area 8, and are, for example, predetermined values for determining the sound emitted from the unmanned aerial vehicle dn. Is set to In addition, a plurality of thresholds can be set in addition to the first threshold th1, the second threshold th2, and the third threshold th3 described above. For simplicity, here, for example, the first threshold th1 and a larger threshold are set. Are set, and a third threshold th3, which is a larger value, is set (first threshold th1 <second threshold th2 <third threshold th3).

また、後述するように、出力制御部35により生成される音圧ヒートマップでは、第3閾値th3より大きな音圧が得られた画素の赤領域RD1(図15参照)は、全方位画像データが表示された第1モニタMN1上で、例えば赤色で描画される。また、第2閾値th2より大きく第3閾値th3以下の音圧が得られた画素のピンク領域PD1は、全方位画像データが表示された第1モニタMN1上で、例えばピンク色で描画される。第1閾値th1より大きく第2閾値th2以下の音圧が得られた画素の青領域BD1は、全方位画像データが表示された第1モニタMN1上で、例えば青色で描画される。また、第1閾値th1以下の画素の音圧の領域N1は、全方位画像データが表示された第1モニタMN1で、例えば無色で描画され、つまり、全方位画像データの表示色と何ら変わらない。   Further, as described later, in the sound pressure heat map generated by the output control unit 35, the omnidirectional image data of the red region RD1 (see FIG. 15) of the pixel in which the sound pressure greater than the third threshold th3 is obtained. On the displayed first monitor MN1, for example, it is drawn in red. In addition, the pink area PD1 of the pixel at which the sound pressure is greater than the second threshold th2 and equal to or less than the third threshold th3 is drawn in, for example, pink on the first monitor MN1 on which the omnidirectional image data is displayed. The blue region BD1 of the pixel in which the sound pressure is larger than the first threshold th1 and equal to or smaller than the second threshold th2 is drawn, for example, in blue on the first monitor MN1 on which the omnidirectional image data is displayed. The sound pressure area N1 of the pixel equal to or smaller than the first threshold value th1 is rendered colorless on the first monitor MN1 on which the omnidirectional image data is displayed, that is, the display color of the omnidirectional image data is not different at all. .

スピーカ装置37は、マイクアレイMAkが収音した音声データ、又はマイクアレイMAkが収音して信号処理部33によって指向性が形成された音声データを音声出力する。なお、スピーカ装置37は、監視装置10とは別体の装置として構成されてもよい。   The speaker device 37 outputs sound data picked up by the microphone array MAk, or sound data picked up by the microphone array MAk and having directivity formed by the signal processing unit 33. Note that the speaker device 37 may be configured as a device separate from the monitoring device 10.

メモリ38は、例えばROMやRAMを用いて構成され、例えば一定区間の音データを含む各種データ、設定情報、プログラム等を保持する。また、メモリ38は、個々の無人飛行体dnに固有な音パターンが登録されたパターンメモリ(図7参照)を有する。さらに、メモリ38は、出力制御部35により生成される音圧ヒートマップのデータを記憶する。また、メモリ38には、無人飛行体dnの位置を模式的に表す識別マーク(不図示)が登録されている。ここで用いられる識別マークは、一例として、星形の記号である。なお、識別マークとしては、星形に限らず、円形や四角形、さらには、無人飛行体dnを連想させる「卍」形等の記号や文字であってもよい。また、昼間と夜間とで、識別マークの表示態様を変えてもよく、例えば、昼間には星形で、夜間には星と見間違わないような四角形としてもよい。また、識別マークを動的に変化させてよい。例えば星形の記号を点滅表示したり、回転させたりしてもよく、より一層、ユーザに注意を喚起できる。   The memory 38 is configured using, for example, a ROM or a RAM, and stores various data including sound data of a certain section, setting information, a program, and the like. The memory 38 has a pattern memory (see FIG. 7) in which a sound pattern unique to each unmanned aerial vehicle dn is registered. Further, the memory 38 stores sound pressure heat map data generated by the output control unit 35. In the memory 38, an identification mark (not shown) schematically representing the position of the unmanned aerial vehicle dn is registered. The identification mark used here is, for example, a star symbol. The identification mark is not limited to a star shape, but may be a circle or a square, or a symbol or a character such as a “swastika” shape reminiscent of an unmanned aerial vehicle dn. In addition, the display mode of the identification mark may be changed between daytime and nighttime. For example, it may be a star shape in daytime and a square shape not to be mistaken for a star at nighttime. Further, the identification mark may be dynamically changed. For example, a star-shaped symbol may be displayed blinking or rotated, thereby further raising the user's attention.

図7は、メモリ38に登録されている無人飛行体dnの検知音のパターンの一例を示すタイミングチャートである。図7に示す検知音のパターンは、周波数パターンの組み合わせであり、マルチコプタ型の無人飛行体dnに搭載された4つのロータの回転等によって発生する4つの周波数f1,f2,f3,f4の音を含む。それぞれの周波数の信号は、例えば各ロータに軸支された複数枚の羽の回転に伴って発生する、異なる音の周波数の信号である。   FIG. 7 is a timing chart showing an example of a detection sound pattern of the unmanned aerial vehicle dn registered in the memory 38. The pattern of the detection sound shown in FIG. 7 is a combination of frequency patterns, and sounds of four frequencies f1, f2, f3, and f4 generated by rotation of four rotors mounted on the multi-copter type unmanned aerial vehicle dn, and the like. Including. The signals of the respective frequencies are, for example, signals of different sound frequencies generated with the rotation of a plurality of blades supported by the respective rotors.

図7では、斜線で示された周波数の領域が、音圧の高い領域である。なお、検知音のパターンは、複数の周波数の音の数や音圧だけでなく、その他の音情報を含んでもよい。例えば各周波数の音圧の比率を表す音圧比等が挙げられる。ここでは、一例として無人飛行体dnの検知は、検知音のパターンに含まれる、それぞれの周波数の音圧が閾値を超えているか否かによって判断される。   In FIG. 7, the frequency region indicated by oblique lines is a region where the sound pressure is high. Note that the detected sound pattern may include not only the number and sound pressure of sounds of a plurality of frequencies but also other sound information. For example, a sound pressure ratio or the like representing a ratio of sound pressures at respective frequencies can be used. Here, as an example, the detection of the unmanned aerial vehicle dn is determined based on whether or not the sound pressure of each frequency included in the detection sound pattern exceeds a threshold.

指向性処理部63は、無指向性のマイクロホンM1〜Mqで収音された音信号(音データともいう)とマスキングエリア設定部69aの設定結果とを用い、上述した指向性形成処理(ビームフォーミング)を行い、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアの方向を指向方向とする音データの抽出処理を行う。また、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアの方向の範囲を指向範囲とする音データの抽出処理を行うことも可能である。ここで、指向範囲は、隣接する指向方向を複数含む範囲であり、指向方向と比較すると、ある程度の指向方向の広がりを含むことを意図する。   The directivity processing unit 63 uses the sound signals (also referred to as sound data) collected by the non-directional microphones M1 to Mq and the setting result of the masking area setting unit 69a to perform the above-described directivity forming process (beam forming). ) To perform sound data extraction processing in which the direction of the other area other than the masking area set by the masking area setting unit 69a is set as the directional direction. Further, the directivity processing unit 63 can also perform sound data extraction processing in which the directivity range is a range in the direction of another area other than the masking area set by the masking area setting unit 69a. Here, the directional range is a range including a plurality of adjacent directional directions, and is intended to include a certain degree of spread of the directional directions as compared with the directional directions.

周波数分析部64は、指向性処理部63によって指向方向に抽出処理された音データに対し、周波数分析処理を行う。この周波数分析処理では、指向方向の音データに含まれる周波数及びその音圧が検知される。   The frequency analysis unit 64 performs a frequency analysis process on the sound data extracted in the directivity direction by the directivity processing unit 63. In this frequency analysis processing, the frequency included in the sound data in the directional direction and its sound pressure are detected.

図8は、周波数分析処理の結果として得られた検知音信号の周波数変化の一例を示すタイミングチャートである。図8では、検知音信号(つまり、検知音データ)として、4つの周波数f11,f12,f13,f14及び各周波数の音圧が得られている。図中、不規則に変化する各周波数の変動は、例えば無人飛行体dnが無人飛行体dn自身の機体の姿勢を制御する際に僅かに変化するロータ(回転翼)の回転変動によって起こる。   FIG. 8 is a timing chart showing an example of a frequency change of the detected sound signal obtained as a result of the frequency analysis processing. In FIG. 8, four frequencies f11, f12, f13, f14 and sound pressures at the respective frequencies are obtained as the detected sound signal (that is, detected sound data). In the figure, the fluctuations of each frequency that change irregularly occur, for example, due to the rotation fluctuations of a rotor (rotor wing) that slightly changes when the unmanned aerial vehicle dn controls the attitude of the unmanned aerial vehicle dn itself.

検知部としての対象物検知部65は、周波数分析部64の周波数分析処理結果を用いて、無人飛行体dnの検知処理を行う。具体的には、無人飛行体dnの検知処理では、対象物検知部65は、マスキングエリア設定部69aにより設定されたマスキングエリアを除く他のエリアにおいて、周波数分析処理の結果として得られた検知音のパターン(図8参照)(周波数f11〜f14)と、メモリ38のパターンメモリに予め登録された検知音のパターン(図7参照)(周波数f1〜f4)とを比較する。対象物検知部65は、両者の検知音のパターンが近似するか否かを判定する。   The target object detection unit 65 as a detection unit performs detection processing of the unmanned aerial vehicle dn using the frequency analysis processing result of the frequency analysis unit 64. Specifically, in the detection processing of the unmanned aerial vehicle dn, the target object detection unit 65 detects the detection sound obtained as a result of the frequency analysis processing in the area other than the masking area set by the masking area setting unit 69a. (See FIGS. 8A and 8B) (frequency f11 to f14) and the detected sound pattern (see FIG. 7) (frequency f1 to f4) registered in the pattern memory of the memory 38 in advance. The object detection unit 65 determines whether or not the patterns of the two detected sounds are similar.

両者のパターンが近似するか否かは、例えば以下のように判断される。4つの周波数f1,f2,f3,f4のうち、検知音データに含まれる少なくとも2つの周波数の音圧がそれぞれ閾値を超える場合、音パターンが近似しているとして、対象物検知部65は、無人飛行体dnを検知する。なお、他の条件を満たした場合に無人飛行体dnが検知されてもよい。   Whether or not both patterns are similar is determined, for example, as follows. When the sound pressures of at least two frequencies included in the detected sound data among the four frequencies f1, f2, f3, and f4 each exceed the threshold value, the object detection unit 65 determines that the sound patterns are similar, and The flying object dn is detected. Note that the unmanned aerial vehicle dn may be detected when other conditions are satisfied.

検知結果判定部66は、無人飛行体dnが存在しないと判定された場合、次の指向方向での無人飛行体dnの検知に移行するように検知方向制御部68に指示する。検知結果判定部66は、指向方向の走査の結果、無人飛行体dnが存在すると判定された場合、無人飛行体dnの検知結果を出力制御部35に通知する。なお、この検知結果には、検知された無人飛行体dnの情報が含まれる。無人飛行体dnの情報には、例えば無人飛行体dnの識別情報、収音空間における無人飛行体dnの位置情報(例えば方向情報)が含まれる。   When it is determined that the unmanned aerial vehicle dn does not exist, the detection result determination unit 66 instructs the detection direction control unit 68 to shift to detection of the unmanned aerial vehicle dn in the next directional direction. The detection result determination unit 66 notifies the output control unit 35 of the detection result of the unmanned aerial vehicle dn when it is determined that the unmanned aerial vehicle dn exists as a result of the scanning in the directional direction. The detection result includes information on the detected unmanned aerial vehicle dn. The information on the unmanned aerial vehicle dn includes, for example, identification information of the unmanned aerial vehicle dn and position information (for example, direction information) of the unmanned aerial vehicle dn in the sound collection space.

検知方向制御部68は、検知結果判定部66からの指示に基づいて、収音空間において無人飛行体dnを検知するための方向を制御する。例えば検知方向制御部68は、収音空間全体(つまり、監視エリア8)の中で、音源方向検知部34により推定された音源位置を含む指向範囲BF1(図11参照)の任意の方向を検知方向として設定する。   The detection direction control unit 68 controls a direction for detecting the unmanned aerial vehicle dn in the sound collection space based on an instruction from the detection result determination unit 66. For example, the detection direction control unit 68 detects an arbitrary direction of the directivity range BF1 (see FIG. 11) including the sound source position estimated by the sound source direction detection unit 34 in the entire sound collection space (that is, the monitoring area 8). Set as direction.

走査制御部67は、検知方向制御部68により設定された検知方向を指向方向としてビームフォーミングするよう、指向性処理部63に対して指示する。   The scanning control unit 67 instructs the directivity processing unit 63 to perform beamforming using the detection direction set by the detection direction control unit 68 as the directivity direction.

指向性処理部63は、走査制御部67から指示された指向方向に対して、ビームフォーミングする。なお、初期設定では、指向性処理部63は、音源方向検知部34によって推定された音源位置を含む指向範囲BF1(図11参照)内の初期位置を指向方向BF2とする。指向方向BF2は、検知方向制御部68により、指向範囲BF1の中で次々に設定される。   The directivity processing unit 63 performs beamforming in the directivity direction specified by the scanning control unit 67. In the initial setting, the directivity processing unit 63 sets the initial position in the directivity range BF1 (see FIG. 11) including the sound source position estimated by the sound source direction detection unit 34 as the directivity direction BF2. The pointing direction BF2 is set one after another in the pointing range BF1 by the detection direction control unit 68.

マスキングエリア設定部69aは、全方位カメラCAkにより撮像された監視エリア8の全方位画像データ又は2次元パノラマ画像データとマイクアレイMAkにより収音された監視エリア8の音声データとを基に、全方位画像又は2次元パノラマ画像(つまり、撮像画像)に現れる無人飛行体dnの検知を除外するためのマスキングエリアを設定する。マスキングエリアの設定の詳細については、図13及び図14を参照して後述する。   The masking area setting unit 69a is configured to perform omnidirectional image data or two-dimensional panoramic image data of the monitoring area 8 captured by the omnidirectional camera CAk and audio data of the monitoring area 8 collected by the microphone array MAk. A masking area for excluding detection of the unmanned aerial vehicle dn appearing in the azimuth image or the two-dimensional panoramic image (that is, the captured image) is set. Details of the setting of the masking area will be described later with reference to FIGS.

出力制御部35は、第1モニタMN1、第2モニタMN2及びスピーカ装置37の各動作を制御するとともに、全方位カメラCAkから送信された全方位画像データ或いは2次元パノラマ画像データを第1モニタMN1,第2モニタMN2に出力して表示し、さらに、マイクアレイMAから送信された音声データをスピーカ装置37に音声出力する。また、出力制御部35は、無人飛行体dnが検知された場合、無人飛行体dnを表す識別マーク(不図示)を、全方位画像に重畳して表示するために、第1モニタMN1(第2モニタMN2でも可)に出力する。   The output control unit 35 controls the operations of the first monitor MN1, the second monitor MN2, and the speaker device 37, and outputs the omnidirectional image data or the two-dimensional panoramic image data transmitted from the omnidirectional camera CAk to the first monitor MN1. , And outputs the same to the second monitor MN2 for display, and further outputs the sound data transmitted from the microphone array MA to the speaker device 37 as sound. Further, when the unmanned aerial vehicle dn is detected, the output controller 35 superimposes an identification mark (not shown) representing the unmanned aerial vehicle dn on the omnidirectional image and displays the identification mark on the first monitor MN1 (the 2 monitor MN2).

また、出力制御部35は、マイクアレイMAkにより収音された音声データと全方位カメラCAkにより導出された音源位置の方向を示す座標とを用いて、マイクアレイMAkにより収音された音データの指向性形成処理を行うことで、指向方向の音データを強調処理する。音声データの指向性形成処理は、例えば特開2015−029241号公報に記載されている公知の技術である。   Further, the output control unit 35 uses the audio data collected by the microphone array MAk and the coordinates indicating the direction of the sound source position derived by the omnidirectional camera CAk to generate the sound data collected by the microphone array MAk. By performing the directivity forming process, the sound data in the directivity direction is emphasized. The processing for forming the directivity of audio data is a known technique described in, for example, Japanese Patent Application Laid-Open No. 2015-029241.

また、出力制御部35は、音源方向検知部34により算出された全方位画像データ又は2次元パノラマ画像データを構成する画素毎の音圧値を用いて、全方位画像データ又は2次元パノラマ画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図15に示すような音圧ヒートマップを生成する。   The output control unit 35 uses the omnidirectional image data or the sound pressure value of each pixel constituting the two-dimensional panoramic image data calculated by the sound source direction detecting unit 34 to generate omnidirectional image data or two-dimensional panoramic image data. A sound pressure map in which the calculated value of the sound pressure is assigned to the position of the corresponding pixel for each pixel that constitutes the above. Furthermore, the output control unit 35 performs a color conversion process on the generated sound pressure map for each pixel to a visual image (for example, a colored image) so that the user can visually recognize and easily determine the sound pressure value. And a sound pressure heat map as shown in FIG.

なお、出力制御部35は、画素単位で算出した音圧値を該当する画素の位置に割り当てた音圧マップ又は音圧ヒートマップを生成すると説明したが、一つ一つの画素毎に音圧を算出せず、所定数(例えば2×2個、4×4個)の画素からなる画素ブロック単位で音圧値の平均値を算出し、該当する所定数の画素に対応する音圧値の平均値を割り当てることで、音圧マップや音圧ヒートマップを生成してもよい。   The output control unit 35 has been described to generate a sound pressure map or a sound pressure heat map in which the sound pressure values calculated in pixel units are assigned to the positions of the corresponding pixels, but the sound pressure value is calculated for each pixel. Without calculating, the average value of the sound pressure values is calculated for each pixel block composed of a predetermined number (for example, 2 × 2, 4 × 4) of pixels, and the average of the sound pressure values corresponding to the corresponding predetermined number of pixels is calculated. A sound pressure map or a sound pressure heat map may be generated by assigning a value.

なお、閾値調整部69bの詳細については、後述する第2の実施形態において説明し、ここでは詳細な説明を省略する。   Note that details of the threshold adjustment unit 69b will be described in a second embodiment described later, and a detailed description thereof will be omitted here.

次に、本実施形態の無人飛行体検知システム5の動作について、詳細に説明する。   Next, the operation of the unmanned aerial vehicle detection system 5 of the present embodiment will be described in detail.

図9は、第1の実施形態における、無人飛行体dnの検知及び検知結果の表示の動作の一例を説明するシーケンス図である。無人飛行体検知システム5の各装置(例えば第1モニタMN1、監視装置10、全方位カメラCAk、マイクアレイMAk)にそれぞれ電源が投入されると、無人飛行体検知システム5は動作を開始する。また、図9の説明の前提として、無人飛行体dnの検知を除外するためのマスキングエリアは既に設定され、そのマスキングエリアを示す情報はメモリ38に登録されているとする。   FIG. 9 is a sequence diagram illustrating an example of the operation of detecting the unmanned aerial vehicle dn and displaying the detection result in the first embodiment. When power is supplied to each device (for example, the first monitor MN1, the monitoring device 10, the omnidirectional camera CAk, and the microphone array MAk) of the unmanned vehicle detection system 5, the unmanned vehicle detection system 5 starts operating. 9, it is assumed that a masking area for excluding detection of the unmanned aerial vehicle dn has already been set, and information indicating the masking area has been registered in the memory 38.

初期動作では、監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(S1)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(S2)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。   In the initial operation, the monitoring device 10 issues an image distribution request to the omnidirectional camera CAk (S1). The omnidirectional camera CAk starts the imaging process according to the power-on in accordance with the image distribution request. Further, the monitoring device 10 makes a voice distribution request to the microphone array MAk (S2). The microphone array MA starts a sound collection process according to the power-on according to the voice distribution request.

初期動作が終了すると、全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(S3)。なお、図9では説明を簡単にするために、全方位カメラCAkから全方位画像データが送信されるとして説明しているが、2次元パノラマ画像データが送信されてもよく、図14においても同様である。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(S4)。第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータ(図12、図15参照)を表示する。   When the initial operation ends, the omnidirectional camera CAk transmits data of an omnidirectional image (for example, a still image or a moving image) obtained by imaging to the monitoring device 10 via the network NW (S3). In FIG. 9, for simplicity of description, omnidirectional image data is transmitted from the omnidirectional camera CAk. However, two-dimensional panoramic image data may be transmitted, and the same applies to FIG. 14. It is. The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk into display data such as NTSC, outputs the data to the first monitor MN1, and instructs the display of the omnidirectional image data (S4). When the display data transmitted from the monitoring device 10 is input, the first monitor MN1 displays data of the omnidirectional image IMG1 from the omnidirectional camera CAk (see FIGS. 12 and 15) on the screen.

また、マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(S5)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出し、さらに、監視エリア8内の音源位置を推定する(S6)。この推定された音源位置は、監視装置10が無人飛行体dnを検知する際、初期の指向方向が設定されるために必要となる指向範囲BF1の基準位置として使用される。   Further, the microphone array MAk encodes the audio data of the monitoring area 8 obtained by the sound pickup via the network NW and transmits the encoded audio data to the monitoring device 10 (S5). In the monitoring device 10, the sound source direction detection unit 34 forms omnidirectional image data of the monitoring area 8 based on omnidirectional image data captured by the omnidirectional camera CAk and audio data collected by the microphone array MAk. The sound pressure as a sound parameter is calculated for each pixel to be processed, and the sound source position in the monitoring area 8 is estimated (S6). The estimated sound source position is used as a reference position of the directivity range BF1 necessary for setting the initial directivity when the monitoring device 10 detects the unmanned aerial vehicle dn.

また、監視装置10では、出力制御部35が、音源方向検知部34により算出された全方位画像データを構成する画素毎の音圧値を用いて、全方位画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図15に示すような音圧ヒートマップを生成する(S7)。   Further, in the monitoring device 10, the output control unit 35 uses the sound pressure values of each pixel constituting the omnidirectional image data calculated by the sound source direction detecting unit 34 to configure each omnidirectional image data. For each pixel, a sound pressure map in which the calculated value of the sound pressure is assigned to the position of the pixel is generated. Furthermore, the output control unit 35 performs a color conversion process on the generated sound pressure map for each pixel to a visual image (for example, a colored image) so that the user can visually recognize and easily determine the sound pressure value. Then, a sound pressure heat map as shown in FIG. 15 is generated (S7).

さらに、監視装置10では、信号処理部33が、ステップS5においてマイクアレイMAkから送信された音声データを用いて、マスキングエリア設定部69aにより設定されたマスキングエリアの領域外に対して順次指向性を形成することで、指向性を形成した指向方向毎に無人飛行体dnの検知判定を行う(S8)。この無人飛行体dnの検知判定処理の詳細については、図10及び図11を参照して後述する。   Further, in the monitoring device 10, the signal processing unit 33 uses the audio data transmitted from the microphone array MAk in step S5 to sequentially change the directivity to the outside of the masking area set by the masking area setting unit 69a. Thus, the detection and determination of the unmanned aerial vehicle dn is performed for each directional direction in which the directivity is formed (S8). The details of the detection determination processing of the unmanned aerial vehicle dn will be described later with reference to FIGS.

検知判定処理の結果、無人飛行体dnが検知された場合、監視装置10内の出力制御部35は、第1モニタMN1の画面に表示された全方位画像IMG1に、ステップS7において生成した音圧ヒートマップ、並びにステップS8において検知した指向方向に存在する無人飛行体dnを表す識別マーク(不図示)を重畳して表示することを指示する(S9)。   When the unmanned aerial vehicle dn is detected as a result of the detection determination process, the output control unit 35 in the monitoring device 10 adds the sound pressure generated in step S7 to the omnidirectional image IMG1 displayed on the screen of the first monitor MN1. An instruction is given to superimpose and display the heat map and an identification mark (not shown) indicating the unmanned aerial vehicle dn existing in the directional direction detected in step S8 (S9).

第1モニタMN1は、監視装置10からの指示に従い、全方位画像IMG1に、音圧ヒートマップを合成(重畳)して表示するとともに、無人飛行体dnを表す識別マーク(不図示)を合成(重畳)して表示する(S10)。この後、無人飛行体検知システム5の処理はステップS3に戻り、例えば電源がオフに操作される等の所定のイベントが検知されるまで、ステップS3〜S10の各処理が繰り返される。   The first monitor MN1 composes (superimposes) the sound pressure heat map on the omnidirectional image IMG1 according to the instruction from the monitoring device 10, and also composes an identification mark (not shown) representing the unmanned flying object dn (not shown). (S10). Thereafter, the process of the unmanned aerial vehicle detection system 5 returns to step S3, and the processes of steps S3 to S10 are repeated until a predetermined event such as a power-off operation is detected.

図10は、図9のステップS8の無人飛行体検知判定の動作手順の詳細の一例を説明するフローチャートである。音源検知ユニットUDkにおいて、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリアの情報を用いて、マスキングエリア外であってかつ音源方向検知部34によって推定された音源位置に基づく指向範囲BF1を、指向方向BF2の初期位置として設定する(S21)。マスキングエリアの情報とは、マイクアレイMAkから見たマスキングエリアを向く方向の座標である。   FIG. 10 is a flowchart illustrating an example of the details of the operation procedure for unmanned flying object detection determination in step S8 in FIG. In the sound source detection unit UDk, the directivity processing unit 63 uses the information of the masking area set by the masking area setting unit 69a and is based on the sound source position outside the masking area and estimated by the sound source direction detection unit 34. The pointing range BF1 is set as an initial position of the pointing direction BF2 (S21). The information of the masking area is coordinates in a direction toward the masking area as viewed from the microphone array MAk.

図11は、監視エリア8内で指向方向BF2が順に走査され、無人飛行体dnが検知される様子の一例を示す図である。なお、初期位置は、マスキングエリア設定部69aにより設定されたマスキングエリア外であればよく、音源方向検知部34により推定された監視エリア8の音源位置に基づく指向範囲BF1に限定されなくてもよい。つまり、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、ユーザにより指定された任意の位置を初期位置として設定して、監視エリア8内が順次、走査されてもよい。初期位置が限定されないことで、推定された音源位置に基づく指向範囲BF1に含まれる音源が無人飛行体でなかった場合でも、他の指向方向に飛来する無人飛行体を早期に検知することが可能となる。   FIG. 11 is a diagram illustrating an example of a state in which the directional direction BF2 is sequentially scanned in the monitoring area 8 and the unmanned aerial vehicle dn is detected. Note that the initial position may be outside the masking area set by the masking area setting unit 69a, and need not be limited to the directivity range BF1 based on the sound source position of the monitoring area 8 estimated by the sound source direction detection unit 34. . That is, if the position is outside the masking area set by the masking area setting unit 69a, an arbitrary position specified by the user may be set as the initial position, and the inside of the monitoring area 8 may be sequentially scanned. Since the initial position is not limited, even if the sound source included in the directivity range BF1 based on the estimated sound source position is not an unmanned aerial vehicle, it is possible to early detect an unmanned aerial vehicle flying in another directional direction. Becomes

指向性処理部63は、マイクアレイMAkで収音され、A/D変換器An1〜Aqでデジタル値に変換された音データがメモリ38に一時的に記憶されたか否かを判定する(S22)。記憶されていない場合(S22、NO)、指向性処理部63の処理はステップS21に戻る。   The directivity processing unit 63 determines whether sound data collected by the microphone array MAk and converted into digital values by the A / D converters An1 to Aq is temporarily stored in the memory 38 (S22). . If not stored (S22, NO), the processing of the directivity processing unit 63 returns to step S21.

マイクアレイMAにより収音された音データがメモリ38に一時的に記憶されていると(S22、YES)、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリア外であって、かつ監視エリア8の指向範囲BF1における任意の指向方向BF2に対してビームフォーミングし、この指向方向BF2の音データを抽出処理する(S23)。   If the sound data picked up by the microphone array MA is temporarily stored in the memory 38 (S22, YES), the directivity processing unit 63 is outside the masking area set by the masking area setting unit 69a. The beamforming is performed on an arbitrary directional direction BF2 in the directional range BF1 of the monitoring area 8, and sound data in the directional direction BF2 is extracted (S23).

周波数分析部64は、抽出処理された音データの周波数及びその音圧を検知する(S24)。   The frequency analysis unit 64 detects the frequency of the extracted sound data and its sound pressure (S24).

対象物検知部65は、メモリ38のパターンメモリに登録された検知音のパターンと、周波数分析処理の結果得られた検知音のパターンとを比較し、無人飛行体の検知を行う(S25)。   The target object detection unit 65 compares the detection sound pattern registered in the pattern memory of the memory 38 with the detection sound pattern obtained as a result of the frequency analysis processing, and detects an unmanned aerial vehicle (S25).

検知結果判定部66は、この比較の結果を出力制御部35に通知するとともに、検知方向制御部68へ検知方向移行について通知する(S26)。   The detection result determination unit 66 notifies the output control unit 35 of the result of the comparison, and also notifies the detection direction control unit 68 of the shift in the detection direction (S26).

例えば対象物検知部65は、周波数分析処理の結果得られた検知音のパターンと、メモリ38のパターンメモリに登録されている4つの周波数f1,f2,f3,f4とを比較する。対象物検知部65は、比較の結果、両検知音のパターンにおいて同じ周波数を少なくとも2つ有し、かつ、これらの周波数の音圧が第1閾値th1より大きい場合、両者の検知音のパターンが近似し、無人飛行体dnが存在すると判定する。   For example, the object detection unit 65 compares the detected sound pattern obtained as a result of the frequency analysis processing with four frequencies f1, f2, f3, and f4 registered in the pattern memory of the memory 38. As a result of the comparison, the target object detection unit 65 has at least two same frequencies in both detection sound patterns, and when the sound pressure of these frequencies is greater than the first threshold th1, the two detection sound patterns Approximately, it is determined that the unmanned aerial vehicle dn exists.

なお、ここでは、少なくとも2つの周波数が一致している場合を想定したが、対象物検知部65は、1つの周波数が一致し、この周波数の音圧が第1閾値th1より大きい場合、近似していると判定してもよい。   Here, it is assumed that at least two frequencies match, but the object detection unit 65 approximates when one frequency matches and the sound pressure of this frequency is larger than the first threshold th1. May be determined.

また、対象物検知部65は、それぞれの周波数に対し、許容される周波数の誤差を設定し、この誤差範囲内の周波数は同じ周波数であるとして、上記近似の有無を判定してもよい。   Further, the target object detection unit 65 may set an allowable frequency error for each frequency, and determine whether or not the approximation is performed assuming that the frequencies within the error range are the same frequency.

また、対象物検知部65は、周波数及び音圧の比較に加えて、それぞれの周波数の音の音圧比が略一致することを判定条件に加えて判定してもよい。この場合、判定条件が厳しくなるので、音源検知ユニットUDkは、検知された無人飛行体dnを予め登録された対象物であるとして特定し易くなり、無人飛行体dnの検知精度を向上できる。   In addition to the comparison between the frequency and the sound pressure, the target object detection unit 65 may determine that the sound pressure ratios of the sounds of the respective frequencies are substantially the same, in addition to the determination condition. In this case, since the determination condition becomes strict, the sound source detection unit UDk can easily identify the detected unmanned aerial vehicle dn as a pre-registered target object, and can improve the detection accuracy of the unmanned aerial vehicle dn.

検知結果判定部66は、ステップS26の結果、無人飛行体dnが存在するか存在しないかを判別する(S27)。   The detection result determination unit 66 determines whether or not the unmanned aerial vehicle dn exists as a result of Step S26 (S27).

無人飛行体dnが存在する場合(S27、YES)、検知結果判定部66は、出力制御部35に無人飛行体dnが存在する旨(無人飛行体dnの検知結果)を通知する(S28)。   When the unmanned vehicle dn exists (S27, YES), the detection result determination unit 66 notifies the output control unit 35 that the unmanned vehicle dn exists (the detection result of the unmanned vehicle dn) (S28).

一方、無人飛行体dnが存在しない場合(S27、NO)、検知結果判定部66は、監視エリア8内における走査対象の指向方向BF2を次の異なる方向に移動する旨を走査制御部67に指示する。走査制御部67は、検知結果判定部66からの指示に応じて、監視エリア8内における走査対象の指向方向BF2を次の異なる方向に移動させる(S29)。なお、無人飛行体dnの検知結果の通知は、1つの指向方向の検知処理が終了したタイミングでなく、全方位走査完了した後にまとめて行われてもよい。   On the other hand, when the unmanned aerial vehicle dn does not exist (S27, NO), the detection result determination unit 66 instructs the scan control unit 67 to move the directional direction BF2 of the scan target in the monitoring area 8 to the next different direction. I do. The scanning control unit 67 moves the directional direction BF2 of the scanning target in the monitoring area 8 in the next different direction according to the instruction from the detection result determination unit 66 (S29). The notification of the detection result of the unmanned aerial vehicle dn may be collectively performed after the completion of the omnidirectional scan, not at the timing when the detection processing of one directional direction is completed.

また、監視エリア8で指向方向BF2を順番に移動させる順序は、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、例えば監視エリア8の指向範囲BF1内或いは監視エリア8の全範囲内で、外側の円周から内側の円周に向かうように、又は内側の円周から外側の円周に向かうように、螺旋状(渦巻状)の順序でもよい。   The order in which the directional directions BF2 are sequentially moved in the monitoring area 8 is, for example, within the directional range BF1 of the monitoring area 8 or within the entire range of the monitoring area 8 if it is outside the masking area set by the masking area setting section 69a. The order of spiral (spiral) may be such that the direction goes from the outer circumference to the inner circumference, or from the inner circumference to the outer circumference.

また、検知方向制御部68は、一筆書きのように連続して指向方向を走査するのではなく、監視エリア8内に予め位置を設定しておき、マスキングエリア設定部69aにより設定されたマスキングエリア外であれば、任意の順序で各位置に指向方向BF2を移動させてもよい。これにより、監視装置10は、例えば無人飛行体dnが侵入し易い位置から検知処理を開始でき、検知処理を効率化できる。   Also, the detection direction control unit 68 sets a position in the monitoring area 8 in advance instead of continuously scanning the directivity direction like a single stroke, and sets the masking area set by the masking area setting unit 69a. Otherwise, the directional direction BF2 may be moved to each position in any order. Thereby, the monitoring apparatus 10 can start the detection processing from a position where the unmanned aerial vehicle dn easily enters, for example, and can improve the efficiency of the detection processing.

走査制御部67は、監視エリア8における全方位の走査を完了したか否かを判定する(S30)。全方位の走査が完了していない場合(S30、NO)、信号処理部33の処理はステップS23に戻り、ステップS23〜S30までの処理が繰り返される。つまり、指向性処理部63は、マスキングエリア設定部69aにより設定されたマスキングエリア外において、ステップS29で移動された位置の指向方向BF2にビームフォーミングし、この指向方向BF2の音データを抽出処理する。これにより、音源検知ユニットUDkは、1つの無人飛行体dnが検知されても、他にも存在する可能性のある無人飛行体dnの検知を続行するので、複数の無人飛行体dnの検知が可能である。   The scanning control unit 67 determines whether the omnidirectional scanning in the monitoring area 8 has been completed (S30). When the omnidirectional scanning is not completed (S30, NO), the process of the signal processing unit 33 returns to Step S23, and the processes of Steps S23 to S30 are repeated. That is, the directivity processing unit 63 performs beamforming in the directivity direction BF2 of the position moved in step S29 outside the masking area set by the masking area setting unit 69a, and extracts sound data in the directivity direction BF2. . With this, even when one unmanned aerial vehicle dn is detected, the sound source detection unit UDk continues to detect other unmanned aerial vehicles dn, so that detection of a plurality of unmanned aerial vehicles dn can be performed. It is possible.

一方、ステップS30で全方位の走査が完了すると(S30、YES)、指向性処理部63は、メモリ38に一時的に記憶された、マイクアレイMAkで収音された音データを消去する(S31)。また、指向性処理部63は、マイクアレイMAkで収音された音データをメモリ38から消去し、かつレコーダRCに保存してもよい。   On the other hand, when the omnidirectional scanning is completed in step S30 (S30, YES), the directivity processing unit 63 deletes the sound data temporarily stored in the memory 38 and collected by the microphone array MAk (S31). ). Further, the directivity processing unit 63 may delete the sound data collected by the microphone array MAk from the memory 38 and store the sound data in the recorder RC.

音データの消去後、信号処理部33は、無人飛行体dnの検知処理を終了するか否かを判別する(S32)。この無人飛行体dnの検知処理の終了は、所定のイベントに応じて行われる。例えばステップS26で無人飛行体dnが検知されなかった回数をメモリ38に保持し、この回数が所定回数以上となった場合、無人飛行体dnの検知処理を終了してもよい。また、タイマによるタイムアップや、操作部32が有するUI(User Interface)(不図示)に対するユーザ操作に基づいて、信号処理部33が無人飛行体dnの検知処理を終了してもよい。また、監視装置10の電源がオフとなる場合に、終了してもよい。   After the erasure of the sound data, the signal processing unit 33 determines whether or not to terminate the detection processing of the unmanned aerial vehicle dn (S32). The process of detecting the unmanned aerial vehicle dn ends in response to a predetermined event. For example, the number of times that the unmanned aerial vehicle dn is not detected in step S26 may be stored in the memory 38, and when the number of times is equal to or more than a predetermined number, the detection processing of the unmanned aerial vehicle dn may be terminated. Further, the signal processing unit 33 may end the detection processing of the unmanned aerial vehicle dn based on a time-up by a timer or a user operation on a UI (User Interface) (not shown) of the operation unit 32. Further, when the power of the monitoring apparatus 10 is turned off, the processing may be ended.

なお、ステップS24の処理では、周波数分析部64は、周波数を分析するとともに、その周波数の音圧も計測する。検知結果判定部66は、周波数分析部64によって測定された音圧レベルが時間経過とともに徐々に大きくなっていると、音源検知ユニットUDkに対して無人飛行体dnが接近していると判定してもよい。   In the process of step S24, the frequency analysis unit 64 analyzes the frequency and measures the sound pressure of the frequency. The detection result determination unit 66 determines that the unmanned aerial vehicle dn is approaching the sound source detection unit UDk when the sound pressure level measured by the frequency analysis unit 64 gradually increases with time. Is also good.

例えば時刻t11で測定された所定の周波数の音圧レベルが、時刻t11よりも後の時刻t12で測定された同じ周波数の音圧レベルよりも小さい場合、時間経過とともに音圧が大きくなっており、無人飛行体dnが接近していると判定されてもよい。また、3回以上にわたって音圧レベルを測定し、統計値(例えば分散値、平均値、最大値、最小値等)の推移に基づいて、無人飛行体dnが接近していると判定されてもよい。   For example, when the sound pressure level of the predetermined frequency measured at time t11 is smaller than the sound pressure level of the same frequency measured at time t12 after time t11, the sound pressure increases with time, It may be determined that the unmanned aerial vehicle dn is approaching. Further, even if the sound pressure level is measured three or more times and it is determined that the unmanned aerial vehicle dn is approaching based on the transition of the statistical value (for example, variance value, average value, maximum value, minimum value, etc.). Good.

また、測定された音圧レベルが警戒レベルである警戒閾値より大きい場合に、検知結果判定部66が、無人飛行体dnが警戒エリアに侵入したと判定してもよい。   Further, when the measured sound pressure level is larger than the alert threshold, which is the alert level, the detection result determination unit 66 may determine that the unmanned aerial vehicle dn has entered the alert area.

なお、警戒閾値は、例えば上述した第3閾値th3よりも大きな値である。警戒エリアは、例えば監視エリア8と同じエリア、又は監視エリア8に含まれ監視エリア8よりも狭いエリアである。警戒エリアは、例えば無人飛行体dnの侵入が規制されたエリアである。また、無人飛行体dnの接近判定や侵入判定は、検知結果判定部66により実行されてもよい。   Note that the alert threshold is a value larger than, for example, the third threshold th3 described above. The guard area is, for example, the same area as the monitoring area 8 or an area included in the monitoring area 8 and smaller than the monitoring area 8. The alert area is, for example, an area where entry of the unmanned aerial vehicle dn is restricted. In addition, the approach determination and the intrusion determination of the unmanned aerial vehicle dn may be executed by the detection result determination unit 66.

図12は、マスキングエリアMSK3が設定されていない場合の第1モニタMN1の表示画面例を示す図である。図12では、第1モニタMN1において、全方位画像IMG1の図12紙面の右上側に、監視装置10により検知された無人飛行体dnが映っている。さらに、無人飛行体dnや、全方位カメラCAkの撮像画角の範囲内において発生している音源にそれぞれ対応する音圧ヒートマップが重畳されて表示されている。   FIG. 12 is a diagram illustrating an example of a display screen of the first monitor MN1 when the masking area MSK3 is not set. In FIG. 12, the unmanned aerial vehicle dn detected by the monitoring device 10 is shown on the first monitor MN1 on the upper right side of the omnidirectional image IMG1 in FIG. 12. Further, sound pressure heat maps respectively corresponding to sound sources generated within the range of the angle of view of the unmanned aerial vehicle dn and the omnidirectional camera CAk are superimposed and displayed.

図9を参照して説明したように、本実施形態では、音源方向検知部34により算出された画素毎の音圧値が第1閾値th1以下であれば無色で表示され、音圧値が第1閾値th1より大きくかつ第2閾値th2以下であれば青色で表示され、音圧値が第2閾値th2より大きくかつ第3閾値th3以下であればピンク色で表示され、音圧値が第3閾値th3より大きければ赤色で表示されている。   As described with reference to FIG. 9, in the present embodiment, if the sound pressure value of each pixel calculated by the sound source direction detection unit 34 is equal to or less than the first threshold th <b> 1, the sound pressure value is displayed in colorless. If the sound pressure value is larger than the first threshold value th1 and equal to or less than the second threshold value th2, the sound pressure value is displayed in blue. If the sound pressure value is larger than the second threshold value th2 and equal to or less than the third threshold value th3, the sound pressure value is displayed in pink. If it is larger than the threshold th3, it is displayed in red.

図12では、例えば無人飛行体dnの筐体中心の周囲の回転翼やロータ付近では音圧値が第3閾値th3より大きいため、赤領域RD1,RD2,RD3,RD4で描画されている。同様に、赤領域の周囲には、赤領域の次に音圧値が大きいことを示すピンク領域PD1,PD2,PD3,PD4が描画されている。同様に、さらにピンク領域の周囲には、ピンク領域の次に音圧値が大きいことを示す青領域BD1,BD2,BD3,BD4が描画されている。   In FIG. 12, for example, in the vicinity of the rotor and the rotor around the center of the housing of the unmanned aerial vehicle dn, since the sound pressure value is larger than the third threshold th3, it is drawn in the red regions RD1, RD2, RD3, and RD4. Similarly, pink areas PD1, PD2, PD3, and PD4 indicating that the sound pressure value is the second largest after the red area are drawn around the red area. Similarly, blue areas BD1, BD2, BD3, and BD4 indicating that the sound pressure value is the second largest after the pink area are drawn around the pink area.

また、図12では、オフィスビルにおいても音源が存在していることが示されており、音源方向検知部34により算出された画素毎の音圧値が第3閾値th3を超えている画素又はその集合に対しては赤領域R1,R2,R3,R4,R5,R6,R7が描画されている。同様に、オフィスビルの赤領域の周囲には、赤領域の次に音圧値が大きいことを示すピンク領域P1,P2,P3,P4,P5が描画されている。同様に、オフィスビルのピンク領域の周囲には、ピンク領域の次に音圧値が大きいことを示す青領域B1,B2が描画されている。なお、全方位画像IMG1のその他の領域では、音圧値が第1閾値th1以下であるため、無色領域N1で描画されており、背景となる全方位画像IMG1の視認性を劣化させていない。   FIG. 12 also shows that a sound source is also present in the office building, and the sound pressure value for each pixel calculated by the sound source direction detection unit 34 exceeds the third threshold th3 or a pixel whose sound pressure value exceeds the third threshold th3. Red regions R1, R2, R3, R4, R5, R6, and R7 are drawn for the set. Similarly, around the red area of the office building, pink areas P1, P2, P3, P4, and P5 indicating that the sound pressure value is the second largest after the red area are drawn. Similarly, blue regions B1 and B2 indicating that the sound pressure value is the second largest after the pink region are drawn around the pink region of the office building. In other regions of the omnidirectional image IMG1, since the sound pressure value is equal to or less than the first threshold th1, it is drawn in the colorless region N1, and the visibility of the background omnidirectional image IMG1 is not deteriorated.

次に、本実施形態におけるマスキングエリアの設定の詳細について、図13、図14及び図15を参照して説明する。図13は、自動学習処理時におけるマスキングエリアの表示例を時系列に示す説明図である。図14は、第1の実施形態における、マスキングエリアの設定の動作手順の一例を説明するシーケンス図である。図15は、マスキングエリアが設定された場合の第1モニタの表示画面例を示す図である。図14に示すシーケンスは、図9に示すシーケンスの動作の開始前に実行される、所謂、初期設定である。   Next, details of the setting of the masking area in the present embodiment will be described with reference to FIGS. 13, 14, and 15. FIG. FIG. 13 is an explanatory diagram showing a display example of the masking area in the time series in the automatic learning process. FIG. 14 is a sequence diagram illustrating an example of an operation procedure for setting a masking area according to the first embodiment. FIG. 15 is a diagram illustrating an example of a display screen of the first monitor when a masking area is set. The sequence illustrated in FIG. 14 is a so-called initial setting that is executed before the operation of the sequence illustrated in FIG. 9 starts.

図14において、ユーザは例えば操作部32を用いて、監視装置10に対して、マスキングエリアの自動学習処理の開始を指示する(T1)。監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(T2)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(T3)。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(T4)。これにより、第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータを表示する(図13紙面左上参照)。   In FIG. 14, the user instructs the monitoring device 10 to start the automatic learning process of the masking area by using, for example, the operation unit 32 (T1). The monitoring device 10 makes an image distribution request to the omnidirectional camera CAk (T2). The omnidirectional camera CAk starts the imaging process according to the power-on in accordance with the image distribution request. The omnidirectional camera CAk transmits data of an omnidirectional image (for example, a still image or a moving image) obtained by imaging to the monitoring device 10 via the network NW (T3). The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk into display data such as NTSC, outputs the data to the first monitor MN1, and instructs display of the omnidirectional image data (T4). As a result, when the display data transmitted from the monitoring device 10 is input, the first monitor MN1 displays the data of the omnidirectional image IMG1 from the omnidirectional camera CAk on the screen (see the upper left of FIG. 13).

また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(T5)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(T6)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。   Further, the monitoring device 10 makes a voice distribution request to the microphone array MAk (T5). The microphone array MA starts a sound collection process according to the power-on according to the voice distribution request. The microphone array MAk encodes the audio data of the monitoring area 8 obtained by the sound collection via the network NW and transmits the encoded audio data to the monitoring device 10 (T6). In the monitoring device 10, the sound source direction detection unit 34 forms omnidirectional image data of the monitoring area 8 based on omnidirectional image data captured by the omnidirectional camera CAk and audio data collected by the microphone array MAk. The sound pressure as a sound parameter is calculated for each pixel to be processed.

さらに、マスキングエリア設定部69aは、音源方向検知部34による音圧の算出値が所定のマスキングエリア閾値(例えば上述した第3閾値th3)以上となった画素又はその集合を判定する。マスキングエリア設定部69aは、判定された画素又はその集合を示す情報を、マスキングエリアを示す情報としてメモリ38に保存して登録する(T7)。マスキングエリアを示す情報とは、具体的には、音圧の算出値がマスキングエリア閾値以上となった画素の位置を特定する全方位画像上の座標である。マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリア(つまり、音圧の算出値がマスキングエリア閾値以上となった画素又はその集合)を所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T8)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面右上参照)。なお、図13紙面右上の全方位画像IMG1では、マスキングエリアMSK1は、所定色で塗りつぶされたエリアの全体を示す。   Further, the masking area setting unit 69a determines a pixel or a set of pixels for which the calculated value of the sound pressure by the sound source direction detection unit 34 is equal to or larger than a predetermined masking area threshold (for example, the above-described third threshold th3). The masking area setting section 69a stores and registers the information indicating the determined pixel or the set thereof in the memory 38 as the information indicating the masking area (T7). The information indicating the masking area is, specifically, coordinates on an omnidirectional image that specifies the position of the pixel whose calculated value of the sound pressure is equal to or larger than the masking area threshold. The masking area setting unit 69a, via the output control unit 35, sets the information indicating the masking area and the masking area (that is, a pixel or a set of pixels whose sound pressure calculated value is equal to or larger than the masking area threshold) in a predetermined color (for example, red). ) Is output to the first monitor MN1 (T8). Thereby, the first monitor MN1 performs a process of painting the position of the coordinates corresponding to the masking area MSK1 on the omnidirectional image IMG with a predetermined color in accordance with the instruction transmitted from the monitoring device 10 (see the upper right of FIG. 13). . In the omnidirectional image IMG1 on the upper right side of FIG. 13, the masking area MSK1 indicates the entire area painted in a predetermined color.

同様に、マイクアレイMAは、監視装置10からの音声配信要求に従い、ネットワークNWを介して、継続して行っている収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(T9)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出する。   Similarly, the microphone array MA encodes the audio data of the monitoring area 8 obtained by the continuous sound pickup via the network NW in accordance with the audio distribution request from the monitoring device 10 and sends the encoded audio data to the monitoring device 10. Transmit (T9). In the monitoring device 10, the sound source direction detection unit 34 forms omnidirectional image data of the monitoring area 8 based on omnidirectional image data captured by the omnidirectional camera CAk and audio data collected by the microphone array MAk. The sound pressure as a sound parameter is calculated for each pixel to be processed.

さらに、マスキングエリア設定部69aは、音源方向検知部34による音圧の算出値がマスキングエリア閾値以上となった画素又はその集合を判定する。マスキングエリア設定部69aは、判定された画素又はその集合を示す情報を、マスキングエリアを示す情報としてメモリ38に保存して登録する(T10)。マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリアを所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T11)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1に対して累積されたマスキングエリアMSK2に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面右下参照)。なお、図13紙面右下の全方位画像IMG1では、マスキングエリアMSK2は、所定色で塗りつぶされたエリアの全体を示す。   Further, the masking area setting unit 69a determines a pixel or a set of pixels for which the calculated value of the sound pressure by the sound source direction detection unit 34 is equal to or larger than the masking area threshold. The masking area setting unit 69a stores information indicating the determined pixel or the set thereof in the memory 38 as information indicating the masking area and registers the information (T10). The masking area setting unit 69a outputs information indicating the masking area and an instruction to paint the masking area with a predetermined color (for example, red) to the first monitor MN1 via the output control unit 35 (T11). Thereby, the first monitor MN1 paints the position of the coordinates corresponding to the masking area MSK2 accumulated with respect to the masking area MSK1 on the omnidirectional image IMG in a predetermined color according to the instruction transmitted from the monitoring device 10. (See the lower right of FIG. 13). In the omnidirectional image IMG1 on the lower right side of FIG. 13, the masking area MSK2 indicates the entire area painted with a predetermined color.

ここで、操作部32を用いたユーザ操作により、監視装置10に対して、マスキングエリアの自動学習処理の終了が指示される(T12)。監視装置10は、この指示により、マイクアレイMAkに対し、音声配信停止要求を送信する(T13)。これにより、マイクアレイMAkは、収音により得た監視エリア8の音声データの監視装置10への配信(送信)を停止する。   Here, a user operation using the operation unit 32 instructs the monitoring apparatus 10 to end the automatic learning process of the masking area (T12). In response to this instruction, the monitoring device 10 transmits a voice distribution stop request to the microphone array MAk (T13). As a result, the microphone array MAk stops distribution (transmission) of the audio data of the monitoring area 8 obtained by the sound collection to the monitoring device 10.

また、操作部32を用いたユーザ操作により、図13紙面右下のマスキングエリアMSK2が示された第1モニタMN1に対して、マスキングエリアの修正(つまり、マスキングエリアの追加、削除)の操作がなされると(T14)、監視装置10では、マスキングエリア設定部69aは、ユーザ操作により、指定された全方位画像IMG1上の位置をマスキングエリアとして追加し、又はマスキングエリアから削除した上で、その修正後のマスキングエリアMSK3を示す情報をメモリ38に保存して登録する(T15)。   In addition, a user operation using the operation unit 32 causes an operation of correcting the masking area (that is, adding or deleting a masking area) to the first monitor MN1 indicating the masking area MSK2 at the lower right of FIG. When this is performed (T14), in the monitoring device 10, the masking area setting unit 69a adds a position on the designated omnidirectional image IMG1 as a masking area or deletes the position from the masking area by a user operation. Information indicating the corrected masking area MSK3 is stored and registered in the memory 38 (T15).

例えばステップT14では、図13紙面右下のマスキングエリアMSK2が示された第1モニタMN1に対して、ユーザの判断の下でマスキングエリアとして不要な領域GOM1,GOM2,GOM3を削除するための操作(例えば範囲指定操作)がなされたり、マスキングエリアMSK2により覆われる背景のオフィスビル一帯をマスキングエリアとして追加するための操作(つまり、描画操作)がなされたりする。   For example, in step T14, an operation for deleting the unnecessary areas GOM1, GOM2, and GOM3 as masking areas under the judgment of the user is performed on the first monitor MN1 indicating the masking area MSK2 at the lower right of FIG. For example, a range designation operation is performed, or an operation (that is, a drawing operation) for adding an entire office building in the background covered by the masking area MSK2 as a masking area is performed.

マスキングエリア設定部69aは、出力制御部35を介して、マスキングエリアを示す情報とマスキングエリアを所定色(例えば赤色)で塗りつぶす旨の指示を第1モニタMN1に出力する(T16)。これにより、第1モニタMN1は、監視装置10から送信された指示により、全方位画像IMG上の、マスキングエリアMSK1,MSK2に対して累積されたマスキングエリアMSK3に対応する座標の位置を所定色で塗りつぶす処理を行う(図13紙面左下参照)。なお、図13紙面左下の全方位画像IMG1では、マスキングエリアMSK3は、所定色で塗りつぶされたエリアの全体を示す。従って、上空はマスキングエリアMSK3から設定除外されたことになる。   The masking area setting unit 69a outputs information indicating the masking area and an instruction to paint the masking area with a predetermined color (for example, red) to the first monitor MN1 via the output control unit 35 (T16). Accordingly, the first monitor MN1 displays the position of the coordinates corresponding to the masking area MSK3 accumulated with respect to the masking areas MSK1 and MSK2 on the omnidirectional image IMG in a predetermined color according to the instruction transmitted from the monitoring device 10. A painting process is performed (see the lower left of FIG. 13). In the omnidirectional image IMG1 at the lower left of FIG. 13, the masking area MSK3 indicates the entire area painted in a predetermined color. Therefore, the sky is excluded from the masking area MSK3.

これにより、図14に示すシーケンスによれば、本実施形態の検知対象としての無人飛行体dnは、全方位カメラCAkの撮像画角の範囲内において、周囲に音源が殆ど存在していない上空を飛翔する傾向があることに鑑み、マイクアレイMAkからの音声データの解析によってマスキングエリア閾値以上となる音圧が発した音源が上空では見当たらなかったので、上空を無人飛行体dnの検知対象として設定可能となる。その一方で、周囲に音源が数多く存在するようなオフィスビル一帯をマスキングエリアと設定することで、無人飛行体dn以外の音源を本来検知したい無人飛行体dnとして誤検知してしまうことを回避することができ、無人飛行体dnの検知精度及び検知処理速度を向上することが可能となる。   Accordingly, according to the sequence illustrated in FIG. 14, the unmanned aerial vehicle dn as the detection target of the present embodiment is positioned above the sky where almost no sound source exists within the range of the angle of view of the omnidirectional camera CAk. In view of the tendency to fly, analysis of the audio data from the microphone array MAk revealed that no sound source with a sound pressure higher than the masking area threshold was found in the sky, so the sky was set as the detection target of the unmanned aerial vehicle dn. It becomes possible. On the other hand, by setting an entire office building where a large number of sound sources are present in the surrounding area as a masking area, it is possible to avoid erroneous detection of sound sources other than the unmanned aerial vehicle dn as the unmanned aerial vehicle dn that should originally be detected. It is possible to improve the detection accuracy and the detection processing speed of the unmanned aerial vehicle dn.

言い換えると、図15に示すように、全方位画像IMG1において、マスキングエリアMSK3外の他のエリアにおいてのみ無人飛行体dnの検知がなされる。その結果として、図12に示す全方位画像IMG1と比べて、マスキングエリアMSK3を除く他のエリアにおいて検知された無人飛行体dnの周囲の音源位置に、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップが重畳して表示されている。その一方で、マスキングエリアMSK3において検知された無人飛行体ではない他の音源(例えばオフィスビルにいる人の怒鳴り声)の周囲には、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップの重畳表示は省かれている。   In other words, as shown in FIG. 15, in the omnidirectional image IMG1, detection of the unmanned aerial vehicle dn is performed only in another area outside the masking area MSK3. As a result, as compared with the omnidirectional image IMG1 shown in FIG. 12, the sound pressure value of the sound generated at the sound source position at the sound source position around the unmanned aerial vehicle dn detected in other areas except the masking area MSK3 Are superimposed and displayed on a sound pressure heat map converted into a visual image. On the other hand, the sound pressure value of the sound generated at the position of the sound source is displayed in a visual image around another sound source that is not an unmanned aerial vehicle detected in the masking area MSK3 (for example, a bellow of a person in an office building). The superimposed display of the converted sound pressure heat map is omitted.

なお、本実施形態では、マスキングエリア設定部69aによりマスキングエリアが設定された場合に、図15に示すように、無人飛行体dnの周囲に、その音源位置で発生した音の音圧値が視覚画像に変換された音圧ヒートマップが重畳して表示されている。しかし、マスキングエリア設定部69aによりマスキングエリアが設定されていない場合には、図12に示すように、全方位画像IMG1上において、検知された音源の音圧値に対応する音圧ヒートマップが重畳して表示されても構わない。   In the present embodiment, when the masking area is set by the masking area setting unit 69a, as shown in FIG. 15, the sound pressure value of the sound generated at the sound source position around the unmanned air vehicle dn is visually recognized. The sound pressure heat map converted to the image is displayed in a superimposed manner. However, when the masking area is not set by the masking area setting unit 69a, the sound pressure heat map corresponding to the sound pressure value of the detected sound source is superimposed on the omnidirectional image IMG1, as shown in FIG. May be displayed.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の撮像画像(全方位画像IMG1)に現れる無人飛行体dnの検知を除外するためのマスキングエリアをマスキングエリア設定部69aにより設定する。監視装置10は、マイクアレイMAkにより収音された音声データとマスキングエリアを示す情報とを用いて、マスキングエリアを除く他のエリアにおい無人飛行体dnを検知する。また、監視装置10は、マスキングエリア外で無人飛行体dnを検知した場合に、全方位画像IMG1における無人飛行体dnの音源位置に、その音源位置における音の大きさを示す音源視覚画像(つまり、赤領域RD1,ピンク領域PD1,青領域BD1,…の視覚画像)を重畳して第1モニタMN1に表示する。   As described above, in the unmanned aerial vehicle detection system 5 of the present embodiment, the monitoring device 10 uses the voice data collected by the microphone array MAk to perform an unmanned flight appearing in the captured image (omnidirectional image IMG1) of the monitoring area 8. A masking area for excluding the detection of the body dn is set by the masking area setting unit 69a. The monitoring device 10 detects the unmanned aerial vehicle dn in an area other than the masking area using the audio data collected by the microphone array MAk and the information indicating the masking area. Further, when detecting the unmanned aerial vehicle dn outside the masking area, the monitoring device 10 displays a sound source visual image indicating the loudness at the sound source position on the sound source position of the unmanned aerial vehicle dn in the omnidirectional image IMG1 (that is, , Red area RD1, pink area PD1, blue area BD1,...) Are superimposed and displayed on first monitor MN1.

これにより、無人飛行体検知システム5は、全方位カメラCAkの撮像対象となる監視エリア8に対して、検知対象となる無人飛行体dnの検知処理を除外するためのマスキングエリアを自動的に設定できるので、マスキングエリア内の音源位置の物体を無人飛行体dnとして誤検知する確率を低減でき、無人飛行体dnの検知精度の劣化を抑制することができる。また、無人飛行体検知システム5は、全方位カメラCAkの撮像画角(つまり、全方位画像IMG1の全域)にわたって無人飛行体dnを検知する必要がなく、マスキングエリアを省いたエリアに対して無人飛行体dnの検知判定を行えばよいので、無人飛行体dnの検知処理も一層向上できる。   Accordingly, the unmanned aerial vehicle detection system 5 automatically sets a masking area for excluding the detection processing of the unmanned aerial vehicle dn to be detected from the monitoring area 8 to be imaged by the omnidirectional camera CAk. Therefore, the probability of erroneously detecting the object at the sound source position in the masking area as the unmanned aerial vehicle dn can be reduced, and deterioration in the detection accuracy of the unmanned aerial vehicle dn can be suppressed. Further, the unmanned aerial vehicle detection system 5 does not need to detect the unmanned aerial vehicle dn over the imaging angle of view of the omnidirectional camera CAk (that is, the entire region of the omnidirectional image IMG1), Since the detection determination of the flying object dn may be performed, the detection processing of the unmanned flying object dn can be further improved.

また、無人飛行体検知システム5では、音源方向検知部34は、マイクアレイMAkにより収音された音声データを基に、監視エリア8の音の大きさを特定する音圧を、全方位画像IMG1を構成する画素の所定単位毎に算出する。マスキングエリア設定部69aは、音圧の算出値が音の大きさに関するマスキングエリア閾値以上となった音源の位置又はその位置を含む領域を第1モニタMN1に重畳して表示し、さらに、ユーザ確定操作により、第1モニタMN1に表示された音源領域をマスキングエリアとして設定する。これにより、ユーザは、無人飛行体dnが飛翔する可能性は少ないがその他の音源(例えば人物の怒鳴り声)が発生しそうな場所を、無人飛行体dnの検知対象のエリアから省くためのマスキングエリアとして、第1モニタMN1を目視で確認しながら簡易に設定できる。   Further, in the unmanned aerial vehicle detection system 5, the sound source direction detection unit 34 uses the omnidirectional image IMG1 to determine the sound pressure that specifies the loudness of the sound in the monitoring area 8 based on the sound data collected by the microphone array MAk. Is calculated for each predetermined unit of the pixels that constitute. The masking area setting unit 69a superimposes and displays on the first monitor MN1 the position of the sound source at which the calculated value of the sound pressure is equal to or greater than the masking area threshold relating to the loudness on the first monitor MN1, and further confirms the user. By the operation, the sound source area displayed on the first monitor MN1 is set as a masking area. Thereby, the user can mask the area where the unmanned aerial vehicle dn is unlikely to fly but other sound sources (for example, a bellow of a person) are likely to be generated from the detection target area of the unmanned aerial vehicle dn. As a result, the setting can be easily performed while visually checking the first monitor MN1.

また、マスキングエリア設定部69aは、第1モニタMN1に表示された音源領域(つまり、マスキングエリアの候補となる領域)をさらに追加するためのユーザ追加操作により、ユーザ追加操作後の音源領域をマスキングエリアとして設定する。これにより、ユーザは、監視装置10により自動的にマスキングエリアの候補として所定色に塗りつぶされた箇所を第1モニタMN1上で目視によって確認しながら、自らの判断でさらにマスキングエリアに追加したい箇所を簡単に指定しながらマスキングエリアを設定でき、ユーザの使い勝手が向上する。   Further, the masking area setting unit 69a masks the sound source area after the user addition operation by performing a user addition operation for further adding the sound source area displayed on the first monitor MN1 (that is, a candidate area of the masking area). Set as an area. Thus, the user can visually confirm, on the first monitor MN1, a portion painted in a predetermined color as a masking area candidate automatically by the monitoring device 10, and determine a portion to be further added to the masking area by his / her own judgment. The masking area can be set while easily specifying, thereby improving the usability of the user.

また、マスキングエリア設定部69aは、第1モニタMN1に表示された音源領域(つまり、マスキングエリアの候補となる領域)の少なくとも一部を削除するためのユーザ削除操作により、ユーザ削除操作後の音源領域をマスキングエリアとして設定する。これにより、ユーザは、監視装置10により自動的にマスキングエリアの候補として所定色に塗りつぶされた箇所を第1モニタMN1上で目視によって確認しながら、自らの判断で所定色で塗りつぶされている箇所からマスキングエリアとして除外したい一部の箇所を簡単に指定しながらマスキングエリアを設定でき、ユーザの使い勝手が向上する。   Further, the masking area setting unit 69a performs the user deletion operation for deleting at least a part of the sound source area displayed on the first monitor MN1 (that is, the area that is a candidate for the masking area). Set the area as a masking area. This allows the user to visually check, on the first monitor MN1, a portion painted in a predetermined color as a candidate for a masking area by the monitoring device 10 while checking the portion painted in the predetermined color by his own judgment. The masking area can be set while easily specifying a part to be excluded as a masking area from, and the usability for the user is improved.

また、出力制御部35は、音圧の算出値と音の大きさに関する複数の閾値との比較に応じて、音圧を異なる視覚画像に段階的に変換した音源視覚画像を、監視エリア8の全方位画像IMG1を構成する画素の所定単位毎に重畳して第1モニタMN1に表示する。これにより、ユーザは、第1モニタMN1を見ることで、全方位カメラCAkにより撮像された監視エリア8の全方位画像IMG1の中で、監視エリア8の広範な様子を全方位画像として知ることができるだけでなく、その監視エリア8のマスキングエリア外において発生した音の発生源(例えば無人飛行体dn)の場所、さらにその音の大きさを視覚的な画像として分かり易く確認することができる。   Further, the output control unit 35 converts the sound source visual image in which the sound pressure is stepwise converted into a different visual image in accordance with the comparison between the calculated value of the sound pressure and a plurality of thresholds regarding the loudness of the sound in the monitoring area 8. The pixels constituting the omnidirectional image IMG1 are superimposed on a predetermined unit basis and displayed on the first monitor MN1. Thus, the user can see a wide state of the monitoring area 8 as an omnidirectional image in the omnidirectional image IMG1 of the monitoring area 8 captured by the omnidirectional camera CAk by looking at the first monitor MN1. Not only can the location of the sound source (for example, the unmanned aerial vehicle dn) generated outside the masking area of the monitoring area 8 and the loudness of the sound can be easily confirmed as a visual image.

(第2の実施形態に至る経緯)
上述した特許文献1には、ヘリコプターやセスナ等の飛行物体に特有の周波数における音圧を既定の設定レベルと比較することで、設定レベル以上であれば、監視対象の飛行物体と判断することは開示されている。
(History leading to the second embodiment)
According to Patent Document 1 described above, by comparing the sound pressure at a frequency specific to a flying object such as a helicopter or a Cessna with a predetermined set level, if the sound pressure is equal to or higher than the set level, it is determined that the flying object is a monitoring target It has been disclosed.

しかしながら、上述した特許文献1には、測定された音圧が複数の段階が規定された音圧のうちいずれの段階であるかを定量的に示すことは考慮されていない。このため、カメラ装置の撮像エリア内で何かしらの音が検知された場合に、その検知された音源位置における音の大きさの大小に拘わりなく、その音の大きさをきめ細かい音の視覚情報で具体的に提示することはできないという課題があった。   However, Patent Literature 1 described above does not consider quantitatively indicating which of the measured sound pressures is the sound pressure in which a plurality of steps are defined. For this reason, when any sound is detected in the imaging area of the camera device, the loudness of the sound is determined by detailed visual information of fine sound regardless of the loudness of the sound at the detected sound source position. There was a problem that it could not be presented in a typical way.

そこで、第2の実施形態では、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資するモニタリングシステムの例について説明する。   Therefore, in the second embodiment, regardless of the magnitude of the sound volume at the sound source position detected in the imaging area of the camera device, the loudness of the sound at the sound source position is presented in a fine-grained manner in a stepwise manner. An example of a monitoring system that contributes to accurate understanding of the loudness of a sound by a user will be described.

(第2の実施形態)
第2の実施形態において、無人飛行体検知システム5を構成する各装置の内部構成は第1の実施形態の無人飛行体検知システム5を構成する各装置の内部構成を同様であるため、同一の内容については同一の符号を付して説明を省略し、異なる内容について説明する。
(Second embodiment)
In the second embodiment, the internal configuration of each device forming the unmanned aerial vehicle detection system 5 is the same as the internal configuration of each device forming the unmanned aerial vehicle detection system 5 of the first embodiment. The contents are denoted by the same reference numerals, description thereof will be omitted, and different contents will be described.

第2の実施形態では、監視装置10は、第1の実施形態において説明した音圧ヒートマップを生成して第1モニタMN1に表示した後、ユーザの操作部32に対する操作(後述参照)により、その音圧ヒートマップの生成に必要となった音圧の算出値と複数の閾値(後述参照)との関係に応じて、音圧ヒートマップをきめ細かく解析して表示する。以下、3通りの解析方法を説明していく。   In the second embodiment, the monitoring device 10 generates the sound pressure heat map described in the first embodiment, displays the heat map on the first monitor MN1, and then operates the operation unit 32 by a user (see below). The sound pressure heat map is finely analyzed and displayed in accordance with the relationship between the calculated value of the sound pressure required for generating the sound pressure heat map and a plurality of thresholds (see below). Hereinafter, three analysis methods will be described.

(第1の解析方法)
第1の解析方法では、監視装置10は、全方位画像IMG2に対応する音圧ヒートマップを全方位画像IMG2に重畳して第1モニタMN1に表示した後、ユーザが全方位画像IMG2の一部の範囲を指定すると、その指定された範囲の音圧ヒートマップの表示解像度を、全体となる全方位画像IMG2の表示解像度と同一となるように変更する。この第1の解析方法の動作例について、図16及び図17を参照して説明する。図16は、第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の概要説明図である。図17は、第2の実施形態における、音圧ヒートマップの表示解像度の動的変更の動作手順の一例を説明するフローチャートである。
(First analysis method)
In the first analysis method, the monitoring device 10 superimposes the sound pressure heat map corresponding to the omnidirectional image IMG2 on the omnidirectional image IMG2 and displays it on the first monitor MN1. Is specified, the display resolution of the sound pressure heat map in the specified range is changed to be the same as the display resolution of the entire omnidirectional image IMG2. An operation example of the first analysis method will be described with reference to FIGS. FIG. 16 is a schematic explanatory diagram of dynamically changing the display resolution of the sound pressure heat map in the second embodiment. FIG. 17 is a flowchart illustrating an example of an operation procedure for dynamically changing the display resolution of the sound pressure heat map according to the second embodiment.

図17において、監視装置10は、マイクアレイMAkから送信された監視エリア8の音声データを入力している(S41)。操作部32を用いたユーザ操作により、第1モニタMN1上に対する全方位画像IMG2(図16紙面左上参照)の一部の切り出し範囲が指定されたかどうかが判断される(S42)。   In FIG. 17, the monitoring device 10 has input the audio data of the monitoring area 8 transmitted from the microphone array MAk (S41). It is determined whether or not a partial cutout range of the omnidirectional image IMG2 (see the upper left of FIG. 16) on the first monitor MN1 has been designated by a user operation using the operation unit 32 (S42).

ここで、図16紙面左上において、第1モニタMN1に表示された全方位画像IMG2は、全方位画像IMG2のX方向の表示サイズが「Wmax」かつY方向の表示サイズが「Hmax」とした場合に、「Wmax×Hmax」の表示解像度を有する。また、ユーザ操作により指定される、全方位画像IMG2の一部となる切り出し範囲の端点の座標は、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の矩形である。図16では、同矩形の対角線上に存在する(X1,Y1)及び(X2,Y2)のみ図示されている。   Here, in the upper left of FIG. 16, the omnidirectional image IMG2 displayed on the first monitor MN1 has the omnidirectional image IMG2 whose display size in the X direction is “Wmax” and whose display size in the Y direction is “Hmax”. Has a display resolution of “Wmax × Hmax”. Also, the coordinates of the end points of the cut-out range that is specified by the user operation and become a part of the omnidirectional image IMG2 are (X1, Y1), (X1, Y2), (X2, Y1), (X2, Y2). It is a rectangle. FIG. 16 shows only (X1, Y1) and (X2, Y2) existing on the diagonal line of the same rectangle.

ユーザ操作により、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の4点を端点とする矩形が指定されていない場合には(S42、NO)、監視装置10の音源方向検知部34は、全方位画像IMG2の全体に対する音圧マップを生成するために、(X,Y)=(0,0)と設定し(S43)、座標(X,Y)=(0,0)における音圧P(X,Y)を算出する(S45)。   If the user does not specify a rectangle having four points (X1, Y1), (X1, Y2), (X2, Y1), and (X2, Y2) as end points (S42, NO), monitoring is performed. The sound source direction detection unit 34 of the device 10 sets (X, Y) = (0, 0) (S43) to generate a sound pressure map for the entire omnidirectional image IMG2 (S43), and coordinates (X, Y). = Sound pressure P (X, Y) at (0,0) is calculated (S45).

さらに、音源方向検知部34は、全方位画像IMG2のX座標が最大値のWmaxに一致していない場合には(S46、NO)、全方位画像IMG2の全体に対する音圧マップを生成するために、X座標を1インクリメントし(S47)、インクリメント後の(X,Y)において音圧P(X,Y)を算出する。   Further, when the X coordinate of the omnidirectional image IMG2 does not match the maximum value Wmax (S46, NO), the sound source direction detection unit 34 generates a sound pressure map for the entire omnidirectional image IMG2. , The X coordinate is incremented by 1 (S47), and the sound pressure P (X, Y) is calculated at (X, Y) after the increment.

音源方向検知部34は、全方位画像IMG2のX座標が最大値Wmaxに一致した場合に(S46、YES)、全方位画像IMG2のY座標が最大値のHmaxに一致していない場合には(S48、NO)、全方位画像IMG2の全体に対する音圧マップを生成するために、X座標を0に戻しかつY座標を1インクリメントし(S49)、インクリメント後の(X,Y)において音圧P(X,Y)を算出する。音源方向検知部34は、全方位画像IMG2のY座標が最大値Hmaxに一致するまでステップ45〜S49の各処理を繰り返すことで、第1の実施形態と同様に、全方位画像IMG2の全体に対する音圧マップを生成することができ、メモリ38に保存して登録する(S50)。   When the X coordinate of the omnidirectional image IMG2 matches the maximum value Wmax (S46, YES), the sound source direction detection unit 34 determines that the Y coordinate of the omnidirectional image IMG2 does not match the maximum value Hmax (S46). (S48, NO), in order to generate a sound pressure map for the entire omnidirectional image IMG2, the X coordinate is returned to 0 and the Y coordinate is incremented by 1 (S49), and the sound pressure P is incremented at (X, Y) after the increment. (X, Y) is calculated. The sound source direction detection unit 34 repeats the processes of steps 45 to S49 until the Y coordinate of the omnidirectional image IMG2 matches the maximum value Hmax, thereby performing the same processing on the entire omnidirectional image IMG2 as in the first embodiment. A sound pressure map can be generated, and stored and registered in the memory 38 (S50).

一方、ユーザ操作により、(X1,Y1),(X1,Y2),(X2,Y1),(X2,Y2)の4点を端点とする矩形が指定された場合には(S42、YES)、監視装置10の音源方向検知部34は、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、(X,Y)=(X1,Y1)と設定し(S44)、座標(X,Y)=(X1,Y1)における音圧P(X,Y)を算出する(S45)。   On the other hand, if a rectangle having four points (X1, Y1), (X1, Y2), (X2, Y1), and (X2, Y2) as end points is designated by a user operation (S42, YES), The sound source direction detection unit 34 of the monitoring device 10 sets (X, Y) = (X1, Y1) to generate a sound pressure map for a range specified by a user operation in the omnidirectional image IMG2 (S44). ), The sound pressure P (X, Y) at the coordinates (X, Y) = (X1, Y1) is calculated (S45).

さらに、音源方向検知部34は、全方位画像IMG2のX座標が最大値のWmaxに一致していない場合には(S46、NO)、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、X座標を(X2−X1)/Wmaxほど増加し(S47)、増加後の(X,Y)において音圧P(X,Y)を算出する。   Further, when the X coordinate of the omnidirectional image IMG2 does not match the maximum value Wmax (S46, NO), the sound source direction detection unit 34 determines the sound of the omnidirectional image IMG2 for the range specified by the user operation. In order to generate the pressure map, the X coordinate is increased by (X2−X1) / Wmax (S47), and the sound pressure P (X, Y) is calculated at (X, Y) after the increase.

音源方向検知部34は、全方位画像IMG2のX座標が最大値Wmaxに一致した場合に(S46、YES)、全方位画像IMG2のY座標が最大値のHmaxに一致していない場合には(S48、NO)、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成するために、X座標をX1に戻しかつY座標を(Y2−Y1)/Hmaxほど増加し(S49)、増加後の(X,Y)において音圧P(X,Y)を算出する。音源方向検知部34は、全方位画像IMG2のY座標が最大値Hmaxに一致するまでステップ45〜S49の各処理を繰り返すことで、全方位画像IMG2のうちユーザ操作により指定された範囲に対する音圧マップを生成することができ、メモリ38に保存して登録する(S50)。ステップS50の後、監視装置10の処理はステップS41に戻り、ステップS41において入力された音声データに対し、ステップS42〜S50の処理が繰り返される。   When the X coordinate of the omnidirectional image IMG2 matches the maximum value Wmax (S46, YES), the sound source direction detection unit 34 determines that the Y coordinate of the omnidirectional image IMG2 does not match the maximum value Hmax (S46). (S48, NO), the X coordinate is returned to X1 and the Y coordinate is increased by (Y2-Y1) / Hmax in order to generate a sound pressure map for the range specified by the user operation in the omnidirectional image IMG2 (S49). ), And calculate the sound pressure P (X, Y) at (X, Y) after the increase. The sound source direction detection unit 34 repeats the processing of steps 45 to S49 until the Y coordinate of the omnidirectional image IMG2 matches the maximum value Hmax, thereby setting the sound pressure for the range of the omnidirectional image IMG2 specified by the user operation. A map can be generated and stored in the memory 38 and registered (S50). After step S50, the process of the monitoring device 10 returns to step S41, and the processes of steps S42 to S50 are repeated for the audio data input in step S41.

従って、監視装置10は、図16紙面右上に示すように、ユーザ操作により指定された範囲を単に切り出してその範囲を構成する画素毎の音圧値に応じて、音声ヒートマップを生成して第1モニタMN1に重畳すると、表示解像度が低い(つまり、粗い)画像を表示することしかできない。   Therefore, as shown in the upper right of FIG. 16, the monitoring device 10 simply cuts out the range specified by the user operation and generates an audio heat map according to the sound pressure value of each pixel constituting the range. When superimposed on one monitor MN1, only an image with a low display resolution (that is, coarse) can be displayed.

ところが、本実施形態の第1の解析方法により、監視装置10は、ユーザ操作により指定された全方位画像IMG2の一部の切り出し範囲について、その切り出し範囲の表示解像度を全方位画像IMG2全体の表示解像度と同一となるように、音圧P(X,Y)をきめ細かい単位(つまり、X方向においては(X2−X1)/Wmax毎、Y方向においては(Y2−Y1)/Hmax毎)で算出する。これにより、監視装置10は、図16紙面右下に示すように、ユーザ操作により指定された切り出し範囲の音圧ヒートマップを、単に切り出した時の音圧ヒートマップにおける表示解像度よりもきめ細かい分解能(単位)で高精度に第1モニタMN1に表示することができ、ユーザに対して、ユーザ操作により指定された切り出し範囲における音源の分布の詳細をより正確に把握させることができる。   However, according to the first analysis method of the present embodiment, the monitoring device 10 sets the display resolution of the cut-out range of a part of the cut-out range of the omnidirectional image IMG2 specified by the user operation to the display of the entire omnidirectional image IMG2. The sound pressure P (X, Y) is calculated in fine units (that is, every (X2−X1) / Wmax in the X direction, and every (Y2−Y1) / Hmax in the Y direction) so as to be the same as the resolution. I do. As a result, as shown in the lower right part of FIG. 16, the monitoring device 10 performs a resolution finer than the display resolution of the sound pressure heat map when the sound pressure heat map in the cutout range designated by the user operation is simply cut out (FIG. 16). (Unit), and can be displayed on the first monitor MN1 with high accuracy, and the user can more accurately grasp the details of the distribution of the sound sources in the cut-out range specified by the user operation.

(第2の解析方法)
第2の解析方法を説明する前に、図18〜図20に共通する事項として、本実施形態では、音の大きさを段階的に規定する複数の閾値の幅について説明する。図18は、第2の実施形態における、音圧値の度数分布に応じた閾値の幅調整と幅調整に伴う撮像画像の表示結果との概要説明図である。図18〜図20では、音圧値が下限から上限に向かって、閾値間に対応する音源視覚画像が、群青色画像、藍色画像、青色画像、水色画像、青緑画像、黄緑画像、黄色画像、橙色画像、赤色画像、紅色画像が使用されると規定されている。音圧値が最小(つまり下限)の場合には群青色画像が使用され、音圧値が最大(つまり上限)の場合には紅色画像が使用される。
(Second analysis method)
Before describing the second analysis method, as a matter common to FIGS. 18 to 20, in the present embodiment, a description will be given of the width of a plurality of thresholds that define the loudness of sound in a stepwise manner. FIG. 18 is a schematic explanatory diagram of a threshold width adjustment according to the frequency distribution of sound pressure values and a display result of a captured image accompanying the width adjustment in the second embodiment. In FIGS. 18 to 20, the sound source visual images corresponding to the sound pressure values from the lower limit to the upper limit and between the thresholds are group blue images, blue images, blue images, light blue images, blue green images, yellow green images, It is specified that a yellow image, an orange image, a red image, and a red image are used. When the sound pressure value is minimum (that is, the lower limit), an ultramarine image is used, and when the sound pressure value is maximum (that is, an upper limit), a red image is used.

例えば図18紙面左側に示すように、音圧値の大きさに対応するように閾値が計10個規定されており、例えば図18紙面左側の例では、それぞれの音圧値の軸に設けられた目盛りがそれぞれ閾値に相当している。このため、この図18紙面左側の例では、音圧値がある閾値(例えば5)と次に大きい閾値(例えば6)との間に含まれる場合には、音圧ヒートマップの生成時には、その音圧値が含まれる閾値間に対応する色画像(例えば黄緑画像)がその音圧値を視覚的に示すための音源視覚画像として使用される。   For example, as shown on the left side of FIG. 18, a total of ten thresholds are defined so as to correspond to the magnitude of the sound pressure value. For example, in the example on the left side of FIG. 18, each threshold is provided on the axis of each sound pressure value. Each scale corresponds to a threshold. For this reason, in the example on the left side of FIG. 18, when the sound pressure value is included between a certain threshold value (for example, 5) and the next largest threshold value (for example, 6), when the sound pressure heat map is generated, A color image (for example, a yellow-green image) corresponding to a portion between the thresholds including the sound pressure value is used as a sound source visual image for visually indicating the sound pressure value.

第2の解析方法では、監視装置10の閾値調整部69bは、出力制御部35が全方位画像に対応する音圧ヒートマップを生成する際、全方位画像を構成する画素毎(画素の所定単位毎でも可。以下同様。)に算出した音圧値の発生頻度(言い換えると、度数分布)を基に、計10個の閾値又はその閾値間の幅を動的に変更する。つまり、閾値調整部69bは、複数の閾値と音源視覚画像との対応関係の設定を、全方位画像に応じて動的に変更する。例えば図18を参照すると、閾値調整部69bは、音圧値が閾値5〜閾値6の間であれば音源視覚画像として黄緑画像を使用する設定を保持していたが、音圧値が閾値5〜閾値6となる出現頻度が全方位画像の全体の画素の中で高い場合には、黄緑画像を使用するための閾値間の幅LG1(例えば閾値5〜閾値6)を、より狭くなった幅LG2(例えば閾値4.5〜閾値4.8)に変更する。   In the second analysis method, when the output control unit 35 generates the sound pressure heat map corresponding to the omnidirectional image, the threshold value adjusting unit 69b of the monitoring device 10 sets each pixel (a predetermined unit of pixels) constituting the omnidirectional image. Based on the occurrence frequency (in other words, frequency distribution) of the sound pressure value calculated in the above manner, a total of ten thresholds or the width between the thresholds is dynamically changed. That is, the threshold adjustment unit 69b dynamically changes the setting of the correspondence between the plurality of thresholds and the sound source visual image according to the omnidirectional image. For example, referring to FIG. 18, the threshold adjustment unit 69b holds the setting of using the yellow-green image as the sound source visual image if the sound pressure value is between the threshold value 5 and the threshold value 6, but the sound pressure value is When the appearance frequency of 5 to the threshold 6 is high among all the pixels of the omnidirectional image, the width LG1 between the thresholds for using the yellow-green image (for example, the threshold 5 to the threshold 6) becomes narrower. To the width LG2 (for example, the threshold value 4.5 to the threshold value 4.8).

従って、全方位画像を構成する画素毎の音圧値が特定の色画像が使用されるための閾値間の幅AR1に集中している場合には、図18紙面左下に示すように、音圧ヒートマップVMP1として、同一の色画像又は視覚的に似たような色画像(例えば黄緑画像と青緑画像)が音源視覚画像として使用されてしまい、全方位画像に出現する音源の分布をきめ細かくユーザに提示することが難しい。   Therefore, when the sound pressure value of each pixel constituting the omnidirectional image is concentrated in the width AR1 between the thresholds for using a specific color image, the sound pressure value is reduced as shown in the lower left of FIG. As the heat map VMP1, the same color image or a visually similar color image (for example, a yellow-green image and a blue-green image) is used as a sound source visual image, and the distribution of sound sources appearing in an omnidirectional image is finely divided. Difficult to present to the user.

しかしながら、本実施形態の第2の解析方法によれば、監視装置10は、閾値調整部69bにより、全方位画像を構成する画素毎の音圧値の出現頻度(度数分布)に応じて、音源視覚画像と複数の閾値との対応関係の設定を動的に変更し、その変更を反映した上で全方位画像に対応する音圧ヒートマップVMP2を第1モニタMN1に表示する。これにより、監視装置10は、図18紙面右下に示すように、音圧ヒートマップVMP2として、きめ細かな音圧分布をユーザに対して提示でき、音源位置の分布をユーザにより正確に把握させることができる。   However, according to the second analysis method of the present embodiment, the monitoring device 10 uses the threshold adjustment unit 69b to generate the sound source according to the appearance frequency (frequency distribution) of the sound pressure value for each pixel forming the omnidirectional image. The setting of the correspondence between the visual image and the plurality of thresholds is dynamically changed, and after reflecting the change, the sound pressure heat map VMP2 corresponding to the omnidirectional image is displayed on the first monitor MN1. As a result, the monitoring apparatus 10 can present a fine sound pressure distribution to the user as the sound pressure heat map VMP2 as shown in the lower right part of FIG. 18 and allow the user to more accurately grasp the distribution of the sound source position. Can be.

(第3の解析方法)
第3の解析方法では、監視装置10は、操作部32を用いたユーザ操作により、音源視覚画像(つまり、色画像)の使用を規定するためのそれぞれの閾値の上限、下限又はその両方を任意に指定可能である。図19(A)及び(B)は、第2の実施形態における、音源視覚画像の使用を規定する閾値間の幅の設定変更の概要説明図である。
(Third analysis method)
In the third analysis method, the monitoring device 10 sets the upper limit, the lower limit, or both of the thresholds for defining the use of the sound source visual image (that is, the color image) by user operation using the operation unit 32. Can be specified. FIGS. 19A and 19B are schematic explanatory diagrams of a change in the setting of the width between thresholds that defines the use of the sound source visual image in the second embodiment.

例えば図19(A)では、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅が閾値9〜閾値10から、閾値6〜閾値10に変更され、さらに、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅が閾値0〜閾値1から、閾値0〜閾値2に変更されている。これにより、監視装置10は、残りの8個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   For example, in FIG. 19A, the width between the thresholds (upper threshold) for defining the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) is equal to the threshold. The threshold value is changed from the threshold value 9 to the threshold value 10 to the threshold value 6 to the threshold value 10, and further defines the use of the sound source visual image (that is, the ultramarine blue image) indicating that the sound pressure value is the lowest (that is, the lower limit). The width between the thresholds (lower threshold) is changed from threshold 0 to threshold 1 to threshold 0 to threshold 2. Accordingly, the monitoring device 10 dynamically changes the remaining eight thresholds so that the width between the thresholds becomes equal, and is different from the width between the two thresholds changed by the user operation. Thus, the width between the threshold values can be changed.

また例えば図19(B)では、図19(A)に示すように変更された後に、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅が閾値6〜閾値10から、閾値9.3〜閾値10に変更され、さらに、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅が閾値0〜閾値2から、閾値0〜閾値5に変更されている。これにより、監視装置10は、同様に残りの8個の閾値について、図19(A)に示す例とはそれぞれの閾値は異なるが、残り8個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   For example, in FIG. 19B, use of a sound source visual image (that is, a reddish image) indicating that the sound pressure value is the highest (that is, the upper limit) after being changed as shown in FIG. 19A is used. Is changed from the threshold value 6 to the threshold value 10 to the threshold value 9.3 to the threshold value 10, and further indicates that the sound pressure value is the lowest (that is, the lower limit). The width between the thresholds (lower threshold) for defining the use of the sound source visual image (that is, the group blue image) is changed from threshold 0 to threshold 2 to threshold 0 to threshold 5. Thus, the monitoring apparatus 10 similarly sets the width of the remaining eight thresholds to be equal, although the thresholds are different from the example illustrated in FIG. The width between the thresholds can be changed dynamically and different from the width between the two thresholds changed by the user operation.

また図19(A)及び(B)では、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅と、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅との両方が変更される例を説明したが、いずれか一方だけの変更においても同様である。   In FIGS. 19A and 19B, a threshold (upper threshold) for defining the use of a sound source visual image (that is, a reddish image) indicating that the sound pressure value is the highest (that is, the upper limit) is shown. And the width between the thresholds (lower threshold) for specifying the use of the sound source visual image (ie, the ultramarine blue image) indicating that the sound pressure value is the lowest (ie, the lower limit) is changed. Although the above example has been described, the same is true for only one of the changes.

つまり、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定するための閾値(上端閾値)間の幅のみが変更された場合には、監視装置10は、同様に残りの9個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   In other words, when only the width between the thresholds (upper threshold) for defining the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) is changed. Similarly, the monitoring device 10 dynamically changes the widths of the remaining nine thresholds so that they are equally spaced, and sets the thresholds so that the widths differ from one threshold changed by the user operation. The width can be changed.

また、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定するための閾値(下端閾値)間の幅のみが変更された場合には、監視装置10は、同様に残りの9個の閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更することができる。   Also, when only the width between the thresholds (lower threshold) for defining the use of the sound source visual image indicating that the sound pressure value is the lowest (that is, the lower limit) (that is, the group blue image) is changed. In the same manner, the monitoring device 10 dynamically changes the width between the remaining nine thresholds so as to be equally spaced, and changes the threshold between the thresholds so as to be different from the width between one threshold changed by the user operation. Can be changed in width.

ここで、第3の解析方法による、閾値幅の設定変更に関する動作について、図20及び図21を参照して説明する。図20は、第2の実施形態における、紅色画像及び群青色画像の使用を規定する閾値間の幅の設定変更に伴う撮像画像の表示の概要説明図である。図21は、第2の実施形態における、閾値間の幅の設定変更の動作手順の一例を説明するフローチャートである。   Here, the operation related to the change of the setting of the threshold width by the third analysis method will be described with reference to FIGS. FIG. 20 is a schematic explanatory diagram of the display of the captured image according to the change of the setting of the width between the thresholds defining the use of the red image and the group blue image in the second embodiment. FIG. 21 is a flowchart illustrating an example of an operation procedure for changing the setting of the width between threshold values according to the second embodiment.

図20に示すように、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)と、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)とのそれぞれの使用を規定する閾値間の幅がともに変更されたとする。この場合、監視装置10では、閾値調整部69bは、図21に示すように、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブル(不図示、対応関係)の設定を動的に変更する。   As shown in FIG. 20, the sound source visual image (that is, a red image) indicating that the sound pressure value is the highest (that is, the upper limit) and the sound pressure value that is the lowest (that is, the lower limit) are shown. It is assumed that the width between the thresholds defining the use with the sound source visual image (that is, the group blue image) has both been changed. In this case, in the monitoring device 10, as shown in FIG. 21, the threshold adjustment unit 69b includes a correspondence table (not shown, correspondence relationship) between a sound source visual image and a threshold value defining use of the sound source visual image or a width between the threshold values. Dynamically change the settings of.

従って、監視装置10は、図20に示す例では、全方位画像(つまり、撮像画像)に重畳される音圧ヒートマップVMP2が紅色画像のみであったが、ユーザ操作により、きめ細かい色の種類の音源視覚画像を用いた音圧ヒートマップVMP2Aを生成し、その音圧ヒートマップVMP2Aを全方位画像(つまり、撮像画像)に重畳して第1モニタMN1に表示する。ユーザ操作は、例えば第1モニタMN1上に表示された閾値又は閾値間の幅の入力画面(不図示)に対する入力操作、又は第1モニタMN1上に表示された閾値間の幅の表示画面に対するドラッグ操作が該当するが、これらの操作に限定されない。   Therefore, in the example illustrated in FIG. 20, the monitoring device 10 has the sound pressure heat map VMP2 superimposed on the omnidirectional image (that is, the captured image) is only the red color image. The sound pressure heat map VMP2A using the sound source visual image is generated, and the sound pressure heat map VMP2A is superimposed on the omnidirectional image (that is, the captured image) and displayed on the first monitor MN1. The user operation is, for example, an input operation on an input screen (not shown) of a threshold or a width between thresholds displayed on the first monitor MN1, or a drag on the display screen of a width between thresholds displayed on the first monitor MN1. Operations correspond, but are not limited to these operations.

図21において、閾値調整部69bは、操作部32を用いたユーザ操作により、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S61)。音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更された場合(S61、YES)、閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S62)。   In FIG. 21, the threshold adjustment unit 69b regulates the use of a sound source visual image (that is, a reddish image) indicating that the sound pressure value is the highest (that is, the upper limit) by a user operation using the operation unit 32. It is determined whether the width between the thresholds has been changed (S61). When the width between the thresholds that defines the use of the sound source visual image (that is, the reddish image) indicating that the sound pressure value is the highest (that is, the upper limit) is changed (S61, YES), the threshold adjusting unit 69b Then, it is determined whether or not the width between the thresholds that defines the use of the sound source visual image (that is, the ultra-blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed (S62).

閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更された場合に(S62、YES)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S63)。例えば閾値調整部69bは、残りの8個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された2つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値と群青色画像の使用を規定する閾値との間の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   When the width between the thresholds defining the use of the sound source visual image (that is, the ultramarine blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed (S62, YES), the correspondence table between the sound source visual image and the threshold value defining the use of the sound source visual image or the width between the threshold values is corrected according to the change result (S63). For example, the threshold adjustment unit 69b dynamically changes the remaining eight thresholds so that the width between the thresholds is equal, and differs from the width between the two thresholds changed by the user operation. To change the width between the thresholds. Accordingly, when a large sound pressure value is obtained between the threshold value specifying the use of the red image and the threshold value specifying the use of the ultra-blue image, for example, the monitoring device 10 sets the width between the thresholds by the user. By performing the adjustment operation, the distribution around the pixels where many sound pressure values are concentrated can be finely displayed as a sound pressure heat map.

閾値調整部69bは、音圧値が最も低い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されない場合に(S62、NO)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S64)。例えば閾値調整部69bは、残りの9個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値以下の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   If the width between the thresholds defining the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the lowest (that is, the upper limit) is not changed (S62, NO) According to the result of the change, the correspondence table between the sound source visual image and the threshold value defining the use of the sound source visual image or the width between the threshold values is corrected (S64). For example, the threshold adjuster 69b dynamically changes the remaining nine thresholds so that the width between the thresholds is equal, and differs from the width between one threshold changed by the user operation. To change the width between the thresholds. Accordingly, when many sound pressure values equal to or less than the threshold value that specifies the use of the red image are obtained, the monitoring device 10 concentrates many sound pressure values by the user's operation of adjusting the width between the threshold values. The distribution around the pixel can be displayed as a sound pressure heat map.

一方、ステップS61において、音圧値が最も高い(つまり、上限である)ことを示す音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅が変更されない場合(S61、NO)、閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されたか否かを判断する(S65)。なお、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更されない場合には(S65、NO)、閾値調整部69bの処理はステップS61に戻る。   On the other hand, in Step S61, when the width between the thresholds that defines the use of the sound source visual image (that is, the red image) indicating that the sound pressure value is the highest (that is, the upper limit) is not changed (S61, NO), The threshold adjusting unit 69b determines whether or not the width between the thresholds defining the use of the sound source visual image (that is, the ultramarine blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) has been changed. (S65). If the width between the thresholds that defines the use of the sound source visual image (that is, the group blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is not changed (S65, NO), the threshold The process of the adjusting unit 69b returns to Step S61.

閾値調整部69bは、音圧値が最も低い(つまり、下限である)ことを示す音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅が変更された場合に(S65、YES)、その変更結果に応じて、音源視覚画像と音源視覚画像の使用を規定する閾値又は閾値間の幅との対応テーブルを修正する(S66)。例えば閾値調整部69bは、残りの9個の閾値について、それらの閾値間の幅が等間隔となるように動的に変更し、ユーザ操作により変更された1つの閾値間の幅とは異なるように閾値間の幅を変更する。これにより、監視装置10は、例えば群青色画像の使用を規定する閾値以上の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   When the width between the thresholds defining the use of the sound source visual image (that is, the ultramarine blue image) indicating that the sound pressure value is the lowest (that is, the lower limit) is changed (S65, YES), the correspondence table between the sound source visual image and the threshold value defining the use of the sound source visual image or the width between the threshold values is corrected according to the change result (S66). For example, the threshold adjuster 69b dynamically changes the remaining nine thresholds so that the width between the thresholds is equal, and differs from the width between one threshold changed by the user operation. To change the width between the thresholds. Thereby, for example, when a large number of sound pressure values equal to or more than the threshold value that defines the use of the ultramarine blue image are obtained, the monitoring device 10 may increase the number of sound pressure values by adjusting the width between the threshold values by the user. The distribution around the concentrated pixels can be finely displayed as a sound pressure heat map.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG2)を構成する画素の所定単位毎に算出する。監視装置10は、音圧の算出値と音の大きさに関する複数の閾値との比較に応じて、音圧を異なる視覚画像に段階的に変換した音源視覚画像を、撮像画像を構成する画素の所定単位毎に重畳して第1モニタMN1に表示する。監視装置10は、音源視覚画像が重畳された撮像画像の中でいずれかの音源位置が指定されると、その音源位置を含む矩形範囲を構成する画素の所定単位を撮像画像と矩形範囲とのサイズ比で除した値毎に、音圧を算出する。   As described above, in the unmanned aerial vehicle detection system 5 of the present embodiment, the monitoring device 10 monitors the sound pressure that specifies the loudness of the sound in the monitoring area 8 using the sound data collected by the microphone array MAk. The calculation is performed for each predetermined unit of pixels constituting the captured image (omnidirectional image IMG2) of the area 8. The monitoring device 10 converts the sound source visual image in which the sound pressure is stepwise converted into a different visual image in accordance with the comparison between the calculated value of the sound pressure and the plurality of thresholds relating to the loudness of the pixels constituting the captured image. The information is superimposed for each predetermined unit and displayed on the first monitor MN1. When any one of the sound source positions is specified in the captured image on which the sound source visual image is superimposed, the monitoring device 10 determines a predetermined unit of a pixel forming a rectangular range including the sound source position by dividing the predetermined unit of the pixel between the captured image and the rectangular range. The sound pressure is calculated for each value divided by the size ratio.

これにより、監視装置10は、ユーザ操作により指定された矩形範囲(つまり、切り出し範囲)の音圧ヒートマップを、単に切り出した時の音圧ヒートマップにおける表示解像度よりもきめ細かい分解能(単位)で高精度に第1モニタMN1に表示することができ、ユーザに対して、ユーザ操作により指定された切り出し範囲における音源の分布の詳細をより正確に把握させることができる。言い換えると、監視装置10は、全方位カメラCAkの監視エリア8で検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資することができる。   Accordingly, the monitoring apparatus 10 increases the sound pressure heat map of the rectangular range (that is, the cutout range) specified by the user operation with a finer resolution (unit) than the display resolution in the sound pressure heat map when the cutout is simply cut out. It can be displayed on the first monitor MN1 with high accuracy, and the user can more accurately grasp the details of the distribution of the sound sources in the cut-out range specified by the user operation. In other words, the monitoring device 10 presents the loudness of the sound at the sound source position finely and stepwise regardless of the loudness of the sound at the sound source position detected in the monitoring area 8 of the omnidirectional camera CAk. It is possible to contribute to the user's accurate grasp of the loudness at the sound source position.

また、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG2)を構成する画素の所定単位毎に算出する。監視装置10は、音の大きさを段階的に規定する複数の閾値の各閾値と、各閾値との比較に応じて音圧が異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、監視エリア8の撮像画像(つまり、全方位画像)に応じて動的に変更する。監視装置10は、音圧の算出値と変更された対応関係の設定とを基に、撮像画像を構成する画素の所定単位毎に、音圧の算出値に対応する音源視覚画像を撮像画像に重畳して第1モニタMN1に表示する。   Further, in the unmanned aerial vehicle detection system 5 of the present embodiment, the monitoring device 10 uses the sound data collected by the microphone array MAk to determine the sound pressure for specifying the loudness of the sound in the monitoring area 8. The calculation is performed for each predetermined unit of pixels constituting the eight captured images (omnidirectional image IMG2). The monitoring device 10 corresponds to each of a plurality of thresholds that define the loudness of the sound stepwise, and a sound source visual image that is stepwise converted into a visual image having a different sound pressure according to a comparison with each threshold. The setting of the relationship is dynamically changed according to the captured image of the monitoring area 8 (that is, the omnidirectional image). The monitoring device 10 converts a sound source visual image corresponding to the calculated value of the sound pressure into the captured image for each predetermined unit of the pixels constituting the captured image based on the calculated value of the sound pressure and the setting of the changed correspondence relationship. The information is superimposed and displayed on the first monitor MN1.

これにより、監視装置10は、全方位カメラCAkにより撮像された撮像画像に応じて、監視エリア8で収音された音源の位置を視覚的に示すための音圧ヒートマップとして、きめ細かな音圧分布をユーザに対して提示でき、音源位置の分布をユーザにより正確に把握させることができる。   Accordingly, the monitoring device 10 can provide a detailed sound pressure heat map as a sound pressure heat map for visually indicating the position of the sound source collected in the monitoring area 8 according to the image captured by the omnidirectional camera CAk. The distribution can be presented to the user, and the distribution of the sound source position can be grasped more accurately by the user.

また、監視装置10の閾値調整部69bは、監視エリア8の撮像画像を構成する画素の所定単位毎の音圧の出現頻度を基に、音源視覚画像を規定する各閾値間の幅を変更する。これにより、監視装置10は、出現頻度の高い音圧算出値に対応する画素には音源視覚画像の種類を増加し、一方、出現頻度の低い音圧算出値に対応する画素には音源視覚画像の種類を減少した上で音圧ヒートマップを生成するので、単調な色合いではなく、きめ細かく多様な色合いの音圧分布を提示でき、音源位置の分布をユーザにより正確に把握させることができる。   In addition, the threshold adjusting unit 69b of the monitoring device 10 changes the width between the thresholds that define the sound source visual image based on the appearance frequency of the sound pressure of the pixels constituting the captured image of the monitoring area 8 for each predetermined unit. . Thereby, the monitoring apparatus 10 increases the type of the sound source visual image for the pixel corresponding to the sound pressure calculation value with a high appearance frequency, and adds the sound source visual image to the pixel corresponding to the sound pressure calculation value with a low appearance frequency. Since the sound pressure heat map is generated after reducing the number of types, sound pressure distributions of various shades can be presented in detail rather than monotonous shades, and the user can more accurately grasp the distribution of sound source positions.

また、監視装置10の閾値調整部69bは、音圧の上限値に対応する音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅の変更操作に応じて、その幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値以下の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   In addition, the threshold adjustment unit 69b of the monitoring device 10 changes the width in accordance with the operation of changing the width between the thresholds that specifies the use of the sound source visual image (that is, the red image) corresponding to the upper limit of the sound pressure. Except for the width between the thresholds after the threshold, the width between all the other thresholds is changed uniformly. Accordingly, when many sound pressure values equal to or less than the threshold value that specifies the use of the red image are obtained, the monitoring device 10 concentrates many sound pressure values by the user's operation of adjusting the width between the threshold values. The distribution around the pixel can be displayed as a sound pressure heat map.

また、監視装置10の閾値調整部69bは、音圧の下限値に対応する音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅の変更操作に応じて、その幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば群青色画像の使用を規定する閾値以上の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   In addition, the threshold adjustment unit 69b of the monitoring device 10 changes the width in accordance with the operation of changing the width between the thresholds that specifies the use of the sound source visual image (that is, the group blue image) corresponding to the lower limit of the sound pressure. The width between all the thresholds except for the width between the thresholds after the change is uniformly changed. Thereby, for example, when a large number of sound pressure values equal to or more than the threshold value that defines the use of the ultramarine blue image are obtained, the monitoring device 10 may increase the number of sound pressure values by adjusting the width between the threshold values by the user. The distribution around the concentrated pixels can be finely displayed as a sound pressure heat map.

また、監視装置10の閾値調整部69bは、音圧の上限値に対応する音源視覚画像(つまり、紅色画像)の使用を規定する閾値間の幅と音圧の下限値に対応する音源視覚画像(つまり、群青色画像)の使用を規定する閾値間の幅の変更操作に応じて、それらの幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する。これにより、監視装置10は、例えば紅色画像の使用を規定する閾値と群青色画像の使用を規定する閾値との間の音圧値が多く得られている場合には、ユーザによる閾値間の幅の調整操作により、数多くの音圧値が集中している画素周囲の分布をきめ細かく音圧ヒートマップとして表示できる。   In addition, the threshold adjustment unit 69b of the monitoring device 10 determines the width between the thresholds defining the use of the sound source visual image corresponding to the upper limit of the sound pressure (that is, the red image) and the sound source visual image corresponding to the lower limit of the sound pressure. In response to the operation of changing the width between the thresholds that regulates the use of (i.e., the ultramarine blue image), the width between all other thresholds except for the width between the thresholds after those widths are changed is changed equally. I do. Accordingly, when a large sound pressure value is obtained between the threshold value specifying the use of the red image and the threshold value specifying the use of the ultra-blue image, for example, the monitoring device 10 sets the width between the thresholds by the user. By performing the adjustment operation, the distribution around the pixels where many sound pressure values are concentrated can be finely displayed as a sound pressure heat map.

(第3の実施形態に至る経緯)
上述した特許文献1では、監視領域内の任意の方向に撮影方向を変向可能な監視カメラが設けられており、ヘリコプターやセスナ等の飛行物体が検出されると、この監視カメラの撮影方向を変向させることは開示されている。言い換えると、検出された飛行物体を注目して撮像するために、監視カメラの撮影方向を変向することは開示されている。
(Process leading to the third embodiment)
In Patent Literature 1 described above, a monitoring camera capable of changing a shooting direction in an arbitrary direction within a monitoring area is provided, and when a flying object such as a helicopter or a Cessna is detected, the shooting direction of the monitoring camera is changed. Diversion is disclosed. In other words, it is disclosed that the shooting direction of the surveillance camera is changed in order to focus and image the detected flying object.

しかしながら、上述した特許文献1には、撮像エリアに対するカメラ装置の画角の範囲内で検知された無人飛行体を含む周囲の撮像画像を広範に表示することは考慮されていない。このため、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、ユーザにとって視覚的に提示することはできないという課題があった。   However, the above-mentioned Patent Document 1 does not consider displaying a wide range of captured images around the unmanned aerial vehicle detected within the range of the angle of view of the camera device with respect to the imaging area. For this reason, the unmanned aerial vehicle is detected in what place in the imaging area of the camera device, and what kind of sound source is present elsewhere in the same imaging area is visually presented to the user. There was a problem that it was not possible.

そこで、第3の実施形態では、カメラ装置の撮像エリア内のどのような場所で無人飛行体が検知され、同じ撮像エリア内で他にどのような場所でどんな音源が存在しているかを、カメラ装置の撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示するモニタリングシステムの例について説明する。   Therefore, in the third embodiment, an unmanned aerial vehicle is detected at what location in the imaging area of the camera device, and what sound source is present at another location in the same imaging area. An example of a monitoring system that visually presents to a user without deteriorating the visibility of a captured image of the device will be described.

(第3の実施形態)
第3の実施形態において、無人飛行体検知システム5を構成する各装置の内部構成は第1の実施形態の無人飛行体検知システム5を構成する各装置の内部構成を同様であるため、同一の内容については同一の符号を付して説明を省略し、異なる内容について説明する。
(Third embodiment)
In the third embodiment, the internal configuration of each device constituting the unmanned aerial vehicle detection system 5 is the same as the internal configuration of each device constituting the unmanned aerial vehicle detection system 5 of the first embodiment. The contents are denoted by the same reference numerals, description thereof will be omitted, and different contents will be described.

第3の実施形態では、監視装置10は、第1の実施形態において説明した音圧ヒートマップ(音パラメータマップ)を生成した後、その音圧ヒートマップの半透明画像(半透明マップ)となる半透明音圧ヒートマップを生成し、この半透明音圧ヒートマップを全方位画像に重畳して第1モニタMN1に表示する(図22参照)。図22は、第3の実施形態における、全方位画像と半透明音圧ヒートマップとのオーバーレイ表示の概要説明図である。   In the third embodiment, after generating the sound pressure heat map (sound parameter map) described in the first embodiment, the monitoring device 10 becomes a translucent image (semi-transparent map) of the sound pressure heat map. The translucent sound pressure heat map is generated, and the translucent sound pressure heat map is superimposed on the omnidirectional image and displayed on the first monitor MN1 (see FIG. 22). FIG. 22 is a schematic explanatory diagram of an overlay display of an omnidirectional image and a translucent sound pressure heat map in the third embodiment.

本実施形態では、監視装置10は、図22に示すように、全方位カメラCAkにより撮像された全方位画像IMG1を第1モニタMN1に表示する。また、監視装置10は、全方位画像IMG1を構成する画素毎又はその画素の所定単位毎に算出した音圧値を異なる視覚画像に段階的に変換した音源視覚画像を用いて、全方位画像IGM1に対応する音圧ヒートマップを生成し、さらに、この音圧ヒートマップを半透明画像に変換した半透明音圧ヒートマップTRL1を生成して第2モニタMN2に表示する。   In the present embodiment, as illustrated in FIG. 22, the monitoring device 10 displays an omnidirectional image IMG1 captured by the omnidirectional camera CAk on the first monitor MN1. Further, the monitoring device 10 uses the sound source visual image obtained by converting the sound pressure value calculated for each pixel constituting the omnidirectional image IMG1 or for each predetermined unit of the pixel into a different visual image in a stepwise manner, using the omnidirectional image IGM1. Is generated, and a translucent sound pressure heat map TRL1 obtained by converting the sound pressure heat map into a translucent image is generated and displayed on the second monitor MN2.

なお、図22では、監視装置10は、全方位画像IMG1を第1モニタMN1、半透明音圧ヒートマップTRL1を第2モニタMN2と別々のモニタに表示しているが、全方位画像IMG1において、例えばウインドウに全方位画像IMG1を表示し、別のウインドウに半透明音圧ヒートマップTRL1を表示してもよい。   In FIG. 22, the monitoring device 10 displays the omnidirectional image IMG1 on the first monitor MN1 and the translucent sound pressure heat map TRL1 on a monitor separate from the second monitor MN2. For example, the omnidirectional image IMG1 may be displayed in a window, and the translucent sound pressure heat map TRL1 may be displayed in another window.

さらに、監視装置10は、全方位画像IMG1に半透明音圧ヒートマップTRL1を重畳した全方位画像IMG1Aを第1モニタMN1に表示する(図23参照)。図23は、全方位画像IMG1と半透明音圧ヒートマップTRL1とがオーバーレイ表示された第1モニタMN1の表示画面例を示す図である。   Further, the monitoring device 10 displays an omnidirectional image IMG1A in which the translucent sound pressure heat map TRL1 is superimposed on the omnidirectional image IMG1 on the first monitor MN1 (see FIG. 23). FIG. 23 is a diagram showing an example of a display screen of the first monitor MN1 on which the omnidirectional image IMG1 and the translucent sound pressure heat map TRL1 are overlaid.

図23では、第1モニタMN1において、全方位画像IMG1Aの図23紙面の右上側に、監視装置10により検知された無人飛行体dnが映っている。さらに、無人飛行体dnや、全方位カメラCAkの撮像画角の範囲内において発生している音源にそれぞれ対応する半透明音圧ヒートマップが重畳されて表示されている。   In FIG. 23, the unmanned aerial vehicle dn detected by the monitoring device 10 is shown on the first monitor MN1 on the upper right side of the omnidirectional image IMG1A in FIG. 23. Further, translucent sound pressure heat maps corresponding to the unmanned aerial vehicles dn and sound sources generated within the range of the angle of view of the omnidirectional camera CAk are displayed in a superimposed manner.

図24を参照して説明するように、本実施形態では、音源方向検知部34により算出された画素毎の音圧値が第1閾値th1以下であれば無色の半透明色(つまり、無色)で表示され、音圧値が第1閾値th1より大きくかつ第2閾値th2以下であれば青色の半透明色で表示され、音圧値が第2閾値th2より大きくかつ第3閾値th3以下であればピンク色の半透明色で表示され、音圧値が第3閾値th3より大きければ赤色の半透明色で表示されている。   As described with reference to FIG. 24, in the present embodiment, if the sound pressure value for each pixel calculated by the sound source direction detection unit 34 is equal to or smaller than the first threshold th1, the colorless translucent color (that is, colorless). If the sound pressure value is greater than the first threshold value th1 and equal to or less than the second threshold value th2, the sound pressure value is displayed in a translucent blue color. If the sound pressure value is greater than the second threshold value th2 and equal to or less than the third threshold value th3. If the sound pressure value is larger than the third threshold th3, the color is displayed in a red translucent color.

図23では、例えば無人飛行体dnの筐体中心の周囲の回転翼やロータ付近では音圧値が第3閾値th3より大きいため、半透明赤領域RD1A,RD2A,RD3A,RD4Aで描画されている。同様に、半透明赤領域の周囲には、半透明赤領域の次に音圧値が大きいことを示す半透明ピンク領域PD1A,PD2A,PD3A,PD4Aが描画されている。同様に、さらに半透明ピンク領域の周囲には、半透明ピンク領域の次に音圧値が大きいことを示す半透明青領域BD1A,BD2A,BD3A,BD4Aが描画されている。   In FIG. 23, for example, in the vicinity of the rotor and the rotor around the center of the housing of the unmanned aerial vehicle dn, the sound pressure value is larger than the third threshold th3, and therefore, is drawn in the translucent red regions RD1A, RD2A, RD3A, RD4A. . Similarly, translucent pink areas PD1A, PD2A, PD3A, and PD4A indicating that the sound pressure value is the second largest after the translucent red area are drawn around the translucent red area. Similarly, semi-transparent blue regions BD1A, BD2A, BD3A, and BD4A indicating that the sound pressure value is the second largest after the translucent pink region are drawn around the translucent pink region.

また、図23では、オフィスビルにおいても音源が存在していることが示されており、音源方向検知部34により算出された画素毎の音圧値が第3閾値th3を超えている画素又はその集合に対しては半透明赤領域R1A,R2A,R3A,R4A,R5A,R6A,R7Aが描画されている。同様に、オフィスビルの半透明赤領域の周囲には、半透明赤領域の次に音圧値が大きいことを示す半透明ピンク領域P1A,P2A,P3A,P4A,P5Aが描画されている。同様に、オフィスビルの半透明ピンク領域の周囲には、半透明ピンク領域の次に音圧値が大きいことを示す半透明青領域B1A,B2Aが描画されている。なお、全方位画像IMG1Aのその他の領域では、音圧値が第1閾値th1以下であるため、無色領域で描画されている。   Also, FIG. 23 shows that a sound source also exists in the office building, and the sound pressure value of each pixel calculated by the sound source direction detection unit 34 exceeds the third threshold th3 or the pixel thereof. Translucent red areas R1A, R2A, R3A, R4A, R5A, R6A, and R7A are drawn for the set. Similarly, translucent pink areas P1A, P2A, P3A, P4A, and P5A indicating that the sound pressure value is the second largest after the translucent red area are drawn around the translucent red area of the office building. Similarly, around the translucent pink area of the office building, translucent blue areas B1A and B2A indicating that the sound pressure value is the second largest after the translucent pink area are drawn. In other areas of the omnidirectional image IMG1A, since the sound pressure value is equal to or less than the first threshold th1, the area is drawn as a colorless area.

このように、本実施形態では、監視装置10は、第1の実施形態とは異なる半透明音圧ヒートマップTRL1を全方位画像IMG1に重畳して第1モニタMN1に表示するので、全方位画像IMG1に出現する音源の位置やその位置における音の大きさを視覚的にユーザに判別させることができ、さらに、全方位画像IMG1の視認性も劣化させないことができる。   As described above, in the present embodiment, the monitoring device 10 superimposes the translucent sound pressure heat map TRL1 different from that of the first embodiment on the omnidirectional image IMG1 and displays it on the first monitor MN1. The user can visually determine the position of the sound source appearing in the IMG1 and the loudness of the sound at that position, and the visibility of the omnidirectional image IMG1 can be prevented from deteriorating.

次に、本実施形態の無人飛行体検知システム5の動作について、図24を参照して詳細に説明する。   Next, the operation of the unmanned aerial vehicle detection system 5 of the present embodiment will be described in detail with reference to FIG.

図24は、第3の実施形態における、全方位画像IMG1と半透明音圧ヒートマップTRL1とのオーバーレイ表示の動作手順の一例を説明するシーケンス図である。無人飛行体検知システム5の各装置(例えば第1モニタMN1、監視装置10、全方位カメラCAk、マイクアレイMAk)にそれぞれ電源が投入されると、無人飛行体検知システム5は動作を開始する。また、図24の説明では、第1の実施形態において説明したマスキングエリアを用いてもよいし用いなくてもよい。図24では例えばマスキングエリアを用いる場合を例示して説明する。マスキングエリアを用いる場合には、そのマスキングエリアを示す情報はメモリ38に登録されているとする。   FIG. 24 is a sequence diagram illustrating an example of an operation procedure of overlay display of the omnidirectional image IMG1 and the translucent sound pressure heat map TRL1 in the third embodiment. When power is supplied to each device (for example, the first monitor MN1, the monitoring device 10, the omnidirectional camera CAk, and the microphone array MAk) of the unmanned vehicle detection system 5, the unmanned vehicle detection system 5 starts operating. In the description of FIG. 24, the masking area described in the first embodiment may or may not be used. FIG. 24 illustrates an example in which a masking area is used. When a masking area is used, it is assumed that information indicating the masking area is registered in the memory 38.

監視装置10は、全方位カメラCAkに対し、画像配信要求を行う(S71)。全方位カメラCAkは、この画像配信要求に従い、電源の投入に応じた撮像処理を開始する。また、監視装置10は、マイクアレイMAkに対し、音声配信要求を行う(S72)。マイクアレイMAは、この音声配信要求に従い、電源の投入に応じた収音処理を開始する。   The monitoring device 10 makes an image distribution request to the omnidirectional camera CAk (S71). The omnidirectional camera CAk starts the imaging process according to the power-on in accordance with the image distribution request. Further, the monitoring device 10 makes a voice distribution request to the microphone array MAk (S72). The microphone array MA starts a sound collection process according to the power-on according to the voice distribution request.

初期動作が終了すると、全方位カメラCAkは、ネットワークNWを介して、撮像により得られた全方位画像(例えば静止画、動画)のデータを監視装置10に送信する(S73)。なお、図24では説明を簡単にするために、全方位カメラCAkから全方位画像データが送信されるとして説明しているが、2次元パノラマ画像データが送信されてもよい。監視装置10は、全方位カメラCAkから送信された全方位画像データをNTSC等の表示データに変換し、第1モニタMN1に出力して全方位画像データの表示を指示する(S74)。第1モニタMN1は、監視装置10から送信された表示データを入力すると、画面に全方位カメラCAkによる全方位画像IMG1のデータ(図22紙面左上参照)を表示する。   When the initial operation is completed, the omnidirectional camera CAk transmits data of an omnidirectional image (for example, a still image or a moving image) obtained by imaging to the monitoring device 10 via the network NW (S73). Note that, in FIG. 24, for simplicity of description, it is described that omnidirectional image data is transmitted from the omnidirectional camera CAk, but two-dimensional panoramic image data may be transmitted. The monitoring device 10 converts the omnidirectional image data transmitted from the omnidirectional camera CAk to display data such as NTSC, outputs the data to the first monitor MN1, and instructs the display of the omnidirectional image data (S74). When the display data transmitted from the monitoring device 10 is input, the first monitor MN1 displays the data of the omnidirectional image IMG1 from the omnidirectional camera CAk (see the upper left of FIG. 22) on the screen.

また、マイクアレイMAkは、ネットワークNWを介して、収音により得られた監視エリア8の音声データを符号化して監視装置10に送信する(S75)。監視装置10では、音源方向検知部34が、全方位カメラCAkで撮像された全方位画像データとマイクアレイMAkで収音された音声データとを基に、監視エリア8の全方位画像データを構成する一つ一つの画素毎に、音パラメータとしての音圧を算出し、さらに、監視エリア8内の音源位置を推定する(S76)。この推定された音源位置は、監視装置10が無人飛行体dnを検知する際、初期の指向方向が設定されるために必要となる指向範囲BF1の基準位置として使用される。   Further, the microphone array MAk encodes the audio data of the monitoring area 8 obtained by the sound pickup via the network NW and transmits the encoded audio data to the monitoring device 10 (S75). In the monitoring device 10, the sound source direction detection unit 34 forms omnidirectional image data of the monitoring area 8 based on omnidirectional image data captured by the omnidirectional camera CAk and audio data collected by the microphone array MAk. The sound pressure as a sound parameter is calculated for each pixel to be processed, and the sound source position in the monitoring area 8 is estimated (S76). The estimated sound source position is used as a reference position of the directivity range BF1 necessary for setting the initial directivity when the monitoring device 10 detects the unmanned aerial vehicle dn.

また、監視装置10では、出力制御部35が、音源方向検知部34により算出された全方位画像データを構成する画素毎の音圧値を用いて、全方位画像データを構成する一つ一つの画素毎に、該当する画素の位置に音圧の算出値を割り当てた音圧マップを生成する。さらに、出力制御部35は、ユーザにとって視覚的で判別し易くなるように、生成した音圧マップの画素毎の音圧値を、視覚画像(例えば色付きの画像)に色変換処理を行うことで、図22紙面右上に示すような半透明音圧ヒートマップを生成する(S77)。半透明音圧ヒートマップの生成方法は、例えば出力制御部35が第1次的に音圧ヒートマップ(図9のステップS7参照)を生成し、第2次的にその音圧ヒートマップを半透明処理することで、半透明音圧ヒートマップを生成するという手順である。   Further, in the monitoring device 10, the output control unit 35 uses the sound pressure values of each pixel constituting the omnidirectional image data calculated by the sound source direction detecting unit 34 to configure each omnidirectional image data. For each pixel, a sound pressure map in which the calculated value of the sound pressure is assigned to the position of the pixel is generated. Furthermore, the output control unit 35 performs a color conversion process on the generated sound pressure map for each pixel to a visual image (for example, a colored image) so that the user can visually recognize and easily determine the sound pressure value. Then, a translucent sound pressure heat map as shown in the upper right of FIG. 22 is generated (S77). The method of generating the translucent sound pressure heat map is as follows. For example, the output control unit 35 first generates a sound pressure heat map (see step S7 in FIG. 9), and secondarily generates a semi-transparent sound pressure heat map. This is a procedure of generating a translucent sound pressure heat map by performing a transparent process.

さらに、監視装置10では、信号処理部33が、ステップS75においてマイクアレイMAkから送信された音声データを用いて、マスキングエリア設定部69aにより設定されたマスキングエリアの領域外に対して順次指向性を形成することで、指向性を形成した指向方向毎に無人飛行体dnの検知判定を行う(S78)。この無人飛行体dnの検知判定処理の詳細については、図10及び図11を参照して説明したので、ここでは説明を割愛する。   Further, in the monitoring device 10, the signal processing unit 33 uses the audio data transmitted from the microphone array MAk in step S75 to sequentially change the directivity to the outside of the masking area set by the masking area setting unit 69a. Thus, the detection and determination of the unmanned aerial vehicle dn is performed for each directional direction in which the directivity is formed (S78). The details of the detection and determination processing of the unmanned aerial vehicle dn have been described with reference to FIGS. 10 and 11, and a description thereof will be omitted.

検知判定処理の結果、無人飛行体dnが検知された場合、監視装置10内の出力制御部35は、第1モニタMN1の画面に表示された全方位画像IMG1に、ステップS77において生成した半透明音圧ヒートマップ、並びにステップS78において検知した指向方向に存在する無人飛行体dnを表す識別マーク(不図示)を重畳して表示することを指示する(S79)。   When the unmanned aerial vehicle dn is detected as a result of the detection determination process, the output control unit 35 in the monitoring device 10 adds the semi-transparent image generated in step S77 to the omnidirectional image IMG1 displayed on the screen of the first monitor MN1. An instruction is given to superimpose and display the sound pressure heat map and an identification mark (not shown) indicating the unmanned aerial vehicle dn existing in the directional direction detected in step S78 (S79).

第1モニタMN1は、監視装置10からの指示に従い、全方位画像IMG1に、半透明音圧ヒートマップを合成(重畳)して表示するとともに、無人飛行体dnを表す識別マーク(不図示)を合成(重畳)して表示する(S80)。この後、無人飛行体検知システム5の処理はステップS73に戻り、例えば電源がオフに操作される等の所定のイベントが検知されるまで、ステップS73〜S80の各処理が繰り返される。   The first monitor MN1 synthesizes (superimposes) a translucent sound pressure heat map on the omnidirectional image IMG1 and displays the same on the omnidirectional image IMG1, and displays an identification mark (not shown) indicating the unmanned aerial vehicle dn. The images are combined (superimposed) and displayed (S80). Thereafter, the process of the unmanned aerial vehicle detection system 5 returns to step S73, and the processes of steps S73 to S80 are repeated until a predetermined event such as a power-off operation is detected.

以上により、本実施形態の無人飛行体検知システム5では、監視装置10は、マイクアレイMAkにより収音された音声データを用いて、監視エリア8の音の大きさを特定する音圧を、監視エリア8の撮像画像(全方位画像IMG1)を構成する画素の所定単位毎に算出する。監視装置10は、音圧の算出値と音の大きさに関する閾値との比較に応じて、画素の所定単位毎の、音圧を視覚画像に変換した音源視覚画像を、監視エリア8の全方位画像の大きさに対応するように連結した半透明音圧ヒートマップを生成する。監視装置10は、半透明音圧ヒートマップを監視エリア8の撮像画像に重畳して第1モニタMN1に表示する。   As described above, in the unmanned aerial vehicle detection system 5 of the present embodiment, the monitoring device 10 monitors the sound pressure that specifies the loudness of the sound in the monitoring area 8 using the sound data collected by the microphone array MAk. The calculation is performed for each predetermined unit of the pixels constituting the captured image (omnidirectional image IMG1) of the area 8. The monitoring apparatus 10 converts a sound source visual image obtained by converting a sound pressure into a visual image for each predetermined unit of pixels in accordance with a comparison between the calculated value of the sound pressure and a threshold regarding the loudness of the sound, in all directions of the monitoring area 8. A semi-transparent sound pressure heat map linked to correspond to the size of the image is generated. The monitoring device 10 superimposes the translucent sound pressure heat map on the captured image of the monitoring area 8 and displays the same on the first monitor MN1.

これにより、無人飛行体検知システム5では、全方位カメラCAkの監視エリア8内のどのような場所で無人飛行体が検知され、同じ監視エリア8内で他にどのような場所でどんな音源が存在しているかを、全方位カメラCAkの撮像画像の視認性を劣化することなく、ユーザに対して視覚的に提示することができる。   As a result, in the unmanned aerial vehicle detection system 5, an unmanned aerial vehicle is detected at any place in the monitoring area 8 of the omnidirectional camera CAk, and at any other location in the same monitoring area 8, any sound source exists. This can be visually presented to the user as to whether or not the image is captured, without deteriorating the visibility of the image captured by the omnidirectional camera CAk.

また、音の大きさに関する閾値は複数設けられ、監視装置10は、音圧と複数の閾値との比較に応じて、画素の所定単位毎の、音圧を異なる視覚画像に段階的に変換した音源視覚画像を用いて、複数種類の音源視覚画像を有する半透明音圧ヒートマップを生成する。これにより、監視装置10は、全方位カメラCAkにより撮像された全方位画像の中で、複数の閾値によって規定される複数種類の段階を有する音圧の存在を、視覚的な音源視覚画像によって、ユーザに対してより一層明示的に判別させることができる。   In addition, a plurality of thresholds related to the loudness of the sound are provided, and the monitoring device 10 converts the sound pressure for each predetermined unit of pixels into different visual images in a stepwise manner according to the comparison between the sound pressure and the plurality of thresholds. A translucent sound pressure heat map having a plurality of types of sound source visual images is generated using the sound source visual images. Accordingly, the monitoring device 10 determines the presence of sound pressure having a plurality of types of stages defined by a plurality of thresholds in the omnidirectional image captured by the omnidirectional camera CAk by using a visual sound source visual image. The user can be more clearly determined.

また、本実施形態においても、監視装置10は、第1の実施形態において説明したマスキングエリアを設定し、マイクアレイMAkにより収音された音声データとマスキングエリアを示す情報とを用いて、マスキングエリア外において無人飛行体を検知する。監視装置10は、マスキングエリア外で無人飛行体を検知した場合に、全方位画像中の無人飛行体の周囲(言い換えると、無人飛行体の音源位置)に、無人飛行体から出ている音の大きさを示す音源視覚画像を半透明化して第1モニタMN1に表示する。これにより、監視装置10は、マスキングエリア内を無人飛行体の検知対象から除外できるので、マスキングエリアの検知精度の劣化を抑制でき、無人飛行体の検知スピードも向上できる。また、監視装置10は、マスキングエリア外で検知した無人飛行体dnの音源位置に、無人飛行体から出ている音の大きさのレベルを音源視覚画像の半透明化画像によってその大きさだけでなく、周囲の撮像画像の視認性を劣化させないことができる。   Also in the present embodiment, the monitoring apparatus 10 sets the masking area described in the first embodiment, and uses the audio data collected by the microphone array MAk and the information indicating the masking area to set the masking area. Detect unmanned aerial vehicles outside. When detecting the unmanned aerial vehicle outside the masking area, the monitoring device 10 detects the sound emitted from the unmanned aerial vehicle around the unmanned aerial vehicle in the omnidirectional image (in other words, the sound source position of the unmanned aerial vehicle). The sound source visual image indicating the size is made translucent and displayed on the first monitor MN1. Accordingly, since the monitoring device 10 can exclude the inside of the masking area from the detection target of the unmanned aerial vehicle, it is possible to suppress the deterioration of the detection accuracy of the masking area and improve the detection speed of the unmanned aerial vehicle. Further, the monitoring device 10 determines the level of the loudness of the sound emitted from the unmanned aerial vehicle at the sound source position of the unmanned aerial vehicle dn detected outside the masking area by using the translucent image of the sound source visual image alone. In addition, it is possible to prevent the visibility of the surrounding captured image from deteriorating.

また、本実施形態においても、監視装置10は、音の大きさを段階的に規定する複数の閾値の各閾値と複数種類の音源視覚画像との対応関係の設定を、撮像エリアの撮像画像に応じて変更する。監視装置10は、音圧の算出値と変更された対応関係とを基に、画素の所定単位毎の音源視覚画像を撮像エリアの撮像画像の大きさに対応するように連結した半透明音圧ヒートマップを生成する。これにより、監視装置10は、全方位カメラCAkにより撮像された全方位画像(撮像画像)の内容に応じて、その撮像画像を構成する画素毎又は画素の所定単位毎に得た音圧の算出値とその音圧の算出値に対応する音源視覚画像との対応関係を可変にできる。従って、監視装置10は、例えば特定の音圧算出値が集中している箇所では、その辺りでの音源視覚画像を単一色の音源視覚画像ではなく複数種類色の音源視覚画像を用いて、より鮮明かつきめ細かに撮像画像に現れた音源における音の大きさの分布をユーザに対して詳細に把握させることができる。   Also in the present embodiment, the monitoring apparatus 10 sets the correspondence between the plurality of thresholds that define the loudness of the sound in stages and the plurality of types of sound source visual images in the captured image of the imaging area. Change accordingly. The monitoring apparatus 10 transposes the sound source visual image of each predetermined unit of pixels so as to correspond to the size of the captured image in the imaging area based on the calculated value of the sound pressure and the changed correspondence. Generate a heatmap. Accordingly, the monitoring device 10 calculates the sound pressure obtained for each pixel constituting the captured image or for each predetermined unit of the pixel in accordance with the content of the omnidirectional image (captured image) captured by the omnidirectional camera CAk. The correspondence between the value and the sound source visual image corresponding to the calculated value of the sound pressure can be made variable. Therefore, for example, in a place where a specific sound pressure calculation value is concentrated, the monitoring device 10 uses a sound source visual image of a plurality of colors instead of a single color sound source visual image to generate a sound source visual image therearound. It is possible to allow the user to grasp in detail the distribution of the loudness of the sound in the sound source appearing in the captured image clearly and finely.

以上、図面を参照しながら各種の実施形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、上述した各実施形態を組み合わせた事項についても当然に本発明の技術的範囲に属するものと了解される。   Although various embodiments have been described with reference to the drawings, it goes without saying that the present invention is not limited to such examples. It is clear that a person skilled in the art can conceive various changes or modifications within the scope of the claims, and the present invention naturally covers the matters combining the above-described embodiments. It is understood that it belongs to the technical range of.

本発明は、カメラ装置の撮像エリアで検知された音源位置における音の大きさの大小に拘わらず、その音源位置における音の大きさをきめ細かく段階的に提示し、その音源位置における音の大きさのユーザへの正確な把握に資するモニタリングシステム及びモニタリング方法として有用である。   The present invention presents the loudness of a sound at the sound source position finely and stepwise, regardless of the loudness of the loudness at the sound source position detected in the imaging area of the camera device, and provides the loudness of the sound at the sound source position. It is useful as a monitoring system and a monitoring method contributing to accurate understanding of the user.

5 無人飛行体検知システム
10 監視装置
31 通信部
32 操作部
33 信号処理部
34 音源方向検知部
35 出力制御部
37 スピーカ装置(SPK)
38 メモリ
39 設定管理部
63 指向性処理部
64 周波数分析部
65 対象物検知部
66 検知結果判定部
67 走査制御部
68 検知方向制御部
69a マスキングエリア設定部
69b 閾値調整部
CA1,CAk,CAn 全方位カメラ
CZ1,CZk,CZn PTZカメラ
MA1,MAk,MAn マイクアレイ
MN1 第1モニタ
MN2 第2モニタ
NW ネットワーク
RC レコーダ
UD1,UDn 音源検知ユニット
5 Unmanned aerial vehicle detection system 10 Monitoring device 31 Communication unit 32 Operation unit 33 Signal processing unit 34 Sound source direction detection unit 35 Output control unit 37 Speaker unit (SPK)
38 Memory 39 Setting management unit 63 Directivity processing unit 64 Frequency analysis unit 65 Object detection unit 66 Detection result determination unit 67 Scanning control unit 68 Detection direction control unit 69a Masking area setting unit 69b Threshold adjustment units CA1, CAk, CAn All directions Camera CZ1, CZk, CZn PTZ camera MA1, MAk, MAn Microphone array MN1 First monitor MN2 Second monitor NW Network RC recorder UD1, UDn Sound source detection unit

Claims (8)

撮像エリアを撮像するカメラと、
前記撮像エリアの音声を収音するマイクアレイと、
前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、
前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出する音パラメータ導出部と、
前記音パラメータ導出部により導出された前記音パラメータと音の大きさに関する複数の閾値との比較に応じて、前記音パラメータを異なる視覚画像に段階的に変換した音源視覚画像を、前記撮像エリアの音パラメータ導出単位毎に重畳して前記モニタに表示する信号処理部と、を備え、
前記音パラメータ導出部は、前記音源視覚画像が重畳された前記撮像エリアの撮像画像の中で一部の矩形範囲が指定されると、前記撮像エリアの音パラメータ導出単位を前記撮像エリアの撮像画像と前記矩形範囲とのサイズ比で除した値毎に、前記矩形範囲の音パラメータを導出する、
モニタリングシステム。
A camera for imaging the imaging area,
A microphone array that picks up sound in the imaging area;
A monitor that displays a captured image of the imaging area captured by the camera;
A sound parameter that specifies the loudness of the sound in the imaging area based on the sound collected by the microphone array, using a predetermined number of pixels constituting the captured image of the imaging area as a sound parameter derivation unit of the imaging area. A sound parameter deriving unit that derives a sound parameter deriving unit of the imaging area,
According to a comparison between the sound parameter derived by the sound parameter deriving unit and a plurality of thresholds related to the loudness of the sound, a sound source visual image in which the sound parameter is stepwise converted into a different visual image, A signal processing unit that is superimposed on each sound parameter derivation unit and displayed on the monitor,
The sound parameter deriving unit, when a partial rectangular range is specified in the captured image of the imaging area on which the sound source visual image is superimposed , the sound parameter derivation unit of the imaging area is a captured image of the imaging area. Derive a sound parameter of the rectangular range for each value divided by a size ratio of the rectangular range and
Monitoring system.
撮像エリアを撮像するカメラと、
前記撮像エリアの音声を収音するマイクアレイと、
前記カメラにより撮像された前記撮像エリアの撮像画像を表示するモニタと、
前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出する音パラメータ導出部と、
音の大きさを段階的に規定する複数の閾値の各閾値と、前記各閾値との比較に応じて前記音パラメータが異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、前記撮像エリアの撮像画像に応じて変更する閾値調整部と、
前記音パラメータ導出部により導出された前記音パラメータと前記閾値調整部により変更された前記対応関係とを基に、前記撮像エリアの音パラメータ導出単位毎に、前記音パラメータに対応する前記音源視覚画像を前記撮像エリアの撮像画像に重畳して前記モニタに表示する信号処理部と、を備える、
モニタリングシステム。
A camera for imaging the imaging area,
A microphone array that picks up sound in the imaging area;
A monitor that displays a captured image of the imaging area captured by the camera;
A sound parameter that specifies the loudness of the sound in the imaging area based on the sound collected by the microphone array, using a predetermined number of pixels constituting the captured image of the imaging area as a sound parameter derivation unit of the imaging area. A sound parameter deriving unit that derives a sound parameter deriving unit of the imaging area,
Setting of a correspondence relationship between each of a plurality of thresholds that define the volume of sound in a stepwise manner and a sound source visual image in which the sound parameters are gradually converted into different visual images in accordance with the comparison with each of the thresholds A threshold adjustment unit that changes according to the captured image of the imaging area,
On the basis of the sound parameter derived by the sound parameter deriving unit and the correspondence changed by the threshold adjusting unit, for each sound parameter deriving unit of the imaging area, the sound source visual image corresponding to the sound parameter And a signal processing unit that superimposes the captured image of the imaging area and displays the image on the monitor.
Monitoring system.
請求項2に記載のモニタリングシステムであって、
前記閾値調整部は、前記撮像エリアの音パラメータ導出単位毎の前記音パラメータの出現頻度を基に、前記音源視覚画像を規定する前記各閾値の幅を変更する、
モニタリングシステム。
The monitoring system according to claim 2, wherein
The threshold adjustment unit, based on the appearance frequency of the sound parameter for each sound parameter derivation unit of the imaging area, to change the width of each threshold that defines the sound source visual image,
Monitoring system.
請求項2に記載のモニタリングシステムであって、
前記閾値調整部は、前記音パラメータの上限値に対応する音源視覚画像の使用を規定する閾値間の幅の変更操作に応じて、前記幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する、
モニタリングシステム。
The monitoring system according to claim 2, wherein
The threshold adjustment unit, in response to a change operation of the width between the thresholds defining the use of the sound source visual image corresponding to the upper limit of the sound parameter, other than the width between the thresholds after the width is changed other Change the width between all thresholds equally,
Monitoring system.
請求項2に記載のモニタリングシステムであって、
前記閾値調整部は、前記音パラメータの下限値に対応する音源視覚画像の使用を規定する閾値間の幅の変更操作に応じて、前記幅が変更された後の閾値間の幅を除く他の全ての閾値間の幅を均等に変更する、
モニタリングシステム。
The monitoring system according to claim 2, wherein
The threshold adjustment unit, according to a change operation of the width between the thresholds defining the use of the sound source visual image corresponding to the lower limit of the sound parameter, other than the width between the threshold after the width is changed other Change the width between all thresholds equally,
Monitoring system.
請求項2に記載のモニタリングシステムであって、
前記閾値調整部は、前記音パラメータの上限値に対応する音源視覚画像の使用を規定する閾値間の幅と前記音パラメータの下限値に対応する音源視覚画像の使用を規定する閾値間の幅との変更操作に応じて、前記幅が変更された後の上端閾値間及び下端閾値間の幅を除く他の全ての閾値間の幅を均等に変更する、
モニタリングシステム。
The monitoring system according to claim 2, wherein
The threshold adjustment unit, the width between the threshold that defines the use of the sound source visual image corresponding to the upper limit of the sound parameter and the width between the threshold that defines the use of the sound source visual image corresponding to the lower limit of the sound parameter. In accordance with the change operation, the width between all the thresholds except for the width between the upper threshold and the lower threshold after the width is changed is changed uniformly.
Monitoring system.
カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、
前記カメラにより、撮像エリアを撮像し、
前記マイクアレイにより、前記撮像エリアの音声を収音し、
前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、
前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出し、
導出された前記音パラメータと音の大きさに関する複数の閾値との比較に応じて、前記音パラメータを異なる視覚画像に段階的に変換した音源視覚画像を、前記撮像エリアの音パラメータ導出単位毎に重畳して前記モニタに表示することを特徴とし、
さらに、前記音源視覚画像が重畳された前記撮像エリアの撮像画像の中で一部の矩形範囲が指定されると、前記撮像エリアの音パラメータ導出単位を前記撮像エリアの撮像画像と前記矩形範囲とのサイズ比で除した値毎に、前記矩形範囲の音パラメータを導出する、
モニタリング方法。
A monitoring method in a monitoring system having a camera and a microphone array,
With the camera, the imaging area is imaged,
The microphone array collects sound in the imaging area,
Displaying a captured image of the imaging area captured by the camera on a monitor,
A sound parameter that specifies the loudness of the sound in the imaging area based on the sound collected by the microphone array, using a predetermined number of pixels constituting the captured image of the imaging area as a sound parameter derivation unit of the imaging area. Is derived for each sound parameter derivation unit of the imaging area,
According to a comparison between the derived sound parameter and a plurality of thresholds relating to the loudness of the sound, a sound source visual image in which the sound parameter is stepwise converted into a different visual image is provided for each sound parameter deriving unit of the imaging area. Being superimposed and displayed on the monitor,
Further, when a partial rectangular range is specified in the captured image of the imaging area on which the sound source visual image is superimposed, the sound parameter derivation unit of the imaging area is defined as the captured image of the imaging area and the rectangular range. Derive a sound parameter of the rectangular range for each value divided by the size ratio of
Monitoring method.
カメラとマイクアレイとを有するモニタリングシステムにおけるモニタリング方法であって、
前記カメラにより、撮像エリアを撮像し、
前記マイクアレイにより、前記撮像エリアの音声を収音し、
前記カメラにより撮像された前記撮像エリアの撮像画像をモニタに表示し、
前記撮像エリアの撮像画像を構成する所定数の画素を前記撮像エリアの音パラメータ導出単位として、前記マイクアレイにより収音された音声を基に、前記撮像エリアの音の大きさを特定する音パラメータを、前記撮像エリアの音パラメータ導出単位毎に導出し、
音の大きさを段階的に規定する複数の閾値の各閾値と、前記各閾値との比較に応じて前記音パラメータが異なる視覚画像に段階的に変換される音源視覚画像との対応関係の設定を、前記撮像エリアの撮像画像に応じて変更し、
導出された前記音パラメータと変更された前記対応関係とを基に、前記撮像エリアの音パラメータ導出単位毎に、前記音パラメータに対応する前記音源視覚画像を前記撮像エリアの撮像画像に重畳して前記モニタに表示する、
モニタリング方法。
A monitoring method in a monitoring system having a camera and a microphone array,
With the camera, the imaging area is imaged,
The microphone array collects sound in the imaging area,
Displaying a captured image of the imaging area captured by the camera on a monitor,
A sound parameter that specifies the loudness of the sound in the imaging area based on the sound collected by the microphone array, using a predetermined number of pixels constituting the captured image of the imaging area as a sound parameter derivation unit of the imaging area. Is derived for each sound parameter derivation unit of the imaging area,
Setting of a correspondence relationship between each of a plurality of thresholds that define the volume of sound in a stepwise manner and a sound source visual image in which the sound parameters are gradually converted into different visual images in accordance with the comparison with each of the thresholds Is changed according to the captured image of the imaging area,
Based on the derived sound parameter and the changed correspondence, based on the sound parameter derivation unit of the imaging area, the sound source visual image corresponding to the sound parameter is superimposed on the captured image of the imaging area. Displaying on the monitor,
Monitoring method.
JP2016060974A 2016-03-24 2016-03-24 Monitoring system and monitoring method Active JP6664119B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016060974A JP6664119B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method
PCT/JP2017/005872 WO2017163688A1 (en) 2016-03-24 2017-02-17 Monitoring system and monitoring method
US15/454,722 US10397525B2 (en) 2016-03-24 2017-03-09 Monitoring system and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060974A JP6664119B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method

Publications (3)

Publication Number Publication Date
JP2017175474A JP2017175474A (en) 2017-09-28
JP2017175474A5 JP2017175474A5 (en) 2019-04-25
JP6664119B2 true JP6664119B2 (en) 2020-03-13

Family

ID=59972440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060974A Active JP6664119B2 (en) 2016-03-24 2016-03-24 Monitoring system and monitoring method

Country Status (1)

Country Link
JP (1) JP6664119B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021038752A1 (en) * 2019-08-28 2021-03-04 株式会社ソニー・インタラクティブエンタテインメント Image processing device, system, image processing method and image processing program
CN113851002B (en) * 2021-10-15 2022-04-22 江阴市人人达科技有限公司 Ectopic facility interactive synchronization system and method
CN114964650B (en) * 2022-08-01 2022-11-18 杭州兆华电子股份有限公司 Gas leakage alarm method and device based on acoustic imaging

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602006018897D1 (en) * 2005-05-05 2011-01-27 Sony Computer Entertainment Inc Video game control via joystick
US9226088B2 (en) * 2011-06-11 2015-12-29 Clearone Communications, Inc. Methods and apparatuses for multiple configurations of beamforming microphone arrays
JP5642027B2 (en) * 2011-07-06 2014-12-17 株式会社日立パワーソリューションズ Abnormal sound diagnosis apparatus and abnormal sound diagnosis method
DK2838711T3 (en) * 2012-04-16 2016-09-05 Vestas Wind Sys As A method of making a composite part and an apparatus for making a composite part
JP5939444B2 (en) * 2012-12-25 2016-06-22 株式会社Jvcケンウッド Imaging device
JP6061693B2 (en) * 2013-01-18 2017-01-18 株式会社日立パワーソリューションズ Abnormality diagnosis apparatus and abnormality diagnosis method using the same
JP6531760B2 (en) * 2014-07-18 2019-06-19 ソニー株式会社 INFORMATION PROCESSING APPARATUS AND METHOD, DISPLAY CONTROL APPARATUS AND METHOD, REPRODUCTION APPARATUS AND METHOD, PROGRAM, AND INFORMATION PROCESSING SYSTEM

Also Published As

Publication number Publication date
JP2017175474A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP7122708B2 (en) Image processing device, monitoring system and image processing method
JP5979458B1 (en) Unmanned air vehicle detection system and unmanned air vehicle detection method
WO2017163688A1 (en) Monitoring system and monitoring method
JP6598064B2 (en) Object detection apparatus, object detection system, and object detection method
JP2018026792A (en) Unmanned flying object detection system and unmanned flying object detection method
US10791395B2 (en) Flying object detection system and flying object detection method
JP2015089119A (en) System and method for tracking objects
JP6664119B2 (en) Monitoring system and monitoring method
CN103871186A (en) Security and protection monitoring system and corresponding warning triggering method
JP5939341B1 (en) Monitoring system and monitoring method
JP2018101987A (en) Sound source display system in monitoring area and sound source display method
JP2017138947A (en) Flight altitude control device, unmanned aerial vehicle, flight altitude control method, and flight altitude control program
CN102348102A (en) Roof safety monitoring system and method thereof
US20210152750A1 (en) Information processing apparatus and method for controlling the same
JP2017092938A (en) Audio source detection system and audio source detection method
WO2019225147A1 (en) Airborne object detection device, airborne object detection method, and airborne object detection system
JP2017072986A (en) Autonomous flying device, control method and program of autonomous flying device
JP2005252660A (en) Photographing system and photographing control method
JP2017175473A (en) Monitoring system and monitoring method
WO2018020965A1 (en) Unmanned aerial vehicle detection system and unmanned aerial vehicle detection method
JP3272584B2 (en) Region extraction device and direction detection device using the same
KR102104406B1 (en) Surveillance camera performing panning and tilting
US11843846B2 (en) Information processing apparatus and control method therefor
JP2022105047A (en) Imaging apparatus, flight device, imaging method, and program
JP4846203B2 (en) Image area setting apparatus and image area setting method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6664119

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151