JP2012048689A - Abnormality detection apparatus - Google Patents

Abnormality detection apparatus Download PDF

Info

Publication number
JP2012048689A
JP2012048689A JP2010192965A JP2010192965A JP2012048689A JP 2012048689 A JP2012048689 A JP 2012048689A JP 2010192965 A JP2010192965 A JP 2010192965A JP 2010192965 A JP2010192965 A JP 2010192965A JP 2012048689 A JP2012048689 A JP 2012048689A
Authority
JP
Japan
Prior art keywords
person
image
time
unit
scream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010192965A
Other languages
Japanese (ja)
Inventor
Kazuyoshi Fukushi
和義 福士
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2010192965A priority Critical patent/JP2012048689A/en
Publication of JP2012048689A publication Critical patent/JP2012048689A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Burglar Alarm Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an abnormality detection apparatus according to acoustics in which an erroneous detection does not frequently occur even under the environment where various acoustics similar to an abnormal sound are present.SOLUTION: The present invention relates to an abnormality detection apparatus according to acoustics, including: a sound collection section for acquiring acoustic signals being generated in a monitoring area where an important object is preserved; an acoustic analysis section for analyzing the acoustic signals collected by the sound collection section to detect a predetermined abnormal sound; a person detection section for detecting a person located in an important object area which is included in the monitoring area and preset near a place where the important object is preserved; an abnormality determination section for determining an abnormal state within the monitoring area on the basis of an abnormal sound detection result of the acoustic analysis section and a person detection result of the person detection section; and an output section for outputting a determination result of the abnormality determination section. The abnormality determination section determines an abnormal state when a person is detected by the person detection section within a predetermined time before and after the predetermined abnormal sound is determined by the acoustic analysis section.

Description

本発明は、音響情報に基づいて監視領域内の異常状態を検知する音響による異常検知装置に関する。   The present invention relates to an abnormality detection apparatus using sound for detecting an abnormal state in a monitoring area based on acoustic information.

従来、集音部にて取得した音響信号から、強盗の強迫音声、銃声、客等の悲鳴などの異常波形をもった異常音を検知し、警備会社等へ通報する音響による異常検知装置が提案されている(特許文献1)。また、周囲の雑音による誤検知を低減するために、音響信号をスペクトル分析することにより、周囲の雑音から悲鳴の存在を検知する音響による異常検知装置も提案されている(特許文献2)。   Conventionally, an acoustic abnormality detection device has been proposed that detects abnormal sounds with abnormal waveforms such as burglary compulsive voices, gunshots, and screams of customers from acoustic signals acquired by the sound collection unit and reports them to security companies. (Patent Document 1). In addition, in order to reduce false detection due to ambient noise, an acoustic abnormality detection device that detects the presence of screams from ambient noise by analyzing the spectrum of the acoustic signal has also been proposed (Patent Document 2).

特公平5−6718JP 5-6718 特開平9−251583JP 9-251583 A

しかしながら、上記の従来の音響による異常検知装置は、音響信号のみから監視領域内の異常状態を検知しているため、周囲のアナウンス音やテレビ音、従業員の歓声等といった異常音に類似する音響信号を誤って検出してしまう問題があった。このような誤検知を低減するために、検出感度を下げると逆に失検知の要因となりかねないことから、検出感度による調整も困難であった。   However, since the above-described conventional abnormality detection device using sound detects an abnormal state in the monitoring area only from the sound signal, sound similar to abnormal sound such as surrounding announcement sounds, TV sounds, employee cheers, etc. There was a problem of erroneously detecting the signal. In order to reduce such false detection, if the detection sensitivity is lowered, it may be a cause of detection failure. Therefore, it is difficult to adjust the detection sensitivity.

ところで、発明者は、多くの強盗事案について事例分析した結果、強盗事案が発生した場合、悲鳴や銃声等の異常音が発生した前後の時間帯に少なくとも、金庫等の保管庫を含む重要物近辺に人物が所在する、あるいは重要物に近づく人物が存在している場合が多いことについて発見した。例えば、強盗が従業員を脅迫した際に発せられた従業員による悲鳴を検出した後に強盗自身(又は強盗に強要された従業員)が重要物に近づいていく場合や、重要物を奪取した後に従業員が発した悲鳴を検出する場合などである。   By the way, as a result of analyzing the cases of many burglary cases, the inventor found that if a burglary case occurred, at least in the vicinity of important items including storage such as a safe in the time zone before and after the occurrence of abnormal sounds such as screams and gunshots I found out that there are many people who are close to or important. For example, if a robber himself (or an employee forced by a burglar) approaches an important object after detecting an employee scream when the burglar threatens the employee, or after taking an important object For example, when detecting a scream from an employee.

そこで本発明は、上記のような異常音と人物位置との検出タイミングに関する特性に着目し、異常音に類似する様々な音響が存在する環境下においても、誤検知を頻発することなく、監視領域内の異常状態を検出しうることを目的としたものである。   Therefore, the present invention focuses on the characteristics relating to the detection timing of the abnormal sound and the person position as described above, and does not frequently cause false detections even in an environment where various sounds similar to the abnormal sound exist. The purpose is to be able to detect an abnormal state.

かかる課題を解決するために、重要物を保管している監視領域にて生じている音響信号を取得する集音部と、前記集音部が集音した前記音響信号を分析し、所定の異常音を検出する音響分析部と、前記監視領域に含まれる領域であって前記重要物の保管場所付近に予め設定した重要物領域に所在する人物を検出する人物検出部と、前記音響分析部の異常音検出結果と人物検出部の人物検出結果とに基いて前記監視領域内の異常状態を判定する異常判定部と、前記異常判定部の判定結果を出力する出力部とから構成される音響による異常検知装置であって、前記異常判定部は、前記音響分析部にて所定の異常音と判定したときの前後の所定時間以内に前記人物検出部にて人物検出があると異常状態と判定することを特徴とした異常検知装置を提供する。   In order to solve such a problem, a sound collection unit that acquires an acoustic signal generated in a monitoring area in which an important object is stored, and the acoustic signal collected by the sound collection unit are analyzed to obtain a predetermined abnormality. An acoustic analysis unit for detecting sound, a person detection unit for detecting a person included in the monitoring object and located in the important material area set in the vicinity of the storage location of the important material, and the acoustic analysis unit Based on the sound composed of an abnormality determination unit that determines an abnormal state in the monitoring area based on an abnormal sound detection result and a person detection result of the person detection unit, and an output unit that outputs the determination result of the abnormality determination unit In the abnormality detection device, the abnormality determination unit determines an abnormal state when a person is detected by the person detection unit within a predetermined time before and after the acoustic analysis unit determines that the predetermined abnormal sound is detected. An anomaly detection device characterized by To.

かかる構成により、本発明の音響分析部は、集音部によって集音された音響信号を分析することにより、監視領域で悲鳴等の異常音が発生したか否かを判定する。また、本発明の人物検出部は、少なくとも監視領域に包含される領域であって、重要物の保管場所を含む所定範囲の領域である重要物領域に人物が所在しているか否かを検出する。そして、本発明の異常判定部は、監視領域で悲鳴等の異常音が発生したと音響分析部にて判定された時刻を基準とし、その時刻以前の所定時間内、又はその時刻以後の所定時間内において、人物検出部にて重要物領域内に人物を検出していたときに異常状態と判定する。そして、本発明の出力部は、当該判定結果を出力する。
これにより、例えば、重要物を奪取した強盗を人物検出部にて検出し、その後で従業員が発した悲鳴を音響分析部にて検出した時に、監視領域内が異常状態であると判定できる。また、例えば、従業員を脅迫した際に従業員が発した悲鳴を音響分析部にて検出し、その後で重要物を奪取しようと重要物領域内に近づいた強盗を人物検出部にて検出したときに、監視領域内が異常状態であると判定できる。このように、本発明は、たとえ監視領域内が異常音に類似する様々な音響の存在する環境であったとしても、重要物領域内に人物が存在しているか否かといった室内状況を考慮することによって、誤検知の頻発を抑えることができる。
With this configuration, the acoustic analysis unit of the present invention determines whether or not an abnormal sound such as a scream has occurred in the monitoring region by analyzing the acoustic signal collected by the sound collection unit. In addition, the person detection unit of the present invention detects whether or not a person is present in an important object area that is an area included in at least a monitoring area and includes a storage area for important objects. . Then, the abnormality determination unit of the present invention is based on the time determined by the acoustic analysis unit that an abnormal sound such as scream has occurred in the monitoring region, and within a predetermined time before that time or a predetermined time after that time. When the person is detected in the important object area by the person detection unit, the abnormal state is determined. And the output part of this invention outputs the said determination result.
Thereby, for example, when a robber who has taken important objects is detected by the person detection unit, and then a scream uttered by an employee is detected by the acoustic analysis unit, it can be determined that the inside of the monitoring area is in an abnormal state. Also, for example, when the employee is threatened, the scream that the employee uttered is detected by the acoustic analysis unit, and then a robber who approaches the important object area to detect the important object is detected by the person detection unit. Sometimes it can be determined that the monitoring area is in an abnormal state. As described above, the present invention takes into consideration the indoor situation such as whether or not a person exists in the important object area even if the monitoring area is an environment where various sounds similar to abnormal sounds exist. As a result, frequent occurrence of false detections can be suppressed.

また、本発明の好ましい態様として、前記人物検出部は、前記監視領域を含む領域の画像を順次取得する撮像手段と、前記画像から人物像を抽出する人物像抽出手段と、前記人物像ごとに画像上の位置を追跡する追跡手段と、前記追跡手段の追跡結果から前記人物像の移動軌跡を記憶し、且つ、画像上の前記重要物領域の位置を予め記憶する記憶部と、前記所定時間における前記人物像の移動軌跡から前記重要物領域内に当該人物像の滞留している時間を算出する人物検出手段とを有し、前記異常判定部は、前記人物検出手段にて算出された前記人物像の滞留している時間が所定の滞留時間を超えていると異常状態と判定するものとする。
かかる構成により、本発明の人物検出部の撮像手段は、監視領域を含む領域の画像を順次取得する。そして、本発明の人物検出部の人物像抽出手段は、前記画像から人物像を抽出する。そして、本発明の人物検出部の追跡手段は、抽出された人物像ごとに画像上の位置を追跡し、当該人物像ごとの移動軌跡を記憶部にする。そして、本発明の人物検出部の人物検出手段は、記憶部に記憶された重要物領域に人物像が滞留している時間を算出する。そして、本発明の異常判定部は、人物検出手段にて算出された人物像の滞留している時間が所定の滞留時間を超えていると異常状態と判定する。このように、人物の位置を画像により追跡することによって、悲鳴を検出した前後の人物の移動状況や位置関係を異常状態の判定に勘案することができ、より正確に異常状態を判定することができる。例えば、重要物領域内を一時的に横切っただけの人物像については、重要物領域に所在するとの判定から除外できるため、通常状態における従業員等による誤検知要因を排除でき、高い確度で異常状態を検出することができる。
Further, as a preferred aspect of the present invention, the person detection unit includes an imaging unit that sequentially acquires an image of an area including the monitoring area, a person image extraction unit that extracts a person image from the image, and a person image. A tracking unit that tracks a position on the image; a storage unit that stores a movement trajectory of the person image from a tracking result of the tracking unit; and that stores a position of the important object region on the image in advance; and the predetermined time And a person detecting means for calculating a time during which the person image stays in the important object region from the movement locus of the person image in the image, and the abnormality determining unit is calculated by the person detecting means. Assume that an abnormal state is determined when the retention time of the person image exceeds a predetermined retention time.
With this configuration, the imaging unit of the person detection unit of the present invention sequentially acquires images of the area including the monitoring area. Then, the human image extraction means of the human detection unit of the present invention extracts a human image from the image. Then, the tracking means of the person detection unit of the present invention tracks the position on the image for each extracted person image, and uses the movement locus for each person image as a storage unit. And the person detection means of the person detection part of this invention calculates the time when a person image stays in the important object area | region memorize | stored in the memory | storage part. And the abnormality determination part of this invention determines with an abnormal state, if the residence time of the person image calculated in the person detection means exceeds predetermined residence time. In this way, by tracking the position of the person with the image, the movement status and positional relationship of the person before and after detecting the scream can be taken into account in the determination of the abnormal state, and the abnormal state can be determined more accurately. it can. For example, a person image that has just temporarily crossed the important object area can be excluded from the determination that it is located in the important object area, so that it is possible to eliminate false detection factors by employees in normal conditions, and abnormalities with high accuracy. The state can be detected.

上記のように、本発明の異常検知装置は、監視領域内の人物の所在情報を積極的に利用したことにより、異常音に類似する様々な音響が存在する環境下においても、誤検知を多発することなく、監視領域内の異常状態を検出することができる。   As described above, the anomaly detection device of the present invention is prone to erroneous detection even in an environment where various sounds similar to the anomalous sound exist by actively using the location information of the person in the monitoring area. An abnormal state in the monitoring area can be detected without doing so.

実施例に係る異常検知装置の構成と配置イメージを模式的に示した図The figure which showed typically the structure and arrangement | positioning image of the abnormality detection apparatus which concern on an Example. 第一の実施例に係る管理装置の構成を示すブロック図The block diagram which shows the structure of the management apparatus which concerns on a 1st Example. 移動軌跡情報を示す図Diagram showing movement trajectory information 制御部における処理を示すフローチャートFlow chart showing processing in the control unit 第一の実施例に係る人物検出処理を示すフローチャートFlowchart showing person detection processing according to the first embodiment. 悲鳴検出処理を示すフローチャートFlow chart showing scream detection processing 異常判定処理を示すフローチャートFlow chart showing abnormality determination processing 異常状態と判定される典型的なケースTypical cases that are judged as abnormal 第二の実施例に係る管理装置の構成を示すブロック図The block diagram which shows the structure of the management apparatus which concerns on a 2nd Example. 第二の実施例に係る人物検出処理を示すフローチャートFlowchart showing person detection processing according to the second embodiment.

(第一の実施例)
以下、本発明の一実施形態として、建物内の金庫が設置されている部屋内を監視領域とし、当該監視領域における音響情報と監視領域内の所定領域を撮像した画像情報とから監視領域内における異常状態を検知する場合の実施例について、図面を参照して説明する。
(First embodiment)
Hereinafter, as an embodiment of the present invention, a room in a building where a safe in a building is set as a monitoring area, and acoustic information in the monitoring area and image information obtained by imaging a predetermined area in the monitoring area are used. An embodiment for detecting an abnormal state will be described with reference to the drawings.

図1は、異常検知装置1の全体構成および配置について模式的に示した図である。異常検知装置1は、管理装置2、撮像装置3及び集音装置4によって構成される。
本実施例では、異常検知装置1は、金庫7が設置されている室内を監視領域とし、監視領域内において発生する異常音である悲鳴を検出し、悲鳴が検出された前後の所定時間内に金庫7周囲に所定時間継続して人物像が検出されている場合に、異常状態であると判定し、警備装置5を介して遠隔地に所在する警備センタ装置6へ異常通報する処理を行う。
FIG. 1 is a diagram schematically showing the overall configuration and arrangement of the abnormality detection device 1. The abnormality detection device 1 includes a management device 2, an imaging device 3, and a sound collection device 4.
In this embodiment, the abnormality detection device 1 uses the room where the safe 7 is installed as a monitoring area, detects a scream as an abnormal sound generated in the monitoring area, and within a predetermined time before and after the scream is detected. When a person image is continuously detected around the safe 7 for a predetermined time, it is determined that the state is abnormal, and a process of notifying the security center device 6 located in a remote place via the security device 5 is performed.

管理装置2は、建物内の図示しない事務室や警備室等に設置され、管理装置2に接続された撮像装置3から送信された監視画像及び集音装置4から送信された音響信号に基づいて異常状態の検知処理を行う。また、管理装置2は、異常状態の検知時に、事務室等に所在する管理者や警備員等に音声や画像表示によって警報出力することにより、異常状態を報知する。さらに、管理装置2は、警備装置5に接続され、異常状態の検知時に警備装置5に異常信号を送信する。   The management device 2 is installed in an office or a security room (not shown) in the building, and is based on the monitoring image transmitted from the imaging device 3 connected to the management device 2 and the acoustic signal transmitted from the sound collection device 4. An abnormal state detection process is performed. Moreover, the management apparatus 2 alert | reports an abnormal condition by outputting a warning by an audio | voice or an image display to the administrator, guard, etc. who exist in an office etc. at the time of the detection of an abnormal condition. Further, the management device 2 is connected to the security device 5 and transmits an abnormal signal to the security device 5 when an abnormal state is detected.

撮像装置3は、CCD素子やC−MOS素子等の撮像素子、光学系部品等を含んで構成される所謂監視カメラである。撮像装置3は、室内の壁9の上部又は天井部に設置され、監視領域を斜め上方から俯瞰して撮像するよう設置される。撮像装置3は、監視領域を所定時間おきに撮像して監視画像を管理装置2に順次送信する。入力画像が撮像される時間間隔は例えば1/5秒である。
監視画像として撮像される範囲には、一点鎖線で図示された重要物領域8が含まれる。ここで、重要物領域8とは、重要物が保管された金庫7周囲の所定範囲の領域のことをいう。ここで、所定範囲は、金庫7を人が操作しているときに所在しそうな範囲である。重要物領域8は、管理装置2にて監視画像上の一部領域として予め設定され、管理装置2による異常状態の検知処理において参照される。本実施例では、具体的には、重要物領域8は金庫7を中心とする半径3m相当の領域に設定される。
The image pickup apparatus 3 is a so-called surveillance camera that includes an image pickup element such as a CCD element or a C-MOS element, optical system components, and the like. The imaging device 3 is installed on the upper part or ceiling of the indoor wall 9 and is installed so as to capture an image of the monitoring area from above. The imaging device 3 captures the monitoring area at predetermined time intervals and sequentially transmits monitoring images to the management device 2. The time interval at which the input image is captured is 1/5 second, for example.
The range captured as the monitoring image includes an important object region 8 illustrated by a one-dot chain line. Here, the important object area 8 means an area in a predetermined range around the safe 7 in which important objects are stored. Here, the predetermined range is a range that is likely to be located when a person is operating the safe 7. The important object area 8 is preset as a partial area on the monitoring image by the management apparatus 2 and is referred to in the abnormal state detection processing by the management apparatus 2. In this embodiment, specifically, the important object area 8 is set to an area corresponding to a radius of 3 m with the safe 7 as the center.

集音装置4は、マイクロフォン、増幅器及びA/D変換器等を含んで構成され、監視空間の音をデジタル信号(音響信号)に変換する電気回路である。集音装置4は、少なくとも監視領域を含む領域にて発生した音響を集音できる位置に設置され、当該音響を音響信号に変換して、管理装置2に出力する。なお、増幅器は、金庫7が設置された部屋内で悲鳴が発せられたときに出力される音響信号の音量が70〜100dBの範囲内に納まる程度の増幅率に予め設定される。   The sound collecting device 4 is configured to include a microphone, an amplifier, an A / D converter, and the like, and is an electric circuit that converts sound in a monitoring space into a digital signal (acoustic signal). The sound collection device 4 is installed at a position where sound generated at least in a region including the monitoring region can be collected, converts the sound into an acoustic signal, and outputs the sound signal to the management device 2. Note that the amplifier is set in advance so that the volume of the sound signal output when a scream is generated in the room where the safe 7 is installed falls within the range of 70 to 100 dB.

なお、管理装置2と接続されている警備装置5は、監視領域と同じ建物内の図示しない事務室や警備室等に設置されている。警備装置5は、管理装置2からの異常信号を受信すると、公衆電話回線などの広域通信ネットワークを介して警備センタ装置6に当該異常を送信し、遠隔地にある図示しない警備センタに常駐する警備員に対して異常の発生を報知する。   The security device 5 connected to the management device 2 is installed in a not-shown office room, security room or the like in the same building as the monitoring area. When the security device 5 receives the abnormality signal from the management device 2, the security device 5 transmits the abnormality to the security center device 6 via a wide area communication network such as a public telephone line, and the security device resident in a security center (not shown) at a remote location. Inform the employee of the occurrence of an abnormality.

図2は、管理装置2の構成を示している。管理装置2は、コンピュータ機能を有しており、記憶部21、制御部22、入力部23、出力部24及び通信部25を備えている。   FIG. 2 shows the configuration of the management device 2. The management device 2 has a computer function and includes a storage unit 21, a control unit 22, an input unit 23, an output unit 24, and a communication unit 25.

通信部25は、LANやUSB等の通信インタフェースであり、撮像装置3、集音装置4及び警備装置5と通信を行う。   The communication unit 25 is a communication interface such as a LAN or USB, and communicates with the imaging device 3, the sound collection device 4, and the security device 5.

入力部23は、キーボードやマウス、タッチパネル、可搬記憶媒体の読み取り装置等の情報入力デバイスである。管理者等は、入力部23を用いて、管理装置2に対して重要物領域8等の様々な設定情報や操作情報等を入力することができる。   The input unit 23 is an information input device such as a keyboard, a mouse, a touch panel, or a portable storage medium reading device. An administrator or the like can input various setting information, operation information, and the like such as the important object area 8 to the management apparatus 2 using the input unit 23.

出力部24は、制御部22による処理結果を様々な外部装置に出力するためのインタフェースである。出力部24は、例えばスピーカやブザー等の音響出力装置と接続され、制御部22からの指示により、当該音響出力装置に対して警告音の鳴動を実行させる異常信号を出力する。また、出力部24は、例えばディスプレイ等の表示出力装置と接続され、制御部22からの指示により、当該表示出力装置に対して警告メッセージを表示出力させる。管理者等は、警告出力として出力部24からの表示出力や音声出力を確認することにより、監視領域内における異常状態を検知することができる。なお、管理者等は、表示出力を確認することにより、異常検知装置1の設定情報、監視領域における監視画像等を確認することもできる。
また、出力部24は、外部の警備装置5に対して異常信号を送信する通信インタフェースを含んでもよい。これにより、制御部22の処理によって異常状態が検知された場合に、管理装置2は、異常状態を知らせる信号を外部の監視センタなどに通知することができる。なお、この場合、出力部24は、通信部25と共通のインタフェース装置であってもよい。
The output unit 24 is an interface for outputting processing results from the control unit 22 to various external devices. The output unit 24 is connected to a sound output device such as a speaker or a buzzer, for example, and outputs an abnormal signal that causes the sound output device to sound a warning sound according to an instruction from the control unit 22. The output unit 24 is connected to a display output device such as a display, for example, and causes the display output device to display and output a warning message according to an instruction from the control unit 22. An administrator or the like can detect an abnormal state in the monitoring area by confirming the display output or the audio output from the output unit 24 as a warning output. Note that the administrator or the like can also confirm the setting information of the abnormality detection device 1, the monitoring image in the monitoring area, and the like by confirming the display output.
The output unit 24 may include a communication interface that transmits an abnormal signal to the external security device 5. Thereby, when an abnormal state is detected by the process of the control unit 22, the management apparatus 2 can notify a signal indicating the abnormal state to an external monitoring center or the like. In this case, the output unit 24 may be an interface device common to the communication unit 25.

記憶部21は、ROM、RAM、HDD等の情報記憶装置である。記憶部21は、各種プログラムや各種データを記憶し、制御部22との間でこれらの情報を入出力する。各種データには、領域情報211、母音特徴量212、移動軌跡情報213、人物検出時刻214及び悲鳴検出時刻215が含まれる。   The storage unit 21 is an information storage device such as a ROM, RAM, or HDD. The storage unit 21 stores various programs and various data, and inputs / outputs such information to / from the control unit 22. The various data includes region information 211, vowel feature value 212, movement trajectory information 213, person detection time 214, and scream detection time 215.

領域情報211は、監視画像の座標系で表現された重要物領域8の情報である。例えば、重要物領域8を金庫7を中心とした円として規定される場合、領域情報211には、円の中心座標と半径のデータとが記憶される。   The area information 211 is information on the important object area 8 expressed in the coordinate system of the monitoring image. For example, when the important object area 8 is defined as a circle centered on the safe 7, the area information 211 stores the center coordinates and radius data of the circle.

母音特徴量212は予め作成された母音の特徴量のデータであり、後述する母音抽出手段224において音響信号から母音を抽出するために参照される。母音特徴量212は母音の種類ごとに各母音の種類を表す識別子と対応付けて記憶されている。
母音特徴量212の元データは、多数の話者から採取した悲鳴の語尾のサンプル音響信号である。事前に、これらのサンプル音響信号のそれぞれから悲鳴の語尾の周波数特徴量を表すスペクトル包絡のパラメータを抽出し、母音の種類ごとに当該パラメータの分布を学習しておく。本例では、スペクトル包絡を表すパラメータとして8次のLPCケプストラム(LPC:Linear Predictive Coding)、分布としてGMM(Gaussian Mixture Model;混合正規分布)を用いる。また、悲鳴の語尾の母音として「あ」「え」「お」の3種類を用いる。すなわち、母音特徴量212として、「あ」のLPCケプストラムのGMM、「え」のLPCケプストラムのGMM、「お」のLPCケプストラムのGMMのそれぞれが記憶部21に記憶されている。
The vowel feature value 212 is vowel feature value data created in advance, and is referred to in order to extract a vowel from an acoustic signal in the vowel extraction unit 224 described later. The vowel feature quantity 212 is stored in association with an identifier representing each vowel type for each vowel type.
The original data of the vowel feature 212 is a sample acoustic signal of the scream ending collected from many speakers. In advance, a spectral envelope parameter representing the frequency feature amount of the scream ending is extracted from each of these sample acoustic signals, and the distribution of the parameter is learned for each type of vowel. In this example, an 8th-order LPC cepstrum (LPC: Linear Predictive Coding) is used as a parameter representing the spectral envelope, and a GMM (Gaussian Mixture Model) is used as the distribution. In addition, three types of “a”, “e”, and “o” are used as vowels at the end of the scream. That is, as the vowel feature value 212, the GMM of the “PC” LPC cepstrum, the GMM of the “PC” LPC cepstrum, and the GMM of the “PC” LPC cepstrum are stored in the storage unit 21, respectively.

移動軌跡情報213は、撮像装置3にて取得した監視画像を解析し、当該監視画像に含まれる人物像の監視画像上における座標を時系列に保存することにより、当該人物像の移動軌跡を追跡できるよう生成された情報である。移動軌跡情報213の具体例としては、図3に示されるように、監視画像が取得された時刻と、当該監視画像内に人物像が含まれていた場合に当該人物像に付与される一意の識別子である像IDと、当該人物像の重心の監視画像上における座標と、当該人物像が重要物領域8に所在していた場合に継続して当該重要物領域8に所在している時間である継続所在時間と、を対応付けるテーブルとして記憶部21に保存される。なお、像IDは、後述するように、制御部22にて過去時刻における監視画像内の人物像と現在時刻における人物像との関連を解析され、過去時刻における人物像と現在時刻における人物像とが同一であると判定されれば共通する像IDが付与され、過去時刻における人物像と現在時刻における人物像とが同一でないと判定されれば新規の像IDが付与される。   The movement trajectory information 213 tracks the movement trajectory of the person image by analyzing the monitoring image acquired by the imaging device 3 and storing the coordinates of the person image included in the monitoring image on the monitoring image in time series. Information generated so that it can be used. As a specific example of the movement trajectory information 213, as shown in FIG. 3, the time at which the monitoring image is acquired and the unique image given to the person image when the person image is included in the monitoring image. The image ID that is the identifier, the coordinates of the center of gravity of the person image on the monitoring image, and the time that the person image is continuously located in the important object area 8 when the person image is located in the important object area 8 It is stored in the storage unit 21 as a table for associating a certain continuous location time. As will be described later, the image ID is analyzed by the control unit 22 between the person image in the monitoring image at the past time and the person image at the current time, and the person image at the past time and the person image at the current time are analyzed. Are determined to be the same, a common image ID is assigned, and if it is determined that the person image at the past time and the person image at the current time are not the same, a new image ID is assigned.

人物検出時刻214は、重要物領域8内で人物像が検出された時刻が随時追記された時刻リストであり、後述する人物検出手段223にて記録される。本実施例では、人物像が重要物領域8内に所定時間の間検出されていた場合、当該人物像の検出された最初の時刻が人物検出時刻214へ追記される。   The person detection time 214 is a time list in which the time when the person image is detected in the important object area 8 is added as needed, and is recorded by the person detection means 223 described later. In the present embodiment, when a person image has been detected in the important object region 8 for a predetermined time, the first time at which the person image was detected is added to the person detection time 214.

悲鳴検出時刻215は、監視領域内において悲鳴が検出された時刻が随時追記された時刻リストであり、後述する悲鳴判定手段225にて記録される。   The scream detection time 215 is a time list in which the time when the scream was detected in the monitoring area is added as needed, and is recorded by the scream determination means 225 described later.

制御部22は、例えばCPUやDSP等の演算装置であって、記憶部21に記憶されるプログラムに従って各種の情報処理を実行する。本実施例では、制御部22は、集音装置4によって取得した音響信号と撮像装置3によって取得した監視画像とを解析して、異常状態を検知した場合に当該異常の内容に応じた信号を出力部24に出力する異常検知処理を行う。また、制御部22は、入力部23からの設定情報や操作情報等の入力情報を記憶部21に保存する処理を行う。制御部22は、機能的に、人物像抽出手段221と、追跡手段222と、人物検出手段223と、母音抽出手段224と、悲鳴判定手段225と、異常判定手段226とを含んで構成される。   The control unit 22 is an arithmetic device such as a CPU or a DSP, for example, and executes various types of information processing according to programs stored in the storage unit 21. In the present embodiment, the control unit 22 analyzes the acoustic signal acquired by the sound collecting device 4 and the monitoring image acquired by the imaging device 3, and outputs a signal corresponding to the content of the abnormality when an abnormal state is detected. An abnormality detection process to be output to the output unit 24 is performed. In addition, the control unit 22 performs processing for storing input information such as setting information and operation information from the input unit 23 in the storage unit 21. The control unit 22 is functionally configured to include a person image extraction unit 221, a tracking unit 222, a person detection unit 223, a vowel extraction unit 224, a scream determination unit 225, and an abnormality determination unit 226. .

人物像抽出手段221は、撮像装置3によって所定時間おきに撮像された監視画像のそれぞれについて、当該監視画像の中から、1又は複数の人物像を抽出する人物像抽出処理を行う。具体的には、例えば人物像抽出手段221は、予め人が誰もいない状態の監視空間を撮像して得られた監視画像を背景画像として記憶部21に記憶しておき、当該背景画像と監視画像とを比較して差分画素を抽出する。そして、互いに隣接する差分画素を含んで構成される差分画素群のうち、所定の条件を満足する形状や所定値以上の大きさを有する差分画素群を、人を表す人物像として抽出する。また、人物像抽出手段221は、上記方法のほか、エッジ検出などの各種の画像処理を組み合わせて人物像を抽出してもよい。人物像抽出手段221によって抽出された人物像に関する情報(例えば人物像の位置や色ヒストグラム等の画像特徴に関する量)は、記憶部21に記憶され、後述する追跡手段222による人物像の追跡処理に用いられる。   The person image extraction unit 221 performs person image extraction processing for extracting one or a plurality of person images from the monitoring images for each of the monitoring images captured every predetermined time by the imaging device 3. Specifically, for example, the person image extraction unit 221 stores a monitoring image obtained by imaging a monitoring space in a state where no one is present in advance in the storage unit 21 as a background image, and the background image and the monitoring image are recorded. A difference pixel is extracted by comparing with an image. Then, among the difference pixel group configured to include the difference pixels adjacent to each other, a difference pixel group having a shape satisfying a predetermined condition and a size greater than or equal to a predetermined value is extracted as a human image representing a person. In addition to the above method, the person image extraction unit 221 may extract a person image by combining various image processes such as edge detection. Information relating to the person image extracted by the person image extraction means 221 (for example, the amount of the image feature such as the position of the person image and the color histogram) is stored in the storage unit 21 and is used for tracking the person image by the tracking means 222 described later. Used.

追跡手段222は、撮像装置3が所定時間おきに取得した各監視画像について、人物像抽出手段221が人物像を抽出するごとに、人物像の追跡処理を行う。人物像の追跡処理では、追跡手段222は、新たに撮像された監視画像から人物像抽出手段221によって抽出された各人物像を、過去時刻において抽出されて記憶部21に記憶されている人物像と比較することによって、当該人物像に対応する人物の監視空間内における移動経路を記憶部21の移動軌跡情報213に保存する。具体的には、追跡手段222は、新たな監視画像から抽出された各人物像に関する情報(例えば人物像の位置や画像特徴に関する量)を、前回撮像され記憶部21に保存されている監視画像から抽出された人物像に関する情報と比較することによって、同じ人物を表す人物像同士を関連付ける。そして、同一人物を表す人物像として互いに関連付けられた人物像について同一の像IDを付与し、時系列に従って撮像された各監視画像上の座標を、像IDと対応付けて記憶部21の移動軌跡情報213に保存する。   The tracking unit 222 performs tracking processing of a person image each time the person image extraction unit 221 extracts a person image for each monitoring image acquired by the imaging device 3 at predetermined time intervals. In the person image tracking process, the tracking unit 222 extracts each person image extracted by the person image extracting unit 221 from the newly captured monitoring image at the past time and stored in the storage unit 21. And the movement path of the person corresponding to the person image in the monitoring space is stored in the movement trajectory information 213 of the storage unit 21. Specifically, the tracking unit 222 captures information related to each person image extracted from the new monitoring image (for example, the amount related to the position of the person image and the image feature) and is stored in the storage unit 21 last time. The person images representing the same person are associated with each other by comparing with the information about the person image extracted from. Then, the same image ID is assigned to the person images associated with each other as the person image representing the same person, and the coordinates on each monitoring image captured in time series are associated with the image ID and the movement locus of the storage unit 21. Save the information 213.

人物検出手段223は、追跡手段222にて追跡している各人物像について、重要物領域8に所在しているか否かの判定を行い、所在している人物像に対して継続して所在している時間である継続所在時間をカウントアップする処理を行う。すなわち、移動軌跡情報213を参照し、一つ前のフレームの時刻における、重要物領域8に所在している人物像の像IDに対応する継続所在時間を読み出す。そして、当該継続所在時間に対して、画像取得のフレーム周期の時間を加算する処理を行い、移動軌跡情報213に書き込む処理を行う。
また、人物検出手段223は、継続所在時間が予め設定され記憶部21に記憶された滞留時間T0と比較して、継続所在時間が滞留時間T0以上であった場合、重要物領域8にて人物像を検出したとして、記憶部21の人物フラグをONとし、記憶部21の人物検出時刻214へ当該人物像が重要物領域8にて最初に検出された時刻を追記する処理を行う。ここで、人物フラグとは、重要物領域8にて人物像を検出したことを示すフラグである。
The person detection means 223 determines whether or not each person image tracked by the tracking means 222 is located in the important object region 8 and is continuously located with respect to the person image being located. The process of counting up the continuous location time, which is the current time, is performed. That is, referring to the movement trajectory information 213, the continuous location time corresponding to the image ID of the person image located in the important object region 8 at the time of the previous frame is read. And the process which adds the time of the frame period of an image acquisition with respect to the said continuation location time is performed, and the process which writes in the movement trace information 213 is performed.
In addition, the person detecting means 223 determines the person in the important object area 8 when the continuation location time is equal to or longer than the residence time T0 set in advance and stored in the storage unit 21. When the image is detected, the person flag in the storage unit 21 is turned ON, and a process of adding the time when the person image is first detected in the important object region 8 to the person detection time 214 in the storage unit 21 is performed. Here, the person flag is a flag indicating that a person image has been detected in the important object area 8.

母音抽出手段224は集音装置4が集音した音響信号から音声の母音部分を抽出して、抽出結果を悲鳴判定手段225に出力する。すなわち母音抽出手段224は、入力音響信号の周波数特徴量をフレームごとに算出して各周波数特徴量を母音特徴量212と比較し、各フレームが母音の周波数特徴量を有するか否かを判定して判定結果を悲鳴判定手段225に出力する。   The vowel extraction means 224 extracts the vowel part of the sound from the acoustic signal collected by the sound collection device 4 and outputs the extraction result to the scream determination means 225. That is, the vowel extraction unit 224 calculates the frequency feature amount of the input sound signal for each frame, compares each frequency feature amount with the vowel feature amount 212, and determines whether each frame has the frequency feature amount of the vowel. The determination result is output to the scream determination means 225.

好ましくは、母音抽出手段224は、母音の周波数特徴量を有するフレームが判定されたときに当該フレームの母音種別(「あ」、「え」又は「お」)の情報をも悲鳴判定手段225に出力する。母音抽出手段224が抽出する母音「あ」、「え」又は「お」は、悲鳴の語尾として典型的に発声される母音である。「あ」を語尾とする典型例な悲鳴の例としては「きゃー」「ぎゃー」「わー」「うわー」「あわわー」を挙げることができ、「え」を語尾とする典型例な悲鳴の例としては「助けてー」「止めてー」「助けてくれー」「止めてくれー」を挙げることができ、「お」を語尾とする典型例な悲鳴の例としては「止めろー」を挙げることができる。   Preferably, the vowel extraction unit 224 also sends information on the vowel type (“A”, “E”, or “O”) of the frame to the scream determination unit 225 when a frame having the frequency characteristic amount of the vowel is determined. Output. The vowel “A”, “E” or “O” extracted by the vowel extraction means 224 is a vowel typically uttered as a scream ending. Examples of typical screams that end with "A" include "Kya", "Gya", "Wow", "Wow", and "Awow". Typical examples of screams that end with "E" For example, you can list "help me", "stop me", "help me", "stop me" as an example of a typical scream that ends with "o" Can be mentioned.

母音抽出手段224が算出する周波数特徴量は母音特徴量212と同種であり、本例では8次のLPCケプストラムである。フレーム長及びフレーム周期には音声分析に適した値が予め設定される。本例では、フレーム長を20ms、フレーム周期を10msとする。具体的には母音抽出手段224は、入力音響信号の各フレームの周波数特徴量と各母音の母音特徴量212との距離を算出して予め設定された母音判定しきい値と比較し、フレームの周波数特徴量といずれかの母音特徴量212の距離が母音判定しきい値以下であれば、当該フレームは母音であり当該母音特徴量212と対応する母音種別であると判定する。一方、母音抽出手段224は、距離が母音判定しきい値以下の母音特徴量212がひとつもないフレームは母音ではないと判定する。   The frequency feature amount calculated by the vowel extraction means 224 is the same type as the vowel feature amount 212, and in this example, is an eighth-order LPC cepstrum. Values suitable for speech analysis are set in advance for the frame length and frame period. In this example, the frame length is 20 ms and the frame period is 10 ms. Specifically, the vowel extraction unit 224 calculates the distance between the frequency feature amount of each frame of the input acoustic signal and the vowel feature amount 212 of each vowel, and compares it with a preset vowel determination threshold value. If the distance between the frequency feature quantity and one of the vowel feature quantities 212 is equal to or less than the vowel determination threshold value, it is determined that the frame is a vowel and a vowel type corresponding to the vowel feature quantity 212. On the other hand, the vowel extraction unit 224 determines that a frame having no vowel feature value 212 whose distance is equal to or smaller than the vowel determination threshold is not a vowel.

母音特徴量212がGMMで記憶されている本例において、各母音特徴量212とフレームの周波数特徴量の距離Dは、次式で算出される。
D=Σ wi×sqrt((x−mi)×(x−mi)/σi) (1)
但し、xはフレームの周波数特徴量を表すベクトル、iは距離算出対象の母音特徴量212を構成している正規分布のインデックス(i=1,…,K)、wiはi番目の正規分布の重み係数、miはi番目の正規分布の平均ベクトル、σiはi番目の正規分布の分散ベクトル、Σはiについての総和、sqrt(・)は平方根をそれぞれ表している。
In this example in which the vowel feature value 212 is stored in the GMM, the distance D between each vowel feature value 212 and the frequency feature value of the frame is calculated by the following equation.
D = Σwi × sqrt ((x−mi) × (x−mi) / σ 2 i) (1)
However, x is a vector representing the frequency feature quantity of the frame, i is a normal distribution index (i = 1,..., K) constituting the distance calculation target vowel feature quantity 212, and wi is the i-th normal distribution. A weighting factor, mi represents an average vector of the i-th normal distribution, σ 2 i represents a variance vector of the i-th normal distribution, Σ represents a summation about i, and sqrt (·) represents a square root.

悲鳴判定手段225は、処理対象のフレームが、予め設定された悲鳴音量しきい値以上の音量(パワー)を有しているか否かを判定することにより、悲鳴の音量であるか否かを判定する処理を行う。また、母音抽出手段224により抽出された母音部分が、予め設定された悲鳴判定時間以上継続しているか否かを判定することにより、悲鳴を検出する処理を行う。なお、悲鳴音量しきい値及び悲鳴判定時間には悲鳴の語尾の検出に適した値が予め設定される。本例では、悲鳴音量しきい値を70dB、悲鳴判定時間を200msとする。因みにフレーム周期が10msと設定される本例においてフレーム数に換算された悲鳴判定時間は20フレームとなる。   The scream determining unit 225 determines whether or not the processing target frame has a volume (power) equal to or higher than a preset scream volume threshold, thereby determining whether or not the volume is a scream volume. Perform the process. Moreover, the process which detects a scream is performed by determining whether the vowel part extracted by the vowel extraction means 224 continues more than preset scream determination time. Note that values suitable for detection of the scream ending are preset in the scream volume threshold and the scream determination time. In this example, the scream volume threshold is 70 dB, and the scream determination time is 200 ms. Incidentally, in this example in which the frame period is set to 10 ms, the scream determination time converted into the number of frames is 20 frames.

上述したように悲鳴音声全体の発声内容は様々だが、悲鳴の語尾に注目することで抽出すべき発声内容を高々3種類に減少させることができる。これにより発声内容が想定外の悲鳴を検出し損ねる不具合が著しく減少する。また母音部分を有することにより咳、くしゃみ、クラクション、扉を閉める音、きしみ音、缶等の落下音など、音量が大きく継続時間長の長い悲鳴以外の音を悲鳴と誤検出する不具合を減少させることができる。また母音部分の音量の条件により通常音量の会話音声を悲鳴と誤検出する不具合を減少させることができる。また母音部分の継続時間長の条件により笑い声のような大声の母音を悲鳴と誤検出する不具合を減少させることができる。   As described above, the utterance contents of the entire screaming voice are various, but the utterance contents to be extracted can be reduced to at most three types by paying attention to the ending of the screaming. As a result, the trouble that the utterance content fails to detect an unexpected scream is significantly reduced. Also, by having a vowel part, coughing, sneezing, horning, door closing sound, squeaking sound, falling sound of cans, etc., reduce the trouble of misdetecting sounds other than screams with high volume and long duration as screams be able to. In addition, it is possible to reduce the problem of erroneously detecting a normal volume conversation voice as a scream according to the volume condition of the vowel part. Further, it is possible to reduce the problem of erroneously detecting a loud vowel such as a laughing voice as a scream according to the condition of the duration time of the vowel part.

ここで大声での会話音声の語中において母音が連続する区間が含まれると、悲鳴と誤検出する可能性がある。そこで悲鳴判定手段225は、母音抽出手段224が抽出した母音種別を参照して同一母音が継続している区間のそれぞれを上記母音部分(判定区間)として悲鳴か否かを判定する。つまり母音種別が異なる区間は互いに異なる母音部分として悲鳴か否かが判定される。これにより、例えば大声会話音声の語中に「あ」と「お」が連続する「あお」という区間が含まれ、「あお」の区間の長さが悲鳴判定時間に達していたとしても、「あ」の区間と「お」の区間が別々の判定区間となるので、この大声会話音声を悲鳴と誤検出する不具合を減少させることができる。   Here, if a section in which a vowel is continuous is included in a word of loud conversational speech, there is a possibility of erroneous detection as a scream. Therefore, the scream determination means 225 refers to the vowel type extracted by the vowel extraction means 224 to determine whether each section in which the same vowel continues is the scream part (determination section) or not. That is, it is determined whether sections having different vowel types are screamed as different vowel parts. Thus, for example, even if a section of “Ao” in which “A” and “O” are consecutive is included in a word of a loud conversation voice, and the length of the section of “AO” reaches the scream determination time, Since the “a” section and the “o” section are separate determination sections, it is possible to reduce the problem of erroneously detecting this loud conversation voice as a scream.

異常判定手段226は、人物検出手段223における検出結果である記憶部21の人物検出時刻214と悲鳴判定手段225における悲鳴検出処理結果である記憶部21の悲鳴検出時刻215とに基づいて、悲鳴が検出された前後の所定時間内に金庫7周囲に所定時間継続して人物像が検出されているか否かを判定し、監視領域内の異常状態判定処理を行う。具体的には、異常判定手段226は、悲鳴を検出した時刻から前の時間帯における予め定めた第一異常判定時間T1以内の時間帯において、重要物領域8に人物像が検出されているか否かについて、悲鳴検出時刻215と人物検出時刻214とを参照することによって判定する。また、異常判定手段226は、悲鳴を検出した時刻から後の時間帯における予め定めた第二異常判定時間T2以内の時間帯において、重要物領域8に人物像が検出されているか否かについて、悲鳴検出時刻215と人物検出時刻214とを参照することによって判定する。そして、監視領域内において異常状態であると判定した場合、異常判定手段226は、出力部24に対して警告出力を行わせる。   Based on the person detection time 214 of the storage unit 21 that is the detection result of the person detection unit 223 and the scream detection time 215 of the storage unit 21 that is the result of the scream detection process of the scream determination unit 225, the abnormality determination unit 226 It is determined whether or not a person image is continuously detected around the safe 7 within a predetermined time before and after the detection, and an abnormal state determination process in the monitoring area is performed. Specifically, the abnormality determination unit 226 determines whether or not a person image is detected in the important object region 8 in a time period within a predetermined first abnormality determination time T1 in the previous time period from the time when the scream was detected. Is determined by referring to the scream detection time 215 and the person detection time 214. In addition, the abnormality determination unit 226 determines whether or not a person image is detected in the important object region 8 in a time zone within a predetermined second abnormality determination time T2 in a time zone after the time when the scream is detected. The determination is made by referring to the scream detection time 215 and the person detection time 214. If it is determined that there is an abnormal condition within the monitoring area, the abnormality determination unit 226 causes the output unit 24 to output a warning.

以下、本実施例に係る管理装置2の制御部22が実行する処理の流れの一例について、図4〜図7のフローチャートに基づいて説明する。
図4は、制御部22における異常検知処理を示すフローチャートである。
Hereinafter, an example of the flow of processing executed by the control unit 22 of the management device 2 according to the present embodiment will be described based on the flowcharts of FIGS.
FIG. 4 is a flowchart showing an abnormality detection process in the control unit 22.

動作に先立ち、管理者等により管理装置2の入力部23を用いて領域情報211の設定等の各種初期設定が行なわれる(S1)。初期設定では、まず、部屋が無人であることを確認した管理者が管理装置2を起動すると、制御部22の人物像抽出手段221は、起動後の所定時間に撮像された監視画像を用いて背景画像を生成し、記憶部21に記憶させる。また、初期設定では、上記の他にも必要に応じて、滞留時間T0、第一異常判定時間T1、第二異常判定時間T2、領域情報211、悲鳴音量しきい値を入力し設定登録する。上記の初期設定が終わると撮像装置3から新たな監視画像が入力されるたびにステップS3〜S8の異常検知処理が繰り返される。   Prior to the operation, various initial settings such as setting of area information 211 are performed by the administrator or the like using the input unit 23 of the management apparatus 2 (S1). In the initial setting, first, when an administrator who has confirmed that a room is unattended starts up the management apparatus 2, the person image extraction unit 221 of the control unit 22 uses a monitoring image captured at a predetermined time after the startup. A background image is generated and stored in the storage unit 21. Further, in the initial setting, in addition to the above, the residence time T0, the first abnormality determination time T1, the second abnormality determination time T2, the area information 211, and the scream volume threshold are input and registered as necessary. When the initial setting is completed, the abnormality detection process in steps S3 to S8 is repeated each time a new monitoring image is input from the imaging device 3.

続いて図4に戻り、ステップS3の人物検出処理について説明する。人物検出処理は、撮像装置3によって監視画像を取得する毎に(すなわち監視画像のフレーム周期毎に)、人物像抽出手段221、追跡手段222、人物検出手段223によって実施される処理である。
図5は、本実施例に係る人物検出処理を示すフローチャートである。以下では、図5のフローチャートに基づいて人物検出処理を説明する。
Next, returning to FIG. 4, the person detection process in step S3 will be described. The person detection process is a process performed by the person image extraction unit 221, the tracking unit 222, and the person detection unit 223 every time a monitoring image is acquired by the imaging device 3 (that is, every frame period of the monitoring image).
FIG. 5 is a flowchart illustrating person detection processing according to the present embodiment. Below, a person detection process is demonstrated based on the flowchart of FIG.

図5に示すように、まず、撮像装置3より現在時刻における監視画像が取得され(S30)、当該監視画像を通信部25を介して送信されると、人物像抽出手段221は、当該監視画像と背景画像とを比較して、人物像抽出処理を行う(S32)。   As shown in FIG. 5, first, when a monitoring image at the current time is acquired from the imaging device 3 (S30) and the monitoring image is transmitted via the communication unit 25, the person image extraction unit 221 displays the monitoring image. And the background image are compared, and a human image extraction process is performed (S32).

次に、制御部22は、ステップS32の人物像抽出処理で1以上の人物像が抽出されたか否か判定する(S34)。人物像が抽出されなかった場合(S34−No)、ステップS30で取得した監視画像を新たな背景画像として記憶部21に記憶して(S44)、人物検出処理を終了し、ステップS5へ進む。ここで、人物像が抽出されなかった場合に背景画像を更新するのは、時間の経過によって背景画像に変化が生じる場合に対応するためである。   Next, the control unit 22 determines whether or not one or more person images have been extracted in the person image extraction process of step S32 (S34). If no person image is extracted (S34-No), the monitoring image acquired in step S30 is stored as a new background image in the storage unit 21 (S44), the person detection process is terminated, and the process proceeds to step S5. Here, the reason why the background image is updated when the person image is not extracted is to cope with the case where the background image changes with time.

ステップS32の人物像抽出処理で人物像が抽出された場合(S34−Yes)、追跡手段222は、前述した人物像の追跡処理を行う(S36)。   When a person image is extracted in the person image extraction process in step S32 (S34-Yes), the tracking unit 222 performs the person image tracking process described above (S36).

次に、人物検出手段223は、追跡手段222にて追跡処理を行った各人物像について、重要物領域8に所在しているか否かの判定を行う(S38)。そして、人物検出手段223は、重要物領域8に所在している人物像に対して、重要物領域8に継続して所在している時間である継続所在時間をカウントアップする処理を行う(S38)。   Next, the person detection unit 223 determines whether or not each person image subjected to the tracking process by the tracking unit 222 is located in the important object region 8 (S38). Then, the person detection means 223 performs a process of counting up the continuous location time, which is the time in which the person image located in the important object region 8 is continuously located in the important object region 8 (S38). ).

次に、人物検出手段223は、移動軌跡情報213の継続所在時間を参照し、継続所在時間が予め設定された滞留時間T0以上である人物像が存在するか否か判定する(S40)。継続所在時間が滞留時間T0以上である人物像が存在しない場合(S40−No)、人物検出処理を終了し、ステップS5へ進む。   Next, the person detecting means 223 refers to the continuation location time of the movement trajectory information 213 and determines whether or not there is a person image whose continuation location time is longer than the preset residence time T0 (S40). When there is no person image whose continuation location time is longer than the residence time T0 (S40-No), the person detection process is terminated, and the process proceeds to step S5.

一方、継続所在時間が滞留時間T0以上である人物像が存在した場合(S40−Yes)、人物検出手段223は、人物フラグをONとする(S42)。また、人物検出手段223は、記憶部21の人物検出時刻214へ当該人物像が重要物領域8にて最初に検出された時刻を追記する処理を行う(S42)。その後、人物検出処理を終了し、ステップS5へ進む。   On the other hand, when there is a person image whose continuation location time is equal to or longer than the residence time T0 (S40-Yes), the person detection unit 223 turns the person flag ON (S42). In addition, the person detection unit 223 performs a process of adding the time when the person image is first detected in the important object area 8 to the person detection time 214 of the storage unit 21 (S42). Thereafter, the person detection process is terminated, and the process proceeds to step S5.

続いて図4に戻り、ステップS5の悲鳴検出処理について説明する。悲鳴検出処理は、母音抽出手段224と悲鳴判定手段225とによって実施される処理であり、集音装置4によって送信され記憶部21に記憶された音響信号について、予め定めたフレーム周期毎に実施される処理である。すなわち、制御部22は、記憶部21にフレーム周期の長さの音響信号が新たに追加記憶されたか否かを確認する。そして、フレーム周期が到来すると、制御部22は、記憶部21から予め設定されたフレーム長だけのフレームデータを読み出して、ハミング窓関数による窓掛け処理を行い、窓掛けしたフレームデータに対して悲鳴検出処理を行う。
図6は、本実施例に係る悲鳴検出処理を示すフローチャートである。以下では、図6のフローチャートに基づいて悲鳴検出処理を説明する。
Subsequently, returning to FIG. 4, the scream detection process in step S <b> 5 will be described. The scream detection processing is performed by the vowel extraction unit 224 and the scream determination unit 225, and is performed for each predetermined frame period for the acoustic signal transmitted by the sound collection device 4 and stored in the storage unit 21. Process. That is, the control unit 22 confirms whether or not an acoustic signal having a frame period length is newly stored in the storage unit 21. When the frame period arrives, the control unit 22 reads out frame data of a preset frame length from the storage unit 21, performs windowing processing using a Hamming window function, and screams the windowed frame data. Perform detection processing.
FIG. 6 is a flowchart illustrating the scream detection process according to the present embodiment. Below, a scream detection process is demonstrated based on the flowchart of FIG.

制御部22によって記憶部21からフレームデータが読み出されると、悲鳴判定手段225は、当該フレームデータの音量(パワー)を算出し(S52)、算出された音量を悲鳴音量しきい値と比較する(S54)。音量が悲鳴音量しきい値を超えていなければ(S54−No)、悲鳴判定手段225は悲鳴なしと判定し、制御部22は悲鳴カウンタの値をリセットして(S70)、悲鳴検出処理を終了し、ステップS5へ進む。一方、音量が悲鳴音量しきい値を超えていれば(S54−Yes)、悲鳴判定手段225は、悲鳴が発生している可能性があるとして処理をステップS56へ進める。   When the frame data is read from the storage unit 21 by the control unit 22, the scream determination unit 225 calculates the volume (power) of the frame data (S52) and compares the calculated volume with a scream volume threshold ( S54). If the volume does not exceed the scream volume threshold (S54-No), the scream determination means 225 determines that there is no scream, the control unit 22 resets the value of the scream counter (S70), and ends the scream detection process. Then, the process proceeds to step S5. On the other hand, if the volume exceeds the scream volume threshold (S54-Yes), the scream determination unit 225 proceeds with the process to step S56 because there is a possibility that a scream has occurred.

次に母音抽出手段224は、フレームデータの周波数特徴量を算出する(S56)。そして、母音抽出手段224は、記憶部21から「あ」の母音特徴量212、「え」の母音特徴量212及び「お」の母音特徴量212を順次読み出し、読み出した各母音特徴量212とフレームデータの周波数特徴量とを比較してフレームデータが母音であるか否かを判定する(S56)。また母音抽出手段224は、フレームデータが母音と判定された場合、その母音種別を特定する。   Next, the vowel extraction unit 224 calculates the frequency feature amount of the frame data (S56). Then, the vowel extraction means 224 sequentially reads out the vowel feature quantity “a” 212, the vowel feature quantity “e” 212, and the vowel feature quantity 212 “o” from the storage unit 21, It is determined whether the frame data is a vowel by comparing the frequency feature amount of the frame data (S56). In addition, the vowel extraction unit 224 specifies the vowel type when the frame data is determined to be a vowel.

フレームデータが母音でないと判定された場合(S58−No)、母音抽出手段224は母音が抽出されなかった旨を悲鳴判定手段225に出力する。この出力を受けた悲鳴判定手段225は悲鳴なしと判定する。そして、制御部22は悲鳴カウンタの値をリセットして(S70)、悲鳴検出処理を終了し、処理をステップS8へ進む。   When it is determined that the frame data is not a vowel (S58-No), the vowel extraction unit 224 outputs to the scream determination unit 225 that a vowel has not been extracted. Upon receiving this output, the scream determining means 225 determines that there is no scream. And the control part 22 resets the value of a scream counter (S70), complete | finishes a scream detection process, and advances a process to step S8.

一方、フレームデータが母音であると判定されると(S58−Yes)、母音抽出手段224は、特定された母音種別が前回特定された母音種別と同一か否かを確認するとともに今回特定された母音種別を記憶部21に記憶させる(S60)。次回の確認では記憶部21に記憶される今回の母音種別が前回の母音種別として参照される。   On the other hand, if it is determined that the frame data is a vowel (S58-Yes), the vowel extraction unit 224 checks whether or not the specified vowel type is the same as the previously specified vowel type and is specified this time. The vowel type is stored in the storage unit 21 (S60). In the next confirmation, the current vowel type stored in the storage unit 21 is referred to as the previous vowel type.

今回特定された母音種別が前回特定された母音種別と同一ならば(S60−Yes)、母音抽出手段224は同母音が継続抽出された旨を悲鳴判定手段225に出力する。この出力を受けた悲鳴判定手段225は悲鳴カウンタを1だけ増加させる(S62)。
他方、今回特定された母音種別が前回特定された母音種別と同一でなければ(S60−No)、母音抽出手段224は新たな母音が抽出された旨を悲鳴判定手段225に出力する。この出力を受けた悲鳴判定手段225は悲鳴カウンタに1を設定する(S64)。
こうしてステップS62又はステップS64にて悲鳴カウンタの値が更新されると、悲鳴判定手段225は、悲鳴カウンタを悲鳴判定時間と比較する(S66)。悲鳴カウンタが悲鳴判定時間を超えていない場合(S66−No)、悲鳴判定手段225は判定継続中であるとし、制御部22は次のフレーム周期が到来するまで悲鳴検出処理を終了させ、ステップS8へ処理を進める。
If the vowel type specified this time is the same as the vowel type specified last time (S60-Yes), the vowel extraction unit 224 outputs to the scream determination unit 225 that the vowel is continuously extracted. Upon receiving this output, the scream determining means 225 increments the scream counter by 1 (S62).
On the other hand, if the vowel type specified this time is not the same as the vowel type specified last time (S60-No), the vowel extraction unit 224 outputs to the scream determination unit 225 that a new vowel has been extracted. Upon receiving this output, the scream determining means 225 sets 1 to the scream counter (S64).
When the value of the scream counter is updated in step S62 or step S64 in this way, the scream determination means 225 compares the scream counter with the scream determination time (S66). If the scream counter does not exceed the scream determination time (S66-No), it is determined that the scream determination unit 225 is continuing the determination, and the control unit 22 ends the scream detection process until the next frame period arrives, step S8. Proceed to the process.

悲鳴カウンタが悲鳴判定時間を超えていた場合(S66−Yes)、悲鳴判定手段225は、悲鳴フラグをONとする(S68)。また、悲鳴判定手段225は、記憶部21の悲鳴検出時刻215へ当該悲鳴が検出された時刻を追記する処理を行う(S68)。その後、制御部22は悲鳴カウンタの値をリセットして(S70)、悲鳴検出処理を終了し、ステップS8へ進む。   When the scream counter has exceeded the scream determination time (S66-Yes), the scream determination means 225 turns on the scream flag (S68). Further, the scream determining means 225 performs a process of adding the time when the scream was detected to the scream detection time 215 of the storage unit 21 (S68). Then, the control part 22 resets the value of a scream counter (S70), complete | finishes a scream detection process, and progresses to step S8.

続いて図4に戻り、ステップS8の異常判定処理について説明する。ステップS8の異常判定処理は、記憶部21の人物検出時刻214と記憶部21の悲鳴検出時刻215とに基づいて、異常判定手段226にて実施される処理である。
図7は、本実施例に係る異常判定処理を示すフローチャートである。以下では、図7のフローチャートに基づいて異常判定処理を説明する。
Next, returning to FIG. 4, the abnormality determination process in step S8 will be described. The abnormality determination process in step S8 is a process performed by the abnormality determination means 226 based on the person detection time 214 in the storage unit 21 and the scream detection time 215 in the storage unit 21.
FIG. 7 is a flowchart illustrating the abnormality determination process according to the present embodiment. Hereinafter, the abnormality determination process will be described based on the flowchart of FIG.

図7に示すように、まず、異常判定手段226は、記憶部21の悲鳴フラグがONとなっているか否かを判定する(S80)。   As shown in FIG. 7, first, the abnormality determination unit 226 determines whether or not the scream flag in the storage unit 21 is ON (S80).

ステップS80で悲鳴フラグがONとなっている場合(S80−Yes)、異常判定手段226は、記憶部21の人物検出時刻214を参照し、現在時刻から第一異常判定時間T1以前(現在時刻と同時刻も含む)に人物が検出されていたか否かを判定する(S82)。   When the scream flag is ON in step S80 (S80-Yes), the abnormality determination unit 226 refers to the person detection time 214 in the storage unit 21 and refers to the current abnormality time before the first abnormality determination time T1 (with the current time). It is determined whether or not a person has been detected at the same time (S82).

ステップS82で現在時刻からT1以前に人物が検出されていた場合(S82−Yes)、異常判定手段226は、出力部24へ警告信号を出力する。出力部24は、制御部22の異常判定手段226から警告信号を受信すると、警告出力処理を行う(S84)。
警告出力処理では、出力部24は所定の警告出力を行う。例えば、出力部24に接続されたスピーカから異常状態の種類に対応する警告音を鳴動させると共に、出力部24に接続されたディスプレイに当該異常状態の種類を警告メッセージとして出力する。管理者等は、これらの警告音や警告メッセージを確認することにより、監視領域内における異常状態を検知することができる。また、出力部24は、通信部25を介して警備装置5に当該異常状態を通知する。これにより、管理装置2は、警備装置5を介して警備センタ装置6に異常状態を通知することができ、外部の監視センタで常駐監視している警備員に対して異常を通知することができる。
If a person is detected before T1 from the current time in step S82 (S82-Yes), the abnormality determination unit 226 outputs a warning signal to the output unit 24. When the output unit 24 receives a warning signal from the abnormality determination unit 226 of the control unit 22, the output unit 24 performs a warning output process (S84).
In the warning output process, the output unit 24 performs a predetermined warning output. For example, a warning sound corresponding to the type of abnormal state is sounded from a speaker connected to the output unit 24, and the type of abnormal state is output to the display connected to the output unit 24 as a warning message. An administrator or the like can detect an abnormal state in the monitoring area by checking these warning sounds and warning messages. Further, the output unit 24 notifies the security device 5 of the abnormal state via the communication unit 25. Thereby, the management apparatus 2 can notify the abnormal state to the security center apparatus 6 via the security apparatus 5, and can notify the abnormality to the security staff who is resident and monitored at the external monitoring center. .

ステップS80で悲鳴フラグがONとなっていない場合(S80−No)、異常判定手段226は、記憶部21の人物フラグがONとなっているか否かを判定する(S86)。   When the scream flag is not ON in step S80 (S80-No), the abnormality determination unit 226 determines whether the person flag in the storage unit 21 is ON (S86).

ステップS86で人物フラグがONとなっている場合(S86−Yes)、異常判定手段226は、記憶部21の悲鳴検出時刻215を参照し、現在時刻から第二異常判定時間T2以前(現在時刻と同時刻も含む)に悲鳴が検出されているか否かを判定する(S88)。ステップS88で現在時刻からT2以前に悲鳴が検出されていた場合(S88−Yes)、異常判定手段226は、前述と同様に、出力部24に対して警告信号を出力する。   When the person flag is ON in step S86 (S86-Yes), the abnormality determination unit 226 refers to the scream detection time 215 in the storage unit 21 and refers to the current abnormality time before the second abnormality determination time T2 (with the current time). It is determined whether or not a scream is detected at the same time (S88). If a scream is detected before T2 from the current time in step S88 (S88-Yes), the abnormality determination unit 226 outputs a warning signal to the output unit 24 as described above.

ステップS82で現在時刻からT1以前に人物が検出されていない場合(S82−No)、ステップS88で現在時刻からT2以前に悲鳴が検出されていない場合(S88−No)、またはステップS84で警報出力処理を行った場合、異常判定手段226は、悲鳴フラグ及び人物フラグをリセット(すなわち“0”にする)する処理を行う(S90)。   If no person is detected before T1 from the current time in step S82 (S82-No), if no scream is detected before T2 from the current time in step S88 (S88-No), or an alarm is output in step S84 When the process is performed, the abnormality determination unit 226 performs a process of resetting the scream flag and the person flag (that is, “0”) (S90).

ステップS90でフラグリセットした場合、又はステップS86で人物フラグがONでなかった場合(S86−No)、ステップS3へ戻り、以後、前述と同様にステップS3からステップS8の処理を繰り返す。   If the flag is reset in step S90, or if the person flag is not ON in step S86 (S86-No), the process returns to step S3, and thereafter, the processing from step S3 to step S8 is repeated in the same manner as described above.

次に、本実施例に係る異常検知装置1の具体的動作を異常状態と判定される例を用いて説明する。図8は異常状態と判定される典型的なケースを示した図である。   Next, a specific operation of the abnormality detection device 1 according to the present embodiment will be described using an example in which it is determined as an abnormal state. FIG. 8 is a diagram showing a typical case in which an abnormal state is determined.

図8(a)は、時刻tから時刻t+3における監視画像100を時系列で並べた図である。本ケースにおいて、図8(a)中における人物像Aは、押込強盗によって緊縛されている従業員の人物像である。また、人物像Bは、従業員である人物像Aをナイフ等の凶器で脅迫し、緊縛した後、金庫7まで移動している押込強盗の人物像である。   FIG. 8A is a diagram in which the monitoring images 100 from time t to time t + 3 are arranged in time series. In this case, a person image A in FIG. 8A is a person image of an employee who is bound by an intrusion robbery. The person image B is a person image of an intruder robbery who has moved to the safe 7 after threatening and binding the person image A as an employee with a weapon such as a knife.

図8(b)は、時刻tから時刻t+3における軌跡画像110を時系列で並べた図である。軌跡画像110は、監視画像100の画像上の位置と合致するように描画された画像に対して、領域情報211の重要物領域8を重ね合わせて描画され、さらに移動軌跡情報213に記憶されている像IDごとの現在時刻までの移動軌跡をプロットされた画像である。   FIG. 8B is a diagram in which the trajectory images 110 from time t to time t + 3 are arranged in time series. The locus image 110 is drawn by superimposing the important object region 8 of the region information 211 on the image drawn so as to match the position on the image of the monitoring image 100, and is further stored in the movement locus information 213. It is an image in which the movement trajectory up to the current time is plotted for each image ID.

なお、本ケースでは、管理者等により予め滞留時間T0を“2”時刻間隔と、第一異常判定時間T1、第二異常判定時間T2を“150”時刻間隔と設定されていることとする。   In this case, it is assumed that the residence time T0 is set in advance as the “2” time interval, and the first abnormality determination time T1 and the second abnormality determination time T2 are set as the “150” time interval in advance by the administrator or the like.

まず、時刻tの時点の状態について説明する。時刻tでは、ステップS30で新たに取得された監視画像100から、ステップS32で人物像抽出手段221により人物像A及びBが抽出されている。そして、人物像A、Bは、それぞれステップS36で追跡処理され、過去時刻における人物像A、Bと関連付けられる。しかし、この時点(およびこれ以前の時点)では、人物像A及びBは、重要物領域8内に所在していないため、継続所在時間がカウントされておらず、人物フラグもOFFの状態である。一方、時刻tでは、従業員たる人物像Aが強盗たる人物像Bに緊縛されているところであり、この際、従業員によって悲鳴が発せられていたことを想定する。そのため、ステップS5の悲鳴検出処理にて、悲鳴フラグがONとされ、記憶部21に悲鳴検出時刻215として時刻tが記憶されている。したがって、ステップS8の異常判定処理では、ステップS80にて悲鳴フラグがONであることが判定され(S80−Yes)、ステップS82にて悲鳴検出時のT1時間以前に人物検出されているか否かが判定される。ここで、上記のように、時刻tにおいては重要物領域8に人物像が検出されていないため、ステップS82にてNoとなり、ステップS90にて悲鳴フラグがOFFとリセットされる。このように、時刻tでは、異常判定手段226にて異常判定されていないことになる。   First, the state at the time t will be described. At time t, the person images A and B are extracted from the monitoring image 100 newly acquired at step S30 by the person image extracting means 221 at step S32. The person images A and B are each tracked in step S36 and associated with the person images A and B at the past time. However, since the person images A and B are not located in the important object area 8 at this time (and before this time), the duration time is not counted and the person flag is also OFF. . On the other hand, at time t, it is assumed that the person image A as an employee is tightly bound to a person image B as a robber, and at this time, a scream was made by the employee. Therefore, the scream flag is set to ON in the scream detection process in step S <b> 5, and the time t is stored as the scream detection time 215 in the storage unit 21. Therefore, in the abnormality determination process in step S8, it is determined in step S80 that the scream flag is ON (S80-Yes), and in step S82, whether or not a person has been detected before the time T1 at the time of scream detection. Determined. Here, as described above, since no person image is detected in the important object area 8 at time t, No is determined in step S82, and the scream flag is reset to OFF in step S90. Thus, at time t, abnormality determination means 226 does not determine abnormality.

次に、時刻t+1の時点の状態について説明する。時刻t+1の時点では、時刻tの時点の場合と同様に、ステップS30で新たに取得された監視画像100から、ステップS32で人物像A及びBが抽出され、それぞれステップS36で追跡処理されて時刻tの時点における人物像A及びBと関連付けられる。この時点では、時刻tの時点と同様に、人物像A及びBは、重要物領域8内に所在していないため、継続所在時間がカウントされておらず、人物フラグもOFFの状態である。したがって、人物フラグも悲鳴フラグもOFFであるため、ステップS8の異常判定処理では、ステップS80でNo、ステップS86でNoとなり、異常判定されていないことになる。   Next, the state at the time t + 1 will be described. At time t + 1, as in the case of time t, person images A and B are extracted in step S32 from the monitoring image 100 newly acquired in step S30, and are tracked and processed in step S36. It is associated with the human images A and B at time t. At this time, as in the time t, since the person images A and B are not located in the important object area 8, the continuation time is not counted and the person flag is also OFF. Therefore, since the person flag and the scream flag are both OFF, in the abnormality determination process in step S8, No is determined in step S80 and No in step S86, and no abnormality is determined.

次に、時刻t+2の時点の状態について説明する。時刻t+2の時点では、人物像Bが重要物領域8内にて所在しているため、ステップS38で記憶部21の継続所在時間をカウントアップする処理がなされる。しかし、継続所在時間が滞留時間T0(=“2”時刻間隔)に満たないため、人物フラグはOFFの状態のままである。したがって、人物フラグも悲鳴フラグもOFFであるため、ステップS8の異常判定処理では、ステップS80でNo、ステップS86でNoとなり、異常判定されていないことになる。   Next, the state at the time t + 2 will be described. Since the person image B is located in the important object area 8 at the time t + 2, the process of counting up the continuous location time in the storage unit 21 is performed in step S38. However, since the continuation location time is less than the residence time T0 (= “2” time interval), the person flag remains in the OFF state. Therefore, since the person flag and the scream flag are both OFF, in the abnormality determination process in step S8, No is determined in step S80 and No in step S86, and no abnormality is determined.

次に、時刻t+3の時点の状態について説明する。時刻t+3の時点では、時刻t+2の時点と同様に、人物像Bが重要物領域8内にて所在しているため、ステップS38で記憶部21の継続所在時間をカウントアップする処理がなされる。そして、継続所在時間が“2”時刻間隔となり、滞留時間T0以上となったため、ステップS40でYesとなり、人物フラグがONとされ、記憶部21の人物検出時刻214に、最初に検出された時刻である時刻t+2が記録される。したがって、人物フラグがONであり、悲鳴フラグがOFFであるため、ステップS8の異常判定処理では、ステップS80でNo、ステップS86でYesとなり、ステップS88で人物検出時のT2時間以前に悲鳴検出されているか否かが判定される。前述のように、第二異常判定時間T2は“150”時刻間隔と設定されており、悲鳴が検出された時刻tはこの時間帯内であることから、ステップS88がYesとなり、ステップS84にて警報出力処理がなされる。このように、管理装置2は、時刻t+3の時点において監視領域内の異常状態を検知し、警備装置5を介して警備センタ装置6に異常状態を通知することができ、外部の監視センタで常駐監視している警備員に対して異常を通知することができる。   Next, the state at the time t + 3 will be described. Since the person image B is located in the important object area 8 at the time t + 3 as in the time t + 2, a process of counting up the continuous location time in the storage unit 21 is performed in step S38. Then, since the continuation location time becomes “2” time interval and becomes the residence time T0 or more, the result is “Yes” in step S40, the person flag is turned ON, and the first detected time at the person detection time 214 in the storage unit 21. The time t + 2 is recorded. Therefore, since the person flag is ON and the scream flag is OFF, in the abnormality determination process in step S8, No is determined in step S80, Yes is determined in step S86, and scream is detected in step S88 before T2 time when the person is detected. It is determined whether or not. As described above, the second abnormality determination time T2 is set to “150” time interval, and since the time t when the scream is detected is within this time zone, Step S88 becomes Yes, and in Step S84. Alarm output processing is performed. In this way, the management device 2 can detect an abnormal state in the monitoring area at the time t + 3 and can notify the security center device 6 of the abnormal state via the security device 5 and is resident in the external monitoring center. Abnormality can be notified to the monitoring security guard.

(第二の実施例)
上述の第一の実施例では、重要物領域8に人物が所在しているか否かを撮像装置3からの監視画像に基づいて判定している。しかし、本実施例では、重要物領域8内に所在する人物の人体から放射される赤外線を受光し、その受光量の変化に基づいて人体等の存否を検出する赤外線センサからの人物検出信号に基づいて、重要物領域8に人物が所在しているか否かを判定する点が第一の実施例と相違する。なお、赤外線センサは、赤外線による人物の検出領域を予め重要物領域8と略一致するよう設置されていることとする。
(Second embodiment)
In the first embodiment described above, whether or not a person is present in the important object region 8 is determined based on the monitoring image from the imaging device 3. However, in the present embodiment, infrared rays emitted from the human body of a person located in the important object region 8 are received, and the human detection signal from the infrared sensor that detects the presence or absence of the human body or the like based on the change in the amount of received light is used. Based on this, it is different from the first embodiment in that it is determined whether or not a person is present in the important object region 8. It is assumed that the infrared sensor is installed in advance so that the detection area of the person using infrared rays substantially coincides with the important object area 8.

図9は、第二の実施例に係る管理装置2の構成を示すブロック図である。図9のように、通信部25に赤外線センサが接続される点、制御部22に人物像抽出手段221と追跡手段222とが存在しない点、記憶部21に領域情報211と移動軌跡情報213とが存在しない点が、第一の実施例と相違する。また、制御部22の人物検出手段223における人物検出処理の内容が、第一の実施例と相違する。図10に第二の実施例に係る人物検出処理を示すフローチャートを示す。   FIG. 9 is a block diagram illustrating a configuration of the management apparatus 2 according to the second embodiment. As shown in FIG. 9, the infrared sensor is connected to the communication unit 25, the human image extraction unit 221 and the tracking unit 222 are not present in the control unit 22, the region information 211 and the movement trajectory information 213 in the storage unit 21. This is different from the first embodiment in that there is no. Further, the content of the person detection process in the person detection means 223 of the control unit 22 is different from that of the first embodiment. FIG. 10 is a flowchart showing person detection processing according to the second embodiment.

図10のように、制御部22の人物検出手段223は、ステップS46で赤外線センサから通信部25を介して人物検出信号を受信したか否かを判定する。赤外線センサから人物検出信号を受信していない場合(S46−No)、人物検出手段223は、人物検出処理を終了し、ステップS5へ進む。   As shown in FIG. 10, the person detection means 223 of the control unit 22 determines whether or not a person detection signal is received from the infrared sensor via the communication unit 25 in step S46. When the person detection signal is not received from the infrared sensor (S46-No), the person detection unit 223 ends the person detection process and proceeds to step S5.

赤外線センサから人物検出信号を受信している場合(S46−Yes)、人物検出手段223は、人物フラグをONとする(S48)。また、人物検出手段223は、記憶部21の人物検出時刻214へ現在時刻を追記する処理を行う(S48)。その後、人物検出処理を終了し、ステップS5へ進む。   When the person detection signal is received from the infrared sensor (S46-Yes), the person detection means 223 turns the person flag ON (S48). In addition, the person detection unit 223 performs a process of adding the current time to the person detection time 214 in the storage unit 21 (S48). Thereafter, the person detection process is terminated, and the process proceeds to step S5.

なお、本実施例では赤外線センサにより重要物領域8に所在する人物の検出を行っているが、これに限らず、マイクロ波センサや超音波センサによって検出してもよい。   In the present embodiment, the person located in the important object region 8 is detected by the infrared sensor. However, the present invention is not limited to this, and the person may be detected by a microwave sensor or an ultrasonic sensor.

本発明は、上記実施例に限定されるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、実施例に記載した効果は、これに限定されるものではない。   The present invention is not limited to the above embodiments, and may be implemented in various different embodiments within the scope of the technical idea described in the claims. Moreover, the effect described in the Example is not limited to this.

前記各実施例では、異常音として悲鳴を検出することにより、監視領域内の異常状態を検知している。しかし、これに限らず、悲鳴以外の異常音、例えば、銃声や怒声等の異常音を検出することにより、監視領域内の異常状態を検知してもよい。例えば、予め設定された異常音量しきい値以上の音量を検出した場合に、簡易的に銃声や怒声等の異常音とみなすことができる。すなわち、ステップS52にて音量を算出した後に、異常音量しきい値と比較し、異常音量しきい値以上で合った場合に、悲鳴フラグをONとし、記憶部21の悲鳴検出時刻215に当該異常音の検出時刻を記録することにより、実現することができる。
また、破壊音は、一般に急速に音量が大きく検出された後、短時間のうちに減衰して小さくなるといったように、検出される音の立ち上がりと立下りに顕著な特徴が現れる。そのため、異常音として破壊音を検出する場合、集音装置4により取得した音響信号の音の立ち上がり率、ピーク音量、立下り減衰率、継続時間を算出し、これらの値と、予め設定された破壊音の特徴を備えた閾値とを照合することにより、破壊音か否かを判定することができる。また、予め金庫等を叩いた時に出る音の周波数成分を分析しておき、検知の際に、音響信号にその固有の周波数成分があるかどうかを評価し、判定結果に加味することで、上記判定の確からしさを大幅に向上させることが可能である。さらに、金庫等の頑丈な作りのものに対しては、一撃で破壊することは困難であるため、同じような破壊音が短い時間内で連続的に複数回観測された場合に異常音として検出を確定するといった条件を課すことも有効である。
In each of the above-described embodiments, an abnormal state in the monitoring area is detected by detecting a scream as an abnormal sound. However, the present invention is not limited to this, and an abnormal state in the monitoring area may be detected by detecting an abnormal sound other than a scream, for example, an abnormal sound such as a gunshot or a roar. For example, when a sound volume equal to or higher than a preset abnormal sound volume threshold is detected, it can be simply regarded as an abnormal sound such as a gunshot or anger. That is, after the volume is calculated in step S52, it is compared with the abnormal volume threshold, and if the threshold is higher than the abnormal volume threshold, the scream flag is turned ON, and the abnormality is detected at the scream detection time 215 of the storage unit 21. This can be realized by recording the sound detection time.
Further, the destructive sound generally has a remarkable feature in the rise and fall of the detected sound, such that the loudness is generally detected rapidly and then attenuated and reduced in a short time. Therefore, when a destructive sound is detected as an abnormal sound, the sound rise rate, peak volume, fall decay rate, and duration of the sound signal acquired by the sound collector 4 are calculated, and these values are set in advance. It is possible to determine whether or not the sound is a destructive sound by collating with a threshold having a destructive sound characteristic. In addition, by analyzing the frequency component of the sound that is emitted when a safe or the like is struck in advance, whether or not there is a specific frequency component in the acoustic signal at the time of detection, It is possible to greatly improve the certainty of determination. In addition, since it is difficult to destroy a strong box such as a safe, it is detected as an abnormal sound when a similar destructive sound is observed multiple times in a short time. It is also effective to impose conditions such as determining

前記各実施例では、悲鳴を検出したとき及び重要物領域8で人物を検出したとき、それぞれの時刻を記憶部21の悲鳴検出時刻215及び人物検出時刻214に記憶し、これらの時刻情報に基づいて、悲鳴を検出した前後の所定時間以内に人物を検出したか否かを判定することにより、監視領域内の異常状態を検知している。しかし、これに限らず、悲鳴を検出したときにタイマによる計時を開始し、タイマが第二異常判定時間T2を経過する前に重要物領域8で人物を検出したか否かを判定することにより、監視領域内の異常状態を検知してもよい。この際、悲鳴を検出した時刻の後の時刻(ただし第二異常判定時間T2経過前であるとする)において、再度悲鳴を検出した場合、最初の悲鳴を検出した時刻と後の悲鳴を検出した時刻との差の分だけ、第二異常判定時間T2を延長させる処理を行わせる。これにより、新たに悲鳴を検出した場合であっても、その時刻から第二異常判定時間T2以内に重要物領域8内で人物を検出したときに、異常状態であると判定することができる。
また、同じように、重要物領域8で人物を検出したときにタイマによる計時を開始し、タイマが第一異常判定時間T1を経過する前に、悲鳴を検出したか否かを判定することにより、監視領域内の異常状態を検知してもよい。この際、重要物領域8で人物を検出した時刻の後の時刻(ただし第一異常判定時間T1経過前であるとする)において、再度人物を検出した場合、最初の人物検出時と後の人物検出時刻との差の分だけ、第一異常判定時間T1を延長させる処理を行わせる。これにより、新たに人物を検出した場合であっても、その時刻から第一異常判定時間T1以内に悲鳴を検出したときに、異常状態であると判定することができる。
In each of the above embodiments, when a scream is detected and when a person is detected in the important object area 8, the respective times are stored in the scream detection time 215 and the person detection time 214 of the storage unit 21, and based on these time information. Thus, an abnormal state in the monitoring area is detected by determining whether or not a person has been detected within a predetermined time before and after detecting the scream. However, the present invention is not limited to this. When a scream is detected, a timer is started to determine whether or not a person has been detected in the important object region 8 before the second abnormality determination time T2 has elapsed. An abnormal state in the monitoring area may be detected. At this time, when the scream is detected again at the time after the time when the scream is detected (assuming that the second abnormality determination time T2 has elapsed), the time when the first scream was detected and the subsequent scream were detected. A process of extending the second abnormality determination time T2 by the difference from the time is performed. Thereby, even if it is a case where a new scream is detected, when a person is detected within the important object area | region 8 within the 2nd abnormality determination time T2 from the time, it can determine with it being in an abnormal state.
Similarly, when a person is detected in the important object area 8, the timer starts counting, and before the timer passes the first abnormality determination time T1, it is determined whether or not a scream is detected. An abnormal state in the monitoring area may be detected. At this time, if a person is detected again at a time after the time when the person is detected in the important object region 8 (assuming that the first abnormality determination time T1 has elapsed), the person at the time of the first person detection and the person after the first person is detected. A process of extending the first abnormality determination time T1 by the difference from the detection time is performed. Thereby, even if it is a case where a person is newly detected, when a scream is detected within the 1st abnormality determination time T1 from the time, it can determine with it being in an abnormal state.

前記各実施例では、第二異常判定時間T2は、管理者等により予め設定されている固定値であるが、これに限らず、監視領域内における状況に応じて変化させてもよい。例えば、第一の実施例において、追跡手段222にて追跡している複数の人物像が互いに接近しており、かつ、それらの人物像の形状変化率が大きい場合、争っている状況であったり、緊縛されている状況である可能性が高い。このような場合、第二異常判定時間T2を延長する処理を行ってもよい。これにより、悲鳴を検出してから予め定めた第二異常判定時間T2を経過した場合であっても、延長時間内に重要物領域8で人物像を検出したときは、異常状態として検知することができる。   In each of the above-described embodiments, the second abnormality determination time T2 is a fixed value set in advance by an administrator or the like. However, the second abnormality determination time T2 is not limited to this, and may be changed according to the situation in the monitoring area. For example, in the first embodiment, when a plurality of person images tracked by the tracking unit 222 are close to each other and the shape change rate of these person images is large, the situation may be a dispute. It's likely that the situation is tight. In such a case, a process of extending the second abnormality determination time T2 may be performed. As a result, even if a predetermined second abnormality determination time T2 has elapsed since the detection of scream, if a person image is detected in the important object region 8 within the extended time, it is detected as an abnormal state. Can do.

前記第一の実施例では、悲鳴を検出したときの前後の所定時間以内に重要物領域8内で人物が検出されたとき、異常状態と判定している。しかし、これに限らず、悲鳴を検出した後に、当該悲鳴に起因した人物像の特定の動きを追跡手段222の移動軌跡に基づいて検知することにより、異常状態と判定してもよい。ここで、悲鳴に起因した人物像の特定の動きとは、例えば、悲鳴を検出した直後に人物像が部屋の出入口に向かって素早く移動する動きや、悲鳴を検出した直後に他の人物像に素早く接近する動きなどが挙げられる。これらの動きは、悲鳴に起因して部屋から逃走しようとする賊の動きや、発見者に危害を及ぼそうとする賊の動きに相当するものである。すなわち、このような悲鳴に起因した人物像の特定の動きを、移動軌跡情報213から検知することにより、監視領域内がより異常状態らしいことを検知することができる。   In the first embodiment, when a person is detected within the important object region 8 within a predetermined time before and after the scream is detected, the abnormal state is determined. However, the present invention is not limited to this, and after detecting a scream, an abnormal state may be determined by detecting a specific movement of the person image caused by the scream based on the movement trajectory of the tracking unit 222. Here, the specific movement of the person image caused by scream is, for example, the movement of the person image quickly toward the entrance of the room immediately after detecting the scream, or the other person image immediately after detecting the scream. For example, a quick approach. These movements correspond to movements of bandits trying to escape from the room due to screams and movements of bandits trying to harm the discoverers. That is, by detecting a specific movement of the person image caused by such a scream from the movement trajectory information 213, it can be detected that the monitoring area seems to be more abnormal.

以上に本発明の実施の形態について説明した。第一の実施例では、異常検知装置1が、本発明の異常検知装置として機能している。また、集音装置4が、本発明の集音部として機能している。また、制御部22の母音抽出手段224、悲鳴判定手段225が、本発明の音響分析部として機能している。また、撮像装置3、及び制御部22の人物像抽出手段221、追跡手段222、人物検出手段223が、本発明の人物検出部として機能している。また、制御部22の異常判定手段226が、本発明の異常判定部として機能している。また、撮像装置3が、本発明の撮像手段として機能している。また、記憶部21が、本発明の記憶部として機能している。また、制御部22の人物像抽出手段221が、本発明の人物像抽出手段として機能している。また、制御部22の追跡手段222が、本発明の追跡手段として機能している。また、制御部22の人物検出手段223が、本発明の人物検出手段として機能している。
一方、第二の実施例では、赤外線センサ、及び制御部22の人物検出手段223が、本発明の人物検出部として機能している。
The embodiment of the present invention has been described above. In the first embodiment, the abnormality detection device 1 functions as the abnormality detection device of the present invention. The sound collecting device 4 functions as the sound collecting unit of the present invention. Further, the vowel extraction means 224 and the scream determination means 225 of the control unit 22 function as an acoustic analysis unit of the present invention. In addition, the image pickup device 3 and the person image extraction unit 221, the tracking unit 222, and the person detection unit 223 of the control unit 22 function as a person detection unit of the present invention. Moreover, the abnormality determination means 226 of the control unit 22 functions as the abnormality determination unit of the present invention. Further, the imaging device 3 functions as an imaging unit of the present invention. The storage unit 21 functions as the storage unit of the present invention. Further, the person image extraction means 221 of the control unit 22 functions as the person image extraction means of the present invention. The tracking unit 222 of the control unit 22 functions as the tracking unit of the present invention. Further, the person detection means 223 of the control unit 22 functions as the person detection means of the present invention.
On the other hand, in the second embodiment, the infrared sensor and the person detection means 223 of the control unit 22 function as the person detection unit of the present invention.

1・・・異常検知装置
2・・・管理装置
3・・・撮像装置
4・・・集音装置
5・・・警備装置
6・・・警備センタ装置
7・・・金庫
8・・・重要物領域
9・・・壁
21・・・記憶部
22・・・制御部
23・・・入力部
24・・・出力部
25・・・通信部
211・・・領域情報
212・・・母音特徴量
213・・・移動軌跡情報
214・・・人物検出時刻
215・・・悲鳴検出時刻
221・・・人物像抽出手段
222・・・追跡手段
223・・・人物検出手段
224・・・母音抽出手段
225・・・悲鳴判定手段
226・・・異常判定手段
100・・・監視画像
110・・・軌跡画像
A、B・・・人物像

DESCRIPTION OF SYMBOLS 1 ... Abnormality detection apparatus 2 ... Management apparatus 3 ... Imaging apparatus 4 ... Sound collector 5 ... Security apparatus 6 ... Security center apparatus 7 ... Safe 8 ... Important thing Area 9 ... Wall 21 ... Storage part 22 ... Control part 23 ... Input part 24 ... Output part 25 ... Communication part 211 ... Area information 212 ... Vowel feature quantity 213 ... Movement trajectory information 214... Person detection time 215... Scream detection time 221... Human image extraction means 222... Tracking means 223 ... Person detection means 224. ..Scream determining means 226. Abnormality determining means 100... Monitoring image 110... Trajectory image A, B.

Claims (2)

重要物を保管している監視領域にて生じている音響信号を取得する集音部と、
前記集音部が集音した前記音響信号を分析し、所定の異常音を検出する音響分析部と、
監視領域に含まれる領域であって前記重要物の保管場所付近に予め設定した重要物領域に所在する人物を検出する人物検出部と、
前記音響分析部の異常音検出結果と前記人物検出部の人物検出結果とに基いて前記監視領域内の異常状態を判定する異常判定部と、
前記異常判定部の判定結果を出力する出力部とから構成される音響による異常検知装置であって、
前記異常判定部は、前記音響分析部にて所定の異常音と判定したときの前後の所定時間以内に前記人物検出部にて人物検出があると異常状態と判定することを特徴とした異常検知装置。
A sound collection unit for acquiring an acoustic signal generated in a monitoring area where important items are stored;
Analyzing the acoustic signal collected by the sound collecting unit, and detecting a predetermined abnormal sound; and
A person detection unit that detects a person located in an important object area that is included in the monitoring area and is set in the vicinity of the important object storage location;
An abnormality determination unit that determines an abnormal state in the monitoring region based on an abnormal sound detection result of the acoustic analysis unit and a person detection result of the person detection unit;
An abnormality detection device by sound composed of an output unit that outputs a determination result of the abnormality determination unit,
The abnormality detection unit, wherein the person detection unit determines an abnormal state within a predetermined time before and after the acoustic analysis unit determines that the predetermined abnormal sound is detected, and determines that the abnormal state is detected apparatus.
前記人物検出部は、
前記監視領域を含む領域の画像を順次取得する撮像手段と、
前記画像から人物像を抽出する人物像抽出手段と、
前記人物像ごとに画像上の位置を追跡する追跡手段と、
前記追跡手段の追跡結果から前記人物像の移動軌跡を記憶し、且つ、画像上の前記重要物領域の位置を予め記憶する記憶部と、
前記所定時間における前記人物像の移動軌跡から前記重要物領域内に当該人物像の滞留している時間を算出する人物検出手段とを有し、
前記異常判定部は、前記人物検出手段にて算出された前記人物像の滞留している時間が所定の滞留時間を超えていると異常状態と判定する請求項1に記載の異常検知装置。

The person detection unit
Imaging means for sequentially acquiring an image of an area including the monitoring area;
Human image extraction means for extracting a human image from the image;
Tracking means for tracking the position on the image for each person image;
A storage unit for storing the movement trajectory of the person image from the tracking result of the tracking unit, and storing in advance the position of the important object region on the image;
Human detection means for calculating the time during which the person image stays in the important object region from the movement trajectory of the person image at the predetermined time;
The abnormality detection device according to claim 1, wherein the abnormality determination unit determines that the person image calculated by the person detection unit is in an abnormal state when the retention time of the person image exceeds a predetermined retention time.

JP2010192965A 2010-08-30 2010-08-30 Abnormality detection apparatus Pending JP2012048689A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010192965A JP2012048689A (en) 2010-08-30 2010-08-30 Abnormality detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010192965A JP2012048689A (en) 2010-08-30 2010-08-30 Abnormality detection apparatus

Publications (1)

Publication Number Publication Date
JP2012048689A true JP2012048689A (en) 2012-03-08

Family

ID=45903432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010192965A Pending JP2012048689A (en) 2010-08-30 2010-08-30 Abnormality detection apparatus

Country Status (1)

Country Link
JP (1) JP2012048689A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036964A (en) * 2016-09-01 2018-03-08 セコム株式会社 Action recording system, terminal equipment, and action recording method
WO2018158907A1 (en) * 2017-03-02 2018-09-07 三菱電機株式会社 Monitoring system
US10664688B2 (en) * 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US10685257B2 (en) 2017-05-30 2020-06-16 Google Llc Systems and methods of person recognition in video streams
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
JP2021064364A (en) * 2019-10-16 2021-04-22 清華大学Tsinghua University Information recognition system and method of the same
JP2021097285A (en) * 2019-12-16 2021-06-24 株式会社アジラ Abnormal behavior detection device
CN114096891A (en) * 2019-07-01 2022-02-25 三菱电机大楼技术服务株式会社 State determination device, elevator system, home system, and building system
US11356643B2 (en) 2017-09-20 2022-06-07 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
CN115223587A (en) * 2021-05-26 2022-10-21 广州汽车集团股份有限公司 Abnormal sound detection method and device, storage medium and equipment
US11587320B2 (en) 2016-07-11 2023-02-21 Google Llc Methods and systems for person detection in a video feed
KR102556447B1 (en) * 2023-02-16 2023-07-18 주식회사 슈퍼스타트 A situation judgment system using pattern analysis
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006761A (en) * 1998-06-18 2000-01-11 Kato Electrical Mach Co Ltd Crime prevention warning device for vehicle
JP2004192459A (en) * 2002-12-12 2004-07-08 Sumitomo Electric Ind Ltd Abnormal phenomenon detecting device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000006761A (en) * 1998-06-18 2000-01-11 Kato Electrical Mach Co Ltd Crime prevention warning device for vehicle
JP2004192459A (en) * 2002-12-12 2004-07-08 Sumitomo Electric Ind Ltd Abnormal phenomenon detecting device

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US11587320B2 (en) 2016-07-11 2023-02-21 Google Llc Methods and systems for person detection in a video feed
JP2018036964A (en) * 2016-09-01 2018-03-08 セコム株式会社 Action recording system, terminal equipment, and action recording method
WO2018158907A1 (en) * 2017-03-02 2018-09-07 三菱電機株式会社 Monitoring system
JPWO2018158907A1 (en) * 2017-03-02 2019-11-07 三菱電機株式会社 Monitoring system
US11386285B2 (en) 2017-05-30 2022-07-12 Google Llc Systems and methods of person recognition in video streams
US10685257B2 (en) 2017-05-30 2020-06-16 Google Llc Systems and methods of person recognition in video streams
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
US10664688B2 (en) * 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11710387B2 (en) 2017-09-20 2023-07-25 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11256908B2 (en) 2017-09-20 2022-02-22 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11356643B2 (en) 2017-09-20 2022-06-07 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
CN114096891B (en) * 2019-07-01 2023-06-30 三菱电机楼宇解决方案株式会社 State determination device, elevator system, home system, and building system
CN114096891A (en) * 2019-07-01 2022-02-25 三菱电机大楼技术服务株式会社 State determination device, elevator system, home system, and building system
JP7075460B2 (en) 2019-10-16 2022-05-25 清華大学 Information recognition system and its method
JP2021064364A (en) * 2019-10-16 2021-04-22 清華大学Tsinghua University Information recognition system and method of the same
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment
JP2021097285A (en) * 2019-12-16 2021-06-24 株式会社アジラ Abnormal behavior detection device
CN115223587A (en) * 2021-05-26 2022-10-21 广州汽车集团股份有限公司 Abnormal sound detection method and device, storage medium and equipment
KR102556447B1 (en) * 2023-02-16 2023-07-18 주식회사 슈퍼스타트 A situation judgment system using pattern analysis
KR102585665B1 (en) * 2023-02-16 2023-10-10 주식회사 슈퍼스타트 Risk Situation Analysis and Hazard Object Detection System

Similar Documents

Publication Publication Date Title
JP2012048689A (en) Abnormality detection apparatus
US10176705B1 (en) Audio monitoring and sound identification process for remote alarms
EP2255344B1 (en) Intrusion detection system with signal recognition
Huang et al. Scream detection for home applications
CN102737480B (en) Abnormal voice monitoring system and method based on intelligent video
US20060227237A1 (en) Video surveillance system and method with combined video and audio recognition
EP3640935B1 (en) Notification information output method, server and monitoring system
WO2008016360A1 (en) Video surveillance system and method with combined video and audio recognition
JP5627962B2 (en) Anomaly detection device
KR101899436B1 (en) Safety Sensor Based on Scream Detection
Droghini et al. A Combined One‐Class SVM and Template‐Matching Approach for User‐Aided Human Fall Detection by Means of Floor Acoustic Features
WO2011025460A1 (en) Method and system for event detection
CN110800053A (en) Method and apparatus for obtaining event indications based on audio data
KR20130097490A (en) Apparatus and method for context recognition based on acoustic information
JP5599064B2 (en) Sound recognition apparatus and sound recognition method
JP5619529B2 (en) Scream detection device
WO2013190551A1 (en) Method of classifying glass break sounds in an audio signal
KR102319687B1 (en) Surveillance system adopting wireless acoustic sensors
US20230366729A1 (en) Trained autoencoder, trained autoencoder generation method, non-stationary vibration detection method, non-stationary vibration detection device, and computer program
JP2013225248A (en) Sound identification system, sound identification device, sound identification method, and program
CN113345210A (en) Method and device for intelligently judging distress call based on audio and video
JP2009105612A (en) Detection device and monitoring camera
KR102641750B1 (en) Emergency bell system with hidden camera detection function
CN115953874B (en) Intelligent alarm method for loudspeaker box
CN210667081U (en) Intelligent security system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130805

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140311

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140805