JP5626372B2 - Event detection system - Google Patents

Event detection system Download PDF

Info

Publication number
JP5626372B2
JP5626372B2 JP2012556806A JP2012556806A JP5626372B2 JP 5626372 B2 JP5626372 B2 JP 5626372B2 JP 2012556806 A JP2012556806 A JP 2012556806A JP 2012556806 A JP2012556806 A JP 2012556806A JP 5626372 B2 JP5626372 B2 JP 5626372B2
Authority
JP
Japan
Prior art keywords
sound
event detection
unit
detection system
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012556806A
Other languages
Japanese (ja)
Other versions
JPWO2012108218A1 (en
Inventor
永哉 若山
永哉 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012556806A priority Critical patent/JP5626372B2/en
Publication of JPWO2012108218A1 publication Critical patent/JPWO2012108218A1/en
Application granted granted Critical
Publication of JP5626372B2 publication Critical patent/JP5626372B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/16Actuation by interference with mechanical vibrations in air or other fluid
    • G08B13/1654Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems
    • G08B13/1672Actuation by interference with mechanical vibrations in air or other fluid using passive vibration detection systems using sonic detecting means, e.g. a microphone operating in the audio frequency range

Description

本発明は、発生した事象を検知する事象検知システムに関する。   The present invention relates to an event detection system that detects an event that has occurred.

防犯や見守りに関する技術に対するニーズは、年々高まってきている。その背景の要因としては、高齢化や独居世帯の増加、及び雇用の都市集中に伴って世代間での世帯遠隔化が拡がっていることが挙げられる。防犯や見守りに関する技術においては、異常事態等の事象が発生した場合に、その旨を検知するための技術が重要となる。   The need for technology related to crime prevention and watching is increasing year by year. Factors behind this are the aging of households, the increase in single-person households, and the increasing remoteness of households between generations as a result of urban concentration of employment. In the technology related to crime prevention and watching, when an event such as an abnormal situation occurs, a technology for detecting the fact is important.

そのような技術としては、異常音を検出した場合に、異常な事象を検出した旨を通知する技術が知られている(例えば、特許文献1参照。)。特許文献1に記載の技術のような、音によって事象を検知する技術は、プライバシー面やコスト面におけるメリットが高い。   As such a technique, a technique for notifying that an abnormal event has been detected when an abnormal sound is detected is known (see, for example, Patent Document 1). A technique for detecting an event by sound, such as the technique described in Patent Document 1, has a high merit in terms of privacy and cost.

例えば、音解析は、非可逆変換を施してから行われる。したがって、このような技術によっては、可聴状態を保ったまま音の信号情報を保存する必要がなくなる。そのため、音によって事象を検知する技術によっては、音が外部に漏れる可能性が低く、プライバシー面におけるメリットが高い。   For example, sound analysis is performed after irreversible conversion. Therefore, according to such a technique, it is not necessary to store sound signal information while maintaining an audible state. For this reason, depending on the technology for detecting an event by sound, the possibility of sound leaking to the outside is low, and the advantage in privacy is high.

例えば、センシングデバイスには、汎用のマイクロフォンや圧電素子等を用いることができる。そのため、音によって事象を検知する技術によっては、カメラや専用デバイスをセンシングデバイスとして用いる技術と比較して、大幅なコストの削減が可能となる。   For example, a general-purpose microphone or a piezoelectric element can be used for the sensing device. Therefore, depending on the technology for detecting an event by sound, the cost can be significantly reduced as compared with a technology that uses a camera or a dedicated device as a sensing device.

例えば、1秒間あたりの音のデータ量は、数十キロバイト程度である。音処理の軽量化の手法は、高速フーリエ変換に代表されるように、既に確立されている。このような処理コストの低廉化は、プロセッサコストの低廉化にも寄与する。   For example, the amount of sound data per second is about several tens of kilobytes. A technique for reducing the weight of sound processing has already been established, as represented by Fast Fourier Transform. Such a reduction in processing cost also contributes to a reduction in processor cost.

例えば、マイクロフォン等のセンシングデバイスは、高所へ設置されるようなカメラや、専門家によって設置されるような専用デバイスと比較して、比較的簡単に設置することができる。このため、金銭的な負担や体力的な負担を軽減することができる。   For example, a sensing device such as a microphone can be installed relatively easily as compared with a camera installed at a high place or a dedicated device installed by an expert. For this reason, a financial burden and a physical burden can be reduced.

音によって事象を検知する既知の技術は、音の識別精度に問題を抱えている。より具体的に説明すると、既知の技術によっては、侵入者によって発生音を小さくする等の調整をなされることにより、本来検知すべき事象を見逃してしまう、といったことが考えられる。   Known techniques for detecting events by sound have problems with sound identification accuracy. More specifically, depending on a known technique, an intruder may make adjustments such as reducing the generated sound, thereby overlooking an event that should be detected.

このような課題を解決する一手法が、特許文献2に開示されている。特許文献2に開示されている装置は、ドアの開閉音の代わりに、ドアの開閉に伴う空気流の変化を低周波音として検知する音圧センサ、ないし空気圧の変化を振動として検知する空気圧センサを用いて、ドアの開閉を検知している。   One method for solving such a problem is disclosed in Patent Document 2. The device disclosed in Patent Document 2 is a sound pressure sensor that detects a change in air flow accompanying opening / closing of a door as a low frequency sound instead of a door opening / closing sound, or a pneumatic sensor that detects a change in air pressure as vibration. Is used to detect the opening and closing of the door.

日本国特開2002−312860号公報Japanese Unexamined Patent Publication No. 2002-31860 日本国特開2009−093477号公報Japanese Unexamined Patent Application Publication No. 2009-093477

事象の重要性は、発生した事象が人間の動作に起因して発生した事象なのか、人間以外の動物の動きや自然現象に起因して発生した事象なのかによって変わる。即ち、事象発生の起因となる主体は、その事象の持つ意味合いや重要性を判定するのに重要な要素となる。しかしながら、特許文献1及び特許文献2に記載の技術には、事象の発生の主体が何にあるのかを判別する手法は開示されていない。   The importance of an event varies depending on whether the event that has occurred is an event that has occurred due to a human action or an event that has occurred due to the movement of a non-human animal or a natural phenomenon. In other words, the subject that causes the occurrence of an event is an important factor in determining the meaning and importance of the event. However, the techniques described in Patent Document 1 and Patent Document 2 do not disclose a method for determining what is the subject of the occurrence of an event.

上記課題を解決するために、本発明の第1の形態によると、発生した事象を検知する事象検知システムであって、取得音の信号情報から、時系列の特徴量ベクトルを抽出する特徴量抽出部と、特徴量抽出部が抽出した時系列の特徴量ベクトルと、音の種別毎のモデルデータとを比較解析することによって、取得音の種別を識別する音識別部と、音識別部から受け取った取得音の種別を時系列に記録し、取得音の種別時系列発生パターンに基づいて、人為性を判定する人為性判定部と、人為性判定部が判定した判定結果に応じて出力を行う出力部とを備える。 In order to solve the above-described problem , according to the first aspect of the present invention, there is provided an event detection system for detecting an event that has occurred, and extracting a time-series feature vector from signal information of acquired sound The sound identification unit for identifying the type of acquired sound by comparing the time series feature amount vector extracted by the unit, the feature amount extraction unit, and the model data for each type of sound, and received from the sound identification unit recorded in time series type of acquired sound and, based on the time series generation pattern of acquisition sound types, and human judgment unit judges human property, an output in accordance with the determination result of human determination unit determines And an output unit for performing.

以上の説明から明らかなように、この発明の事象検知システムによっては、音の種別を識別した後に、その音の前後に含まれる、人間の動作に起因する音の有無や発生パターンに基づいて、その音が発生したことへの人為性を判定することができる。動作の具体例には、移動や拍手といった肉体的な動き、発声やくしゃみ等の動きを伴わない動作、機械の操作が含まれる。しかしながら、本発明はこれに限定されない。したがって、この発明の事象検知システムによっては、例えば、ドアが開閉される音の前後に人間の足音が検知された場合、風等の自然現象に起因してドアが開閉したのではなく、人為的に行われたと判定される。   As is clear from the above description, depending on the event detection system of the present invention, after identifying the type of sound, based on the presence or occurrence pattern of sound caused by human action, which is included before and after the sound, It is possible to determine the human nature of the sound. Specific examples of actions include physical movements such as movement and applause, movements that do not involve movement such as vocalization and sneezing, and machine operations. However, the present invention is not limited to this. Therefore, depending on the event detection system of the present invention, for example, when human footsteps are detected before and after the sound of opening and closing the door, the door does not open and close due to natural phenomena such as wind, but artificially It is determined that this was done.

また、本発明の事象検知システムにおいては、音によって人為性を判定している。そのため、本発明の事象検知システムによっては、プライバシー面やコスト面において有利である。   Further, in the event detection system of the present invention, human artifacts are determined by sound. Therefore, some event detection systems of the present invention are advantageous in terms of privacy and cost.

本発明の第1の実施の形態に係る事象検知装置の利用環境の一例を示す図である。It is a figure which shows an example of the utilization environment of the event detection apparatus which concerns on the 1st Embodiment of this invention. 図1に示す事象検知装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the event detection apparatus shown in FIG. 図2に示す人為性判定データベースに格納されているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data stored in the artifact determination database shown in FIG. 2 in a table format. 図1に示す事象検知装置の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the event detection apparatus shown in FIG. 本発明の第2の実施の形態に係る事象検知装置の利用環境の一例を示す図である。It is a figure which shows an example of the utilization environment of the event detection apparatus which concerns on the 2nd Embodiment of this invention. 図5に示す事象検知装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the event detection apparatus shown in FIG. 図6に示す人為性判定データベースに格納されているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data stored in the artifact determination database shown in FIG. 6 in a table format. 図5に示す事象検知装置の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the event detection apparatus shown in FIG. 本発明の第3の実施の形態に係る事象検知装置の利用環境の一例を示す図である。It is a figure which shows an example of the utilization environment of the event detection apparatus which concerns on the 3rd Embodiment of this invention. 図9に示す事象検知装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the event detection apparatus shown in FIG. 図10に示す人為性判定データベースに格納されているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data stored in the artifact determination database shown in FIG. 10 in a table format. 図9に示す事象検知装置の動作フローの一例を示す図である。It is a figure which shows an example of the operation | movement flow of the event detection apparatus shown in FIG. 本発明の第4の実施の形態に係る事象検知装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the event detection apparatus which concerns on the 4th Embodiment of this invention. 本発明の第4の実施の形態の事象検知装置の別の例のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of another example of the event detection apparatus of the 4th Embodiment of this invention. 図14に示す人為性判定データベースに格納されているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data stored in the artifact determination database shown in FIG. 14 in a table format. 本発明の第4の実施の形態の事象検知装置のさらに別の例の利用環境の一例を示す図である。It is a figure which shows an example of the utilization environment of another example of the event detection apparatus of the 4th Embodiment of this invention. 図16に示す事象検知装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the event detection apparatus shown in FIG. 本発明の第5の実施の形態に係る事象検知装置の利用環境の一例を示す図である。It is a figure which shows an example of the utilization environment of the event detection apparatus which concerns on the 5th Embodiment of this invention. 図18に示す事象検知装置の人為性判定データベースに格納されているデータの一例をテーブル形式で示す図である。It is a figure which shows an example of the data stored in the artifact determination database of the event detection apparatus shown in FIG. 18 in a table format. 本発明の第5の実施の形態における、電話機、パソコン、携帯電話、及び事象検知装置の動作シーケンスの一例を示す図である。It is a figure which shows an example of the operation | movement sequence of a telephone set, the personal computer, a mobile telephone, and an event detection apparatus in the 5th Embodiment of this invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施の形態は、特許請求の範囲にかかる発明を限定するものではなく、また、実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and the features described in the embodiments are not limited thereto. Not all combinations are essential for the solution of the invention.

(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る事象検知装置100の利用環境の一例を示す。事象検知装置100は、発生した事象を検知する。より具体的に説明すると、事象検知装置100は、ドア901の近傍に設置されている。事象検知装置100は、ドア901の開閉音を収集する。また、事象検知装置100は、ドア901の近傍にいる人間の足音を収集する。また、事象検知装置100は、本発明の実施形態における「事象検知システム」の一例であってよい。
(First embodiment)
FIG. 1 shows an example of the usage environment of the event detection apparatus 100 according to the first embodiment of the present invention. The event detection device 100 detects an event that has occurred. More specifically, the event detection apparatus 100 is installed in the vicinity of the door 901. The event detection apparatus 100 collects opening / closing sounds of the door 901. In addition, the event detection apparatus 100 collects footstep sounds of human beings near the door 901. Further, the event detection device 100 may be an example of an “event detection system” in the embodiment of the present invention.

図2は、事象検知装置100のブロック構成の一例を示す。事象検知装置100は、音入力素子110、特徴量抽出部120、音識別部130、人為性判定部140、出力部150、音識別モデルデータベース191、及び人為性判定データベース192を有する。
以下に、各構成要素の機能及び動作を説明する。
FIG. 2 shows an example of a block configuration of the event detection apparatus 100. The event detection apparatus 100 includes a sound input element 110, a feature amount extraction unit 120, a sound identification unit 130, an artifact determination unit 140, an output unit 150, a sound identification model database 191 and an artifact determination database 192.
The function and operation of each component will be described below.

音入力素子110は、音を信号情報に変換する。そして、音入力素子110は、その音の信号情報を、特徴量抽出部120へ送る。音の信号情報には、音圧の時系列変化を示す連続的な電気信号、ならびに電気信号に対しサンプリング及び量子化を施した離散的な音データが含まれる。音入力素子110の具体例としては、マイクロフォンや圧電素子等が挙げられる。   The sound input element 110 converts sound into signal information. Then, the sound input element 110 sends the signal information of the sound to the feature amount extraction unit 120. The sound signal information includes a continuous electric signal indicating a time-series change in sound pressure, and discrete sound data obtained by sampling and quantizing the electric signal. Specific examples of the sound input element 110 include a microphone and a piezoelectric element.

特徴量抽出部120は、音の信号情報を、音入力素子110から受け取ると、その音の信号情報から、音の識別に必要と判断される特徴量を抽出して、時系列の特徴量ベクトルを示すデータとして音識別部130へ送る。特徴量の具体例としては、音圧平均、音圧最大値、音圧の分散、ゼロ点交差数、ピーク周波数、周波数スペクトラム、ピッチ、MFCC(Mel−Frequency Ceptstral Coefficients)、MP(Matching Persuit)、及びこれらの1次差分、2次差分等が挙げられる。しかしながら、本発明はこれに限定されない。   When receiving the sound signal information from the sound input element 110, the feature amount extraction unit 120 extracts a feature amount determined to be necessary for sound identification from the sound signal information, and extracts a time-series feature amount vector. Is sent to the sound identification unit 130 as data indicating Specific examples of the feature amount include sound pressure average, sound pressure maximum value, sound pressure dispersion, number of zero point crossings, peak frequency, frequency spectrum, pitch, MFCC (Mel-Frequency Cepts Coefficients), MP (Matching Persitut), These primary differences, secondary differences, and the like. However, the present invention is not limited to this.

音識別部130は、時系列の特徴量ベクトルを示すデータを、特徴量抽出部120から受け取ると、そのデータによって示される時系列の特徴量ベクトルと、音識別モデルデータベース191に格納されているデータとを比較解析して、その音の種別を特定する。そして、音識別部130は、その音の種別を示すデータを、人為性判定部140へ送る。具体的な特定方法としては、隠れマルコフモデル(HMM:Hidden Markov Model)、GMM(Gaussian Mixture Model)、SVM(Support Vector Machine)、ベイズ推定といった統計モデルに基づく尤度判定、DP(Dynamic Programming)マッチング、DTW(Dynamic Time Warping)といったデータ間距離測定に基づく類似度判定等が挙げられる。しかしながら、本発明はこれに限定されない。   When the sound identification unit 130 receives data indicating the time-series feature amount vector from the feature amount extraction unit 120, the time-series feature amount vector indicated by the data and the data stored in the sound identification model database 191. Is analyzed and the type of the sound is specified. Then, the sound identification unit 130 sends data indicating the type of the sound to the artificial determination unit 140. Specific identification methods include hidden Markov model (HMM: Hidden Markov Model), GMM (Gaussian Mixture Model), SVM (Support Vector Machine), likelihood determination based on statistical model such as Bayesian estimation, DP (Dynamic Prog) And similarity determination based on distance measurement between data such as DTW (Dynamic Time Warping). However, the present invention is not limited to this.

人為性判定部140は、音の種別を示すデータを、音識別部130から受け取ると、そのデータによって示される音の種別を時系列に記録する。次に、人為性判定部140は、記録された音の種別の時系列発生パターンを人為性判定データベース192に格納されている識別音及び特徴音パターンと比較解析することによって、人為性を判定する。そして、人為性判定部140は、その判定結果を示すデータを、出力部150へ送る。人為性判定部140は、音の種別の時系列発生パターンを用いて人為性を判定するために、所定時間の間に発生した音の種別を記録するためのバッファを具備している。   Upon receiving the data indicating the sound type from the sound identification unit 130, the artifact determination unit 140 records the sound type indicated by the data in time series. Next, the human artifact determination unit 140 determines the human artifact by comparing and analyzing the time series occurrence pattern of the recorded sound type with the identification sound and the characteristic sound pattern stored in the human artifact determination database 192. . Then, the artifact determination unit 140 sends data indicating the determination result to the output unit 150. The artifact determination unit 140 includes a buffer for recording the type of sound generated during a predetermined time in order to determine the artifact using the time series generation pattern of the type of sound.

出力部150は、判定結果を示すデータを、人為性判定部140から受け取ると、そのデータによって示される判定結果に応じて出力を実行する。具体例としては、データベースへの格納、ディスプレイ、音、光を通じたユーザへの識別音提示、特定のメールアドレスへのメール送信、特定の電話番号への発信、外部機器へのパケット送出等が挙げられる。   When the output unit 150 receives data indicating the determination result from the artifact determination unit 140, the output unit 150 executes output according to the determination result indicated by the data. Specific examples include storage in a database, display, sound, identification sound presentation to the user through light, transmission of a mail to a specific mail address, transmission to a specific telephone number, transmission of a packet to an external device, etc. It is done.

音識別モデルデータベース191には、音の特徴量ベクトルを比較解析して、その音種別を特定するためのモデルとなるデータが格納されている。モデルデータの具体例としては、特徴量、HMM等の統計モデルの学習済みモデルパラメータ等が挙げられる。しかしながら、本発明はこれに限定されない。一般には、特徴量、学習済みモデルパラメータのいずれも、モデルデータは識別させたい音種別毎に用意される。   The sound identification model database 191 stores data serving as a model for comparing and analyzing sound feature vectors and specifying the sound type. Specific examples of model data include feature parameters, learned model parameters of a statistical model such as HMM, and the like. However, the present invention is not limited to this. In general, model data is prepared for each sound type to be identified, both for the feature amount and the learned model parameter.

人為性判定データベース192には、識別音、特徴音パターン、及び人為性が対応付けて格納されている。特徴音パターンは、人為性を判定するための特徴音の時系列発生パターンを示す。人為性は、特徴音パターンの発生が検出された場合の、識別音の発生における人為性の有無を示す。   The artifact determination database 192 stores identification sounds, characteristic sound patterns, and artifacts in association with each other. The characteristic sound pattern indicates a time-sequential generation pattern of characteristic sounds for determining artifacts. Artificiality indicates the presence or absence of humanity in the generation of the identification sound when the occurrence of the characteristic sound pattern is detected.

図3は、人為性判定データベース192に格納されているデータの一例をテーブル形式で示す。識別音には、「ドア開閉音」なる情報が格納されている。特徴音パターンには、「足音:前後」なる情報が格納されている。人為性には、「有」なる情報が格納されている。これらの情報は、「ドア開閉音」が識別されて、その「前後で足音」が検出された場合は、識別音であるドア開閉には「人為性がある」と判定される旨を意味している。   FIG. 3 shows an example of data stored in the artificial determination database 192 in a table format. In the identification sound, information “door open / close sound” is stored. In the characteristic sound pattern, information “footstep: front and back” is stored. In the artifact, information “present” is stored. These pieces of information mean that if “door open / close sound” is identified and “footstep sound before and after” is detected, it is determined that the door open / close signal, which is the identification sound, is “artificial”. ing.

本実施の形態においては、人為性判定データベース192に一のデータの組合せが登録されている例を示すがこれに限られない。人為性判定データベース192に複数パターンのデータの組合せが登録されていてもよい。本実施の形態においては、特徴音パターンとして、特徴音の検出の有無を条件として二値判定する場合について示したがこれに限られない。HMM、GMM、SVM、ベイズ推定等といった統計モデルに基づく尤度判定を行ってもよい。   In the present embodiment, an example in which one data combination is registered in the artifact determination database 192 is shown, but the present invention is not limited to this. A combination of a plurality of patterns of data may be registered in the artifact determination database 192. In the present embodiment, as the characteristic sound pattern, the case where binary determination is performed on the condition of the presence or absence of detection of the characteristic sound has been described, but the present invention is not limited thereto. Likelihood determination based on a statistical model such as HMM, GMM, SVM, Bayesian estimation, or the like may be performed.

図4は、事象検知装置100の動作フローの一例を示す。事象検知装置100の有する音入力素子110は、検知した音の空気振動を音の信号情報に変換する(S101)。
続いて、特徴量抽出部120は、変換された音の信号情報から特徴量を抽出する(S102)。その後、音識別部130は、抽出された特徴量と、音識別モデルデータベース191に登録されているモデルデータとを比較解析し、音種別を識別する(S103)。
続いて、人為性判定部140は、識別された音種別を時系列に記録し、音種別の時系列の発生パターンと、人為性判定データベース192に登録されている識別音及び特徴音パターンとを比較解析し、人為性を判定する(S104)。最後に、出力部150は、識別音及び人為性の有無に基づき、出力を行う(S105)。
FIG. 4 shows an example of an operation flow of the event detection apparatus 100. The sound input element 110 included in the event detection apparatus 100 converts the air vibration of the detected sound into sound signal information (S101).
Subsequently, the feature quantity extraction unit 120 extracts a feature quantity from the signal information of the converted sound (S102). Thereafter, the sound identification unit 130 compares and analyzes the extracted feature amount and the model data registered in the sound identification model database 191 to identify the sound type (S103).
Subsequently, the human nature determination unit 140 records the identified sound types in time series, and generates the time series generation patterns of the sound types and the identification sounds and feature sound patterns registered in the human nature determination database 192. A comparative analysis is performed to determine the artifacts (S104). Finally, the output unit 150 performs output based on the identification sound and the presence or absence of artifacts (S105).

上記の構成及び動作によって、事象検知装置100は、プライバシーに配慮しまたコストを抑えながら、識別音の人為性を判別することができる。すなわち、利用者によるドア開閉時には、ドア開閉音の近傍のタイミングで、足音が発生する。一方、風や動物の動作等によってドアの開閉がなされた場合には、ドア開閉音の近傍のタイミングでは足音が発生しない。よって、ドア開閉音を識別音、足音を特徴音とし、特徴音の発生パターンの違いを事象検知装置100にて認識することにより、人為的に行われたドア開閉を検知することが可能となる。すなわち、利用者に特別な動作を強いることなく、人為的な事象を識別することができる。   With the above-described configuration and operation, the event detection apparatus 100 can determine the artifact of the identification sound while considering the privacy and suppressing the cost. That is, when the user opens / closes the door, footsteps are generated at a timing near the door opening / closing sound. On the other hand, when the door is opened / closed by wind or animal movement, footsteps are not generated at the timing near the door opening / closing sound. Therefore, it is possible to detect the door opening / closing performed artificially by using the event detection device 100 to recognize the difference in the generation pattern of the characteristic sound by using the door opening / closing sound as the identification sound and the footstep as the characteristic sound. . That is, it is possible to identify an artificial event without forcing the user to perform a special action.

(第2の実施の形態)
図5は、本発明の第2の実施の形態に係る事象検知装置200の利用環境の一例を示す。事象検知装置200は、人為性に加え、音を発した人物の特定が可能である。事象検知装置200は宅内の玄関に設置され、玄関及び付近で発生する音を収集する。本実施の形態では、ドア901の開閉時にその動作を示す音が発せられる。
また、部屋内及び付近に存在する利用者902から、足音が発せられる。また、鍵904を利用してドア錠903を開閉する際に、開閉錠音が発せられる。更に、鍵904には鈴905が紐付けられており、鍵904を利用した際には鈴905から鈴の音が発せられる。
すなわち、事象検知装置200は「ドアの開閉音」「人の足音」「開閉錠音」「鈴の音」を、それぞれ検知することができる。事象検知装置200は、本発明の実施形態における「事象検知システム」の一例であってよい。
(Second Embodiment)
FIG. 5 shows an example of the usage environment of the event detection apparatus 200 according to the second embodiment of the present invention. The event detection apparatus 200 can identify the person who has made a sound in addition to human artifacts. The event detection device 200 is installed at the entrance of the house and collects sounds generated at and near the entrance. In this embodiment, when the door 901 is opened and closed, a sound indicating the operation is emitted.
In addition, footsteps are emitted from users 902 in and around the room. In addition, when the door lock 903 is opened and closed using the key 904, an opening / closing lock sound is generated. Further, a bell 905 is associated with the key 904, and a bell sound is emitted from the bell 905 when the key 904 is used.
In other words, the event detection device 200 can detect “door open / close sound”, “human footsteps”, “open / close lock sound”, and “bell sound”, respectively. The event detection device 200 may be an example of an “event detection system” in the embodiment of the present invention.

利用者902がドア901を開ける場合、利用者902はドア901を開く前にドア901に近づき、またドア901を開いたあとはドア901から遠ざかる。このため、ドア901が開閉される前および/または後で利用者902の足音が発せられる。また、ドア901の施錠がなされれば、鍵904には鈴905がついている。このため、ドア901の開閉時における錠音が生じる前および/または後で鈴の音が発せられる。   When the user 902 opens the door 901, the user 902 approaches the door 901 before opening the door 901, and moves away from the door 901 after opening the door 901. For this reason, the footstep sound of the user 902 is emitted before and / or after the door 901 is opened and closed. If the door 901 is locked, the key 904 has a bell 905. For this reason, a bell sound is emitted before and / or after the locking sound when the door 901 is opened and closed.

図6は、事象検知装置200のブロック構成の一例を示す。事象検知装置200の構成要素のうち、事象検知装置100の構成要素と同じ符号を付している同名の構成要素は、同様の機能及び動作を示す。   FIG. 6 shows an example of a block configuration of the event detection apparatus 200. Among the constituent elements of the event detection apparatus 200, constituent elements having the same names and having the same reference numerals as the constituent elements of the event detection apparatus 100 show similar functions and operations.

事象検知装置200と事象検知装置100との違いについて説明する。事象検知装置200の人為性判定データベース292には、識別音及び特徴音パターンに紐付く人物を更に紐付けて登録される。また、人為性判定部240が、人為性判定データベース292に登録されている特徴音の発生パターンに基づき、識別音を発した人物の判定を行う。   Differences between the event detection device 200 and the event detection device 100 will be described. In the artifact determination database 292 of the event detection apparatus 200, a person who is associated with the identification sound and the characteristic sound pattern is further associated and registered. Further, the human artifact determination unit 240 determines a person who has emitted the identification sound based on the characteristic sound generation pattern registered in the human artifact determination database 292.

図7は、人為性判定データベース292に格納されているデータの一例をテーブル形式で示す。図7に示す一例では、「ドア開閉音」及び「開閉錠音」が識別された場合の人為性判定情報が登録されている。「ドア開閉音」が識別されたときに、その前後で「足音」が検出された場合は、識別音であるドア開閉には人為性があると判定されるものの、その特徴音では人物を判定することまではできない旨が記載されている。また、「開閉錠音」が識別されたときに、その前後で「鈴の音」が検出された場合は、識別音である開閉錠には人為性があり、更に開閉錠を行ったのがA氏であると判定できる旨が記載されている。ここで、A氏は鍵904を持つ唯一の人物であるとする。すると、もし「開閉錠音」が識別されたときに、その前後で「鈴の音」が検出されなかった場合、開閉錠の動作そのものには人為性があるものの、その動作に鍵904は使われていない。ゆえに開閉錠を行ったのが不審者であると判定できる。以上より、識別音を「開閉錠音」とし、特徴音パターンとして「鈴の音」が検出されなかった場合には、人為性は「有」り、また識別音を発した人物は「不審者」と判定される旨が記載されている。   FIG. 7 shows an example of data stored in the artificial determination database 292 in a table format. In the example shown in FIG. 7, the artificiality determination information when “door opening / closing sound” and “opening / closing lock sound” are identified is registered. If “footsteps” are detected before and after the “door opening / closing sound” is identified, it is determined that the door opening and closing, which is the identification sound, is artificial, but the characteristic sound determines the person. It is stated that it can not be done. In addition, when “bell sound” is detected before and after the “opening and closing lock sound” is identified, the opening and closing lock that is the identification sound is artificial, and the opening and closing lock was further performed. It is described that it can be determined that he is Mr. A. Here, it is assumed that Mr. A is the only person having the key 904. If the “bell sound” is not detected before and after the “open / close lock sound” is identified, the operation of the open / close lock itself is artificial, but the key 904 is used for the operation. I have not been told. Therefore, it can be determined that the suspicious person has performed the lock. From the above, if the identification sound is “open / closed lock sound” and “bell sound” is not detected as the characteristic sound pattern, the artifact is “present”, and the person who emitted the identification sound is “suspicious person” "Is determined.

図8は、事象検知装置200の動作フローの一例を示す。事象検知装置200と事象検知装置100の動作フローとの違いについて説明する。事象検知装置200では、人為性判定部240が、識別された音種別を時系列に記録し、音種別の時系列の発生パターンと、人為性判定データベース292に登録されている識別音及び特徴量パターンとを比較解析し、人為性のほかに識別音を発した人物を更に判定する(S201)。   FIG. 8 shows an example of the operation flow of the event detection apparatus 200. Differences between the operation flow of the event detection device 200 and the event detection device 100 will be described. In the event detection device 200, the human nature determination unit 240 records the identified sound types in time series, the time series generation patterns of the sound types, and the identification sounds and feature quantities registered in the human nature determination database 292. The pattern is compared and analyzed to further determine the person who has generated the identification sound in addition to the artifact (S201).

上記の構成及び動作によって、事象検知装置200は、更に識別音を発した人物の特定を行うことができる。すなわち、開閉錠時に鈴の音がした場合には、鈴905の紐付けられている鍵904を用いて開閉錠が行われたことを示しており、鍵904の持ち主であるA氏によって開閉錠が行われたと推測できる。一方、開閉錠時に鈴の音がしない場合には、鍵904以外を用いる何らかの方法にて開閉錠が行われた可能性が高いことを示しており、A氏以外、言い換えれば不審者によって開閉錠が行われたと推測できる。
開閉錠音を識別音、鈴の音を特徴音とし、特徴音の発生パターンの違いを事象検知装置200にて認識することにより、開閉錠を行った人物を特定することができる。すなわち、利用者に特別な動作を強いることなく、事象を発した人物の特定が可能となる。
With the configuration and operation described above, the event detection apparatus 200 can further identify the person who has emitted the identification sound. That is, when a bell sound is heard at the time of opening / closing locking, it indicates that the opening / closing locking has been performed using the key 904 associated with the bell 905, and the opening / closing lock is held by Mr. A who is the owner of the key 904. Can be guessed. On the other hand, if there is no bell sound at the time of opening and closing the lock, it indicates that there is a high possibility that the opening and closing lock has been performed by some method other than the key 904. Can be guessed.
By using the identification sound as the opening / closing lock sound and the characteristic sound as the bell sound and recognizing the difference in the generation pattern of the characteristic sound by the event detection device 200, it is possible to identify the person who has performed the open / close lock. That is, it is possible to identify the person who has generated the event without forcing the user to perform a special action.

(第3の実施の形態)
図9は、本発明の第3の実施の形態に係る事象検知装置300の利用環境の一例を示す。事象検知装置300は、特徴音に加え、特徴的環境変化の発生パターンに従い判定を行うことができる。特徴的環境変化とは、環境特徴量(具体的には、光量、温度、風量、水分量、電波強度等が挙げられる)の変化から推定可能な環境変化のうち、人間の動作又は特定の人物の動作に起因するものを意図する。具体的には、蛍光灯点灯時に特有の光量変化発生を検知した場合における「蛍光灯の点灯」は、人の操作に基づいて発生する可能性が高い。このため、「蛍光灯の点灯」は特徴的環境変化に相当する。本実施の形態では、環境特徴量として特に光量に着目し、具体的に説明する。事象検知装置300は、本発明の実施形態における「事象検知システム」の一例であってよい。
(Third embodiment)
FIG. 9 shows an example of the usage environment of the event detection apparatus 300 according to the third embodiment of the present invention. The event detection apparatus 300 can make a determination according to the occurrence pattern of the characteristic environment change in addition to the characteristic sound. Characteristic environmental change is a human action or a specific person among environmental changes that can be estimated from changes in environmental feature quantities (specifically, light quantity, temperature, air volume, moisture content, radio wave intensity, etc.) It is intended to be caused by the operation of Specifically, the “lighting of the fluorescent lamp” in the case where the occurrence of a specific light amount change at the time of lighting of the fluorescent lamp is detected is highly likely to occur based on a human operation. For this reason, “lighting of the fluorescent lamp” corresponds to a characteristic environmental change. In the present embodiment, a specific description will be given by paying particular attention to the amount of light as the environmental feature amount. The event detection device 300 may be an example of an “event detection system” in the embodiment of the present invention.

事象検知装置300は宅内の部屋に設置され、部屋内及び付近で発生する音及び環境変化を収集できる。本実施の形態では、ドア901の開閉時にその動作を示す音が発せられる。また、照明906のスイッチを操作することにより、スイッチ音及び照明特有の光量変化が発生する。すなわち、事象検知装置300は「ドアの開閉音」および「スイッチ音」に加え、「照明による光量変化」を検知することができる。   The event detection device 300 is installed in a room in the house and can collect sound and environmental changes generated in and around the room. In this embodiment, when the door 901 is opened and closed, a sound indicating the operation is emitted. Further, when the switch of the illumination 906 is operated, a switch sound and a light amount change peculiar to the illumination are generated. In other words, the event detection apparatus 300 can detect “a change in the amount of light due to illumination” in addition to the “door open / close sound” and the “switch sound”.

図10は、事象検知装置300のブロック構成の一例を示す。事象検知装置300の構成要素のうち、事象検知装置100の構成要素と同じ符号を付している同名の構成要素は、同様の機能及び動作を示す。   FIG. 10 shows an example of a block configuration of the event detection apparatus 300. Of the constituent elements of the event detection apparatus 300, constituent elements having the same names and having the same reference numerals as those of the event detection apparatus 100 show similar functions and operations.

事象検知装置300は、事象検知装置100と比較して、光量検出素子360と、特徴的環境変化識別モデルデータベース393と、特徴的環境変化識別部370とを、更に備える。   Compared to the event detection apparatus 100, the event detection apparatus 300 further includes a light amount detection element 360, a characteristic environment change identification model database 393, and a characteristic environment change identification unit 370.

光量検出素子360は、事象検知装置300の周囲の光量を検出し、情報処理に供する形式に変換する。光量検出素子360の具体例としては、照度センサ、光量センサ、フォトダイオード等が挙げられる。以降では、先述の「情報処理に供する形式」を、環境特徴量と呼ぶ。環境特徴量は、音の特徴量ベクトルと同様、時系列データとして抽出される。   The light amount detection element 360 detects the amount of light around the event detection device 300 and converts it to a format for information processing. Specific examples of the light amount detection element 360 include an illuminance sensor, a light amount sensor, and a photodiode. Hereinafter, the above-described “format for information processing” is referred to as an environmental feature amount. The environmental feature quantity is extracted as time-series data in the same manner as the sound feature quantity vector.

環境特徴量は、複数のデータの組み合わせとして用意されてもよい。例えば、光量検出素子360が複数の素子で構成され、それぞれの素子が実空間的に異なる場所の光量を検出可能な場合、それぞれの素子で得られる光量を独立の環境特徴量として扱うこととしてもよい。   The environmental feature amount may be prepared as a combination of a plurality of data. For example, when the light quantity detection element 360 is composed of a plurality of elements and each element can detect the light quantity in a place different in real space, the light quantity obtained by each element may be treated as an independent environmental feature quantity. Good.

本実施の形態では、環境特徴量として光量を利用している。一方で、ほかの環境特徴量を利用する場合には、その環境特徴量を検出可能な素子が供されることが望ましい。
例えば、環境特徴量として温度を利用するなら、温度センサ、熱センサ、赤外線センサ等が用いられる。また、環境特徴量として電波強度を利用するなら、対象電波を受信可能なアンテナ及び通信モジュール等が用いられる。また、複数の異なる環境特徴量、例えば光量と温度のそれぞれの環境特徴量を組み合わせて用意されてもよい。
In the present embodiment, the amount of light is used as the environmental feature amount. On the other hand, when using other environmental feature values, it is desirable to provide an element capable of detecting the environmental feature values.
For example, if temperature is used as the environmental feature quantity, a temperature sensor, a thermal sensor, an infrared sensor, or the like is used. Further, if the radio wave intensity is used as the environmental feature amount, an antenna and a communication module that can receive the target radio wave are used. Also, a plurality of different environmental feature amounts, for example, a combination of environmental feature amounts of light quantity and temperature may be prepared.

特徴的環境変化識別モデルデータベース393は、環境特徴量を比較解析し、特徴的環境変化の有無及び種別を特定するためのモデルとなるデータが格納される。モデルデータの具体例としては、特徴量、HMM等の統計モデルの学習済みモデルパラメータが挙げられる。特徴量、学習済みモデルパラメータのいずれも、モデルデータは識別させたい環境変化種別毎に用意される。   The characteristic environment change identification model database 393 stores data serving as a model for comparing and analyzing environmental feature amounts and specifying the presence and type of characteristic environment changes. Specific examples of model data include learned model parameters of statistical models such as feature quantities and HMMs. For both feature quantities and learned model parameters, model data is prepared for each environmental change type to be identified.

特徴的環境変化識別部370は、環境特徴量と、特徴的環境変化識別モデルデータベース393とを比較解析し、特徴的環境変化の有無及び種別を特定する。また、特徴的環境変化識別部370は、特定された環境変化種別を人為性判定部340に通知する。具体的な特定方法としては、音識別部130と同様に、HMM、GMM、SVM、ベイズ推定といった統計モデルに基づく尤度判定、DPマッチング、DTWといったデータ間距離測定に基づく類似度判定等が挙げられる。しかしながら、本発明はこれらに限定されない。   The characteristic environment change identification unit 370 compares and analyzes the environment feature quantity and the characteristic environment change identification model database 393, and specifies the presence and type of the characteristic environment change. Also, the characteristic environment change identification unit 370 notifies the human nature determination unit 340 of the specified environment change type. Specific identification methods include likelihood determination based on statistical models such as HMM, GMM, SVM, and Bayesian estimation, and similarity determination based on distance measurement between data such as DP matching and DTW, as with the sound identification unit 130. It is done. However, the present invention is not limited to these.

事象検知装置300における人為性判定データベース392は、特徴音に加え、特徴的環境変化及びその発生パターンを更に紐付けて保持する。同様に、人為性判定部340は、識別音に加え特徴的環境変化の発生パターンと、人為性判定データベース392に登録された識別音、特徴音パターン、特徴的環境変化の発生パターンとを比較解析し、人為性を判定する。   The anthropogenicity determination database 392 in the event detection apparatus 300 further holds a characteristic environment change and its generation pattern in association with the characteristic sound. Similarly, the artifact determination unit 340 performs a comparative analysis of the occurrence pattern of the characteristic environment change in addition to the identification sound and the identification sound, the characteristic sound pattern, and the occurrence pattern of the characteristic environment change registered in the artifact determination database 392. And determine human artifacts.

図11は、人為性判定データベース392に格納されているデータの一例をテーブル形式で示す。図11に示す一例では、「ドア開閉音」が識別されたときに、その前後で「スイッチ音」及び光量変化である「照明の点灯」が検出された場合は、識別音であるドア開閉には人為性があると判定される旨が記載されている。   FIG. 11 shows an example of data stored in the artificial determination database 392 in a table format. In the example shown in FIG. 11, when “door sound” is detected before and after the “door opening / closing sound” is identified, the door opening / closing that is the identification sound is detected. Describes that it is determined to be artificial.

図12は、事象検知装置300の動作フローの一例を示す。事象検知装置300は、事象検知装置100の動作フローと同様の音識別を行うステップS101〜S103に加えて、以下のステップS301〜S303を行う。具体的には、光量検出素子360は、事象検知装置300が設置されている周囲の光量を検出し、環境特徴量に変換する(S301)。特徴的環境変化識別部370は、得られた環境特徴量と、特徴的環境変化識別モデルデータベース393と比較解析することで、特徴的環境変化の有無及び環境変化の種別を判定する(S302)。その後、人為性判定部340は、識別された音種別を環境変化種別時系列に記録し、音種別及び環境変化種別の時系列の発生パターンと、人為性判定データベース392に登録されている識別音、特徴音及び特徴的環境変化のパターンとを比較解析し、人為性を判定する(S303)。最後に、出力部150は、識別音及び人為性の有無に基づき、出力を行う(S105)。   FIG. 12 shows an example of the operation flow of the event detection apparatus 300. The event detection device 300 performs the following steps S301 to S303 in addition to steps S101 to S103 for performing sound identification similar to the operation flow of the event detection device 100. Specifically, the light amount detection element 360 detects the amount of light around the event detection device 300 and converts it into an environmental feature amount (S301). The characteristic environment change identification unit 370 determines whether or not there is a characteristic environment change and the type of environment change by comparing and analyzing the obtained environment feature quantity and the characteristic environment change identification model database 393 (S302). Thereafter, the human artifact determination unit 340 records the identified sound type in the environment change type time series, the time series occurrence pattern of the sound type and the environment change type, and the identification sound registered in the humanity determination database 392. Then, the characteristic sound and the pattern of the characteristic environment change are compared and analyzed to determine the human artifact (S303). Finally, the output unit 150 performs output based on the identification sound and the presence or absence of artifacts (S105).

上記の構成及び動作によって、事象検知装置300は、音のほかに環境変化に基づいて事象の人為性を判定することができる。ドアの開閉を例にとれば、設置先によっては足音を正確に検出できない可能性がある。また、照明を点灯させる際のスイッチ音を検出できたとしても、スイッチ音の種別がわからなければ、スイッチ音とドア開閉音との因果関係がわからない。このため、そのスイッチ音をドア開閉音の人為性判定に用いることができない。そのため、扉の開閉音及びスイッチ音の近傍のタイミングで、照明906の点灯と類推できる光量変化を検知できれば、扉の開閉と照明の点灯との因果関係を利用して、扉の開閉の人為性を判定できる。すなわち、音だけでは人為性あるいは音を発した人物を特定することができない場合においても、人固有あるいは人物固有の環境変化を利用して、人為性ないし人物を特定できる。   With the above-described configuration and operation, the event detection apparatus 300 can determine the artifact of the event based on the environmental change in addition to the sound. Taking door opening and closing as an example, footsteps may not be detected accurately depending on the installation location. Even if the switch sound when turning on the illumination can be detected, the causal relationship between the switch sound and the door opening / closing sound cannot be understood unless the type of the switch sound is known. For this reason, the switch sound cannot be used for the determination of the artifact of the door opening / closing sound. Therefore, if a change in the amount of light that can be inferred from lighting of the lighting 906 can be detected at a timing near the door opening / closing sound and switch sound, the causal relationship between the opening / closing of the door and the lighting of the lighting is used to make an artificial opening / closing of the door Can be determined. That is, even if the sound alone cannot be used to specify the humanity or the person who emitted the sound, it is possible to specify the humanity or the person using the person-specific or person-specific environmental changes.

以上、第1から第3の実施の形態における事象検知装置の構成及び動作について説明した。特徴音として、周波数ないしリズムに周期性を有する電子音を含むようにしてもよい。電子音の具体例としては、ブザー音、電子メロディ、電子機器の操作反応音、電話着信時の報知音が挙げられる。電子音の多くは電子機器の明示的な操作によって発せられることが多い。また同一の動作を示す電子音であれば、発せられる音の特性は発生毎にほぼ同一となる。よって、高い精度で人為性ないし人物を判定できる。   The configuration and operation of the event detection apparatus in the first to third embodiments have been described above. As the characteristic sound, an electronic sound having periodicity in frequency or rhythm may be included. Specific examples of the electronic sound include a buzzer sound, an electronic melody, an operation response sound of an electronic device, and a notification sound when a call is received. Many electronic sounds are often emitted by explicit operation of electronic equipment. In addition, if the electronic sound exhibits the same operation, the characteristics of the emitted sound are almost the same every time it is generated. Therefore, it is possible to determine an artifact or a person with high accuracy.

(第4の実施の形態)
図13は、本発明の第4の実施の形態に係る事象検知装置400のブロック構成の一例を示す。事象検知装置400の構成要素のうち、事象検知装置100の構成要素と同じ符号を付している同名の構成要素は、同様の機能及び動作を示す。事象検知装置400は、設置環境にて取得した特徴音を学習により登録することが可能な装置である。事象検知装置400は、本発明の実施形態における「事象検知システム」の一例であってよい。
(Fourth embodiment)
FIG. 13 shows an example of a block configuration of an event detection apparatus 400 according to the fourth embodiment of the present invention. Of the constituent elements of the event detection apparatus 400, constituent elements having the same names as those of the constituent elements of the event detection apparatus 100 show similar functions and operations. The event detection device 400 is a device capable of registering the characteristic sound acquired in the installation environment by learning. The event detection apparatus 400 may be an example of an “event detection system” in the embodiment of the present invention.

事象検知装置400は、事象検知装置100と比較して、人為パターン学習部480を更に備える。人為パターン学習部480は、音識別部130によって識別された音種別の発生パターンから、人為性を有する(又は有さないと判断できる)特徴音の候補を選択する。さらに、人為パターン学習部480は、候補と、候補を検知した場合の判定モデルとを紐付けて、特徴音として人為性判定データベース192に登録する。   The event detection device 400 further includes an artificial pattern learning unit 480 as compared with the event detection device 100. The artificial pattern learning unit 480 selects a feature sound candidate having (or can be determined not to have) artificiality from the generation patterns of the sound types identified by the sound identifying unit 130. Furthermore, the artificial pattern learning unit 480 associates the candidate with the determination model when the candidate is detected, and registers the candidate in the artificial determination database 192 as a characteristic sound.

人為パターン学習部480の動作について、鈴の音を例にとり、より具体的に説明する。鈴そのものの音だけでは、鈴の音が人為性を有するか否かを判定することは困難である。なぜなら、鈴がたとえば猫等の動物の首に紐付いている場合もあれば、鍵やかばん等、人の道具に紐付いている場合もあるためである。すなわち、設置環境によって特徴音における人為性の有無が変わることになる。   The operation of the artificial pattern learning unit 480 will be described more specifically with a bell sound as an example. It is difficult to determine whether or not the sound of a bell has an artifact by the sound of the bell itself. This is because the bell may be attached to the neck of an animal such as a cat, or may be attached to a human tool such as a key or a bag. That is, the presence or absence of artifacts in the characteristic sound changes depending on the installation environment.

例えば猫の鳴き声等、人為性のない音の発生の前後に頻繁に鈴の音が識別された場合、前後に鈴の音が検出されたときの識別音には人為性が低いとみなすことができる。よって、人為パターン学習部480は、鈴の音は人為性が低いとして人為性判定データベース192に登録する。また、ドアの開閉音及び足音の前後に頻繁に鈴の音が識別された場合、逆に、前後に鈴の音が検出されたときの識別音の対する人為性は高いとみなすことができる。よって人為パターン学習部480は、鈴の音は人為性が高いとして人為性判定データベース192に登録する。   For example, if a bell sound is frequently identified before and after the occurrence of a non-artificial sound such as a cat's cry, the identification sound when the bell sound is detected before and after it may be considered to be less artificial. it can. Therefore, the artificial pattern learning unit 480 registers the bell sound in the artificial determination database 192 as having low artificiality. In addition, if bell sounds are frequently identified before and after the door opening and closing sounds and footsteps, conversely, it can be considered that the identification sound when the bell sounds are detected before and after is highly artificial. Therefore, the artificial pattern learning unit 480 registers the sound of the bell in the artificial determination database 192 as having high artificiality.

かかる構成をとることにより、事象検知装置400は設置環境にて取得した音種別の中から特徴音となりうる音を選択し登録することができる。特徴音の候補の選択基準の一例としては、識別音及び人為性を判定可能な特徴音の前後での発生頻度が高い、人為的と判定された識別音の前後で発生している等が挙げられる。よって、設置環境に特有な特徴音を判別することができる。   With this configuration, the event detection apparatus 400 can select and register a sound that can be a characteristic sound from the sound types acquired in the installation environment. Examples of selection criteria for feature sound candidates include a high occurrence frequency before and after the identification sound and the characteristic sound that can be determined by human artifacts, and the occurrence of sound before and after the identification sound determined to be artificial. It is done. Therefore, the characteristic sound peculiar to the installation environment can be determined.

入力部を更に備え、利用者からの入力に基づき学習の挙動を制御する構成としてもよい。図14は、事象検知装置500のブロック構成の一例を示す。事象検知装置500の構成要素のうち、事象検知装置100又は事象検知装置400の構成要素と同じ符号を付している同名の構成要素は、同様の機能及び動作を示す。事象検知装置500は、本発明の実施形態における「事象検知システム」の一例であってよい。   It is good also as a structure further equipped with an input part and controlling the behavior of learning based on the input from a user. FIG. 14 shows an example of a block configuration of the event detection apparatus 500. Among the constituent elements of the event detecting apparatus 500, constituent elements having the same names as those of the constituent elements of the event detecting apparatus 100 or the event detecting apparatus 400 have similar functions and operations. The event detection device 500 may be an example of an “event detection system” in the embodiment of the present invention.

事象検知装置500は、事象検知装置400と比較して、入力部590を更に備える。入力部590は、利用者からの入力を受け付け、入力に基づき人為パターン学習部480を制御する機能を有する。人為パターン学習部480は更に、入力部590からの制御に基づき、特徴音の候補の選択及び人為性判定データベース592への登録を決定する。   The event detection device 500 further includes an input unit 590 as compared with the event detection device 400. The input unit 590 has a function of receiving input from a user and controlling the artificial pattern learning unit 480 based on the input. Further, the artificial pattern learning unit 480 determines selection of feature sound candidates and registration in the artificiality determination database 592 based on control from the input unit 590.

かかる構成をとることにより、事象検知装置500は利用者からの入力に基づき、利用者の所望のタイミングにて学習動作をさせることができる。このため、利用者の都合に合わせた学習を行うことができる。例えば、利用者の学習させたい特徴音が発生する前後を指定して学習動作を行わせるよう制御することができる。また、学習の結果としての識別音及び特徴音に、利用者の意思に反する音(たとえば設置先環境に固有の雑音等)が含まれていた場合に、利用者の操作によって学習を取り消すことができることとなる。よって、より利用者の意思を反映させた学習が可能となる。   By adopting such a configuration, the event detection apparatus 500 can perform a learning operation at a timing desired by the user based on an input from the user. For this reason, learning according to the convenience of the user can be performed. For example, the learning operation can be controlled by designating before and after the occurrence of the characteristic sound that the user wants to learn. In addition, when the identification sound and the characteristic sound as a result of learning include sounds that are contrary to the user's intention (for example, noise specific to the installation environment), the learning can be canceled by the user's operation. It will be possible. Therefore, learning that reflects the user's intention is possible.

更に特徴音パターンを検出した場合の出力動作を指定し紐付けて登録する構成としてもよい。この場合、人為パターン学習部480は更に、入力部590を介して指定された指定出力動作を更に紐付けて人為性判定データベース592に登録する。出力部150は更に、判定結果に基づく動作として、人為性判定データベース592に登録された指定出力動作を行う。   Furthermore, it is good also as a structure which designates and associates and outputs the output operation | movement at the time of detecting a characteristic sound pattern. In this case, the artificial pattern learning unit 480 further associates the designated output operation designated via the input unit 590 and registers it in the artificial nature determination database 592. The output unit 150 further performs a specified output operation registered in the anthropogenicity determination database 592 as an operation based on the determination result.

図15は、人為性判定データベース592に格納されているデータの一例をテーブル形式で示す。図15に示す例では、ドア開閉音の前後に足音が発生しているのを識別すると、人為性を有する動作と判定され、出力として時刻及び識別音を記録することが示されている。   FIG. 15 shows an example of data stored in the artificial determination database 592 in a table format. In the example illustrated in FIG. 15, it is determined that when footsteps are generated before and after the door opening / closing sound, it is determined that the operation has human artifacts, and the time and the identification sound are recorded as outputs.

かかる構成をとることにより、事象検知装置500は、利用者の操作によって、特徴音と判定時の出力とを紐付けて人為性判定データベース592に登録できる。よって、識別音あるいは特徴音の重要度に応じて、出力動作を変えることができる。例えば、重要でない音や頻発する音の場合は記憶装置への記録にとどめ、重要な音の場合は利用者に通知する、あるいは他機器を操作する際のトリガを発する等と設定することができる。   With this configuration, the event detection apparatus 500 can register the characteristic sound and the output at the time of determination in the anthropogenicity determination database 592 by user operation. Therefore, the output operation can be changed according to the importance of the identification sound or the characteristic sound. For example, it can be set to record in the storage device in the case of unimportant sound or frequent sound, to notify the user in the case of important sound, or to generate a trigger when operating other devices. .

設置先に固有の音発生パターンに重みをつけて識別するようにしてもよい。この場合、人為パターン学習部480は更に、設置先の環境に固有の音発生パターンを選択して学習し、人為性判定部140は更に、設置先の固有の音発生パターンに重みをつけて判定する。   You may make it identify with weighting the sound generation pattern peculiar to an installation place. In this case, the artificial pattern learning unit 480 further selects and learns a sound generation pattern specific to the environment of the installation destination, and the artificiality determination unit 140 further determines by weighting the unique sound generation pattern of the installation destination. To do.

かかる構成をとることにより、事象検知装置500は、設置環境で学習した特徴音について、重み付けをして判定することができる。設置先に固有の音は、設置先の利用者の癖や意思が反映された可能性が高いとみられる。よって、より高い精度で人為性を判定することができる。   By adopting such a configuration, the event detection apparatus 500 can determine by weighting the characteristic sound learned in the installation environment. The sound unique to the installation site is likely to reflect the habits and intentions of the user at the installation site. Therefore, it is possible to determine the artifacts with higher accuracy.

複数の宅内に設置された事象検知装置をネットワークを介して接続し、各事象検知装置で取得した音種別及び音種別の発生パターンを基に自動で学習する機能を追加してもよい。図16は、事象検知装置600の利用環境の一例を示す。複数の宅内に設置された事象検知装置600a、b、c、・・・(以下、事象検知装置600と総称する。)は、ネットワーク990を介して接続され、各事象検知装置600で取得された音種別の発生パターンをもとに自動で学習を行う。事象検知装置600は、本発明の実施形態における「事象検知システム」の一例であってよい。   A function may be added in which event detection devices installed in a plurality of homes are connected via a network and automatically learned based on the sound type and sound type generation pattern acquired by each event detection device. FIG. 16 shows an example of the usage environment of the event detection apparatus 600. Event detectors 600a, b, c,... Installed in a plurality of homes (hereinafter collectively referred to as event detectors 600) are connected via a network 990 and acquired by each event detector 600. Learning is automatically performed based on the sound type occurrence pattern. The event detection device 600 may be an example of an “event detection system” in the embodiment of the present invention.

図17は、事象検知装置600のブロック構成の一例を示す。事象検知装置600の構成要素のうち、事象検知装置100又は事象検知装置400の構成要素と同じ符号を付している同名の構成要素は、同様の機能及び動作を示す。   FIG. 17 shows an example of a block configuration of the event detection apparatus 600. Among the constituent elements of the event detecting apparatus 600, constituent elements having the same names as those of the constituent elements of the event detecting apparatus 100 or the event detecting apparatus 400 show similar functions and operations.

事象検知装置600は、事象検知装置400と比較して、通信部699を更に備える。通信部699は、自装置以外の事象検知装置600とネットワーク101を介して接続し、特徴音に関わる情報を送受信する。   The event detection device 600 further includes a communication unit 699 as compared with the event detection device 400. The communication unit 699 is connected to the event detection apparatus 600 other than its own apparatus via the network 101, and transmits / receives information related to the characteristic sound.

かかる構成をとることにより、事象検知装置600は、自装置と自装置以外とで取得された音発生パターンを比較し、設置先で発生しうる音発生パターンを識別することが可能となる。具体的には、ある音発生パターンが自装置以外でほとんど登録されていない場合は特徴音パターンとして登録する、といった使い方が挙げられる。設置先に固有の音は、設置先の利用者の癖や意思が反映された可能性が高いとみられる。よって、より高い精度で人為性を判定することができる。   By adopting such a configuration, the event detection apparatus 600 can compare the sound generation patterns acquired by the own apparatus and other than the own apparatus, and identify the sound generation patterns that can be generated at the installation destination. Specifically, there is a method of registering as a characteristic sound pattern when a certain sound generation pattern is hardly registered other than the device itself. The sound unique to the installation site is likely to reflect the habits and intentions of the user at the installation site. Therefore, it is possible to determine the artifacts with higher accuracy.

事象検知装置600において特徴音の登録が不足していると判断される場合に、自動的に学習部を動作させ、利用者に特徴音の登録を促す機能を追加してもよい。この場合、人為性判定部140は更に、特徴音の登録の量が、人為性判定部140自身において判定を行うに不足すると判定した場合は、人為パターン学習部480を動作させる。また出力部150は更に、人為性の判定ができないこと及び人為パターン学習部480が動作していることを利用者に提示する。   When the event detection apparatus 600 determines that the feature sound registration is insufficient, a function may be added to automatically operate the learning unit to prompt the user to register the feature sound. In this case, the artificialness determination unit 140 further operates the artificial pattern learning unit 480 when it is determined that the amount of feature sound registration is insufficient for the determination by the artificiality determination unit 140 itself. Further, the output unit 150 further presents to the user that the determination of artifacts cannot be performed and that the artifact pattern learning unit 480 is operating.

かかる構成をとることにより、事象検知装置600は、人為性判定が困難な場合に、さらなる特徴音を学習できるよう、利用者に音の入力を促すことができる。よって、より高い精度で判定できるようになる。   By adopting such a configuration, the event detection apparatus 600 can prompt the user to input sound so that further characteristic sounds can be learned when it is difficult to determine human artifacts. Therefore, it becomes possible to determine with higher accuracy.

第4の実施の形態に示した各々の例では、特徴音及び特徴音を用いた人為性の判定を対象に説明したが、特徴的環境変化についても、また人物特定の判定に対しても、同様に適用可能である。   In each example shown in the fourth embodiment, the characteristic sound and the determination of the artificiality using the characteristic sound have been described. However, the characteristic environment change and the person specific determination are also described. The same applies.

以上、第1から第4の実施の形態における事象検知装置の構成及び動作について説明した。特徴音として、周波数乃至リズムに周期性を有する電子音を含むようにしてもよい。電子音の具体例としては、ブザー音、電子メロディ、電子機器の操作反応音、電話着信時の報知音が挙げられる。電子音の多くは電子機器の明示的な操作によって発せられることが多い。また同一の動作を示す電子音であれば、発せられる音の特性は発生毎に略同一となる。よって、高い精度で人為性乃至人物を判定できる。   The configuration and operation of the event detection device in the first to fourth embodiments have been described above. As the characteristic sound, an electronic sound having periodicity in frequency or rhythm may be included. Specific examples of the electronic sound include a buzzer sound, an electronic melody, an operation response sound of an electronic device, and a notification sound when a call is received. Many electronic sounds are often emitted by explicit operation of electronic equipment. If the electronic sound exhibits the same operation, the characteristics of the emitted sound are substantially the same every time it is generated. Therefore, it is possible to determine an artifact or a person with high accuracy.

(第5の実施の形態)
図18は、本発明の第5の実施の形態に係る事象検知装置700の利用環境の一例を示す。事象検知装置700は、電子音の検知を利用して指示を行った人物を特定するとともに、あらかじめ指定した機器・アプリケーションを起動する。事象検知装置700は、本発明の実施形態における「事象検知システム」の一例であってよい。
(Fifth embodiment)
FIG. 18 shows an example of the usage environment of the event detection apparatus 700 according to the fifth embodiment of the present invention. The event detection device 700 identifies a person who gives an instruction using electronic sound detection and activates a device / application specified in advance. The event detection device 700 may be an example of an “event detection system” in the embodiment of the present invention.

本実施の形態では、事象検知装置700、電話機907、およびパソコン908が宅内に設置される。事象検知装置700とパソコン908とはネットワークで接続されている。事象検知装置700とパソコン908との接続は、USB(Universal Serial Bus)、Ethernet(登録商標)、無線LAN(Local Area Network)、Bluetooth(登録商標)等による方法が挙げられる。事象検知装置700は電話機907からの着信音が聞こえる場所に設置されている。電話機907は、携帯電話909から着信を受けた場合に、着信音Bを発するよう設定されている。   In the present embodiment, event detection device 700, telephone 907, and personal computer 908 are installed in the house. The event detection device 700 and the personal computer 908 are connected via a network. The connection between the event detection device 700 and the personal computer 908 may be a method using USB (Universal Serial Bus), Ethernet (registered trademark), wireless LAN (Local Area Network), Bluetooth (registered trademark), or the like. The event detection device 700 is installed in a place where a ring tone from the telephone 907 can be heard. The telephone 907 is set to emit a ringtone B when receiving an incoming call from the mobile phone 909.

図19は、事象検知装置700の人為性判定データベース792に格納されているデータの一例をテーブル形式で示す。識別音が無音、すなわち宅内が不在のときに、特徴音として登録された着信音Bの音を検知した場合に、発信元がB氏であることを識別するとともに、出力としてネットワークを介しパソコン908を起動しVPN(Virtual Private Network)接続を開始する旨が登録されている。   FIG. 19 shows an example of data stored in the anthropogenicity determination database 792 of the event detection apparatus 700 in a table format. When the identification sound is silent, that is, when the house is absent, when the ringtone B registered as the characteristic sound is detected, the identification is made that the caller is Mr. B, and the PC 908 is used as an output via the network. Is registered to start a VPN (Virtual Private Network) connection.

図20は、電話機907、パソコン908、携帯電話909、及び事象検知装置700の動作シーケンスの一例を示す。ここで、B氏は設置先における住民であり、B氏は外出時には携帯電話909を持ち歩いているとする。宅内不在時に、携帯電話909から電話機907に発呼を行う(S401)。電話機907は着呼すると、発信元である携帯電話909に紐付けられた着信音Bを鳴らす(S402)。すると事象検知装置700は、識別音が入力されない、すなわち無音状態で、着信音Bを検知する。このため、事象検知装置700は、人為性判定データベース792に登録された情報より、情報の発信元がB氏であること、また出力としてパソコン908を起動させて、VPN接続を行うことが登録されていることを検知する(S123)。検知結果をもとに、事象検知装置700はパソコン908にその指令を含んだパケットを送信する(S124)。パソコン908は受信した指令に従い、起動及びVPN接続を開始する。   FIG. 20 shows an example of an operation sequence of the telephone set 907, the personal computer 908, the mobile phone 909, and the event detection apparatus 700. Here, it is assumed that Mr. B is a resident at the installation site, and Mr. B carries a mobile phone 909 when going out. When the user is away from home, the mobile phone 909 makes a call to the telephone 907 (S401). When the telephone set 907 receives a call, it rings the ringtone B associated with the mobile phone 909 as the caller (S402). Then, the event detection device 700 detects the ring tone B when no identification sound is input, that is, in a silent state. For this reason, the event detection apparatus 700 is registered based on the information registered in the artificial determination database 792 that the source of the information is Mr. B, and that the personal computer 908 is activated as an output to perform the VPN connection. (S123). Based on the detection result, the event detection apparatus 700 transmits a packet including the command to the personal computer 908 (S124). The personal computer 908 starts activation and VPN connection in accordance with the received command.

かかる構成をとることにより、外出先からでも宅内機器の遠隔制御が可能となる。通常、宅内機器の多くはNAT(Network Address Translation)又はNAPT(Network Address Port Translation)処理を介して外部ネットワークと接続されている。このため、ネットワーク外部から直接宅内機器を制御するためには特殊なネットワーク機器の導入、及びセキュリティをはじめとするネットワークへの知識が必要となる。一方、本実施の形態では、事象検知の条件として電子音である電話着信音を指定し、その事象を検知した場合に宅内に設置された事象検出装置700から別の宅内機器を制御する仕組みを利用している。よって、通信そのものは宅内で完結していることから、ネットワークに起因するセキュリティ及び特殊な動作を意識する必要がなくなる。また、事象トリガとなる電話着信音は、特定の携帯電話909から着信した場合に発生するよう設定してあり、第三者からの不正な操作を防止できる。更に、電話着信音の振分け及び設定は既存の電話機907にて実現されている機能であるため、新たな機器の導入は最小限に抑えられる。以上より、宅内機器の遠隔制御の際に課題となる、ユーザ知識、コスト、ネットワークセキュリティの問題を解決することができる。   By adopting such a configuration, it is possible to remotely control home devices even from outside the home. Usually, many home devices are connected to an external network via NAT (Network Address Translation) or NAPT (Network Address Port Translation) processing. For this reason, in order to control home devices directly from the outside of the network, introduction of special network devices and knowledge of the network including security are required. On the other hand, in the present embodiment, a system is provided in which a telephone ring tone, which is an electronic sound, is specified as an event detection condition, and another home device is controlled from the event detection device 700 installed in the home when the event is detected. We are using. Therefore, since the communication itself is completed at home, there is no need to be aware of security and special operations caused by the network. In addition, the telephone ringing tone serving as an event trigger is set to be generated when an incoming call is received from a specific mobile phone 909, and unauthorized operations from a third party can be prevented. Further, since the distribution and setting of the telephone ringtone is a function realized by the existing telephone 907, the introduction of new equipment can be minimized. As described above, it is possible to solve the problems of user knowledge, cost, and network security, which are problems in remote control of home devices.

以上、図面を参照して本発明の実施形態について詳しく説明してきた。本発明の実施形態における事象検知装置の全部又は一部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。ここでいう「コンピュータシステム」は、OSや周辺機器等のハードウェアを含む。   The embodiments of the present invention have been described in detail above with reference to the drawings. A program for realizing all or part of the functions of the event detection apparatus according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, you may process each part. The “computer system” here includes an OS and hardware such as peripheral devices.

「コンピュータ読み取り可能な記録媒体」とは、光磁気ディスク、ROM、不揮発性半導体メモリ等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。上記プログラムは、前述した機能の一部を実現してもよく、更に前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現してもよい。   “Computer-readable recording medium” refers to a portable medium such as a magneto-optical disk, ROM, and nonvolatile semiconductor memory, and a storage device such as a hard disk built in a computer system. "Computer-readable recording medium" means a program that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system that serves as a server or a client in this case includes a program that holds a program for a certain period of time. The above program may realize part of the functions described above, and may further realize the functions described above in combination with a program already recorded in the computer system.

具体的な構成は上述の構成に限られない。本発明の要旨を逸脱しない範囲内において様々な設計変更等が可能である。例えば、上に示した実施形態では、音の収集・特徴量抽出・識別、人為性判定、出力までをすべて事象検出装置にて行っているがこれに限れず、これらの処理を複数の装置に分離して実現してもよい。例えば、音の収集から識別までをひとつの装置で、また人為性判定及び出力を別の装置で実現し、識別音及び特徴音ないしそれらに類する情報を、ネットワークを介して通知するようにしてもよい。   The specific configuration is not limited to the above configuration. Various design changes can be made without departing from the scope of the present invention. For example, in the above-described embodiment, sound collection, feature extraction / identification, artificial determination, and output are all performed by the event detection device, but the present invention is not limited to this, and these processes are performed on a plurality of devices. It may be realized separately. For example, sound collection to identification can be performed with a single device, and the determination and output of human artifacts can be performed with another device, and the identification sound, characteristic sound, and similar information can be notified via the network. Good.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は、上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

(付記1)事象検知装置は、前記人為性判定部は更に、人間の動作に起因する音、又は周波数又はリズムに周期性を有する電子音の発生パターン及び環境変化の学習量が、前記人為性判定部において判定を行うに不足すると判定した場合は、前記人為パターン学習部を動作させ、前記出力部は更に、人為性の判定ができないこと及び前記人為パターン学習機能が動作していることを利用者に提示してもよい。   (Supplementary note 1) In the event detection apparatus, the artifact determination unit further includes a generation pattern of an electronic sound having periodicity in sounds or frequencies or rhythms caused by a human action, or a learning amount of an environmental change. When it is determined that the determination unit is insufficient to make a determination, the artificial pattern learning unit is operated, and the output unit further utilizes the fact that the artificial pattern cannot be determined and the artificial pattern learning function is operating. May be presented to the person.

この出願は、2011年2月9日に出願された日本出願特願2011−025795を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2011-025795 for which it applied on February 9, 2011, and takes in those the indications of all here.

本発明は、音の発生パターンを用いて事象検知を行うことができるため、マイクを設置可能な環境であれば適用できる。また、一般宅内での防犯用途を念頭に説明したが、当然他の用途にも同様に適用できる。例えば、介護施設及び被介護者を有する宅内に適用することで、被介護者の徘徊や転倒に代表される異常状態を検知することが可能となる。そのほか、病院、公共施設、商用施設への適用が期待できる。   Since the present invention can detect an event using a sound generation pattern, it can be applied to any environment where a microphone can be installed. Moreover, although the security use in the general home was explained in mind, it is naturally applicable to other uses as well. For example, it is possible to detect an abnormal state represented by a caregiver's habit or falling by applying to a home having a care facility and a care receiver. In addition, application to hospitals, public facilities, and commercial facilities can be expected.

100 事象検知装置
110 音入力素子
120 特徴量抽出部
130 音識別部
140 人為性判定部
150 出力部
191 音識別モデルデータベース
192 人為性判定データベース
200 事象検知装置
240 人為性判定部
292 人為性判定データベース
300 事象検知装置
340 人為性判定部
360 光量検出素子
370 特徴的環境変化識別部
392 人為性判定データベース
393 特徴的環境変化識別モデルデータベース
400 事象検知装置
480 人為パターン学習部
500 事象検知装置
590 入力部
592 人為性判定データベース
600 事象検知装置
699 通信部
700 事象検知装置
792 人為性判定データベース
901 ドア
902 利用者
903 ドア錠
904 鍵
905 鈴
906 照明
907 電話機
908 パソコン
909 携帯電話
990 ネットワーク
DESCRIPTION OF SYMBOLS 100 Event detection apparatus 110 Sound input element 120 Feature-value extraction part 130 Sound identification part 140 Artificiality judgment part 150 Output part 191 Sound identification model database 192 Artificiality judgment database 200 Event detection apparatus 240 Artificiality judgment part 292 Artificiality judgment database 300 Event detection device 340 Artificiality determination unit 360 Light amount detection element 370 Characteristic environment change identification unit 392 Humanity determination database 393 Characteristic environment change identification model database 400 Event detection device 480 Artificial pattern learning unit 500 Event detection device 590 Input unit 592 Artificial Sex determination database 600 Event detection device 699 Communication unit 700 Event detection device 792 Artificiality determination database 901 Door 902 User 903 Door lock 904 Key 905 Bell 906 Lighting 907 Telephone 908 Personal computer 909 Mobile phone 990 network

Claims (10)

発生した事象を検知する事象検知システムであって、
取得音の信号情報から、時系列の特徴量ベクトルを抽出する特徴量抽出部と、
前記特徴量抽出部が抽出した時系列の特徴量ベクトルと、音の種別毎のモデルデータとを比較解析することによって、前記取得音の種別を識別する音識別部と、
前記音識別部から受け取った取得音の種別を時系列に記録し、前記取得音の種別時系列発生パターンに基づいて、人為性を判定する人為性判定部と、
前記人為性判定部が判定した判定結果に応じて出力を行う出力部と
を備える事象検知システム。
An event detection system that detects an event that has occurred,
A feature quantity extraction unit that extracts a time series feature quantity vector from the signal information of the acquired sound;
A sound identification unit for identifying the type of the acquired sound by comparing and analyzing the time-series feature amount vector extracted by the feature amount extraction unit and the model data for each type of sound;
The type of acquired sound received from the sound identification unit is recorded in time series, and an artificiality determination unit that determines human artifacts based on the time series occurrence pattern of the type of acquired sound;
An event detection system comprising: an output unit that performs output in accordance with a determination result determined by the artifact determination unit.
前記人為性判定部は、特定の人物の動作に起因する音の発生パターンに更に基づいて、前記取得音の発生における人物を更に判定する
請求項1に記載の事象検知システム。
The event detection system according to claim 1, wherein the artifact determination unit further determines a person in the generation of the acquired sound based further on a sound generation pattern caused by a motion of a specific person.
前記人為性判定部は、周波数又はリズムに周期性を有する電子音の発生パターンに更に基づいて判定する
請求項1又は2に記載の事象検知システム。
The event detection system according to claim 1, wherein the artifact determination unit further determines based on a generation pattern of an electronic sound having periodicity in frequency or rhythm.
取得された環境特徴量と、人間の動作又は特定の人物の動作に起因する環境変化毎のモデルデータとを比較解析して、人間の動作又は特定の人物の動作に起因する環境変化の有無及び種別を識別する特徴的環境変化識別部を更に備え、
前記人為性判定部は、前記特徴的環境変化識別部が識別した環境変化の発生パターンに更に基づいて判定する
請求項1から3のいずれか一項に記載の事象検知システム。
By comparing and analyzing the acquired environmental feature quantity and model data for each environmental change caused by a human action or a specific person's action, the presence or absence of an environmental change caused by a human action or a specific person's action, and A characteristic environment change identifying unit for identifying the type;
The event detection system according to any one of claims 1 to 3, wherein the artifact determination unit further determines based on an environment change occurrence pattern identified by the characteristic environment change identification unit.
前記特徴的環境変化識別部は、取得されたた少なくとも光量を含む前記環境特徴量と、少なくとも人間の動作又は特定の人物の動作に起因する光量変化を含む環境変化毎に用意されたモデルデータとを比較解析する
請求項4に記載の事象検知システム。
The characteristic environment change identifying unit includes the acquired environment feature amount including at least the light amount, and model data prepared for each environment change including a light amount change caused by at least a human action or a specific person action; The event detection system according to claim 4.
識別された音及び環境変化の発生パターンから、人間の動作又は特定の人物の動作に起因する音の発生パターン及び環境変化の候補を選択して、前記候補と、前記候補を検知した場合の判定モデルとを紐付けて、前記音の発生パターン及び環境変化として登録する人為パターン学習部を更に備える
請求項1から5のいずれか一項に記載の事象検知システム。
Selection of sound generation pattern and environment change candidate caused by human action or specific person action from the identified sound and environment change occurrence pattern, and determination when the candidate is detected The event detection system according to any one of claims 1 to 5, further comprising an artificial pattern learning unit that links a model and registers the sound generation pattern and the environmental change.
利用者からの入力を受け付け、入力に基づき人為パターン学習部を制御する入力部を更に備え、
前記人為パターン学習部は更に、前記入力部からの制御に基づき、前記音の発生パターン及び環境変化の候補の選択及び登録を決定する
請求項6に記載の事象検知システム。
Further comprising an input unit that receives input from the user and controls the artificial pattern learning unit based on the input;
The event detection system according to claim 6, wherein the artificial pattern learning unit further determines selection and registration of the sound generation pattern and environmental change candidates based on control from the input unit.
前記人為パターン学習部は、前記入力部を介して指定された指定出力動作を更に紐付けて登録し、
前記出力部は、判定結果に基づく動作として、前記指定出力動作を行う
請求項7に記載の事象検知システム。
The artificial pattern learning unit further registers and registers the designated output operation designated through the input unit,
The event detection system according to claim 7, wherein the output unit performs the designated output operation as an operation based on a determination result.
前記人為パターン学習部は、人間の動作又は特定の人物の動作に起因する音のうち、前記事象検知システムが設置されている環境に固有の音の発生パターンを選択して学習し、
前記人為性判定部は、前記固有の音の発生パターンに重みを付けて判定する
請求項6から8のいずれか一項に記載の事象検知システム。
The artificial pattern learning unit selects and learns a sound generation pattern specific to an environment in which the event detection system is installed, from sounds caused by human motion or a specific human motion,
The event detection system according to any one of claims 6 to 8, wherein the artifact determination unit weights and determines the unique sound generation pattern.
前記事象検知システム以外の事象検知装置とネットワークを介して接続し、人間の動作に起因する音、特定の人物の動作に起因する音、又は周波数又はリズムに周期性を有する電子音の発生パターン及び環境変化に関わる情報を送受信する通信部を更に備え、
前記人為パターン学習部は、前記通信部を介して得られた情報に基づいて、前記候補を選択する
請求項6から9のいずれか一項に記載の事象検知システム。
Generation pattern of a sound connected to an event detection device other than the event detection system via a network, a sound caused by a human action, a sound caused by a specific person action, or an electronic sound having periodicity in frequency or rhythm And a communication unit that transmits and receives information related to environmental changes,
The event detection system according to claim 6, wherein the artificial pattern learning unit selects the candidate based on information obtained through the communication unit.
JP2012556806A 2011-02-09 2012-01-05 Event detection system Active JP5626372B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012556806A JP5626372B2 (en) 2011-02-09 2012-01-05 Event detection system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011025795 2011-02-09
JP2011025795 2011-02-09
PCT/JP2012/050122 WO2012108218A1 (en) 2011-02-09 2012-01-05 Event detection system
JP2012556806A JP5626372B2 (en) 2011-02-09 2012-01-05 Event detection system

Publications (2)

Publication Number Publication Date
JPWO2012108218A1 JPWO2012108218A1 (en) 2014-07-03
JP5626372B2 true JP5626372B2 (en) 2014-11-19

Family

ID=46638438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012556806A Active JP5626372B2 (en) 2011-02-09 2012-01-05 Event detection system

Country Status (2)

Country Link
JP (1) JP5626372B2 (en)
WO (1) WO2012108218A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6076167B2 (en) * 2013-03-26 2017-02-08 Kddi株式会社 Spatial state determination device
GB201401917D0 (en) * 2014-02-04 2014-03-19 Chen Dabo Event detection systems and methods for and enclosed environment
JP6467915B2 (en) * 2014-12-26 2019-02-13 富士通株式会社 Feature sound extraction method, feature sound extraction device, computer program, distribution system
JP6297611B2 (en) * 2015-04-24 2018-03-20 公立大学法人広島市立大学 Fall detection device and fall determination method
KR101899244B1 (en) * 2016-05-02 2018-09-17 김태준 Method of operating secure system
JP6835786B2 (en) * 2018-10-10 2021-02-24 ヤフー株式会社 Estimator, estimation method and estimation program
TWI712994B (en) * 2019-12-09 2020-12-11 聯騏技研有限公司 Access control system with fire alarm and fire alarm method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268265A (en) * 1999-03-15 2000-09-29 Chuo Joho Kaihatsu Kk Monitoring device utilizing microphone
JP2004265372A (en) * 2003-01-09 2004-09-24 Masayuki Nemoto Crime prevention device
JP2005328410A (en) * 2004-05-17 2005-11-24 Sony Corp Acoustic apparatus and monitoring method employing the acoustic apparatus
JP2009075983A (en) * 2007-09-21 2009-04-09 Kyocera Corp Portable terminal and abnormality notifying method
JP2010071773A (en) * 2008-09-18 2010-04-02 Transvirtual Inc Apparatus and method for recognizing opening/closing motion of opening/closing member
JP2010232888A (en) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd Monitor device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000268265A (en) * 1999-03-15 2000-09-29 Chuo Joho Kaihatsu Kk Monitoring device utilizing microphone
JP2004265372A (en) * 2003-01-09 2004-09-24 Masayuki Nemoto Crime prevention device
JP2005328410A (en) * 2004-05-17 2005-11-24 Sony Corp Acoustic apparatus and monitoring method employing the acoustic apparatus
JP2009075983A (en) * 2007-09-21 2009-04-09 Kyocera Corp Portable terminal and abnormality notifying method
JP2010071773A (en) * 2008-09-18 2010-04-02 Transvirtual Inc Apparatus and method for recognizing opening/closing motion of opening/closing member
JP2010232888A (en) * 2009-03-26 2010-10-14 Ikegami Tsushinki Co Ltd Monitor device

Also Published As

Publication number Publication date
WO2012108218A1 (en) 2012-08-16
JPWO2012108218A1 (en) 2014-07-03

Similar Documents

Publication Publication Date Title
JP5626372B2 (en) Event detection system
US10176705B1 (en) Audio monitoring and sound identification process for remote alarms
Ntalampiras et al. Probabilistic novelty detection for acoustic surveillance under real-world conditions
WO2018018906A1 (en) Voice access control and quiet environment monitoring method and system
US20190103005A1 (en) Multi-resolution audio activity tracker based on acoustic scene recognition
US9870719B1 (en) Apparatus and method for wireless sound recognition to notify users of detected sounds
Vacher et al. Complete sound and speech recognition system for health smart homes: application to the recognition of activities of daily living
US10706848B1 (en) Anomaly detection for voice controlled devices
CN108604176A (en) Information processing unit, information processing method and program
US11162280B2 (en) Door lock/camera apparatus, system and method
WO2013006385A1 (en) Identifying people that are proximate to a mobile device user via social graphs, speech models, and user context
US20190139565A1 (en) Intelligent sound classification and alerting
US20230186904A1 (en) Systems and methods for classifying sounds
Song et al. Deep room recognition using inaudible echos
KR20190024254A (en) Doorbell
US20230060936A1 (en) Method for identifying an audio signal
KR101995443B1 (en) Method for verifying speaker and system for recognizing speech
KR20130097490A (en) Apparatus and method for context recognition based on acoustic information
US11335359B2 (en) Methods and devices for obtaining an event designation based on audio data
US11521626B2 (en) Device, system and method for identifying a scene based on an ordered sequence of sounds captured in an environment
JP2013225248A (en) Sound identification system, sound identification device, sound identification method, and program
US11620997B2 (en) Information processing device and information processing method
KR101520446B1 (en) Monitoring system for prevention beating and cruel act
US11380349B2 (en) Security system
US20230360641A1 (en) Efficient embedding for acoustic models

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140527

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140915

R150 Certificate of patent or registration of utility model

Ref document number: 5626372

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150