JP2008015773A - Sound recorder and program - Google Patents

Sound recorder and program Download PDF

Info

Publication number
JP2008015773A
JP2008015773A JP2006185988A JP2006185988A JP2008015773A JP 2008015773 A JP2008015773 A JP 2008015773A JP 2006185988 A JP2006185988 A JP 2006185988A JP 2006185988 A JP2006185988 A JP 2006185988A JP 2008015773 A JP2008015773 A JP 2008015773A
Authority
JP
Japan
Prior art keywords
sound
sound data
time
data
microphone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006185988A
Other languages
Japanese (ja)
Inventor
Takuya Tamaru
卓也 田丸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006185988A priority Critical patent/JP2008015773A/en
Publication of JP2008015773A publication Critical patent/JP2008015773A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology estimating a change in the position of a sound source. <P>SOLUTION: The CPU 21 of a data server 200 associates sound data representing sound collected by a plurality of microphone systems 11 with time information representing the time when the sound data is output and with microphone identification information identifying the microphone systems 11 to store the sound data in a sound data storage area 24a in time sequence. When a section is designated, the CPU 21 reads sound data corresponding to the designated section from the storing part 23 in time sequence on the basis of a time stamp, and transmits the read sound data to a terminal device 400. The CPU 41 of the terminal device 400 displays a waveform representing the received sound data in a display part 46 in each microphone identification information. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、音記録装置及びプログラムに関する。   The present invention relates to a sound recording apparatus and a program.

家屋や倉庫などの施設内の音を記録し、その施設の防犯監視に利用したり、その音の時間変化に基づいてその施設での異常の発生の有無を確認したりすることが行われている。例えば、特許文献1には、施設内の音に対応する音信号の包絡線の示す出力レベルを所定の時間間隔でサンプリングして記録する技術が開示されている。また、特許文献2には、施設内にいる者のプライバシーの侵害を防ぐために、音声信号に対しフィルタ処理等の加工を施す技術が開示されている。また、施設の外部で放音された音を施設内に放音する技術として、特許文献3には、施設の外部で放音された音を収音し、予め登録した特定の音声を検出したときのみ収音した音を施設内に放音する技術が開示されている。
特開2005−292726号公報 特開2005−86707号公報 特開2006−93792号公報
Sounds in facilities such as houses and warehouses are recorded and used for crime prevention monitoring of the facilities, and the presence or absence of abnormalities in the facilities is confirmed based on changes in the sound over time. Yes. For example, Patent Document 1 discloses a technique for sampling and recording an output level indicated by an envelope of a sound signal corresponding to a sound in a facility at a predetermined time interval. Patent Document 2 discloses a technique for performing processing such as filter processing on an audio signal in order to prevent infringement of privacy of a person in the facility. In addition, as a technique for emitting a sound emitted outside the facility into the facility, Patent Document 3 collects a sound emitted outside the facility and detects a specific sound registered in advance. A technique is disclosed that emits sound that is picked up only in the facility into the facility.
JP 2005-292726 A JP 2005-86707 A JP 2006-93792 A

ところで、窃盗などのなんらかの異常が施設で発生した場合には、より詳細な情報が記録されているのが好ましいと言える。しかしながら、従来の技術では、施設内の音を記録することはできるものの、音源の位置変化を推定することができず、侵入経路や行動状態などを知ることは困難であった。
本発明は上述した背景の下になされたものであり、音源の位置変化を推定することのできる技術を提供することを目的とする。
By the way, when some abnormality such as theft occurs in the facility, it can be said that more detailed information is preferably recorded. However, in the conventional technology, although the sound in the facility can be recorded, the position change of the sound source cannot be estimated, and it is difficult to know the intrusion route and the action state.
The present invention has been made under the above-described background, and an object thereof is to provide a technique capable of estimating a change in the position of a sound source.

本発明の好適な態様である音記録装置は、所定領域から音を収音する複数の収音手段から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、前記収音手段を識別する識別情報に関連付けて、時系列に記憶する記憶手段と、区間を指定する区間指定手段と、前記時刻情報に基づいて、前記区間指定手段により指定された区間に対応する音データを前記記憶手段から時系列に読み出し、読み出した音データを前記識別情報毎に報知する報知手段とを備える。
この態様において、前記報知手段は、前記時刻情報に基づいて、前記区間指定手段により指定された区間に対応する音データを前記記憶手段から時系列に読み出し、読み出した音データを前記識別情報毎に異なる態様で報知してもよい。
A sound recording apparatus according to a preferred aspect of the present invention associates sound data output from a plurality of sound collection means for collecting sound from a predetermined area with time information indicating the time when the sound data is output, and Corresponding to the section specified by the section specifying means based on the time information, storage means for storing in time series in association with identification information for identifying the sound pickup means, section specifying means for specifying the section Informing means for reading out sound data in time series from the storage means, and informing the read sound data for each identification information.
In this aspect, the notifying unit reads sound data corresponding to the section designated by the section designating unit in time series based on the time information, and reads the read sound data for each identification information. You may alert | report in a different aspect.

また、本発明の好適な態様である音記録装置は、所定領域から音を収音する複数の収音手段から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、前記収音手段を識別する識別情報に関連付けて、時系列に記憶する音データ記憶手段と、前記収音手段の位置を表す位置情報を、前記識別情報に関連付けて記憶する位置情報記憶手段と、前記音データ記憶手段に記憶された音データと、前記位置情報記憶手段に記憶された位置情報とから、前記所定領域内の音源の位置を、時間の経過に従って予め定められた単位時間毎に推定する位置推定手段と、前記位置推定手段によって推定された音源の位置の変化を報知する報知手段とを備える。   The sound recording apparatus according to a preferred aspect of the present invention associates sound data output from a plurality of sound collecting means for collecting sound from a predetermined area with time information indicating the time when the sound data is output. In addition, sound data storage means for storing in time series in association with identification information for identifying the sound collection means, and position information storage means for storing position information representing the position of the sound collection means in association with the identification information And the sound data stored in the sound data storage means and the position information stored in the position information storage means, the position of the sound source in the predetermined area is determined for each predetermined unit time over time. A position estimating means for estimating the position of the sound source, and a notifying means for notifying a change in the position of the sound source estimated by the position estimating means.

また、本発明の好適な態様である音記録装置は、所定領域から音を収音する収音手段から出力される音データから、前記所定領域内の音源の位置を、時間の経過に従って予め定められた単位時間毎に推定する位置推定手段と、前記位置推定手段によって推定された音源の位置の変化を報知する報知手段とを備える。
この態様において、前記位置推定手段によって推定された位置が予め定められた位置に対応する場合に、その旨を警告する位置警告手段を備えてもよい。
また、この態様において、前記収音手段から出力される音データの特徴が予め定められた特徴に対応する場合に、その旨を警告する特徴警告手段を備えてもよい。
The sound recording device according to a preferred aspect of the present invention predetermines the position of the sound source in the predetermined area as time elapses from sound data output from the sound collecting means for collecting sound from the predetermined area. Position estimation means for estimating the unit time, and notification means for informing a change in the position of the sound source estimated by the position estimation means.
In this aspect, when the position estimated by the position estimating means corresponds to a predetermined position, position warning means for warning that effect may be provided.
Further, in this aspect, when the feature of the sound data output from the sound collecting unit corresponds to a predetermined feature, a feature warning unit that warns that effect may be provided.

本発明によれば、音源の位置変化を推定することができる。   According to the present invention, it is possible to estimate a position change of a sound source.

次に、この発明を実施するための最良の形態を説明する。
<A:構成>
まず、図1を参照して、本発明に係る音記録システムを家屋や倉庫などの施設の監視のために用いた形態について説明する。同図に示すように、複数の施設100,100,…には、それぞれ複数のマイクシステム11,11,…が設置されている。なお、図1においては、図面が煩雑になるのを防ぐため、ひとつの施設100についてのみマイクシステム11,11,…が図示されているが、他の施設100にも同様に複数のマイクシステム11,11,…が設置されている。一方、データサーバ200は、施設100内で発せられた音を表す音データを蓄積するためのサーバ装置である。このデータサーバ200は、各施設100のマイクシステム11と専用線300を介して接続されている。端末装置400は、パーソナルコンピュータや携帯電話端末、或いは専用端末などの端末装置である。端末装置400は、データサーバ200と専用線500を介して接続されており、データサーバ200にアクセスして監視状況をモニタできるようになっている。
Next, the best mode for carrying out the present invention will be described.
<A: Configuration>
First, with reference to FIG. 1, the form which used the sound recording system concerning this invention for monitoring facilities, such as a house and a warehouse, is demonstrated. As shown in the figure, a plurality of microphone systems 11, 11,... Are installed in a plurality of facilities 100, 100,. In FIG. 1, the microphone systems 11, 11,... Are illustrated only for one facility 100 in order to prevent the drawing from becoming complicated, but a plurality of microphone systems 11 are similarly illustrated for other facilities 100. , 11,... Are installed. On the other hand, the data server 200 is a server device for accumulating sound data representing sounds generated in the facility 100. The data server 200 is connected to the microphone system 11 of each facility 100 via a dedicated line 300. The terminal device 400 is a terminal device such as a personal computer, a mobile phone terminal, or a dedicated terminal. The terminal device 400 is connected to the data server 200 via a dedicated line 500, and can monitor the monitoring status by accessing the data server 200.

図2は施設100でのマイクシステム11の設置態様の一例を示す図である。図2に示す例においては、施設100が有する部屋10a,10b,10c,10dにそれぞれマイクシステム11が設置されている。なお、以下の説明においては、説明の便宜上、それぞれの部屋10a,10b,10d,10dに設置されているマイクシステム11を、それぞれマイクシステム11a,11b,11c,11dとする。マイクシステム11aは部屋10aで発せられた音を収音し、同様に、マイクシステム11b,11c,11dはそれぞれ、部屋10b,10c,10d内で発せられた音を収音する。   FIG. 2 is a diagram illustrating an example of an installation mode of the microphone system 11 in the facility 100. In the example shown in FIG. 2, microphone systems 11 are installed in rooms 10a, 10b, 10c, and 10d of the facility 100, respectively. In the following description, for convenience of description, the microphone systems 11 installed in the rooms 10a, 10b, 10d, and 10d are referred to as microphone systems 11a, 11b, 11c, and 11d, respectively. The microphone system 11a picks up sounds emitted in the room 10a, and similarly, the microphone systems 11b, 11c, and 11d pick up sounds emitted in the rooms 10b, 10c, and 10d, respectively.

なお、図2に示す例においては、複数の部屋10a,10b,10c,10dを備えた施設100におけるマイクシステム11の設置の態様について説明した。マイクシステムの設置態様はこれに限らず、施設100の構成や施設の使用頻度などの各種条件に応じてマイクシステム11の数や設置態様は様々である。例えば、5つの部屋を有する施設100については5つの部屋のそれぞれにマイクシステム11を設置してもよい。また、1つの部屋に複数のマイクシステム11を設置してもよい。すなわち、マイクシステム11は、複数の部屋10、又は部屋10の全体若しくは一部や施設100で発せられる音を収音する。以下の説明においては、説明の便宜上、マイクシステム11が収音する音が発せられる領域(施設100又は部屋10など)を、「所定領域」と称して説明する。   In the example illustrated in FIG. 2, the installation mode of the microphone system 11 in the facility 100 including the plurality of rooms 10a, 10b, 10c, and 10d has been described. The installation mode of the microphone system is not limited to this, and the number and installation modes of the microphone system 11 vary depending on various conditions such as the configuration of the facility 100 and the frequency of use of the facility. For example, for the facility 100 having five rooms, the microphone system 11 may be installed in each of the five rooms. A plurality of microphone systems 11 may be installed in one room. That is, the microphone system 11 collects sounds emitted from the plurality of rooms 10, the whole or a part of the rooms 10, and the facility 100. In the following description, for convenience of description, a region (such as the facility 100 or the room 10) where sound collected by the microphone system 11 is emitted will be referred to as a “predetermined region”.

次に、図3はマイクシステム11のハードウェア構成を例示したブロック図である。図において、CPU(Central Processing Unit)1は、記憶部2に格納されたプログラムを読み出して実行することにより、このマイクシステム11の各部を制御する。記憶部2は、例えばEEPROM(Electronically Erasable and Programmable Read Only Memory)などの記憶手段であり、CPU1によって実行されるプログラムやその実行時に使用されるデータを記憶するための記憶手段である。マイクロフォン3には、所定領域から音を収音し、音声信号(アナログデータ)を出力する収音手段である。マイクロフォン3は、マイクロフォン3を識別するマイク識別情報が割り当てられている。CPU1は、マイクロフォン3が出力する音声信号(アナログデータ)をデジタルデータ(以下、「音データ」という)に変換して、変換した音データを、当該音データが出力された時刻を表す時刻情報(以下、「タイムスタンプ」という)に対応付けるとともに、マイク識別情報に関連付けて、バッファメモリ4に時系列に記憶する。なお、この時刻情報は、CPU1がプログラムを実行することによって実現されるソフトウェアが生成するものであってもよく、また、時刻用ICなどの時刻を計時する専用のハードウェアが生成するものであってもよい。   Next, FIG. 3 is a block diagram illustrating a hardware configuration of the microphone system 11. In the figure, a CPU (Central Processing Unit) 1 controls each part of the microphone system 11 by reading and executing a program stored in the storage unit 2. The storage unit 2 is a storage unit such as an EEPROM (Electronically Erasable and Programmable Read Only Memory), and is a storage unit for storing a program executed by the CPU 1 and data used at the time of execution. The microphone 3 is sound collecting means for collecting sound from a predetermined area and outputting an audio signal (analog data). The microphone 3 is assigned microphone identification information for identifying the microphone 3. The CPU 1 converts the sound signal (analog data) output from the microphone 3 into digital data (hereinafter referred to as “sound data”), and the converted sound data is time information (time information) indicating the time when the sound data is output. (Hereinafter referred to as “time stamp”) and associated with the microphone identification information and stored in the buffer memory 4 in time series. The time information may be generated by software realized by the CPU 1 executing a program, or may be generated by dedicated hardware that measures time such as a time IC. May be.

バッファメモリ4は、CPU1によってデジタル変換された音データを一定量バッファするメモリである。音声処理部5は、例えばDSP(Digital Signal Processor)である。音声処理部5は、バッファメモリ4に記憶された音データに基づいて当該音データを記録するか否かを判定し、記録すると判定した音データを蓄積メモリ6に出力する。蓄積メモリ6は、音声処理部5から出力される音データを記憶するメモリである。通信部7は、データサーバ200との間で専用線300を介した通信を行うための通信手段であり、例えばモデムである。通信部7は、蓄積メモリ6に記憶された音データをデータサーバ200に送信する出力手段として機能する。   The buffer memory 4 is a memory that buffers a certain amount of sound data digitally converted by the CPU 1. The audio processing unit 5 is, for example, a DSP (Digital Signal Processor). The sound processing unit 5 determines whether or not to record the sound data based on the sound data stored in the buffer memory 4, and outputs the sound data determined to be recorded to the storage memory 6. The accumulation memory 6 is a memory that stores sound data output from the sound processing unit 5. The communication unit 7 is a communication unit for performing communication with the data server 200 via the dedicated line 300, and is a modem, for example. The communication unit 7 functions as an output unit that transmits the sound data stored in the storage memory 6 to the data server 200.

なお、ここではマイクロフォン3がマイクシステム11に内蔵されているものとしたが、マイクロフォンをマイクシステム11から離れた位置に設置し、このマイクロフォンによって音を収音するようにしてもよい。   Although the microphone 3 is assumed to be built in the microphone system 11 here, the microphone may be installed at a position away from the microphone system 11 and sound may be collected by this microphone.

次に、データサーバ200の構成について、図4を参照しつつ説明する。
図4はデータサーバ200のハードウェア構成を例示したブロック図である。図において、CPU21は、ROM22又は記憶部23に格納されたプログラムを読み出して実行することにより、このデータサーバ200の各部を制御する。記憶部23は、CPU21によって実行されるプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。この記憶部23は、図示のように、音データ記憶領域23aを有している。音データ記憶領域23aには、マイクシステム11から受信した音データが記憶される。
Next, the configuration of the data server 200 will be described with reference to FIG.
FIG. 4 is a block diagram illustrating a hardware configuration of the data server 200. In the figure, the CPU 21 controls each unit of the data server 200 by reading and executing a program stored in the ROM 22 or the storage unit 23. The storage unit 23 is a storage unit for storing a program executed by the CPU 21 and data used at the time of execution, and is, for example, a hard disk device. As shown in the figure, the storage unit 23 has a sound data storage area 23a. Sound data received from the microphone system 11 is stored in the sound data storage area 23a.

通信部24は、マイクシステム11又は端末装置400との間で専用線300または専用線500を介した通信を行うための通信手段であり、例えばモデムである。通信部24は、マイクシステム11から送信される音データを受信したり、端末装置400にデータを送信したりする。操作部25は、マウスなどのポインティングデバイスと、文字や記号を入力するためのキーボードとを備え、使用者による操作に応じた信号をCPU21に出力する。また、表示部26は、CRT(Cathode Ray Tube)や液晶表示パネルを備え、CPU21による制御のもとに各種の画像を表示する。   The communication unit 24 is a communication unit for performing communication with the microphone system 11 or the terminal device 400 via the dedicated line 300 or the dedicated line 500, and is a modem, for example. The communication unit 24 receives sound data transmitted from the microphone system 11 and transmits data to the terminal device 400. The operation unit 25 includes a pointing device such as a mouse and a keyboard for inputting characters and symbols, and outputs a signal corresponding to an operation by the user to the CPU 21. The display unit 26 includes a CRT (Cathode Ray Tube) and a liquid crystal display panel, and displays various images under the control of the CPU 21.

次に、端末装置400の構成について、図5を参照しつつ説明する。
図5は、端末装置400のハードウェア構成を例示したブロック図である。図において、CPU41は、ROM42又は記憶部43に格納されたプログラムを読み出して実行することにより、端末装置400の各部を制御する。記憶部43は、CPU41によって実行されるプログラムやその実行時に使用されるデータを記憶するための記憶手段であり、例えばハードディスク装置である。通信部44は、データサーバ200との間で専用線500を介した通信を行うための通信手段であり、例えばモデムである。すなわち、通信部44は、データサーバ200から送信されるデータを受信する。操作部45は、マウスなどのポインティングデバイスと、文字や記号を入力するためのキーボードとを備え、使用者による操作に応じた信号をCPU41に出力する。また、表示部46は、CRTや液晶表示パネルを備え、CPU41による制御のもとに各種の画像を表示する。スピーカ47は、CPU41から供給される音声信号に応じて放音する放音手段である。CPU41は、データサーバ200から受信した音データを、表示部46やスピーカ47に出力する出力手段として機能する。
Next, the configuration of the terminal device 400 will be described with reference to FIG.
FIG. 5 is a block diagram illustrating a hardware configuration of the terminal device 400. In the figure, the CPU 41 controls each unit of the terminal device 400 by reading and executing a program stored in the ROM 42 or the storage unit 43. The storage unit 43 is a storage unit for storing a program executed by the CPU 41 and data used at the time of execution, and is a hard disk device, for example. The communication unit 44 is a communication unit for performing communication with the data server 200 via the dedicated line 500, and is a modem, for example. That is, the communication unit 44 receives data transmitted from the data server 200. The operation unit 45 includes a pointing device such as a mouse and a keyboard for inputting characters and symbols, and outputs a signal corresponding to an operation by the user to the CPU 41. The display unit 46 includes a CRT and a liquid crystal display panel, and displays various images under the control of the CPU 41. The speaker 47 is a sound emitting unit that emits sound according to an audio signal supplied from the CPU 41. The CPU 41 functions as an output unit that outputs the sound data received from the data server 200 to the display unit 46 and the speaker 47.

<B:実施形態の動作>
次に、図6乃至図9を参照して本実施形態の動作を説明する。
<B−1:音データ記録動作>
マイクシステム11の使用者(施設100の住人やマイクシステム11の管理者など)によってマイクシステム11の電源が投入されると、マイクシステム11のCPU1は、記憶部2に格納されたプログラムを実行する。同様に、データサーバ200の管理者によってデータサーバ200の電源が投入されると、データサーバ200のCPU21は、ROM22に格納されたプログラムを実行する。
<B: Operation of Embodiment>
Next, the operation of this embodiment will be described with reference to FIGS.
<B-1: Sound data recording operation>
When the microphone system 11 is turned on by a user of the microphone system 11 (such as a resident of the facility 100 or an administrator of the microphone system 11), the CPU 1 of the microphone system 11 executes a program stored in the storage unit 2. . Similarly, when the data server 200 is turned on by the administrator of the data server 200, the CPU 21 of the data server 200 executes the program stored in the ROM 22.

マイクロフォン3は、所定領域から音を収音し、収音した音を表す音声信号(アナログ信号)を生成し、CPU1に出力する。CPU1は、マイクロフォン3から出力される音声信号(アナログデータ)をデジタルデータ(音データ)に変換して、変換した音データを、当該音データが出力された時刻を表す時刻情報(タイムスタンプ)に対応付けるとともに、マイクロフォン3を識別するマイク識別情報に関連付けて、バッファメモリ4に時系列に記憶する。   The microphone 3 collects sound from a predetermined area, generates a sound signal (analog signal) representing the collected sound, and outputs the sound signal to the CPU 1. The CPU 1 converts an audio signal (analog data) output from the microphone 3 into digital data (sound data), and converts the converted sound data into time information (time stamp) indicating the time when the sound data is output. At the same time, the data is stored in the buffer memory 4 in time series in association with the microphone identification information for identifying the microphone 3.

バッファメモリ4に記憶された音データは、一定時間単位毎に音声処理部5にとりこまれる。音声処理部5は、バッファメモリ4に記憶された音データと当該音データに対応付けられた時刻情報とをバッファメモリ4から時系列に読出し、読み出した音データの音圧に基づいて当該音データを記録するか否かを判定し、記録すると判定した音データを、蓄積メモリ6に出力する。
この実施形態では、音声処理部5は、読み出した音データの音圧と予め定められたしきい値とを比較して、音データの音圧がしきい値以上である場合には、音データと当該音データに対応する時刻情報とを、圧縮して蓄積メモリ6に記憶する。一方、読み出した音データの音圧が予め定められたしきい値未満である場合には、音声処理部5は、当該音データと音データに対応する時刻情報とを蓄積メモリ6に記憶しない。すなわち、バッファメモリ4にはマイクロフォン3で収音された音を表す音データが逐次記憶される一方、蓄積メモリ6には、音声処理部5で記録すると判定された音データのみが記憶される。
The sound data stored in the buffer memory 4 is taken into the sound processing unit 5 every fixed time unit. The sound processing unit 5 reads out the sound data stored in the buffer memory 4 and the time information associated with the sound data from the buffer memory 4 in time series, and based on the sound pressure of the read sound data, the sound data Is recorded, and the sound data determined to be recorded is output to the storage memory 6.
In this embodiment, the sound processing unit 5 compares the sound pressure of the read sound data with a predetermined threshold, and if the sound pressure of the sound data is equal to or greater than the threshold, the sound data And time information corresponding to the sound data are compressed and stored in the storage memory 6. On the other hand, when the sound pressure of the read sound data is less than a predetermined threshold value, the sound processing unit 5 does not store the sound data and time information corresponding to the sound data in the storage memory 6. That is, the buffer memory 4 sequentially stores sound data representing the sound collected by the microphone 3, while the storage memory 6 stores only the sound data determined to be recorded by the sound processing unit 5.

ここで、音声処理部5が行う処理の具体例について、図6を参照しつつ以下に説明する。
図6(a)はマイクロフォン3で収音された音を表す音データの波形の一例を表す図である。図において、横軸は時刻を示し、縦軸は音圧を示している。音声処理部5は、音データを予め定められた時間単位毎に、音データの音圧が、予め定められたしきい値a以上であるか否かを判定する。音声処理部5は、音圧がしきい値a未満である音データを蓄積メモリ6に出力せずに破棄し、一方、しきい値a以上である音データを蓄積メモリ6に出力する。図6に示す例においては、音声処理部5は、時刻t11〜t12,t21〜t22,t31〜t32の音データを、蓄積メモリ6に出力し、一方、それ以外の音データは、蓄積メモリ6に出力せずに破棄する。
Here, a specific example of processing performed by the voice processing unit 5 will be described below with reference to FIG.
FIG. 6A is a diagram illustrating an example of a waveform of sound data representing sound collected by the microphone 3. In the figure, the horizontal axis indicates time and the vertical axis indicates sound pressure. The sound processing unit 5 determines whether or not the sound pressure of the sound data is equal to or greater than a predetermined threshold value a for each predetermined time unit. The sound processing unit 5 discards the sound data whose sound pressure is less than the threshold value a without outputting it to the storage memory 6, and outputs the sound data that is equal to or more than the threshold value a to the storage memory 6. In the example shown in FIG. 6, the sound processing unit 5 outputs the sound data at times t11 to t12, t21 to t22, t31 to t32 to the storage memory 6, while the other sound data is stored in the storage memory 6. Discard without outputting to.

図6(b)は、図6(a)に示した音が収音された場合に、蓄積メモリ6に蓄積される音データの一例を示す図であり、図6(c)は蓄積メモリ6に蓄積された音データの内容の一例を示す図である。図6(b)において、横軸は蓄積メモリのアドレスを示し、縦軸は音圧を示している。図示のように、蓄積メモリ6には、時刻t11〜t12,t21〜t22,t31〜t32の音データが蓄積される。図6(c)に示すように、連続するアドレスに不連続なタイプスタンプの音データ(例えば、時刻t12とt21)が蓄積される。
このように、蓄積メモリ6には、収音されたすべての音の音データではなく、収音された音データのうちの部分部分のデータが記憶される(図6(b)参照)から、蓄積する音データを少なくすることができる。
なお、蓄積メモリ6には、連続するアドレスに不連続な音データが蓄積されるが、蓄積メモリ6に記憶される音データにはタイムスタンプが付与されているから、このタイムスタンプによって収音された時刻を特定することができる。
FIG. 6B is a diagram showing an example of sound data stored in the storage memory 6 when the sound shown in FIG. 6A is collected, and FIG. It is a figure which shows an example of the content of the sound data accumulate | stored in. In FIG. 6B, the horizontal axis indicates the address of the storage memory, and the vertical axis indicates the sound pressure. As illustrated, the storage memory 6 stores sound data at times t11 to t12, t21 to t22, and t31 to t32. As shown in FIG. 6C, discontinuous type stamp sound data (for example, times t12 and t21) are accumulated at successive addresses.
In this way, the storage memory 6 stores not only the sound data of all the collected sounds, but the partial data of the collected sound data (see FIG. 6B). The accumulated sound data can be reduced.
In the storage memory 6, discontinuous sound data is stored at consecutive addresses, but since the sound data stored in the storage memory 6 is given a time stamp, the sound is collected by this time stamp. Can be specified.

音声処理部5が音データを記憶するか否かを判定する際に用いるしきい値は、暗騒音や監視目的に応じて使用者(施設100の住人やマイクシステム11の管理者など)が設定する。使用者は、例えばマイクシステム11の設置位置、設置方向、設置場所、設置目的、設置場所における暗騒音の発生状況などの条件に基づいて、しきい値を任意に設定できる。例えば、セキュリティを高くしたい場合には、しきい値の値を極めて低い値にしてもよい。   The threshold used when the sound processing unit 5 determines whether or not to store sound data is set by a user (such as a resident of the facility 100 or an administrator of the microphone system 11) according to the background noise or the monitoring purpose. To do. For example, the user can arbitrarily set the threshold value based on conditions such as the installation position, installation direction, installation location, installation purpose, and background noise generation status of the microphone system 11. For example, when it is desired to increase security, the threshold value may be set to a very low value.

なお、以下の説明においては、説明の便宜上、音声処理部5が行うしきい値によって音データを蓄積するか否かを判定し、判定結果によってデータを蓄積または破棄するという上述の処理を、「音データ取捨処理」という。   In the following description, for convenience of explanation, it is determined whether or not sound data is stored based on a threshold value performed by the sound processing unit 5, and the above-described processing of storing or discarding data according to a determination result is described as " This is called “sound data sorting”.

通信部7は、蓄積メモリ6に蓄積された音データを、データサーバ200に送信(出力)する。このとき、音データに付与されているタイムスタンプとマイク識別情報も、音データと共にデータサーバ200に送信される。   The communication unit 7 transmits (outputs) the sound data stored in the storage memory 6 to the data server 200. At this time, the time stamp and microphone identification information given to the sound data are also transmitted to the data server 200 together with the sound data.

データサーバ200のCPU21は、マイクシステム11から音データを受信すると、受信した音データをマイク識別情報に関連付けて音データ記憶領域23aに記憶する。すなわち、CPU21は、所定領域から音を収音する複数のマイクロフォン3から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、マイクロフォン3を識別するマイク識別情報に関連付けて、音データ記憶領域23aに時系列に記憶する。   When receiving the sound data from the microphone system 11, the CPU 21 of the data server 200 stores the received sound data in the sound data storage area 23a in association with the microphone identification information. That is, the CPU 21 associates the sound data output from the plurality of microphones 3 that pick up sound from the predetermined area with the time information indicating the time when the sound data is output, and the microphone identification information for identifying the microphone 3. In association, the sound data is stored in the sound data storage area 23a in time series.

このように本実施形態では、音声処理部5は、音データの音圧がしきい値以上の音データを記憶し、一方、音圧がしきい値未満の音データは破棄するから、データサーバ200が蓄積するデータの量を大幅に減らすことができる。音が発生しなかった時間帯の音データは蓄積されないから、例えば、夜間の倉庫の監視など、異常が発生した場合以外ではほとんど音が発生しない所定領域でこのシステムを用いる場合には、蓄積するデータはほぼゼロとなり、この効果は顕著になる。すなわち、少ない記憶領域で、長時間監視することが可能となる。また、仮に異常が発生した場合には、異常時の音データを蓄積することができる。   As described above, in the present embodiment, the sound processing unit 5 stores sound data whose sound pressure is greater than or equal to the threshold value, while discarding sound data whose sound pressure is less than the threshold value. The amount of data stored in 200 can be greatly reduced. Sound data for times when no sound was generated is not accumulated. For example, when this system is used in a predetermined area where no sound is generated except when an abnormality occurs, such as monitoring a warehouse at night, it is accumulated. The data is almost zero and this effect is noticeable. That is, it is possible to monitor for a long time with a small storage area. In addition, if an abnormality occurs, sound data at the time of abnormality can be accumulated.

また、例えば、家屋の玄関にマイクシステム11を設置しておけば、家に押し売りがきた場合など、異常事態が突然発生した場合であっても、その記録を音データとして記録することができる。この場合も、異常が発生していない(音圧がしきい値以下の)時間帯の音は記録しないから、記録するデータ量を削減することができるとともに、異常時の音を記録することができる。   Further, for example, if the microphone system 11 is installed at the entrance of a house, even if an abnormal situation suddenly occurs, such as when the house is pushed and sold, the record can be recorded as sound data. Also in this case, since no sound in a time zone in which no abnormality has occurred (sound pressure is below a threshold value) is recorded, the amount of data to be recorded can be reduced and the sound at the time of abnormality can be recorded. it can.

また、本実施形態においては、マイクロフォン3で収音した音を表す音データはバッファメモリ4に一旦記憶され、CPU1は、バッファメモリ4に記憶された音データを読み出して、読み出した音データを蓄積するか否かを判定するから、予め定められた時間単位区間毎に音データを蓄積するか否かを判定することができる。   In the present embodiment, the sound data representing the sound collected by the microphone 3 is temporarily stored in the buffer memory 4, and the CPU 1 reads the sound data stored in the buffer memory 4 and accumulates the read sound data. Since it is determined whether or not to perform, it is possible to determine whether or not to store sound data for each predetermined time unit interval.

<B−2:警報動作>
次に、警報動作について説明する。
データサーバ200は、マイクシステム11から音データを受信すると、受信した音データをマイク識別情報に関連付けて、音データ記憶領域23aに記憶する。
このとき、データサーバ200は、受信した音データから音の特徴(ピッチ、パワー、スペクトルなど)を抽出し、抽出した特徴が、予め定められた特徴に対応する場合には、その旨を報知するための情報を、端末装置400に送信することによって報知する。予め定められた特徴としては、例えば、金庫を叩く音を予め録音しておき、録音された音を表す音データの特徴や、ガラスを割る音を表す音データの特徴などを用いる。
<B-2: Alarm action>
Next, the alarm operation will be described.
When the data server 200 receives sound data from the microphone system 11, the data server 200 stores the received sound data in the sound data storage area 23a in association with the microphone identification information.
At this time, the data server 200 extracts sound features (pitch, power, spectrum, etc.) from the received sound data, and if the extracted features correspond to predetermined features, the data server 200 notifies the fact. Information is transmitted to the terminal device 400 for notification. As the predetermined feature, for example, a sound of hitting a safe is recorded in advance, and a feature of sound data representing the recorded sound, a feature of sound data representing a sound breaking the glass, or the like is used.

端末装置400の通信部44は、データサーバ200からデータを受信すると、受信したデータに基づいて、受信したデータの示す内容を表示部46に表示したり、警告音をスピーカ47から放音させたりして、異常が発生した旨を報知する。使用者は、報知される内容を確認することで、異常を認識することができる。   When receiving the data from the data server 200, the communication unit 44 of the terminal device 400 displays the content indicated by the received data on the display unit 46 or emits a warning sound from the speaker 47 based on the received data. Then, the fact that an abnormality has occurred is notified. The user can recognize the abnormality by confirming the notified content.

なお、この実施形態においては、データサーバ200が、音データの特徴を解析して、警報処理を行うようにした。
これに代えて、マイクシステム11のCPU1が、この警報処理を行うようにしてもよい。この場合は、上述の警報処理を行うためのプログラムをマイクシステム11の記憶部2に記憶しておき、CPU1が、記憶部2に記憶されたプログラムを実行することによって、警報動作を行う。
In this embodiment, the data server 200 analyzes the characteristics of the sound data and performs alarm processing.
Instead of this, the CPU 1 of the microphone system 11 may perform this alarm processing. In this case, a program for performing the above-described alarm processing is stored in the storage unit 2 of the microphone system 11, and the CPU 1 performs an alarm operation by executing the program stored in the storage unit 2.

なお、この動作例においては、音データの特徴が予め定められた特徴に対応する場合にその旨を警告した。これに代えて、CPU21が、音データから、所定領域内の音源の位置を、時間の経過に従って予め定められた単位時間毎に推定し、推定した位置が予め定められた位置に対応する場合に、その旨を警告してもよい。   In this operation example, when the feature of the sound data corresponds to a predetermined feature, a warning to that effect is given. Instead, when the CPU 21 estimates the position of the sound source in the predetermined area from the sound data for each predetermined unit time as time passes, the estimated position corresponds to the predetermined position. You may warn to that effect.

<B−3:音の再合成動作>
次に、音の再合成動作について、図7を参照しつつ以下に説明する。
使用者(施設100の住人やマイクシステム11の管理者など)は、端末装置400の操作部45を操作して、施設100又はマイクシステム11を指定することによって所定領域を指定するとともに区間を指定する操作を行い、指定した区間の音データを取得する旨の操作を行う。操作部45は、操作された内容に応じた操作信号をCPU41に出力する。CPU41は、操作部45からの操作信号に応じて、区間を指定する。次いで、CPU41は、指定された区間の音データを取得する旨のリクエスト情報を、通信部44によってデータサーバ200に送信させる。
<B-3: Sound resynthesis operation>
Next, the sound resynthesis operation will be described below with reference to FIG.
A user (such as a resident of the facility 100 or an administrator of the microphone system 11) operates the operation unit 45 of the terminal device 400 to designate the facility 100 or the microphone system 11 and thereby designate a predetermined area and a section. And an operation to acquire sound data of the specified section is performed. The operation unit 45 outputs an operation signal corresponding to the operated content to the CPU 41. The CPU 41 designates a section according to an operation signal from the operation unit 45. Next, the CPU 41 causes the communication unit 44 to transmit request information to the effect that the sound data of the designated section is acquired to the data server 200.

データサーバ200の通信部24は、端末装置400から、リクエスト情報を受信する。
CPU21は、通信部24が受信したリクエスト情報を解析し、リクエスト情報に応じて区間を指定する。また、CPU21は、受信したリクエスト情報に含まれる施設100を示す情報とマイク識別情報とに対応する音データを、音データ記憶領域23aから読み出し、読み出した音データを通信部24に供給する。すなわち、CPU21は、タイムスタンプ(時刻情報)に基づいて、指定された区間に対応する音データを音データ記憶領域23aから時系列に読み出し、読み出した音データをマイク識別情報に関連付けて通信部24に供給することによって読み出した音データをマイク識別情報毎に報知する。
通信部24は、供給された音データを、専用線500を介して端末装置400に送信する。
The communication unit 24 of the data server 200 receives request information from the terminal device 400.
CPU21 analyzes the request information which the communication part 24 received, and designates an area according to request information. Further, the CPU 21 reads out sound data corresponding to the information indicating the facility 100 and the microphone identification information included in the received request information from the sound data storage area 23 a and supplies the read sound data to the communication unit 24. That is, based on the time stamp (time information), the CPU 21 reads out the sound data corresponding to the designated section from the sound data storage area 23a in time series, associates the read sound data with the microphone identification information, and communicates with the communication unit 24. Is read for each microphone identification information.
The communication unit 24 transmits the supplied sound data to the terminal device 400 via the dedicated line 500.

端末装置400の通信部44は、専用線500を介してデータサーバ200から音データを受信する。CPU41は、受信された音データを、例えば図9に示すような画面で表示部46に表示することによって、音データをマイク識別情報毎に報知する。   The communication unit 44 of the terminal device 400 receives sound data from the data server 200 via the dedicated line 500. The CPU 41 notifies the sound data for each microphone identification information by displaying the received sound data on the display unit 46 with a screen as shown in FIG. 9, for example.

ここで、再合成動作の具体例について、図7乃至図9を参照しつつ以下に説明する。なお、以下の説明においては、図2に例示した施設100について、区間T(時刻t1〜時刻t2)の音データが指定された場合の例について説明する。
図7は、時刻t1〜t2において、施設100に設けられたマイクシステム11a,11b,11c,11dで収音された音の波形を表す図である。図の横軸は時刻を示し、縦軸は音圧を示している。図7(a)は、マイクシステム11aで収音された音の波形を表す図であり、以下同様に、図7(b),(c),(d)はそれぞれマイクシステム11b,11c,11dで収音された音の波形を表す図である。
Here, a specific example of the resynthesis operation will be described below with reference to FIGS. In the following description, an example in which sound data of the section T (time t1 to time t2) is designated for the facility 100 illustrated in FIG. 2 will be described.
FIG. 7 is a diagram illustrating waveforms of sounds collected by the microphone systems 11a, 11b, 11c, and 11d provided in the facility 100 at times t1 to t2. In the figure, the horizontal axis indicates time, and the vertical axis indicates sound pressure. FIG. 7A is a diagram showing the waveform of the sound collected by the microphone system 11a. Similarly, FIGS. 7B, 7C, and 7D are respectively shown in the microphone systems 11b, 11c, and 11d. It is a figure showing the waveform of the sound collected by.

次に、図8は、音データ記憶領域23aに記憶された音データの波形を表す図である。図において横軸は蓄積メモリのアドレスを示し、縦軸は音圧を示している。図8(a)は、マイクシステム11aで収音された音の波形を表す図であり、以下同様に、図8(b),(c),(d)はそれぞれマイクシステム11b,11c,11dで収音された音の波形を示している。
図8に示す例においては、マイクシステム11の音声処理部5によって上述した音データ取捨処理が行われるから、データサーバ200には、音圧がしきい値a以上の音データ、すなわち、時刻t11a〜t12a,t21a〜t22a,t11b〜t12b,t21b〜t22b,・・・の音データがデータサーバ200の音データ記憶領域23aの連続したアドレスにタイムスタンプと共に記憶されている。
データサーバ200は、音データ記憶領域23aに記憶された音データを端末装置400に送信し、端末装置400のCPU41は、受信した音データを表す波形を、図9に例示するような画面で表示部46に表示させることによって報知する。
Next, FIG. 8 is a diagram showing a waveform of sound data stored in the sound data storage area 23a. In the figure, the horizontal axis indicates the address of the storage memory, and the vertical axis indicates the sound pressure. FIG. 8A is a diagram showing the waveform of the sound collected by the microphone system 11a. Similarly, FIGS. 8B, 8C, and 8D are respectively shown in the microphone systems 11b, 11c, and 11d. The waveform of the sound picked up by is shown.
In the example shown in FIG. 8, the sound processing unit 5 of the microphone system 11 performs the above-described sound data sorting process. The sound data of t12a, t21a to t22a, t11b to t12b, t21b to t22b,... Are stored at successive addresses in the sound data storage area 23a of the data server 200 together with a time stamp.
The data server 200 transmits the sound data stored in the sound data storage area 23a to the terminal device 400, and the CPU 41 of the terminal device 400 displays the waveform representing the received sound data on a screen as illustrated in FIG. Notification is made by displaying on the unit 46.

図9は、この場合に表示される画面の一例を示す図である。図9に示す例においては、端末装置400のCPU41は、受信した音データを表す波形、すなわちマイクシステム11a,11b,11c,11dで収音された音を表す波形11Wa,11Wb,11Wc,11Wdを、マイクシステム11毎に異なる態様で表示部46に表示させる。   FIG. 9 is a diagram showing an example of a screen displayed in this case. In the example illustrated in FIG. 9, the CPU 41 of the terminal device 400 generates waveforms that represent received sound data, that is, waveforms 11 Wa, 11 Wb, 11 Wc, and 11 Wd that represent sounds collected by the microphone systems 11 a, 11 b, 11 c, and 11 d. The display is made to be displayed on the display unit 46 in a different manner for each microphone system 11.

また、このとき、CPU41は、音を再生するためのボタンB1〜B5を表示部46に表示する。各ボタンには、各部屋が割り当てられており、使用者は、ボタンB1〜B5のいずれかを選択することで、各部屋で収音された音を聴くことができる。ボタンB1は、部屋10aで収音された音(マイクシステム11aで収音した音)を放音するためのものであり、同様に、ボタンB2,B3,B4は、部屋10b,10c,10dで収音された音を放音するためのものである。ボタンB5は、指定された区間で収音された音全体を時系列に放音するためのものである。使用者が操作部45を操作してボタンB1〜B5のいずれかを押下する操作を行うと、操作部45は、操作内容に応じた操作信号をCPU41に出力する。CPU41は操作部45から出力される操作信号に応じて、選択されたボタンに対応する音データを音声信号(アナログデータ)に変換してスピーカ47に出力し、スピーカ47は、CPU41から供給される音声信号に応じた音を放音する。すなわち、CPU41は、音データの表す音をマイク識別情報毎にスピーカ47から放音させることによって音データを報知する。
操作者は、各ボタンをおしたときの音の変化から、音源の移動経路を認識することができる。
At this time, the CPU 41 displays buttons B1 to B5 for reproducing sound on the display unit 46. Each room is assigned to each button, and the user can listen to the sound collected in each room by selecting one of the buttons B1 to B5. The button B1 is for emitting sound collected in the room 10a (sound collected by the microphone system 11a). Similarly, the buttons B2, B3, and B4 are used in the rooms 10b, 10c, and 10d. This is for releasing the collected sound. The button B5 is for emitting the entire sound collected in the designated section in time series. When the user operates the operation unit 45 to perform an operation of pressing any of the buttons B1 to B5, the operation unit 45 outputs an operation signal corresponding to the operation content to the CPU 41. The CPU 41 converts sound data corresponding to the selected button into an audio signal (analog data) according to an operation signal output from the operation unit 45 and outputs the sound signal to the speaker 47. The speaker 47 is supplied from the CPU 41. A sound corresponding to the audio signal is emitted. In other words, the CPU 41 notifies the sound data by emitting the sound represented by the sound data from the speaker 47 for each microphone identification information.
The operator can recognize the movement path of the sound source from the change in sound when each button is pressed.

また、ボタンB5が選択された場合には、CPU41は、指定された区間において収音された音全体を、音データに付与されたタイムスタンプに基づいて、時系列に放音する。
具体的には、図9に示す例においては、CPU41は、まず、マイクシステム11aで収音された時刻t11a〜t12aの音を放音させ、次いで、時刻t21a〜時刻t22aの音を放音させる。ここで、CPU41は、時刻t21a〜時刻t22aの音を放音し終える前に、時刻t11bのタイミングで、マイクシステム11bで収音された時刻t11b〜時刻t12bの音を放音する。
この場合はマイクシステム11a〜11dで収音されたすべての音が放音されるが、時系列に沿って放音されるから、使用者は、その音の変化から、音源の移動経路を認識することができる。
When the button B5 is selected, the CPU 41 emits the entire sound collected in the designated section in time series based on the time stamp given to the sound data.
Specifically, in the example illustrated in FIG. 9, the CPU 41 first emits the sound of time t11a to t12a collected by the microphone system 11a, and then emits the sound of time t21a to time t22a. . Here, the CPU 41 emits the sound from the time t11b to the time t12b collected by the microphone system 11b at the timing of the time t11b before the sound of the time t21a to the time t22a is completely emitted.
In this case, all the sounds collected by the microphone systems 11a to 11d are emitted, but since the sounds are emitted in time series, the user recognizes the movement path of the sound source from the change in the sounds. can do.

図9に示す例においては、マイクシステム11a,11b,11c,11dで順番に音が収音されているから、使用者は、この画面を参照することで、時刻t1〜t2において、音源が部屋10a,10b,10c,10dの順番に移動していったことを認識することができる。   In the example shown in FIG. 9, since sounds are collected in order by the microphone systems 11a, 11b, 11c, and 11d, the user refers to this screen so that the sound source is in the room at time t1 to t2. It can be recognized that the movement has occurred in the order of 10a, 10b, 10c, and 10d.

例えば、何者かが施設100に居間から入り風呂場から出たとする。このような場合であっても、時刻に沿った音データが蓄積されているから、使用者は、音の再合成表示を確認することで、その侵入者が、例えば台所(部屋10a)→居間(部屋10b)→トイレ(部屋10c)→風呂(部屋10d)の順に施設100内を移動したという移動経路を推定することができる。また、そのときの音声も残っているから、使用者は、移動経路を推定するとともに、そのときの状況(例えば、ガラスを割ったなど)をより詳細に把握することができる。   For example, suppose that someone enters the facility 100 from the living room and leaves the bathroom. Even in such a case, since the sound data along the time is accumulated, the user confirms the sound recombination display so that the intruder can see the kitchen (room 10a) → the living room, for example. It is possible to estimate a movement route that the user has moved through the facility 100 in the order of (room 10b) → toilet (room 10c) → bath (room 10d). Moreover, since the voice at that time also remains, the user can estimate the moving route and grasp the situation at that time (for example, broken glass) in more detail.

このように、本実施形態によれば、施設内で発せられた音を、複数のマイクロフォンで収音し、その複数の収音結果に応じて、音源の位置の変化を報知するから、使用者は、その施設内での音源の変化を推定することができる。
また、部屋単位など、所定領域単位での監視を行うことができる。
As described above, according to the present embodiment, sound generated in the facility is collected by a plurality of microphones, and a change in the position of the sound source is notified according to the plurality of sound collection results. Can estimate the change of the sound source in the facility.
In addition, monitoring can be performed in units of a predetermined area such as a room unit.

なお、このとき、CPU41は、マイク識別情報に応じて音データの音色を変更してスピーカ47から放音させてもよい。例えば、指定された区間内に収音された音全体を放音する場合には、放音されている音がどの部屋(マイクロフォン)で収音された音かが分かり難い場合がある。このような場合であっても、部屋毎(マイクロフォン毎)に音データの音色が変更して放音されることで、使用者は、放音される音の音色の変化を聞くことで、音源の移動経路を聴覚的に把握することができる。これは、前述したボタンB5が選択されて、複数のマイクシステム11で収音された音がすべて放音される場合に特に効果的である。   At this time, the CPU 41 may change the tone color of the sound data according to the microphone identification information and emit the sound from the speaker 47. For example, when the entire sound collected in a specified section is emitted, it may be difficult to determine in which room (microphone) the sound being collected is collected. Even in such a case, by changing the timbre of the sound data for each room (for each microphone) and emitting the sound, the user can hear the change in the timbre of the sound to be emitted, Can be grasped audibly. This is particularly effective when the above-described button B5 is selected and all the sounds collected by the plurality of microphone systems 11 are emitted.

<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上記実施形態においては、本発明に係る音記録システムを施設の監視のために用いた場合を例示したが、その他にも、例えば、独居老人の生活をみまもる場合にも本発明を適用することができる。または、これ以外にも、例えば留守中のペットの遠隔監視を行う場合にも本発明を適用することができる。これらの場合には、音が記録されない(音圧がしきい値以下の)時間が予め定められた時間以上経過した場合に、マイクシステム11のCPU1またはデータサーバ200のCPU21が、本来動いて音を出すものが長時間音を出していないとして、異常が発生していると判断してその旨を報知してもよい。
<C: Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to embodiment mentioned above, It can implement with another various form. An example is shown below.
(1) In the above embodiment, the case where the sound recording system according to the present invention is used for monitoring a facility has been exemplified. However, the present invention is also applied to, for example, the life of an elderly person living alone. Can be applied. In addition to this, the present invention can be applied to, for example, remote monitoring of a pet who is away. In these cases, the CPU 1 of the microphone system 11 or the CPU 21 of the data server 200 moves by itself when the time when no sound is recorded (the sound pressure is equal to or lower than the threshold value) exceeds a predetermined time. It may be determined that an abnormality has occurred, and a notification to that effect may be given, assuming that the device that emits no sound for a long time.

(2)上述した実施形態では、音声処理部5は、音データの音圧としきい値とを比較し、音データの音圧がしきい値以上である場合に音データを記録すると判定した。判定方法はこれに限らず、音データの音圧がしきい値以下である場合に音データを記録しないと判定してもよい。要するに、音データの音圧と予め定められたしきい値とを比較し、その比較結果に応じて音データを記録するか否かを判定すればよい。 (2) In the above-described embodiment, the sound processing unit 5 compares the sound pressure of the sound data with the threshold value, and determines that the sound data is recorded when the sound pressure of the sound data is equal to or greater than the threshold value. The determination method is not limited to this, and the sound data may be determined not to be recorded when the sound pressure of the sound data is equal to or lower than a threshold value. In short, it is only necessary to compare the sound pressure of the sound data with a predetermined threshold value and determine whether or not to record the sound data according to the comparison result.

また、音データを蓄積するか否かの判定方法はこれに限らない。例えば、バッファメモリ4から読み出した音データの特徴(ピッチ、パワー、スペクトルなど)を解析し、その特徴が予め定められた特徴に対応する場合に、音データを記録しないと判定してもよい。具体的には、例えば、チャイムの音が聞こえる環境においては、チャイムの音を表す音データを記憶させておき、収音された音を表す音データの特徴と、記憶された音データの特徴とを比較し、その比較結果(一致度など)に応じて、音データを記録するか否かを判定してもよい。CPU1は、音データを記録すると判定された場合には、読み出した音データと当該音データに対応する時刻情報とを蓄積メモリ6に記憶し、一方、音データを記録しないと判定された場合には、読み出した音データと当該音データに対応する時刻情報とを蓄積メモリ6に記憶しない。   The method for determining whether or not to store sound data is not limited to this. For example, the characteristics (pitch, power, spectrum, etc.) of the sound data read from the buffer memory 4 may be analyzed, and if the characteristics correspond to predetermined characteristics, it may be determined not to record the sound data. Specifically, for example, in an environment where a chime sound can be heard, sound data representing the chime sound is stored, and the characteristics of the sound data representing the collected sound and the characteristics of the stored sound data are And whether or not to record sound data may be determined according to the comparison result (such as the degree of coincidence). When it is determined that the sound data is to be recorded, the CPU 1 stores the read sound data and time information corresponding to the sound data in the storage memory 6, while when it is determined not to record the sound data. Does not store the read sound data and the time information corresponding to the sound data in the storage memory 6.

また、マイクシステム11が時刻を計時しておき、予め定められた時刻に収音された音を表す音データは録音しないようにしてもよい。具体的には、毎日ある決まった時刻にチャイム又は音楽などがなる環境においては、その時刻を記憶部2に記憶させておき、CPU1は、その時刻に収音された音は録音しないようにする。
また、上述の2つの例を組み合わせて、CPU1は、予め定められた時刻に、予め定められた特徴の音が収音された場合に、その音を録音しないようにしてもよい。
Alternatively, the microphone system 11 may keep time and may not record sound data representing sound collected at a predetermined time. Specifically, in an environment where a chime or music is played at a certain time every day, the time is stored in the storage unit 2 so that the CPU 1 does not record the sound collected at that time. .
Further, by combining the above two examples, the CPU 1 may not record the sound when a sound having a predetermined characteristic is collected at a predetermined time.

このように、音データを記録するか否かを判定するための条件は様々あり、条件をどのように設定するかはマイクシステム11の設計に応じて変更可能である。   Thus, there are various conditions for determining whether or not to record sound data, and how to set the conditions can be changed according to the design of the microphone system 11.

(3)上述した実施形態では、CPU41は、音データを表示部46に表示したり音声データに応じた音をスピーカ47から放音させたりすることによって音データを報知した。報知手段はこれに限らず、例えば音声データを含む電子メールを使用者のコンピュータ装置に送信することによって報知してもよく、音声データをマイク識別情報毎に報知する手段であればどのようなものであってもよい。 (3) In the above-described embodiment, the CPU 41 notifies the sound data by displaying the sound data on the display unit 46 or emitting sound according to the sound data from the speaker 47. The notification means is not limited to this. For example, the notification means may be notified by transmitting an electronic mail including voice data to the user's computer device, and any means may be used as long as the voice data is notified for each microphone identification information. It may be.

また、上述した実施形態では、音データをマイク識別情報毎に異なる態様で表示した。表示の態様はこれに限らず、音データを同一の態様で表示してもよい。要するに、音データを識別情報毎に報知する手段であればどのようなものであってもよい。   In the above-described embodiment, sound data is displayed in a different manner for each microphone identification information. The display mode is not limited to this, and the sound data may be displayed in the same mode. In short, any means may be used as long as it notifies the sound data for each identification information.

(4)上述した実施形態においては、ひとつのマイクロフォン3を備えるマイクシステム11を複数設置した。これに代えて、図10に示すように、ひとつのマイクシステム11Aに複数のマイクシステム11,11,・・・が接続されている構成であってもよい。この場合は、それぞれのマイクシステム11,11・・・をそれぞれの部屋(所定領域)に設置し、それぞれの所定領域に設置されたマイクシステム11から出力される音声信号に対して、CPU1Aが、上述の実施形態と同様の処理を行う。 (4) In the above-described embodiment, a plurality of microphone systems 11 including one microphone 3 are installed. Instead, as shown in FIG. 10, a plurality of microphone systems 11, 11,... May be connected to one microphone system 11 </ b> A. In this case, each microphone system 11, 11,... Is installed in each room (predetermined area), and the CPU 1A receives the audio signal output from the microphone system 11 installed in each predetermined area. Processing similar to that in the above-described embodiment is performed.

(5)上述した実施形態では、施設100に複数のマイクシステム11を設置し、複数のマイクシステム11で収音された音の音データをマイク識別情報毎に報知した。これに代えて、指向性マイクを用いて音源の位置を推定し、推定した結果を報知してもよい。
この具体例について、図11を参照しつつ以下に説明する。
図11(a)はこの変形例に係るマイクシステム11Bの設置例を示す図であり、同図(b)はマイクシステム11Bが有するマイクロフォンの構成を示す図である。図示のように、マイクシステム11Bは、例えば倉庫などの施設100Bの中央に設置されている。図11(b)において、マイクシステム11Bは、3つのマイクロフォン3m,3x,3yを有している。マイクロフォン3xと3yとは、双指向性マイクロフォンであり、マイクロフォン3mは、無指向性マイクロフォンである。これら3つのマイクロフォンは、地上に対して略垂直に設置されるマイクシステム11Bの筐体内に、その垂直軸線(図11(b):Z軸)に指向原点が位置するように設置されている(図11(b)参照)。マイクシステム11BのCPUは、マイクロフォン3m,3x,3yの各々から出力される音声信号を任意の加算比率で加算する。マイクシステム11BのCPUは、この加算比率を所定単位時間毎に変更し、加算比率を用いた加算結果に基づいて、所定の間隔毎に音源の位置を推定する。そして、CPUは、推定した音源の位置の変化を、データサーバ200に送信するなどして報知する。
(5) In the above-described embodiment, a plurality of microphone systems 11 are installed in the facility 100, and sound data of sounds collected by the plurality of microphone systems 11 is notified for each microphone identification information. Instead of this, the position of the sound source may be estimated using a directional microphone, and the estimated result may be notified.
A specific example will be described below with reference to FIG.
FIG. 11A is a diagram illustrating an installation example of the microphone system 11B according to this modification, and FIG. 11B is a diagram illustrating a configuration of a microphone included in the microphone system 11B. As illustrated, the microphone system 11B is installed in the center of a facility 100B such as a warehouse. In FIG. 11B, the microphone system 11B has three microphones 3m, 3x, and 3y. The microphones 3x and 3y are bidirectional microphones, and the microphone 3m is an omnidirectional microphone. These three microphones are installed in the casing of the microphone system 11B installed substantially perpendicular to the ground so that the directional origin is located on the vertical axis (FIG. 11B: Z axis) ( (Refer FIG.11 (b)). The CPU of the microphone system 11B adds the audio signals output from the microphones 3m, 3x, and 3y at an arbitrary addition ratio. The CPU of the microphone system 11B changes the addition ratio every predetermined unit time, and estimates the position of the sound source at predetermined intervals based on the addition result using the addition ratio. Then, the CPU notifies the estimated change in the position of the sound source by transmitting it to the data server 200 or the like.

(6)上述した実施形態においては、端末装置400に音データを含む情報を送信することによって報知するようにした。これに代えて、例えば、データサーバ200の表示部26に表示することによって報知してもよく、音データを報知する手段であればどのようなものであってもよい。 (6) In the embodiment described above, the terminal device 400 is notified by transmitting information including sound data. Instead of this, for example, it may be notified by displaying on the display unit 26 of the data server 200, or any means for informing sound data may be used.

(7)上述した実施形態においては、マイクシステム11,データサーバ200,端末装置400が専用線で接続された音記録システムを説明した。これに対し、単体の装置が上記実施形態に係る機能を分担するようにし、その単体の装置が同実施形態の音記録システムを実現するようにしてもよい。または、ネットワークや専用回線で接続された2以上の装置が上記実施形態に係る機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態の音記録システムを実現するようにしてもよい。 (7) In the above-described embodiment, the sound recording system in which the microphone system 11, the data server 200, and the terminal device 400 are connected by a dedicated line has been described. On the other hand, a single device may share the functions according to the above-described embodiment, and the single device may realize the sound recording system of the same embodiment. Alternatively, two or more devices connected by a network or a dedicated line may share the functions according to the above-described embodiment, and a system including the plurality of devices may realize the sound recording system of the same embodiment. .

(8)なお、上述した実施形態においては、音データをマイク識別情報毎に報知する例として図9に示す画面を例示した。報知の態様はこれに限定されるものではなく、例えば図12に示すような画面を表示部46に表示することによって、音源の位置を推定して推定した音源の位置の変化を報知してもよい。
この場合は、マイクロフォン(収音手段)3の位置を示す位置情報をマイク識別情報に関連付けてデータサーバ200の位置情報記憶領域23b(図4に鎖線で図示)に予め記憶しておく。そして、データサーバ200のCPU21は、音データ記憶領域23aに記憶された音データと、位置情報記憶領域23bに記憶された位置情報とに基づいて、所定領域内の音源の位置を時間の経過に従って予め定められた単位時間毎に推定する。次いで、CPU21は、推定された音源の位置の変化を示すデータを端末装置400に送信する。端末装置400のCPU41は、受信したデータに基づいて、図12に例示するような画面を表示部46に表示することによって報知する。図12に示す画面においては、音源の位置の変化が矢印Aによって示されている。
なお、このとき、CPU41は、図12のT1乃至T4に示すような、その位置を通過した時刻を表示部46に表示させてもよい。
(8) In the above-described embodiment, the screen shown in FIG. 9 is illustrated as an example of notifying sound data for each microphone identification information. The notification mode is not limited to this. For example, by displaying a screen as shown in FIG. 12 on the display unit 46, even if the change in the estimated sound source position is notified by estimating the position of the sound source. Good.
In this case, the position information indicating the position of the microphone (sound collecting means) 3 is stored in advance in the position information storage area 23b (shown by a chain line in FIG. 4) of the data server 200 in association with the microphone identification information. Then, the CPU 21 of the data server 200 sets the position of the sound source in the predetermined area over time based on the sound data stored in the sound data storage area 23a and the position information stored in the position information storage area 23b. It is estimated every predetermined unit time. Next, the CPU 21 transmits data indicating the estimated change in the position of the sound source to the terminal device 400. Based on the received data, the CPU 41 of the terminal device 400 notifies the display unit 46 by displaying a screen illustrated in FIG. In the screen shown in FIG. 12, the change in the position of the sound source is indicated by an arrow A.
At this time, the CPU 41 may cause the display unit 46 to display the time passing through the position as indicated by T1 to T4 in FIG.

なお、この場合も、報知手段は表示に限らず、例えば音源の位置の変化を示すデータを含む電子メールを送信することによって報知してもよく、要するに、音源の位置の変化を報知する報知手段であればどのようなものであってもよい。
なお、この変形例においては、マイクロフォン3の位置を示す位置情報をマイク識別情報に関連付けて位置情報記憶領域23bに記憶しておくようにしたが、位置情報とマイク識別情報とを別々に用いる必要はなく、マイクロフォンの位置を示す位置情報をマイク識別情報として用いてもよい。
In this case as well, the notification means is not limited to display, but may be notified by, for example, sending an e-mail containing data indicating the change in the position of the sound source. In short, the notification means for notifying the change in the position of the sound source. Anything may be used.
In this modification, the position information indicating the position of the microphone 3 is stored in the position information storage area 23b in association with the microphone identification information. However, it is necessary to use the position information and the microphone identification information separately. Instead, position information indicating the position of the microphone may be used as microphone identification information.

また、音データの他の報知の態様として、例えば、図13に示すように左チャンネルと右チャンネル用の二つのスピーカ47Aを有するステレオ再生装置400Aを用いてもよい。この場合は、マイクの位置を示す位置情報やマイクを識別する識別情報に対向させてそれぞれの入力チャンネルを割り当て、各入力チャンネルに対する音像位置(PAN)を設定する。例えば、左、中央、右の3つの部屋にそれぞれマイクが設定されている場合は、左の部屋のマイクの音データが入力されるチャンネルは左の出力チャンネルの割合を100%にし、中央の部屋のマイクのマイクの音データが入力されるチャンネルは左右の出力チャンネルとも50%の割合にし、右の部屋のマイクの音データが入力されるチャンネルは右の出力チャンネルの割合を100%にする。このような設定において、各マイクから収音された音データを再生すると、音像が各部屋の位置に対応して形成されるので、音源の移動を聴覚により空間的に把握することができる。   As another notification mode of sound data, for example, a stereo playback device 400A having two speakers 47A for the left channel and the right channel as shown in FIG. 13 may be used. In this case, each input channel is assigned to face position information indicating the position of the microphone and identification information for identifying the microphone, and a sound image position (PAN) for each input channel is set. For example, if microphones are set in each of the left, center, and right rooms, the channel to which the sound data of the left room microphone is input is set to 100% of the left output channel, and the center room The channel to which the sound data of the microphone of the right microphone is input is set to 50% for both the left and right output channels, and the rate of the right output channel is set to 100% for the channel to which the sound data of the microphone in the right room is input. In such a setting, when sound data collected from each microphone is reproduced, a sound image is formed corresponding to the position of each room, so that the movement of the sound source can be grasped spatially by hearing.

(9)上述した実施形態では、音声処理部5は、バッファメモリ4から音データを読み出し、読み出した音データの音圧が予め定められたしきい値以上である場合に当該音データを蓄積メモリ6に記憶した。これに代えて、音声処理部5が、バッファメモリ4に記憶された音データの音圧の統計をとって、該統計結果に応じてしきい値を変更してもよい。例えば、音データの音圧が常にしきい値を超える場合には、CPU1又は音声処理部5が、しきい値の値を小さくしてもよい。このように、バッファメモリ4に記憶された音データの傾向に応じてしきい値を変更してもよい。
また、音声処理部5が、バッファメモリ4に記憶された音声データの音圧の平均値を算出し、算出した平均値に応じて音データを記憶するか否かを判定してもよい。
このように、バッファメモリ4を設けて音データを一旦記憶させることで、音データの傾向に応じた記憶制御が可能になる。
(9) In the embodiment described above, the sound processing unit 5 reads the sound data from the buffer memory 4, and stores the sound data when the sound pressure of the read sound data is equal to or higher than a predetermined threshold value. 6 was memorized. Instead of this, the sound processing unit 5 may take the statistics of the sound pressure of the sound data stored in the buffer memory 4 and change the threshold value according to the statistics result. For example, when the sound pressure of the sound data always exceeds the threshold value, the CPU 1 or the sound processing unit 5 may decrease the threshold value. Thus, the threshold value may be changed according to the tendency of the sound data stored in the buffer memory 4.
In addition, the sound processing unit 5 may calculate an average value of sound pressures of sound data stored in the buffer memory 4 and determine whether to store sound data according to the calculated average value.
As described above, by providing the buffer memory 4 and temporarily storing the sound data, the storage control according to the tendency of the sound data can be performed.

上述した実施形態では、CPU1は、マイクロフォン3で収音された音を表す音データを一旦バッファメモリ4に記憶し、音声処理部5が、バッファメモリ4から音データを所定量ずつ読み出して、読み出した音データを蓄積するか否かを判定し、蓄積すると判定した音データを蓄積メモリ6に記憶した。これに代えて、バッファメモリ4を設けない構成としてもよい。この場合は、CPU1又は音声処理部5が、マイクロフォン3から出力される音声信号の音圧がしきい値以上であるか否かを逐次判定し、しきい値以上である音データを記憶する。   In the embodiment described above, the CPU 1 temporarily stores sound data representing the sound collected by the microphone 3 in the buffer memory 4, and the sound processing unit 5 reads out and reads out the sound data from the buffer memory 4 by a predetermined amount. Whether or not to store the sound data is determined, and the sound data determined to be stored is stored in the storage memory 6. Instead of this, the buffer memory 4 may not be provided. In this case, the CPU 1 or the sound processing unit 5 sequentially determines whether or not the sound pressure of the sound signal output from the microphone 3 is equal to or higher than a threshold value, and stores sound data that is equal to or higher than the threshold value.

(10)上述した実施形態におけるマイクシステム11のCPU1、データサーバ200のCPU21又は端末装置400のCPU41によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でマイクシステム11、データサーバ200又は端末装置400にダウンロードさせることも可能である。 (10) Programs executed by the CPU 1 of the microphone system 11, the CPU 21 of the data server 200, or the CPU 41 of the terminal device 400 in the above-described embodiment are a magnetic tape, a magnetic disk, a flexible disk, an optical recording medium, a magneto-optical recording medium, It can be provided in a state where it is stored in a recording medium such as a CD (Compact Disk) -ROM, a DVD (Digital Versatile Disk), or a RAM. It is also possible to download the data to the microphone system 11, the data server 200, or the terminal device 400 via a network such as the Internet.

音記録システムの全体構成を示す図である。It is a figure which shows the whole structure of a sound recording system. 施設100でのマイクシステム11の設置態様の一例を示す図である。It is a figure which shows an example of the installation aspect of the microphone system 11 in the plant | facility 100. FIG. マイクシステム11のハードウェア構成を例示したブロック図である。2 is a block diagram illustrating a hardware configuration of a microphone system 11. FIG. データサーバ200のハードウェア構成を例示したブロック図である。2 is a block diagram illustrating a hardware configuration of a data server 200. FIG. 端末装置400のハードウェア構成を例示したブロック図である。3 is a block diagram illustrating a hardware configuration of a terminal device 400. FIG. 音の波形の一例を示す図である。It is a figure which shows an example of the waveform of a sound. 音の波形の一例を示す図である。It is a figure which shows an example of the waveform of a sound. 蓄積される音データの示す音の波形の一例を示す図である。It is a figure which shows an example of the waveform of the sound which the sound data accumulate | stored shows. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. マイクシステムのハードウェア構成を例示したブロック図である。It is the block diagram which illustrated the hardware constitutions of the microphone system. マイクシステムの構成の一例を示す図である。It is a figure which shows an example of a structure of a microphone system. 表示部に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a display part. ステレオ再生装置の構成の一例を示す図である。It is a figure which shows an example of a structure of a stereo reproduction | regeneration apparatus.

符号の説明Explanation of symbols

1…CPU、2…記憶部、3…マイクロフォン、4…バッファメモリ、5…音声処理部、6…蓄積メモリ、7…通信部、10…部屋、11…マイクシステム、21…CPU、22…ROM、23…記憶部、24…通信部、25…操作部、26…表示部、41…CPU、42…ROM、43…記憶部、44…通信部、45…操作部、46…表示部、47…スピーカ、100…施設、200…データサーバ、300…専用線、400…端末装置、500…専用線。 DESCRIPTION OF SYMBOLS 1 ... CPU, 2 ... Storage part, 3 ... Microphone, 4 ... Buffer memory, 5 ... Audio processing part, 6 ... Storage memory, 7 ... Communication part, 10 ... Room, 11 ... Microphone system, 21 ... CPU, 22 ... ROM , 23 ... storage section, 24 ... communication section, 25 ... operation section, 26 ... display section, 41 ... CPU, 42 ... ROM, 43 ... storage section, 44 ... communication section, 45 ... operation section, 46 ... display section, 47 ... Speaker, 100 ... Facility, 200 ... Data server, 300 ... Dedicated line, 400 ... Terminal device, 500 ... Dedicated line.

Claims (7)

所定領域から音を収音する複数の収音手段から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、前記収音手段を識別する識別情報に関連付けて、時系列に記憶する記憶手段と、
区間を指定する区間指定手段と、
前記時刻情報に基づいて、前記区間指定手段により指定された区間に対応する音データを前記記憶手段から時系列に読み出し、読み出した音データを前記識別情報毎に報知する報知手段と
を備えることを特徴とする音記録装置。
Associating sound data output from a plurality of sound collecting means for collecting sound from a predetermined area with time information indicating the time when the sound data was output, and associating it with identification information for identifying the sound collecting means, Storage means for storing in time series;
A section specifying means for specifying a section;
Based on the time information, comprising: notifying means for reading sound data corresponding to the section specified by the section specifying means in time series from the storage means, and notifying the read sound data for each identification information. A characteristic sound recording device.
前記報知手段は、前記時刻情報に基づいて、前記区間指定手段により指定された区間に対応する音データを前記記憶手段から時系列に読み出し、読み出した音データを前記識別情報毎に異なる態様で報知する
ことを特徴とする請求項1に記載の音記録装置。
The informing means reads out sound data corresponding to the section specified by the section specifying means in time series based on the time information, and notifies the read out sound data in a different manner for each identification information. The sound recording device according to claim 1, wherein:
所定領域から音を収音する複数の収音手段から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、前記収音手段を識別する識別情報に関連付けて、時系列に記憶する音データ記憶手段と、
前記収音手段の位置を表す位置情報を、前記識別情報に関連付けて記憶する位置情報記憶手段と、
前記音データ記憶手段に記憶された音データと、前記位置情報記憶手段に記憶された位置情報とから、前記所定領域内の音源の位置を、時間の経過に従って予め定められた単位時間毎に推定する位置推定手段と、
前記位置推定手段によって推定された音源の位置の変化を報知する報知手段と
を備えることを特徴とする音記録装置。
Associating sound data output from a plurality of sound collecting means for collecting sound from a predetermined area with time information indicating the time when the sound data was output, and associating it with identification information for identifying the sound collecting means, Sound data storage means for storing in time series;
Position information storage means for storing position information representing the position of the sound collection means in association with the identification information;
From the sound data stored in the sound data storage means and the position information stored in the position information storage means, the position of the sound source in the predetermined area is estimated for each predetermined unit time over time. Position estimation means for
A sound recording apparatus comprising: an informing means for informing a change in the position of the sound source estimated by the position estimating means.
所定領域から音を収音する収音手段から出力される音データから、前記所定領域内の音源の位置を、時間の経過に従って予め定められた単位時間毎に推定する位置推定手段と、
前記位置推定手段によって推定された音源の位置の変化を報知する報知手段と
を備えることを特徴とする音記録装置。
Position estimation means for estimating the position of the sound source in the predetermined area for each predetermined unit time as time elapses from sound data output from the sound collection means for collecting sound from the predetermined area;
A sound recording apparatus comprising: an informing means for informing a change in the position of the sound source estimated by the position estimating means.
請求項3乃至4のいずれかに記載の音記録装置において、
前記位置推定手段によって推定された位置が予め定められた位置に対応する場合に、その旨を警告する位置警告手段
を備えることを特徴とする音記録装置。
The sound recording device according to any one of claims 3 to 4,
A sound recording apparatus comprising: position warning means for warning that the position estimated by the position estimating means corresponds to a predetermined position.
請求項1乃至5のいずれかに記載の音記録装置において、
前記収音手段から出力される音データの特徴が予め定められた特徴に対応する場合に、その旨を警告する特徴警告手段
を備えることを特徴とする音記録装置。
The sound recording device according to any one of claims 1 to 5,
A sound recording apparatus comprising: characteristic warning means for warning that the feature of the sound data output from the sound collecting means corresponds to a predetermined feature.
コンピュータに、
所定領域から音を収音する複数の収音手段から出力される音データを、当該音データが出力された時刻を表す時刻情報に対応付けるとともに、前記収音手段を識別する識別情報に関連付けて、記憶手段に時系列に記憶する記憶制御機能と、
区間を指定する区間指定機能と、
前記時刻情報に基づいて、前記区間指定機能により指定した区間に対応する音データを前記記憶手段から時系列に読み出し、読み出した音データを前記識別情報毎に報知する報知機能と
を実現させるプログラム。
On the computer,
Associating sound data output from a plurality of sound collecting means for collecting sound from a predetermined area with time information indicating the time when the sound data was output, and associating it with identification information for identifying the sound collecting means, A storage control function for storing the time series in the storage means;
An interval specification function for specifying an interval;
A program for realizing, based on the time information, a notification function for reading sound data corresponding to a section specified by the section specifying function in time series from the storage unit and notifying the read sound data for each identification information.
JP2006185988A 2006-07-05 2006-07-05 Sound recorder and program Pending JP2008015773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006185988A JP2008015773A (en) 2006-07-05 2006-07-05 Sound recorder and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006185988A JP2008015773A (en) 2006-07-05 2006-07-05 Sound recorder and program

Publications (1)

Publication Number Publication Date
JP2008015773A true JP2008015773A (en) 2008-01-24

Family

ID=39072723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006185988A Pending JP2008015773A (en) 2006-07-05 2006-07-05 Sound recorder and program

Country Status (1)

Country Link
JP (1) JP2008015773A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110532A (en) * 2012-12-03 2014-06-12 Japan Radio Co Ltd Undulating signal distribution device and signal processing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110532A (en) * 2012-12-03 2014-06-12 Japan Radio Co Ltd Undulating signal distribution device and signal processing device

Similar Documents

Publication Publication Date Title
US10176705B1 (en) Audio monitoring and sound identification process for remote alarms
US10490042B1 (en) Chronological activity monitoring and review
JP4232032B2 (en) Acoustic device and monitoring method using the acoustic device
CN101352051B (en) Method and apparatus of generating a voice siren in a security system
US10152877B2 (en) Systems and methods for adaptive detection of audio alarms
US7319392B2 (en) Glassbreak alarm recorder for false alarm verification
US20190180735A1 (en) Ambient sound classification based message routing for local security and remote internet query systems
JP2012048689A (en) Abnormality detection apparatus
JP2006235996A (en) Warning system and warning device
WO2017156895A1 (en) Multimedia playing method and device
JP2013072919A (en) Sound determination system, sound determination method, and sound determination program
JP5627962B2 (en) Anomaly detection device
JP2008015773A (en) Sound recorder and program
JP2008015196A (en) Sound recording device and program
CN109218913B (en) Sound adjusting method, terminal equipment and device with storage function
CN105474665A (en) Sound processing apparatus, sound processing system, and sound processing method
US20020030738A1 (en) Web based monitoring system
JP4451301B2 (en) Monitoring system and method for monitoring the environment
JP2011199795A (en) Sound emitting system and av system
JP2007228287A (en) Intercom device
JP5378201B2 (en) Sensing device, sensor information acquisition device, sensing method, and remote sensing method
JP2005292726A (en) Sound environment detecting device and program
US20230229383A1 (en) Hearing augmentation and wearable system with localized feedback
JP2008289084A (en) Monitoring system and monitoring apparatus
KR200192722Y1 (en) A integrated management and control system