JP2010203800A - Method and apparatus for estimating sound source - Google Patents

Method and apparatus for estimating sound source Download PDF

Info

Publication number
JP2010203800A
JP2010203800A JP2009046835A JP2009046835A JP2010203800A JP 2010203800 A JP2010203800 A JP 2010203800A JP 2009046835 A JP2009046835 A JP 2009046835A JP 2009046835 A JP2009046835 A JP 2009046835A JP 2010203800 A JP2010203800 A JP 2010203800A
Authority
JP
Japan
Prior art keywords
sound
time
sound source
file
sound pressure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009046835A
Other languages
Japanese (ja)
Other versions
JP5242452B2 (en
Inventor
Masanao Owaki
雅直 大脇
Takeshi Zaima
健史 財満
Koji Mase
甲治 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Kumagai Gumi Co Ltd
Original Assignee
Honda Motor Co Ltd
Kumagai Gumi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Kumagai Gumi Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009046835A priority Critical patent/JP5242452B2/en
Priority to CN201010123928.0A priority patent/CN101820565B/en
Priority to US12/713,425 priority patent/US8363512B2/en
Publication of JP2010203800A publication Critical patent/JP2010203800A/en
Application granted granted Critical
Publication of JP5242452B2 publication Critical patent/JP5242452B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an apparatus therefor by which the sound source is estimated with high reliability even when sudden sound or intermittent sound occurs. <P>SOLUTION: Sound and image are sampled simultaneously using a sound/video sampling unit incorporating a plurality of microphones and a camera, and sound pressure waveform data and image data are then temporally stored in a buffer. When a command for a measurement start signal is issued from an image control unit at time t<SB>0</SB>, the data stored in the buffer during a period between time t<SB>1</SB>=t<SB>0</SB>-T<SB>z</SB>that is retroactive from time t<SB>0</SB>by a prescribed retroactive time length T<SB>z</SB>and time t<SB>2</SB>=t<SB>0</SB>+(T<SB>w</SB>-T<SB>z</SB>) is taken out, and a sound file and a video file are created to store them in a memory. A phase difference between sound pressure signals of the sound sampled by the plurality of microphones is calculated by using the sound pressure waveform data of the stored sound file so that the sound source direction is estimated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数のマイクロフォンで採取した音の情報と、撮影手段で撮影した映像の情報とを用いて、音源を推定する方法とその装置に関するものである。   The present invention relates to a method and apparatus for estimating a sound source using sound information collected by a plurality of microphones and video information photographed by a photographing means.

従来、音の到来方向を推定する方法としては、多数のマイクロフォンを等間隔に配置したマイクロフォンアレーを構築し、基準となるマイクロフォンに対する各マイクロフォンの位相差から音波の到来方向である音源方向を推定する、いわゆる音響学的手法が考案されている(例えば、非特許文献1参照)。
一方、計測点に配置された複数のマイクロフォンの出力信号の位相差からではなく、複数のマイクロフォンから互いに交わる直線状に配置された複数のマイクロフォン対を構成し、対となる2つのマイクロフォン間の位相差に相当する到達時間差と、他の対となる2つのマイクロフォン間の到達時間差との比から音源方向を推定する方法が提案されている(例えば、特許文献1〜3参照)。
Conventionally, as a method of estimating the direction of sound arrival, a microphone array in which a large number of microphones are arranged at equal intervals is constructed, and the sound source direction that is the direction of sound wave arrival is estimated from the phase difference of each microphone relative to the reference microphone. So-called acoustic techniques have been devised (for example, see Non-Patent Document 1).
On the other hand, not a phase difference between output signals of a plurality of microphones arranged at a measurement point, but a plurality of microphone pairs arranged in a straight line intersecting each other from the plurality of microphones, and the position between the two microphones constituting the pair There has been proposed a method of estimating a sound source direction from a ratio between an arrival time difference corresponding to a phase difference and an arrival time difference between two paired two microphones (see, for example, Patent Documents 1 to 3).

具体的には、図6に示すように、4個のマイクロフォンM1〜M4を、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するように配置し、前記マイクロフォン対(M1,M3)を構成するマイクロフォンM1,M3に入力する音圧信号の到達時間差と、前記マイクロフォン対(M2,M4)を構成するマイクロフォンM2,M4に入力する音圧信号の到達時間差との比から、計測点と音源の位置との成す水平角θを推定するとともに、第5のマイクロフォンM5を前記マイクロフォンM1〜M4の作る平面上にない位置に配置して、更に4組のマイクロフォン対(M5, M1),(M5, M2),(M5, M3),(M5, M4)を構成し、前記各マイクロフォン対を構成するマイクロフォン間の到達時間差から、計測点と音源の位置との成す仰角φを推定する。   Specifically, as shown in FIG. 6, two microphone pairs (M1, M3) and microphone pairs (four microphones M1 to M4) are arranged at predetermined intervals on two straight lines orthogonal to each other. M2, M4) are arranged so as to constitute the microphone pair (M1, M3) and the microphones constituting the microphone pair (M2, M4) and the arrival time difference of the sound pressure signals input to the microphones M1, M3. The horizontal angle θ formed by the measurement point and the position of the sound source is estimated from the ratio between the arrival time differences of the sound pressure signals input to M2 and M4, and the fifth microphone M5 is placed on the plane formed by the microphones M1 to M4. Further, four microphone pairs (M5, M1), (M5, M2), (M5, M3), (M5, M4) are configured, The elevation angle φ formed by the measurement point and the position of the sound source is estimated from the arrival time difference between the microphones constituting the microphone pair.

これにより、マイクロフォンアレーを用いて音源方向を推定する場合に比較して、少ないマイクロフォン数で音源方向を正確に推定することができる。
また、このとき、CCDカメラ等の映像採取手段を設けて前記推定された音源方向の映像を撮影した後、この映像のデータと音源方向のデータとを合成して、映像中に前記推定した音源方向と音圧レベルとを図形で表示するようにすれば、音源を視覚的に把握することができる。
また、音の採取と同時に映像採取手段にて映像を連続的に撮影し、音の情報とともに、映像の情報を動画としてコンピュータに保存しておき、その後音源方向の計算を行って映像中に推定した音源方向と音圧レベルとを図形を表示して音源を推定する方法も行われている。
Thereby, compared with the case where the sound source direction is estimated using the microphone array, the sound source direction can be accurately estimated with a small number of microphones.
Further, at this time, a video sampling means such as a CCD camera is provided to shoot a video of the estimated sound source direction, and then the video data and the data of the sound source direction are combined to generate the estimated sound source in the video. If the direction and the sound pressure level are displayed graphically, the sound source can be grasped visually.
At the same time as the sound is collected, the video is continuously captured by the video sampling means, and the video information is stored in the computer together with the sound information, and then the direction of the sound source is calculated and estimated in the video. There is also a method of estimating a sound source by displaying a figure of the sound source direction and sound pressure level.

特開2002−181913号公報Japanese Patent Laid-Open No. 2002-181913 特開2006−324895号公報JP 2006-324895 A 特開2008−224259号公報JP 2008-224259 A

大賀寿郎,山崎芳男,金田豊;音響システムとディジタル処理,コロナ社,1995Toshiro Oga, Yoshio Yamazaki, Yutaka Kaneda; Acoustic system and digital processing, Corona, 1995

ところで、前記従来の方法では、予め設定された所定の測定時間(例えば、120秒)だけ採取した音の情報と映像の情報とをコンピュータに取り込んだ後に、この取り込んだ情報を用いて音源方向の計算を行っていた。そのため、突発的な音や間欠的な音が発生した場合、測定仕損じたりすることがあり、不要なデータのみを解析してしまうなど、効率的な測定が困難であるといった問題点があった。   By the way, in the above-described conventional method, sound information and video information collected for a predetermined measurement time (for example, 120 seconds) set in advance are captured in a computer, and then the sound source direction is determined using the captured information. I was doing calculations. Therefore, when sudden or intermittent sounds occur, measurement may be lost, and there is a problem that efficient measurement is difficult, such as analyzing only unnecessary data. .

本発明は、従来の問題点に鑑みてなされたもので、突発的な音や間欠的な音が発生した場合でも、音源の推定を確実に行うことのできる方法とその装置を提供することを目的とする。   The present invention has been made in view of the conventional problems, and provides a method and apparatus capable of reliably estimating a sound source even when a sudden sound or an intermittent sound is generated. Objective.

本願の請求項1に記載の発明は、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形データと採取した映像の画像データとを用いて音源を推定する音源の推定方法であって、前記採取した音の音圧波形データと採取した映像の画像データとをそれぞれ一時保存ファイルに保存するとともに、音源方向の測定開始の指令が発せられたときには、前記測定開始の指令が発せられた時刻から所定の遡行時間長だけ遡った時刻から予め設定された解析時間長分だけ経過した時刻までの間に前記一時保存ファイルに保存される音圧波形データと画像データとを抽出し、これらのデータをそれぞれ音ファイル及び動画ファイルとして記憶手段に保存し、この保存された音ファイルの音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出して音源方向を推定した後、前記推定された音源方向と前記動画ファイルに保存されている前記音源方向の推定に用いられた時間内に撮影された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて音源を推定することを特徴とする。   The invention according to claim 1 of the present application collects sound information and video information at the same time using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated, and A sound source estimation method for estimating a sound source using sound pressure waveform data that is data of a sound pressure signal and image data of a collected video, the sound pressure waveform data of the collected sound and image data of the collected video Are stored in temporary storage files, and when a sound source direction measurement start command is issued, an analysis set in advance from a time that is a predetermined retrograde time length from the time when the measurement start command is issued. Sound pressure waveform data and image data stored in the temporary storage file are extracted up to the time elapsed by the length of time, and these data are extracted as sound file and video file respectively. As a storage means, using the sound pressure waveform data of the saved sound file, after calculating the phase difference between the sound pressure signals of the sound collected by the plurality of microphones to estimate the sound source direction, A figure indicating the estimated sound source direction is drawn by combining the estimated sound source direction and the image data captured within the time used for estimating the sound source direction stored in the moving image file. A sound source position estimation image is created, and a sound source is estimated using the sound source position estimation image.

請求項2に記載の発明は、請求項1に記載の音源の推定方法であって、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取する第1のステップと、前記採取した音の音圧信号と映像の信号とをA/D変換してそれぞれ音圧波形データ及び画像データとして、データを所定の期間だけ保存する第1の記憶手段に保存する第2のステップと、音源方向の測定開始の指令を発する第3のステップと、前記第1の記憶手段から音源の推定に用いる解析時間長分の音圧波形データと画像データとを抽出して、前記抽出された音圧波形データと画像データとをそれぞれ音ファイル及び動画ファイルとして第2の記憶手段に保存する第4のステップと、前記音ファイルから、音源方向の推定演算に用いる演算時間長分の音圧波形データを抽出して、前記複数のマイクロフォンで採取した音の音圧信号の位相差を算出して音源方向を推定する第5のステップと、前記動画ファイルから、前記演算の開始時刻と終了時刻との間の時刻の画像データを抽出する第6のステップと、前記第5のステップで推定された音源方向と、前記第6のステップで抽出された画像データとを合成し、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成して表示する第7のステップと、前記音源位置推定画像を用いて音源を推定する第8のステップとを備え、前記第4のステップで第1の記憶手段から抽出する前記解析時間長分の音圧波形データと画像データが、前記測定開始の指令が発せられた時刻である第1の時刻よりも予め設定された遡行時間長だけ前の時刻である第2の時刻から前記第1の時刻までの間に前記第1の記憶手段に保存された音圧波形データと画像データと、前記第1の時刻から、前記第1の時刻から前記解析時間長よりも前記遡行時間長分だけ短い時間長だけ経過した第3の時刻までの間に前記第1の記憶手段に保存される音圧波形データと画像データであることを特徴とする。   The invention according to claim 2 is the sound source estimation method according to claim 1, wherein sound information and video information are obtained using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated. And a first step of A / D converting the collected sound pressure signal and video signal as sound pressure waveform data and image data, respectively, and storing the data for a predetermined period. A second step of saving in one storage means, a third step of issuing a sound source direction measurement start command, and sound pressure waveform data for an analysis time length used for estimation of the sound source from the first storage means; A fourth step of extracting image data and storing the extracted sound pressure waveform data and image data in a second storage means as a sound file and a moving image file, respectively, and a sound source direction from the sound file A fifth step of extracting sound pressure waveform data for a calculation time length used for estimation calculation, calculating a phase difference of sound pressure signals of sounds collected by the plurality of microphones, and estimating a sound source direction; and the moving image A sixth step of extracting image data at a time between the start time and end time of the calculation from the file, a sound source direction estimated in the fifth step, and a sound source direction extracted in the sixth step A seventh step of synthesizing with the image data to create and display a sound source position estimation image in which a graphic showing the estimated sound source direction is drawn; and an eighth step of estimating a sound source using the sound source position estimation image The sound pressure waveform data and the image data for the analysis time length extracted from the first storage means in the fourth step are the times when the measurement start command is issued. Than time Sound pressure waveform data and image data stored in the first storage means between a second time which is a time before the set retroactive time length and the first time, and the first The sound pressure waveform data stored in the first storage means from the first time to a third time that has passed by a time length shorter than the analysis time length by the backward time length. It is image data.

請求項3に記載の発明は、請求項2に記載の音源の推定方法であって、前記第4のステップと前記第5のステップとの間に、前記音ファイルに保存された音圧波形のデータから、音圧波形の時系列波形のグラフを作成して表示するステップと、前記表示されたグラフの任意の時刻を指定するステップとを設け、前記第5のステップでは、指定された時刻から前記演算時間長分の音圧波形データを前記音ファイルから抽出することを特徴とする。   A third aspect of the present invention is the sound source estimation method according to the second aspect, wherein a sound pressure waveform stored in the sound file is stored between the fourth step and the fifth step. A step of creating and displaying a graph of a time-series waveform of a sound pressure waveform from the data, and a step of designating an arbitrary time of the displayed graph are provided. In the fifth step, from the designated time Sound pressure waveform data for the operation time length is extracted from the sound file.

また、請求項4に記載の発明は、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を有するマイクロフォン群と音源方向の映像を撮影する撮影手段と表示手段とを備え、前記マイクロフォン群で採取した音源から伝播する音の音圧信号と音源方向を撮影した映像信号とから、音源方向を示す図形が描画された画像を作成して表示手段に表示して音源を推定する音源の推定装置であって、前記各マイクロフォンで採取した音圧信号と撮影手段で撮影した映像信号とをそれぞれデジタル信号に変換するA/D変換器と、前記A/D変換された音圧信号を音圧波形データとし、前記A/D変換された映像信号を画像データとして所定の期間一時的に保存する第1の記憶手段と、音源方向の推定を開始するための指令信号を出力する手段と、音源の推定に用いる音圧波形データと画像データとを保存する第2の記憶手段と、前記指令信号が入力されたときに、前記第1の記憶手段から音源の推定に用いる解析時間長分の音圧波形データと画像データとを抽出して、音ファイルと動画ファイルとを作成し、これらのファイルを前記第2の記憶手段に出力する解析ファイル作成手段と、前記音ファイルから音源方向の推定演算に用いる演算時間長分の音圧波形データを抽出し、この抽出された音圧波形データを周波数解析して前記2組のマイクロフォン対を構成するマイクロフォン間のそれぞれの位相差を求め、この求められた2組のマイクロフォン対の位相差の比から音源方向を推定する音源方向推定手段と、前記動画ファイルから、前記推定演算の開始時刻と終了時刻との間の時刻における画像データを抽出する画像データ抽出手段と、前記推定された音源方向のデータと前記抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成する音源位置推定画像作成手段とを備え、前記解析ファイル作成手段は、前記測定開始の指令が発せられた時刻である第1の時刻よりも予め設定された遡行時間長だけ前の時刻である第2の時刻から前記第1の時刻までの間に前記第1の記憶手段に保存された音圧波形データと画像データと、前記第1の時刻から、前記第1の時刻から前記解析時間長よりも前記遡行時間長分だけ短い時間長だけ経過した第3の時刻までの間に前記第1の記憶手段に保存される音圧波形データと画像データとを抽出して前記音ファイルと前記動画ファイルとを作成することを特徴とする。   According to a fourth aspect of the present invention, there is provided a microphone group having two pairs of microphones arranged at predetermined intervals on two mutually intersecting straight lines, a photographing means for photographing a sound source direction image, and a display means. An image in which a graphic showing the direction of the sound source is drawn from the sound pressure signal of the sound propagated from the sound source collected by the microphone group and the image signal of the direction of the sound source is generated and displayed on the display means. An apparatus for estimating a sound source to be estimated, wherein an A / D converter that converts a sound pressure signal collected by each microphone and a video signal photographed by a photographing means into digital signals, and the A / D converted sound A first storage means for temporarily storing a pressure signal as sound pressure waveform data, and temporarily storing the A / D converted video signal as image data for a predetermined period, and for starting estimation of a sound source direction Means for outputting a command signal; second storage means for storing sound pressure waveform data and image data used for sound source estimation; and when the command signal is input, the first storage means Extracting sound pressure waveform data and image data for an analysis time length used for estimation, creating a sound file and a moving image file, and outputting these files to the second storage means; Sound pressure waveform data corresponding to the calculation time length used for the calculation of the sound source direction is extracted from the sound file, and each of the microphones constituting the two microphone pairs is analyzed by frequency analysis of the extracted sound pressure waveform data. A sound source direction estimating means for estimating a sound source direction from the phase difference ratio of the two pairs of microphones thus determined, and starting the estimation calculation from the moving image file. Image data extraction means for extracting image data at a time between the time and the end time, and the estimated sound source direction data and the extracted image data are combined to indicate the estimated sound source direction Sound source position estimation image creation means for creating a sound source position estimation image on which a figure is drawn, and the analysis file creation means is set in advance from a first time which is a time when the measurement start command is issued. From the first time, the sound pressure waveform data and image data stored in the first storage means between the second time and the first time, which is the time before the backward time length, Sound pressure waveform data and image data stored in the first storage means from the first time to a third time that is shorter than the analysis time length by the backward time length. Extract the sound A file and the moving image file are created.

請求項5に記載の発明は、請求項4に記載の音源の推定装置において、前記マイクロフォン群に、前記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンを追加するとともに、前記音源方向推定手段では、前記2組のマイクロフォン対を構成するマイクロフォン間の位相差と、前記第5のマイクロフォンと前記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差とを用いて音源方向を推定することを特徴とする。   According to a fifth aspect of the present invention, in the sound source estimating apparatus according to the fourth aspect, a fifth microphone not on a plane formed by the two pairs of microphones is added to the microphone group, and the sound source direction is added. In the estimation means, the four sets of microphones constituted by the phase difference between the microphones constituting the two sets of microphone pairs, and each of the fifth microphone and the four microphones constituting the two sets of microphone pairs. A sound source direction is estimated using a phase difference between microphones constituting a pair.

本発明によれば、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形のデータと映像の画像データとをそれぞれ記憶手段の一次保存ファイルに保存するとともに、音源方向の測定開始の指令が発せられたときには、指令が発せられた時刻から所定の遡行時間長だけ遡った時刻から予め設定された解析時間長分だけ経過した時刻までの間に前記一時保存ファイルに保存される音圧波形データと画像データとを抽出し、これらのデータを音ファイル及び動画ファイルとして記憶手段に保存し、この保存された音ファイルの音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出して音源方向を推定するようにしたので、突発的な音や間欠的な音が発生した場合でも、これらの音の発生源の方向を確実に推定することができる。したがって、測定の仕損じをなくすことができるとともに、不要な測定データの増加を防ぐことができるので、音源位置の推定を効率良く行うことができる。
また、音源を推定する際には、推定された音源方向と前記推定演算時間内に撮影された画像データとを合成して、推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて、前記音源を推定するようにしたので、音源を確実に推定できる。
According to the present invention, sound information and video information are simultaneously collected using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated, and the sound pressure signal data of the collected sound is collected. The sound pressure waveform data and the video image data are respectively stored in the primary storage file of the storage means, and when a command to start measurement of the sound source direction is issued, a predetermined backward time from the time when the command is issued Sound pressure waveform data and image data that are stored in the temporary storage file are extracted from a time that is back by a length of time to a time that has passed by a preset analysis time length, and these data are extracted as sound files and moving images. This is stored as a file in the storage means, and using the sound pressure waveform data of the stored sound file, the phase difference between the sound pressure signals of the sounds collected by the plurality of microphones is calculated. Since so as to estimate the sound source direction and, even if a sudden sound or intermittent sound is generated, the direction of the source of these sounds can be reliably estimated. Therefore, it is possible to eliminate measurement failures and prevent an increase in unnecessary measurement data, so that the sound source position can be estimated efficiently.
Further, when estimating the sound source, the estimated sound source direction and the image data captured within the estimation calculation time are combined, and a sound source position estimation image on which a figure indicating the estimated sound source direction is drawn is obtained. Since the sound source is created and estimated using the sound source position estimation image, the sound source can be reliably estimated.

また、請求項2に記載のステップに従って音源を推定するようにすれば、突発的な音や間欠的な音の発生源を確実に推定することができる。
また、表示する音圧レベルの時系列波形を採取音の大きさの時系列波形とすれば、伝播音の大きさに応じた音源位置の推定を行うことができる。
また、音ファイルに保存された音圧波形のデータから、音圧波形の時系列波形のグラフを作成して表示するとともに、このグラフの任意の時刻を指定し、指定された時刻から演算時間長分の音圧波形データを音ファイルから抽出して音源方向を推定することにより、音ファイルに保存された音圧波形のデータを効率良くかつ効果的に利用することができるので、音源位置の推定を効率良く行うことができる。
In addition, if the sound source is estimated according to the steps described in claim 2, it is possible to reliably estimate the source of sudden or intermittent sound.
If the time series waveform of the sound pressure level to be displayed is the time series waveform of the magnitude of the collected sound, the sound source position can be estimated according to the magnitude of the propagation sound.
In addition, a time-series waveform graph of the sound pressure waveform is created and displayed from the sound pressure waveform data saved in the sound file, and an arbitrary time on this graph is specified, and the calculation time length from the specified time By extracting the sound pressure waveform data for the minute from the sound file and estimating the sound source direction, the sound pressure waveform data stored in the sound file can be used efficiently and effectively, so the sound source position is estimated. Can be performed efficiently.

また、請求項4に記載の音源の推定装置を用いることにより、突発的な音や間欠的な音の発生源を確実に推定することができる。
このとき、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を構成する第1〜第4のマイクロフォンと、2組のマイクロフォン対の作る平面上にない第5のマイクロフォンとから成る音採取手段を構成し、2組のマイクロフォン対を構成するマイクロフォン間の位相差の比と、前記第1〜第5のマイクロフォン間の位相差とを用いて音源方向を推定するようにすれば、少ないマイクロフォン数で、効率良くかつ正確に水平角θと仰角φとを推定することができる。
In addition, by using the sound source estimation apparatus according to claim 4, it is possible to reliably estimate the source of sudden sound or intermittent sound.
At this time, the first to fourth microphones constituting the two microphone pairs arranged on the two straight lines intersecting each other at a predetermined interval and the fifth microphone not on the plane formed by the two microphone pairs And the sound source direction is estimated using the phase difference ratio between the microphones constituting the two microphone pairs and the phase difference between the first to fifth microphones. Then, the horizontal angle θ and the elevation angle φ can be estimated efficiently and accurately with a small number of microphones.

なお、前記発明の概要は、本発明の必要な全ての特徴を列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となり得る。   The summary of the invention does not enumerate all necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本実施の形態に係る音源推定システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the sound source estimation system which concerns on this Embodiment. 本発明による音源の推定方法を示すフローチャートである。3 is a flowchart illustrating a sound source estimation method according to the present invention. 遡行モードにおけるデータの取出し方法を説明するための図である。It is a figure for demonstrating the extraction method of the data in retrograde mode. 音源位置推定画面が表示された表示画面の一例を示す図である。It is a figure which shows an example of the display screen as which the sound source position estimation screen was displayed. 音圧レベルの時系列波形のグラフが表示された表示画面の一例を示す図である。It is a figure which shows an example of the display screen on which the graph of the time-sequential waveform of a sound pressure level was displayed. 従来のマイクロフォン対を用いた音源探査方法における各マイクロフォンの配列を示す図である。It is a figure which shows the arrangement | sequence of each microphone in the sound source search method using the conventional microphone pair.

以下、実施の形態を通じて本発明を詳説するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また、実施の形態の中で説明される特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described in detail through embodiments, but the following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

以下、本発明の実施の形態について、図面に基づき説明する。
図1は音源推定システムの構成を示す機能ブロック図である。
音源推定システムは、音・映像採取ユニット10と制御ユニット20と音源位置推定装置30とを備える。
音・映像採取ユニット10は、音採取手段11と、映像採取手段としてのCCDカメラ(以下、カメラという)12と、マイクロフォン固定部13と、カメラ支持台14と、支柱15と、回転台16と、基台17とを備える。音採取手段11は複数のマイクロフォンM1〜M5を備える。
マイクロフォン固定部13にはマイクロフォンM1〜M5が設置され、カメラ支持台14にはカメラ12が設置され、マイクロフォン固定部13とカメラ支持台14とは、3本の支柱15によって連結されている。つまり、音採取手段11とカメラ12とは一体化されている。なお、マイクロフォンM1〜M5は、カメラ12の上部に配置される。
基台17は3脚から成る支持部材で、この基台17上に回転台16が設置されている。カメラ支持台14は回転台16の回転部材16rに搭載されている。
したがって、回転部材16rを回転させることにより、音採取手段11とカメラ12とを一体に回転させることができる。
マイクロフォンM1〜M5は、図示しない音源から伝播される音の音圧レベルをそれぞれ測定する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a functional block diagram showing the configuration of the sound source estimation system.
The sound source estimation system includes a sound / video sampling unit 10, a control unit 20, and a sound source position estimation device 30.
The sound / image collection unit 10 includes a sound collection unit 11, a CCD camera (hereinafter referred to as a camera) 12 as a video collection unit, a microphone fixing unit 13, a camera support 14, a column 15, and a turntable 16. The base 17 is provided. The sound collection means 11 includes a plurality of microphones M1 to M5.
The microphones M1 to M5 are installed on the microphone fixing unit 13, the camera 12 is installed on the camera support base 14, and the microphone fixing unit 13 and the camera support base 14 are connected by three support columns 15. That is, the sound collection means 11 and the camera 12 are integrated. The microphones M1 to M5 are disposed on the upper part of the camera 12.
The base 17 is a support member composed of three legs, and the turntable 16 is installed on the base 17. The camera support 14 is mounted on the rotation member 16r of the turntable 16.
Therefore, the sound collecting means 11 and the camera 12 can be rotated together by rotating the rotating member 16r.
Microphones M1 to M5 each measure the sound pressure level of sound propagated from a sound source (not shown).

マイクロフォンM1〜M5の配置は、前記図6に示したものと同様で、4個のマイクロフォンM1〜M4を、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するように配置するとともに、第5のマイクロフォンM5を前記マイクロフォンM1〜M4の作る平面上にない位置、詳細には、マイクロフォンM1〜M4の作る正方形を底面とする四角錐の頂点の位置に配置する。これにより、更に4組のマイクロフォン対(M5, M1)〜(M5, M4)が構成される。
本例では、カメラ12の撮影方向を、前記直交する2直線の交点を通り前記2直線とほぼ45°を成す方向に設定している。したがって、音・映像採取ユニット10の向きは、図1の白抜きの矢印Dの方向となる。カメラ12は、音・映像採取ユニット10の向きに応じた映像を採取する。
The arrangement of the microphones M1 to M5 is the same as that shown in FIG. 6, and two microphone pairs (M1) in which four microphones M1 to M4 are arranged at predetermined intervals on two straight lines orthogonal to each other. , M3) and the microphone pair (M2, M4), and the fifth microphone M5 is not located on the plane formed by the microphones M1 to M4, more specifically, the square formed by the microphones M1 to M4. It is arranged at the position of the apex of the quadrangular pyramid with the bottom face. Thereby, four pairs of microphones (M5, M1) to (M5, M4) are further configured.
In this example, the shooting direction of the camera 12 is set to a direction that passes through the intersection of the two orthogonal lines and forms approximately 45 ° with the two lines. Therefore, the direction of the sound / image collection unit 10 is the direction of the white arrow D in FIG. The camera 12 collects an image corresponding to the direction of the sound / image collection unit 10.

制御ユニット20は、モード切換手段21と、増幅器22と、A/D変換器23と、映像入出力手段24と、第1の記憶手段であるバッファ25と、解析時間長設定手段26と、遡行時間長設定手段27と、ファイル作成手段28とを備える。
音源位置推定装置30は、第2の記憶手段であるメモリー31と、表示手段32と、音圧波形データ取出手段33と、音源方向推定手段34と、画像データ取出手段35と、データ合成手段36とを備える。
The control unit 20 includes a mode switching unit 21, an amplifier 22, an A / D converter 23, a video input / output unit 24, a buffer 25 serving as a first storage unit, an analysis time length setting unit 26, and a retroactive operation. Time length setting means 27 and file creation means 28 are provided.
The sound source position estimation apparatus 30 includes a memory 31 as a second storage means, a display means 32, a sound pressure waveform data extraction means 33, a sound source direction estimation means 34, an image data extraction means 35, and a data synthesis means 36. With.

本例の音源推定システムは、通常モードと遡行モードの2つの測定モードを有する。
通常モードは、音源方向の推定を開始するための指令信号である測定開始信号が入力された時刻から所定の解析時間長分のデータを用いて音源推定を行う。遡行モードは、測定開始信号の入力時より所定時間遡った時刻のデータを用いて音源推定を行う。
モード切換手段21は、モード切換部21aと測定開始信号出力部21bと測定可能表示部21pと遡行有効表示部21qと測定開始用スイッチ21Sとを備える。
モード切換部21aは、測定モードを通常モードと遡行モードの何れか一方に切換えるとともに、ファイル作成手段28にバッファ25からのデータの取出方法を指示する。
測定開始信号出力部21bは、測定開始用スイッチ21Sが押されたときに、測定開始信号を出力する。
測定可能表示部21pは、LEDを点灯させるなどして、バッファ25に測定が可能なデータ数が保存されたことを測定者に視認させる。
遡行有効表示部21qは、LEDを点灯させるなどして、バッファ25に遡行分のデータ数が保存されたことを測定者に視認させる。なお、遡行モードにおいては、遡行有効表示部21qのLEDが点灯していない状態では、測定開始信号は出力されない。
The sound source estimation system of this example has two measurement modes, a normal mode and a backward mode.
In the normal mode, sound source estimation is performed using data for a predetermined analysis time length from the time when a measurement start signal, which is a command signal for starting estimation of the sound source direction, is input. In the retroactive mode, sound source estimation is performed using data at a time that is a predetermined time after the measurement start signal is input.
The mode switching means 21 includes a mode switching unit 21a, a measurement start signal output unit 21b, a measurable display unit 21p, a retroactive display 21q, and a measurement start switch 21S.
The mode switching unit 21a switches the measurement mode to one of the normal mode and the backward mode, and instructs the file creation unit 28 to extract data from the buffer 25.
The measurement start signal output unit 21b outputs a measurement start signal when the measurement start switch 21S is pressed.
The measurable display unit 21p makes the measurer visually recognize that the number of data that can be measured is stored in the buffer 25 by turning on the LED.
The retroactive effective display unit 21q causes the measurer to visually recognize that the number of backward data is stored in the buffer 25 by turning on the LED. In the retrograde mode, the measurement start signal is not output when the LED of the retroactive display 21q is not lit.

増幅器22はローパスフィルタを備え、マイクロフォンM1〜M5で採取した音の音圧信号から高周波ノイズ成分を除去するとともに、前記音圧信号を増幅してA/D変換器23に出力する。A/D変換器23は、前記音圧信号をA/D変換した音圧波形データを作成し、これを、バッファ25に出力する。
映像入出力手段24は、カメラ12で連続的に撮影された映像信号を入力し、所定時間(例えば、1/30秒)毎に撮影方向の画像データを前記バッファ25に出力する。
バッファ25は、音圧波形データと画像データとを所定の期間だけ一時的に保存する。このバッファ25は、第1のバッファ25aと第2のバッファ25bとを備えている。
第1のバッファ25aが一杯になったら、第2のバッファ25bに新たな音圧波形データと画像データとを保存する。そして、第2のバッファ25bが一杯になったら、第1のバッファ25aに保存されているデータを全て消去し、第1のバッファ25aに新たな音圧波形データと画像データとを保存する。
音圧波形データと画像データとを第1のバッファ25aもしくは第2のバッファ25bに記憶する際には、音圧波形データと画像データとを同期させて記憶するか、あるいは、音圧波形データと画像データとにそれぞれに時刻データを付けて記憶するなど、周知の方法を用いることができる。
The amplifier 22 includes a low-pass filter, removes a high frequency noise component from the sound pressure signal of the sound collected by the microphones M <b> 1 to M <b> 5, amplifies the sound pressure signal, and outputs the amplified signal to the A / D converter 23. The A / D converter 23 creates sound pressure waveform data obtained by A / D converting the sound pressure signal, and outputs the sound pressure waveform data to the buffer 25.
The video input / output unit 24 inputs video signals continuously shot by the camera 12 and outputs image data in the shooting direction to the buffer 25 every predetermined time (for example, 1/30 second).
The buffer 25 temporarily stores the sound pressure waveform data and the image data for a predetermined period. The buffer 25 includes a first buffer 25a and a second buffer 25b.
When the first buffer 25a is full, new sound pressure waveform data and image data are stored in the second buffer 25b. When the second buffer 25b is full, all data stored in the first buffer 25a is deleted, and new sound pressure waveform data and image data are stored in the first buffer 25a.
When the sound pressure waveform data and the image data are stored in the first buffer 25a or the second buffer 25b, the sound pressure waveform data and the image data are stored in synchronization, or the sound pressure waveform data and the image data are stored. A known method can be used, such as storing image data with time data attached thereto.

解析時間長設定手段26は、音圧波形データと画像データとを解析して音源を推定するための時間長である解析時間長Twを設定する。
遡行時間長設定手段27は、音源を推定するための測定開始信号が発せられた時刻である第1の時刻t0からの遡行時間長Tzを設定する。
ファイル作成手段28は、バッファ25から、第2の時刻である時刻t1=t0−Tzと第3の時刻である時刻t2=t0+(Tw−Tz)との間に前記バッファ25に保存された音圧波形データと画像データとを取出し、音圧波形データから音ファイル31aを作成し、画像データから動画ファイル31bを作成して、これらのファイル31a,31bをメモリー31に保存する。
The analysis time length setting means 26 sets an analysis time length T w that is a time length for analyzing the sound pressure waveform data and the image data and estimating the sound source.
The retrograde time length setting means 27 sets the retrograde time length T z from the first time t 0 which is the time when the measurement start signal for estimating the sound source is issued.
The file creation means 28 reads from the buffer 25 between the second time t 1 = t 0 −T z and the third time t 2 = t 0 + (T w −T z ). The sound pressure waveform data and image data stored in the buffer 25 are taken out, a sound file 31a is created from the sound pressure waveform data, a moving image file 31b is created from the image data, and these files 31a and 31b are stored in the memory 31. Save to.

メモリー31は、ファイル作成手段28で作成された音ファイル31aと動画ファイル31bとを保存する。メモリー31はRAMで構成され書き換え可能である。
表示手段32は、後述する音源位置を推定するための画像である音源位置推定画像を表示する画像表示部32aと、音源方向の水平角θと音圧レベルとの関係を示す音圧レベル表示部32bとを有する表示画面32Mを備える。
音圧波形データ取出手段33は、音源方向の推定演算を行う音圧波形データ、すなわち、予め設定された解析時間長分の音圧波形データをメモリー31に保存されている音ファイル31aから取出して音源方向推定手段34に出力する。
音源方向推定手段34は、取出された音圧波形データから各マイクロフォンM1〜M5間の位相差を求め、この求められた位相差から音源方向を推定し、その推定結果をデータ合成手段36に出力する。なお、音源方向の推定の詳細については後述する。
The memory 31 stores the sound file 31a and the moving image file 31b created by the file creation means 28. The memory 31 is composed of RAM and can be rewritten.
The display means 32 includes an image display unit 32a that displays a sound source position estimation image that is an image for estimating a sound source position, which will be described later, and a sound pressure level display unit that indicates the relationship between the horizontal angle θ in the sound source direction and the sound pressure level. And a display screen 32M having 32b.
The sound pressure waveform data extracting means 33 extracts sound pressure waveform data for estimating the sound source direction, that is, sound pressure waveform data for a preset analysis time length from the sound file 31 a stored in the memory 31. The sound is output to the sound source direction estimating means 34.
The sound source direction estimating means 34 obtains the phase difference between the microphones M1 to M5 from the extracted sound pressure waveform data, estimates the sound source direction from the obtained phase difference, and outputs the estimation result to the data synthesizing means 36. To do. Details of the estimation of the sound source direction will be described later.

画像データ取出手段35は、メモリー31に保存されている動画ファイル31bから、前記解析時間の開始時刻と終了時刻との真中の時刻における画像データを取出してこれをデータ合成手段36に出力する。
データ合成手段36は、音源方向推定手段34で推定された音源方向のデータと画像データ取出手段35から出力される画像データとを合成し、画像中に音源方向を示す図形が描画された音源方向推定画像を作成して表示手段32に出力する。
The image data extracting unit 35 extracts the image data at the middle time between the start time and the end time of the analysis time from the moving image file 31 b stored in the memory 31 and outputs the image data to the data combining unit 36.
The data synthesizing unit 36 synthesizes the sound source direction data estimated by the sound source direction estimating unit 34 and the image data output from the image data extracting unit 35, and the sound source direction in which a graphic showing the sound source direction is drawn in the image. An estimated image is created and output to the display means 32.

次に、音源推定システムを用いて音源方向を推定する方法について、図2のフローチャートを参照して説明する。
まず、音・映像採取ユニット10と制御ユニット20と音源位置推定装置30とを接続した後、音・映像採取ユニット10を計測点にセットする(ステップS11)。
次に、解析時間長Twと遡行時間長Tzとを設定した後(ステップS12)、測定モードを選択する(ステップS13)。
始めにステップS13で測定モードを遡行モードとした場合について説明する。
測定モードの選択後には、カメラ12の撮影方向を測定予定場所に向け、マイクロフォンM1〜M5にて音を採取し、カメラ12にて測定予定場所の映像を採取する(ステップS14)。
本例では、測定予定場所を音が間欠的に発生する噴水としたので、音・映像採取ユニット10を固定して測定した。なお、噴水の近くで測定する場合には、噴水全体が映像視野に入らなくなるので、回転台16を、例えば、3°/sec.程度のゆっくりした速度で、噴水の中央部を中心に往復させながら、音と映像とを採取するようにすればよい。回転範囲としては±60°程度が適当である。
次に、マイクロフォンM1〜M5の出力信号とカメラ12の映像信号とをそれぞれA/D変換し、音圧波形データと画像データ(以下、データという)とをバッファ25に保存する(ステップS15)。
Next, a method for estimating the sound source direction using the sound source estimation system will be described with reference to the flowchart of FIG.
First, after the sound / video sampling unit 10, the control unit 20, and the sound source position estimating device 30 are connected, the sound / video sampling unit 10 is set at a measurement point (step S11).
Then, after setting a backward time length T z and analysis time length T w (step S12), and select the measurement mode (step S13).
First, the case where the measurement mode is set to the backward mode in step S13 will be described.
After selecting the measurement mode, the shooting direction of the camera 12 is directed to the planned measurement location, the sound is collected by the microphones M1 to M5, and the image of the planned measurement location is collected by the camera 12 (step S14).
In this example, the measurement planned location is a fountain where sound is generated intermittently, so measurement was performed with the sound / video sampling unit 10 fixed. When measuring near the fountain, the entire fountain does not enter the visual field of view, so the rotary table 16 is reciprocated around the center of the fountain at a slow speed of, for example, about 3 ° / sec. However, it is only necessary to collect sound and video. A rotation range of about ± 60 ° is appropriate.
Next, the output signals of the microphones M1 to M5 and the video signal of the camera 12 are A / D converted, respectively, and the sound pressure waveform data and image data (hereinafter referred to as data) are stored in the buffer 25 (step S15).

バッファ25に遡行時間長Tz分のデータが保存されると、遡行有効表示部21qのLEDが点灯するので、測定者はこのLEDの点灯により、遡行モードでの測定が可能か否かを判定する(ステップS16)。
遡行有効表示部21qのLEDが点灯していない場合には、バッファ25に遡行時間長Tz分のデータが保存されていない。したがって、遡行モードでの測定はできないので、遡行有効表示部21qのLEDが点灯するまでデータの保存を継続する。
遡行有効表示部21qのLEDが点灯した場合には、遡行モードでの測定が可能になるので、いつでも測定開始信号を出力できる。
When data for the retrograde time length T z is stored in the buffer 25, the LED of the retroactive display 21q is lit, so that the measurer determines whether measurement in the retrograde mode is possible by lighting this LED. (Step S16).
If the LED of the retroactive display 21q is not lit, data for the retrograde time length T z is not stored in the buffer 25. Accordingly, since the measurement in the retrograde mode cannot be performed, the data storage is continued until the LED of the retroactive display 21q is turned on.
When the LED of the retroactive display 21q is lit, measurement in the retroactive mode is possible, so that a measurement start signal can be output at any time.

次に、測定開始信号が出力されているか否かを判定する(ステップS17)。測定開始信号が出力されていない場合には、データの保存を継続する。
測定開始信号が出力された後も、マイクロフォンM1〜M5の出力信号とカメラ12の映像信号とをそれぞれ音圧波形データと画像データとしてバッファ25に保存する操作を継続する(ステップS18)。
そして、バッファ25に解析時間長Tw分のデータが保存されているか否かを、測定可能表示部21pのLEDの点灯により判定する(ステップS19)。
バッファ25に解析時間長Tw分のデータが保存されていないときには、データの保存を継続する。
バッファ25に解析時間長Tw分のデータが保存された場合には、測定可能表示部21pのLEDが点灯するので、バッファ25からデータを取出して音ファイル31aと動画ファイル31bとを作成し、これらのファイル31a,31bをメモリー31に保存する(ステップS20)。
ステップS20において、バッファ25から取出されるデータは、図3に示すように、第2の時刻t1=t0−Tzから測定開始時刻である第1の時刻t0までの間にバッファ25に保存されたデータである遡行データDzと、第1の時刻t0から第3の時刻t2=t0+(Tw−Tz)までの間に前記バッファ25に保存されたデータである残測定データDrとにより構成される。すなわち、測定開始信号が出力されてから、バッファ25に解析時間長Tw分のデータが保存されるまでの待ち時間は(Tw−Tz)である。
Next, it is determined whether or not a measurement start signal is output (step S17). If the measurement start signal is not output, data storage is continued.
Even after the measurement start signal is output, the operation of storing the output signals of the microphones M1 to M5 and the video signal of the camera 12 as sound pressure waveform data and image data in the buffer 25 is continued (step S18).
Then, whether the data of the analysis time length T w in the buffer 25 are stored, checked by the lighting of the LED measurable display section 21p (step S19).
When the analysis time in the buffer 25 length T w of data is not saved, it continues to store the data.
If the analysis time length T w of data is stored in the buffer 25, since the LED measurable display unit 21p is turned, to create a sound file 31a and video file 31b extracts the data from the buffer 25, These files 31a and 31b are stored in the memory 31 (step S20).
In step S20, as shown in FIG. 3, the data retrieved from the buffer 25 is stored in the buffer 25 between the second time t 1 = t 0 -T z and the first time t 0 that is the measurement start time. in data stored and backward data D z is stored data in the buffer 25 during a period from a first time t 0 to a third time t 2 = t 0 + (T w -T z) in It consists of some residual measurement data Dr. That is, the waiting time from when the measurement start signal is output to when the data for the analysis time length T w is stored in the buffer 25 is (T w −T z ).

次に、音ファイルから、予め設定された演算時間長Tcの音圧波形データを抽出して、音源方向の推定を行う(ステップS21)。
音源方向の推定は、音圧波形データをFFTにて周波数解析し、各周波数毎にマイクロフォンM1〜M5間のそれぞれの位相差を求め、この求められた位相差から各周波数毎に音源方向を推定する。なお、本例では、位相差に代えて、位相差に比例する物理量である到達時間差を用いて水平角θ及び仰角φを求めている。
このステップS21の水平角θ及び仰角φの計算方法については後述する。
Next, sound pressure waveform data having a preset calculation time length Tc is extracted from the sound file, and the sound source direction is estimated (step S21).
The sound source direction is estimated by frequency-analyzing the sound pressure waveform data by FFT, obtaining the respective phase differences between the microphones M1 to M5 for each frequency, and estimating the sound source direction for each frequency from the obtained phase difference. To do. In this example, instead of the phase difference, the horizontal angle θ and the elevation angle φ are obtained using the arrival time difference which is a physical quantity proportional to the phase difference.
The calculation method of the horizontal angle θ and the elevation angle φ in step S21 will be described later.

次に、演算時間の中心時刻tm、すなわち、演算開始時刻tcから演算時間長Tcの半分の長さだけ過ぎた時刻tm=tc+(Tc/2)に位置する画像データGcを動画ファイルから抽出する(ステップS22)。
そして、前記計算された周波数毎の音源方向のデータ(θf,φf)と前記画像データGcとを合成し、この合成された画像である音源位置推定画像を表示手段32の表示画面32Mに設けられた画像表示部32aに音源位置推定画面として表示する(ステップS23)。
図4はその一例を示す図で、画像表示部32aには、前記画像データGcの上に、音源方向を表す図形(網目模様の丸印)37が描画された音源位置推定画面38が表示される。音源位置推定画面38の横軸は水平角θfで、縦軸は仰角φfである。また、丸の大きさは音圧レベルを表す。
なお、推定された音源方向を、予め設定した周波数帯域毎に表示することも可能である。この場合には、周波数帯域毎に網目模様の丸印37の色を設定すればよい。
また、音圧レベル表示部32bには、横軸を水平角θ(deg.)としたときの音圧レベル(dB)を表示した音圧レベル表示画面39が表示される。
最後に、音源位置推定画面38から音源を推定する(ステップS24)。音源位置推定画面38において、音源方向を表す図形37が描画されている箇所に映っている映像が推定される音源の映像である。
Next, the image data located at the center time t m of the calculation time, that is, at the time t m = t c + (T c / 2), which is half the calculation time length T c from the calculation start time t c. Gc is extracted from the moving image file (step S22).
Then, the calculated sound source direction data (θ f , φ f ) for each frequency and the image data G c are synthesized, and the synthesized sound source position estimation image is displayed on the display screen 32M of the display means 32. Is displayed as a sound source position estimation screen on the image display unit 32a provided in (Step S23).
Figure 4 is a diagram showing an example, in the image display unit 32a, on the image data G c, source position estimation screen 38 is displayed graphic (circles tracery) 37 is drawn representing the sound source direction Is done. The horizontal axis of the sound source position estimation screen 38 is the horizontal angle θ f , and the vertical axis is the elevation angle φ f . The size of the circle represents the sound pressure level.
It is also possible to display the estimated sound source direction for each preset frequency band. In this case, the color of the mesh-shaped circle 37 may be set for each frequency band.
The sound pressure level display section 32b displays a sound pressure level display screen 39 that displays the sound pressure level (dB) when the horizontal axis is the horizontal angle θ (deg.).
Finally, a sound source is estimated from the sound source position estimation screen 38 (step S24). On the sound source position estimation screen 38, the image of the sound source is estimated as the image shown in the location where the graphic 37 representing the sound source direction is drawn.

ステップS13において、通常モードが選択された場合には、ステップS25に進んで、カメラ12の撮影方向を測定予定場所に向け、マイクロフォンM1〜M5にて音を採取し、カメラ12にて測定予定場所の映像を採取するとともに、マイクロフォンM1〜M5の出力信号とカメラ12の映像信号とをそれぞれA/D変換し、音圧波形データと画像データとをバッファ25に保存する。
次に、測定開始信号が出力されているか否かを判定する(ステップS26)。測定開始信号が出力されていない場合には、データの保存を継続する。
測定開始信号が出力された後も、マイクロフォンM1〜M5の出力信号とカメラ12の映像信号とをそれぞれ音圧波形データと画像データとしてバッファ25に保存する操作を継続する(ステップS27)。
そして、バッファ25に解析時間長Tw分のデータが保存されているか否かを、測定可能表示部21pのLEDの点灯により判定する(ステップS28)。
バッファ25に解析時間長Tw分のデータが保存されていないときには、データの保存を継続する。
バッファ25に解析時間長Tw分のデータが保存された場合には、測定可能表示部21pのLEDが点灯するので、バッファ25からデータを取出して音ファイル31aと動画ファイル31bとを作成し、これらのファイル31a,31bをメモリー31に保存する(ステップS29)。
ステップS29において、バッファ25から取出されるデータは、測定開始時刻t0から、解析時間長Tw分経過した時刻tw=t0+Twまでの間に前記バッファ25に保存されたデータである。
ステップS29以降に行う、音源方向の推定、画像データの抽出、音源位置推定画面の作成と表示、及び、音源の推定ついての処理ステップは、通常モードも遡行モードも同じであるので、音ファイル31aと動画ファイル31bとをメモリー31に保存した後には、ステップS21に進み、ステップS21からステップS24までの処理を行って音源を推定する。
If the normal mode is selected in step S13, the process proceeds to step S25, the shooting direction of the camera 12 is directed to the planned measurement location, sound is collected by the microphones M1 to M5, and the measured measurement location is captured by the camera 12. And the output signals of the microphones M1 to M5 and the video signal of the camera 12 are A / D converted, respectively, and the sound pressure waveform data and the image data are stored in the buffer 25.
Next, it is determined whether or not a measurement start signal is output (step S26). If the measurement start signal is not output, data storage is continued.
Even after the measurement start signal is output, the operation of storing the output signals of the microphones M1 to M5 and the video signal of the camera 12 as sound pressure waveform data and image data in the buffer 25 is continued (step S27).
Then, whether the data of the analysis time length T w in the buffer 25 are stored, checked by the lighting of the LED measurable display section 21p (step S28).
When the analysis time in the buffer 25 length T w of data is not saved, it continues to store the data.
If the analysis time length T w of data is stored in the buffer 25, since the LED measurable display unit 21p is turned, to create a sound file 31a and video file 31b extracts the data from the buffer 25, These files 31a and 31b are stored in the memory 31 (step S29).
In step S29, the data retrieved from the buffer 25 is data stored in the buffer 25 from the measurement start time t 0 to the time t w = t 0 + T w when the analysis time length T w has elapsed. .
Since the sound source direction estimation, image data extraction, sound source position estimation screen creation and display, and sound source estimation processing steps performed after step S29 are the same in the normal mode and the retroactive mode, the sound file 31a. And the moving image file 31b are stored in the memory 31, the process proceeds to step S21, and the processing from step S21 to step S24 is performed to estimate the sound source.

ステップS21における水平角θ及び仰角φの計算方法は以下の通りである。
各マイクロフォン対(Mi, Mj)のマイクロフォンMiとマイクロフォンMjとの間の到達時間差をDijとすると、音の入射方向である水平角θと仰角φとは以下の式(1),(2)で表せるので、各マイクロフォンM1〜M5の出力信号をFFTを用いて周波数解析し、対象となる周波数fにおける各マイクロフォンM,M間の到達時間差Dijを算出することにより、前記水平角θ及び仰角φを求めることができる。

Figure 2010203800
すなわち、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するマイクロフォンM1,M3に入力する音圧信号の到達時間差D13と、前記マイクロフォン対(M2,M4)を構成するマイクロフォンM2,M4に入力する音圧信号の到達時間差D24との比から、計測点と音源位置との水平角θを推定し、前記到達時間差D13,D24と、前記第5のマイクロフォンM5と他のマイクロフォンM1〜M4との到達時間差D5j(j=1〜4)とから計測点と音源位置との成す仰角φを推定する。 The calculation method of the horizontal angle θ and the elevation angle φ in step S21 is as follows.
When the arrival time difference between the microphone Mi and the microphone Mj of each microphone pair (Mi, Mj) is D ij , the horizontal angle θ and the elevation angle φ, which are the sound incident directions, are expressed by the following equations (1) and (2). Therefore, the horizontal angle θ is obtained by frequency-analyzing the output signals of the microphones M1 to M5 using FFT and calculating the arrival time difference D ij between the microphones M i and M j at the target frequency f. And the elevation angle φ can be obtained.
Figure 2010203800
That is, arrival of sound pressure signals input to the microphones M1 and M3 constituting the two microphone pairs (M1, M3) and the microphone pairs (M2, M4) arranged at predetermined intervals on two orthogonal lines. The horizontal angle θ between the measurement point and the sound source position is estimated from the ratio between the time difference D 13 and the arrival time difference D 24 of the sound pressure signals input to the microphones M2 and M4 constituting the microphone pair (M2, M4). The elevation angle φ between the measurement point and the sound source position is estimated from the arrival time differences D 13 and D 24 and the arrival time differences D 5j (j = 1 to 4) between the fifth microphone M5 and the other microphones M1 to M4. To do.

なお、前記到達時間差Dijは、2つのマイクロフォン対(M,M)に入力される信号のクロススペクトルPij(f)を求め、更に、対象とする前記周波数fの位相角情報Ψ(rad)を用いて、以下の式(3)により算出される。

Figure 2010203800
音源方向の推定結果は、所定時間毎に記憶された撮影方向の画像データ毎に行う。 The arrival time difference D ij is obtained as a cross spectrum P ij (f) of signals input to the two microphone pairs (M i , M j ), and further, the phase angle information ψ ( rad) is calculated by the following equation (3).
Figure 2010203800
The estimation result of the sound source direction is performed for each image data in the shooting direction stored every predetermined time.

このように、本実施の形態では、複数のマイクロフォンM1〜M5とカメラ12とを一体化した音・映像採取ユニット10を用いて音と映像とを同時に採取した後A/D変換して、バッファ25に一時保存しておき、制御ユニット20から測定開始信号の指令が発せられたときには、指令が発せられた第1の時刻t0から所定の遡行時間長Tz分だけ遡った第2の時刻t1=t0−Tzと第3の時刻である時刻t2=t0+(Tw−Tz)との間に前記バッファ25に保存された音圧波形データと画像データとを取出し、音圧波形データから音ファイル31aを作成し、画像データから動画ファイル31bを作成して、これらのファイル31a,31bをメモリー31に保存し、この保存された音ファイル31aの音圧波形データを用いて、複数のマイクロフォンM1〜M5で採取した音の音圧信号間の位相差を算出して音源方向である水平角θと仰角φとを推定するようにしたので、突発的な音や間欠的な音が発生した場合でも、これらの音の発生源の方向を確実に推定することができる。したがって、測定の仕損じをなくすことができる。
また、音源を推定する際には、推定された音源方向(θ,φ)と演算時間長Tc内に撮影された画像データGcとを合成して、推定された音源方向を示す図形37が描画された音源位置推定画面38を表示して、前記音源を推定するようにしたので、音源を確実に推定することができる。
As described above, in the present embodiment, sound and video are simultaneously collected using the sound / video sampling unit 10 in which the plurality of microphones M1 to M5 and the camera 12 are integrated, and then A / D converted and buffered. 25, and when a measurement start signal command is issued from the control unit 20, a second time that is traced back by a predetermined retrograde time length T z from the first time t 0 when the command is issued. The sound pressure waveform data and the image data stored in the buffer 25 are extracted between t 1 = t 0 -T z and the third time t 2 = t 0 + (T w −T z ). The sound file 31a is created from the sound pressure waveform data, the moving image file 31b is created from the image data, the files 31a and 31b are stored in the memory 31, and the sound pressure waveform data of the stored sound file 31a is stored. Using Since the phase difference between the sound pressure signals of the sounds collected by the microphones M1 to M5 is calculated to estimate the horizontal angle θ and the elevation angle φ as the sound source direction, sudden or intermittent sounds are generated. Even if it occurs, the direction of the source of these sounds can be reliably estimated. Accordingly, measurement failures can be eliminated.
Further, when estimating the sound source, the estimated sound source direction (θ, φ) and the image data G c photographed within the calculation time length T c are combined, and the figure 37 indicating the estimated sound source direction is combined. Since the sound source position estimation screen 38 on which is drawn is displayed and the sound source is estimated, the sound source can be reliably estimated.

なお、前記実施の形態では、音ファイルの先頭から、音源方向の推定を行ったが、前記音ファイルから音圧波形データを呼び出し、音圧レベルの時系列波形のグラフを作成し、このグラフを用いて音ファイル抽出する演算時間長Tcの音圧波形データの時間位置を特定するようにしてもよい。
図5は音圧レベルの時系列波形のグラフの一例を示す図で、音圧レベルの時系列波形のグラフを表示画面32Mに表示する場合には、音圧レベル表示画面39が表示される音圧レベル表示部32bに、音圧レベルの時系列波形のグラフを表示する。グラフの横軸は時間(秒)で、縦軸は音圧レベル(dB)である。この音圧レベルの時系列波形のグラフ上の特定の点(ここでは、測定後3秒のところにあるピーク)を指定することで、音源方向の解析を行う時間位置を指定することができる。
音圧レベルの時系列波形のグラフとしては、採取音の大きさ、すなわち、全周波数の音圧レベルの時間変化を示すグラフであってもよいし、予め設定した周波数帯域における音圧レベルの時間変化を示すグラフであってもよい。
図5では、水が噴き上る毎に音圧レベルが増加しているので、グラフ上のピークを指定して音源方向を推定することで、その指定されたピークが噴水のどの部分から発生した音であるかを推定することができる。
In the above embodiment, the direction of the sound source is estimated from the beginning of the sound file. However, the sound pressure waveform data is called from the sound file, and a graph of the time series waveform of the sound pressure level is created. The time position of the sound pressure waveform data having the calculation time length Tc to be extracted by using the sound file may be specified.
FIG. 5 is a diagram showing an example of a time-series waveform graph of the sound pressure level. When the time-series waveform graph of the sound pressure level is displayed on the display screen 32M, the sound displayed on the sound pressure level display screen 39 is displayed. A time-series waveform graph of the sound pressure level is displayed on the pressure level display unit 32b. The horizontal axis of the graph is time (seconds), and the vertical axis is the sound pressure level (dB). By specifying a specific point (here, a peak at 3 seconds after measurement) on the graph of the time-series waveform of the sound pressure level, it is possible to specify a time position for analyzing the sound source direction.
The graph of the time-series waveform of the sound pressure level may be a graph showing the volume of the collected sound, that is, the time change of the sound pressure level of all frequencies, or the time of the sound pressure level in a preset frequency band. It may be a graph showing changes.
In FIG. 5, the sound pressure level increases each time water spouts, so by specifying the peak on the graph and estimating the sound source direction, the sound generated from which part of the fountain the specified peak Can be estimated.

また、前記例では、5本のマイクロフォンM1〜M5を用いて、計測点と音源位置との成す水平角θと仰角φとを推定したが、音源位置が水平角θだけで十分な場合には、マイクロフォンM5を省略して、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3),(M2,M4)のみを用いればよい。   In the above example, the horizontal angle θ and the elevation angle φ formed by the measurement point and the sound source position are estimated using the five microphones M1 to M5. However, when the sound source position is sufficient only by the horizontal angle θ. The microphone M5 may be omitted, and only two pairs of microphones (M1, M3) and (M2, M4) arranged at predetermined intervals on two straight lines that intersect with each other may be used.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は前記実施の形態に記載の範囲には限定されない。前記実施の形態に、多様な変更または改良を加えることが可能であることが当業者にも明らかである。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the embodiment. It is apparent from the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

以上説明したように、本発明によれば、突発的な音や間欠的な音が発生した場合でも、音源の推定を確実に行うことができるので、測定の仕損じをなくすことができ、音源の推定を効率良く行うことができる。   As described above, according to the present invention, it is possible to reliably estimate a sound source even when a sudden sound or an intermittent sound is generated. Can be estimated efficiently.

10 音・映像採取ユニット、11 音採取手段、M1〜M5 マイクロフォン、
12 CCDカメラ、13 マイクロフォン固定部、14 カメラ支持台、15 支柱、16 回転台、17 基台、20 制御ユニット、21 モード切換手段、
21a モード切換部、21b 測定開始信号出力部、21p 測定可能表示部、
21q 遡行有効表示部、22 増幅器、23 A/D変換器、24 映像入出力手段、25 バッファ、25a 第1のバッファ、25b 第2のバッファ、
26 解析時間長設定手段、27 遡行時間長設定手段、28 ファイル作成手段、
30 音源位置推定装置、31 メモリー、31a 音ファイル、
31b 動画ファイル、32 表示手段、32M 表示画面、32a 画像表示部、
32b 音圧レベル表示部、33 音圧波形データ取出手段、
34 音源方向推定手段、35 画像データ取出手段、36 データ合成手段、
37 音源方向を表す図形、38 音源位置推定画面、39 音圧レベル表示画面。
10 sound / video sampling unit, 11 sound sampling means, M1-M5 microphone,
12 CCD camera, 13 microphone fixing part, 14 camera support base, 15 struts, 16 rotating base, 17 base, 20 control unit, 21 mode switching means,
21a mode switching unit, 21b measurement start signal output unit, 21p measurable display unit,
21q retroactive display unit, 22 amplifier, 23 A / D converter, 24 video input / output means, 25 buffer, 25a first buffer, 25b second buffer,
26 analysis time length setting means, 27 retrograde time length setting means, 28 file creation means,
30 sound source position estimation device, 31 memory, 31a sound file,
31b video file, 32 display means, 32M display screen, 32a image display section,
32b Sound pressure level display section, 33 Sound pressure waveform data extracting means,
34 sound source direction estimation means, 35 image data extraction means, 36 data synthesis means,
37 graphic representing sound source direction, 38 sound source position estimation screen, 39 sound pressure level display screen.

Claims (5)

複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形データと採取した映像の画像データとをそれぞれ一時保存ファイルに保存するとともに、音源方向の測定開始の指令が発せられたときには、前記測定開始の指令が発せられた時刻から所定の遡行時間長だけ遡った時刻から予め設定された解析時間長分だけ経過した時刻までの間に前記一時保存ファイルに保存される音圧波形データと画像データとを抽出し、これらのデータをそれぞれ音ファイル及び動画ファイルとして記憶手段に保存し、この保存された音ファイルの音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出して音源方向を推定した後、前記推定された音源方向と前記動画ファイルに保存されている前記音源方向の推定に用いられた時間内に撮影された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて音源を推定することを特徴とする音源の推定方法。   Sound pressure waveform data, which is the sound pressure signal data of the collected sound, is collected at the same time using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated. And the image data of the collected video are respectively saved in a temporary storage file, and when a measurement start command in the direction of the sound source is issued, a predetermined retrograde time length is traced back from the time when the measurement start command is issued. The sound pressure waveform data and image data that are stored in the temporary storage file are extracted from the time up to the time that has passed for a predetermined analysis time length, and these data are stored as a sound file and a moving image file, respectively. The phase difference between the sound pressure signals of the sound collected by the plurality of microphones is saved using the sound pressure waveform data of the saved sound file. After estimating the sound source direction, the estimated sound source direction and the image data captured within the time used for estimating the sound source direction stored in the moving image file are combined to obtain the estimated A sound source estimation method comprising: generating a sound source position estimation image on which a graphic indicating a sound source direction is drawn, and estimating the sound source using the sound source position estimation image. 複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取する第1のステップと、
前記採取した音の音圧信号と映像の信号とをA/D変換してそれぞれ音圧波形データ及び画像データとして、データを所定の期間だけ保存する第1の記憶手段に保存する第2のステップと、
音源方向の測定開始の指令を発する第3のステップと、
前記第1の記憶手段から音源の推定に用いる解析時間長分の音圧波形データと画像データとを抽出して、前記抽出された音圧波形データと画像データとをそれぞれ音ファイル及び動画ファイルとして第2の記憶手段に保存する第4のステップと、
前記音ファイルから、音源方向の推定演算に用いる演算時間長分の音圧波形データを抽出して、前記複数のマイクロフォンで採取した音の音圧信号の位相差を算出して音源方向を推定する第5のステップと、
前記動画ファイルから、前記演算の開始時刻と終了時刻との間の時刻の画像データを抽出する第6のステップと、
前記第5のステップで推定された音源方向と、前記第6のステップで抽出された画像データとを合成し、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成して表示する第7のステップと、
前記音源位置推定画像を用いて音源を推定する第8のステップとを備え、
前記第4のステップで第1の記憶手段から抽出する前記解析時間長分の音圧波形データと画像データが、前記測定開始の指令が発せられた時刻である第1の時刻よりも予め設定された遡行時間長だけ前の時刻である第2の時刻から前記第1の時刻までの間に前記第1の記憶手段に保存された音圧波形データと画像データと、前記第1の時刻から、前記第1の時刻から前記解析時間長よりも前記遡行時間長分だけ短い時間長だけ経過した第3の時刻までの間に前記第1の記憶手段に保存される音圧波形データと画像データであることを特徴とする請求項1に記載の音源の推定方法。
A first step of simultaneously collecting sound information and video information using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated;
A second step of A / D-converting the collected sound pressure signal and video signal and storing the sound pressure waveform data and image data in first storage means for storing the data for a predetermined period, respectively. When,
A third step of issuing a command to start measurement of the sound source direction;
Extracting sound pressure waveform data and image data for the analysis time length used for sound source estimation from the first storage means, and extracting the extracted sound pressure waveform data and image data as a sound file and a moving image file, respectively. A fourth step of storing in a second storage means;
The sound pressure waveform data for the calculation time length used for the sound source direction estimation calculation is extracted from the sound file, and the sound source direction is estimated by calculating the phase difference between the sound pressure signals collected by the plurality of microphones. A fifth step;
A sixth step of extracting image data at a time between a start time and an end time of the calculation from the moving image file;
The sound source direction estimated in the fifth step and the image data extracted in the sixth step are combined to create a sound source position estimation image in which a graphic showing the estimated sound source direction is drawn. A seventh step of displaying;
And an eighth step of estimating a sound source using the sound source position estimation image,
The sound pressure waveform data and the image data for the analysis time length extracted from the first storage means in the fourth step are set in advance from the first time which is the time when the measurement start command is issued. From the first time, the sound pressure waveform data and image data stored in the first storage means between the second time and the first time, which is the time before the backward time length, Sound pressure waveform data and image data stored in the first storage means from the first time to a third time that has passed by a time length shorter than the analysis time length by the backward time length. The sound source estimation method according to claim 1, wherein the sound source is estimated.
前記第4のステップと前記第5のステップとの間に、前記音ファイルに保存された音圧波形のデータから、音圧波形の時系列波形のグラフを作成して表示するステップと、
前記表示されたグラフの任意の時刻を指定するステップとを設け、
前記第5のステップでは、指定された時刻から前記演算時間長分の音圧波形データを前記音ファイルから抽出することを特徴とする請求項2に記載の音源の推定方法。
Creating and displaying a time-series waveform graph of the sound pressure waveform from the sound pressure waveform data stored in the sound file between the fourth step and the fifth step;
Providing an arbitrary time of the displayed graph,
The sound source estimation method according to claim 2, wherein in the fifth step, sound pressure waveform data corresponding to the calculation time length is extracted from the sound file from a specified time.
互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を有するマイクロフォン群と音源方向の映像を撮影する撮影手段と表示手段とを備え、前記マイクロフォン群で採取した音源から伝播する音の音圧信号と音源方向を撮影した映像信号とから、音源方向を示す図形が描画された画像を作成して表示手段に表示して音源を推定する音源の推定装置であって、
前記各マイクロフォンで採取した音圧信号と撮影手段で撮影した映像信号とをそれぞれデジタル信号に変換するA/D変換器と、
前記A/D変換された音圧信号を音圧波形データとし、前記A/D変換された映像信号を画像データとして所定の期間一時的に保存する第1の記憶手段と、
音源方向の推定を開始するための指令信号を出力する手段と、
音源の推定に用いる音圧波形データと画像データとを保存する第2の記憶手段と、
前記指令信号が入力されたときに、前記第1の記憶手段から音源の推定に用いる解析時間長分の音圧波形データと画像データとを抽出して、音ファイルと動画ファイルとを作成し、これらのファイルを前記第2の記憶手段に出力する解析ファイル作成手段と、
前記音ファイルから音源方向の推定演算に用いる演算時間長分の音圧波形データを抽出し、この抽出された音圧波形データを周波数解析して前記2組のマイクロフォン対を構成するマイクロフォン間のそれぞれの位相差を求め、この求められた2組のマイクロフォン対の位相差の比から音源方向を推定する音源方向推定手段と、
前記動画ファイルから、前記推定演算の開始時刻と終了時刻との間の時刻における画像データを抽出する画像データ抽出手段と、
前記推定された音源方向のデータと前記抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成する音源位置推定画像作成手段とを備え、
前記解析ファイル作成手段は、前記測定開始の指令が発せられた時刻である第1の時刻よりも予め設定された遡行時間長だけ前の時刻である第2の時刻から前記第1の時刻までの間に前記第1の記憶手段に保存された音圧波形データと画像データと、前記第1の時刻から、前記第1の時刻から前記解析時間長よりも前記遡行時間長分だけ短い時間長だけ経過した第3の時刻までの間に前記第1の記憶手段に保存される音圧波形データと画像データとを抽出して前記音ファイルと前記動画ファイルとを作成することを特徴とする音源の推定装置。
Providing a microphone group having two pairs of microphones arranged at predetermined intervals on two intersecting straight lines, a photographing means for photographing a sound source direction image and a display means, and propagating from the sound source collected by the microphone group A sound source estimation apparatus that creates an image in which a graphic showing a sound source direction is drawn from a sound pressure signal of a sound and a video signal obtained by capturing the sound source direction, displays the image on a display unit, and estimates a sound source;
An A / D converter that converts the sound pressure signal collected by each microphone and the video signal photographed by the photographing means into digital signals,
First storage means for temporarily storing the A / D converted sound pressure signal as sound pressure waveform data and temporarily storing the A / D converted video signal as image data;
Means for outputting a command signal for starting estimation of the sound source direction;
Second storage means for storing sound pressure waveform data and image data used for sound source estimation;
When the command signal is input, the sound pressure waveform data and the image data for the analysis time length used for estimation of the sound source are extracted from the first storage means, and a sound file and a video file are created, Analysis file creation means for outputting these files to the second storage means;
Sound pressure waveform data corresponding to the calculation time length used for the calculation of the sound source direction is extracted from the sound file, and frequency analysis is performed on the extracted sound pressure waveform data to each of the microphones constituting the two microphone pairs. Sound source direction estimating means for estimating the sound source direction from the ratio of the phase differences of the two obtained microphone pairs,
Image data extraction means for extracting image data at a time between the start time and end time of the estimation calculation from the video file;
Sound source position estimated image creating means for creating a sound source position estimated image in which a figure showing the estimated sound source direction is drawn by combining the estimated sound source direction data and the extracted image data; ,
The analysis file creation means includes a second time that is a time before the first time from a first time that is a time at which the measurement start command is issued, and a time that is a time before the first time. Between the sound pressure waveform data and the image data stored in the first storage means in the meantime, from the first time, the time length shorter than the analysis time length from the first time by the backward time length The sound file and the moving image file are created by extracting the sound pressure waveform data and the image data stored in the first storage means until the third time that elapses. Estimating device.
前記マイクロフォン群に、前記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンを追加するとともに、前記音源方向推定手段では、前記2組のマイクロフォン対を構成するマイクロフォン間の位相差と、前記第5のマイクロフォンと前記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差とを用いて音源方向を推定することを特徴とする請求項4に記載の音源の推定装置。   A fifth microphone that is not on the plane formed by the two sets of microphone pairs is added to the microphone group, and the sound source direction estimation means includes a phase difference between the microphones constituting the two sets of microphone pairs, and A sound source direction is estimated using a fifth microphone and a phase difference between the microphones constituting the four pairs of microphones constituted by each of the four microphones constituting the two pairs of microphones. The sound source estimation apparatus according to claim 4.
JP2009046835A 2009-02-27 2009-02-27 Sound source estimation method and apparatus Active JP5242452B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009046835A JP5242452B2 (en) 2009-02-27 2009-02-27 Sound source estimation method and apparatus
CN201010123928.0A CN101820565B (en) 2009-02-27 2010-02-26 Method and apparatus for estimating sound source
US12/713,425 US8363512B2 (en) 2009-02-27 2010-02-26 Method and apparatus for estimating sound source

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009046835A JP5242452B2 (en) 2009-02-27 2009-02-27 Sound source estimation method and apparatus

Publications (2)

Publication Number Publication Date
JP2010203800A true JP2010203800A (en) 2010-09-16
JP5242452B2 JP5242452B2 (en) 2013-07-24

Family

ID=42965438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009046835A Active JP5242452B2 (en) 2009-02-27 2009-02-27 Sound source estimation method and apparatus

Country Status (1)

Country Link
JP (1) JP5242452B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101686348B1 (en) * 2015-10-08 2016-12-13 고려대학교 산학협력단 Sound processing method
JP2017181100A (en) * 2016-03-28 2017-10-05 セコム株式会社 Target object detection unit
WO2018020841A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Voice monitoring system and voice monitoring method
JP2019028512A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Information processing method and information processing device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160077A (en) * 1994-12-08 1996-06-21 Yokogawa Electric Corp Waveform analyzer
JPH11161638A (en) * 1997-12-01 1999-06-18 Nec Corp Correlation function calculating device
JP2001174484A (en) * 1999-11-22 2001-06-29 Tektronix Inc Alternate trigger apparatus and method for digital storage oscilloscope
JP2001289880A (en) * 2000-03-27 2001-10-19 Tektronix Inc Oscilloscope and its operation method
JP2003207524A (en) * 2002-01-10 2003-07-25 Yokogawa Electric Corp Waveform recording device
JP2004077277A (en) * 2002-08-19 2004-03-11 Fujitsu Ltd Visualization display method for sound source location and sound source location display apparatus
JP2007256283A (en) * 2006-03-24 2007-10-04 Tektronix Inc Data management method for memory
JP2008224259A (en) * 2007-03-09 2008-09-25 Chubu Electric Power Co Inc System for estimating acoustic source location

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160077A (en) * 1994-12-08 1996-06-21 Yokogawa Electric Corp Waveform analyzer
JPH11161638A (en) * 1997-12-01 1999-06-18 Nec Corp Correlation function calculating device
JP2001174484A (en) * 1999-11-22 2001-06-29 Tektronix Inc Alternate trigger apparatus and method for digital storage oscilloscope
JP2001289880A (en) * 2000-03-27 2001-10-19 Tektronix Inc Oscilloscope and its operation method
JP2003207524A (en) * 2002-01-10 2003-07-25 Yokogawa Electric Corp Waveform recording device
JP2004077277A (en) * 2002-08-19 2004-03-11 Fujitsu Ltd Visualization display method for sound source location and sound source location display apparatus
JP2007256283A (en) * 2006-03-24 2007-10-04 Tektronix Inc Data management method for memory
JP2008224259A (en) * 2007-03-09 2008-09-25 Chubu Electric Power Co Inc System for estimating acoustic source location

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101686348B1 (en) * 2015-10-08 2016-12-13 고려대학교 산학협력단 Sound processing method
JP2017181100A (en) * 2016-03-28 2017-10-05 セコム株式会社 Target object detection unit
WO2018020841A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Voice monitoring system and voice monitoring method
JP2019028512A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Information processing method and information processing device
JP7038338B2 (en) 2017-07-25 2022-03-18 パナソニックIpマネジメント株式会社 Information processing method and information processing equipment

Also Published As

Publication number Publication date
JP5242452B2 (en) 2013-07-24

Similar Documents

Publication Publication Date Title
JP5089198B2 (en) Sound source position estimation system
JP5294925B2 (en) Sound source estimation method and apparatus
CN101820565B (en) Method and apparatus for estimating sound source
JP5456563B2 (en) Method and apparatus for displaying sound source estimation image
JP5702160B2 (en) Sound source estimation method and sound source estimation apparatus
JP2016146547A5 (en)
JP5242452B2 (en) Sound source estimation method and apparatus
WO2008089353A3 (en) Methods and apparatus for collecting media site data
JP4805610B2 (en) Radio wave source visualization apparatus and radio wave source visualization method
Durand-Texte et al. Vibration measurement using a pseudo-stereo system, target tracking and vision methods
JP2017103542A (en) Synchronization device, synchronization method and synchronization program
JP2009128969A5 (en)
JP2011071686A (en) Video sound processor, and video sound processing method, and program
JP2022010300A (en) Video/audio signal processing device, video/audio signal processing method, and video/audio signal processing system
JP5826582B2 (en) Sound source direction estimation method, sound source direction estimation device, and sound source estimation image creation device
JP2010236939A (en) Method and apparatus for estimating sound source
JP2014051811A (en) Finger joint breakage determination method
JP5462667B2 (en) Surveillance camera device with sound source direction estimation function
JP5534870B2 (en) Sound source estimation image creation device
JP6839132B2 (en) Sound source orientation setting device and sound source orientation setting method
JP2009211021A (en) Reverberation time estimating device and reverberation time estimating method
JP2022051974A (en) Information processing device, method, and program
JP2015161659A (en) Sound source direction estimation device and display device of image for sound source estimation
JP2011205388A (en) Signal processing apparatus and method, and program
JP6297858B2 (en) Sound source estimation image creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130403

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5242452

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350