JP2010206419A - Method and device for estimating sound source - Google Patents

Method and device for estimating sound source Download PDF

Info

Publication number
JP2010206419A
JP2010206419A JP2009048554A JP2009048554A JP2010206419A JP 2010206419 A JP2010206419 A JP 2010206419A JP 2009048554 A JP2009048554 A JP 2009048554A JP 2009048554 A JP2009048554 A JP 2009048554A JP 2010206419 A JP2010206419 A JP 2010206419A
Authority
JP
Japan
Prior art keywords
sound
sound source
time
sound pressure
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009048554A
Other languages
Japanese (ja)
Other versions
JP5294925B2 (en
Inventor
Masanao Owaki
雅直 大脇
Takeshi Zaima
健史 財満
Koji Mase
甲治 間瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Kumagai Gumi Co Ltd
Original Assignee
Honda Motor Co Ltd
Kumagai Gumi Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd, Kumagai Gumi Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2009048554A priority Critical patent/JP5294925B2/en
Priority to US12/713,425 priority patent/US8363512B2/en
Priority to CN201010123928.0A priority patent/CN101820565B/en
Publication of JP2010206419A publication Critical patent/JP2010206419A/en
Application granted granted Critical
Publication of JP5294925B2 publication Critical patent/JP5294925B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and device for estimating sound source positions by extracting arbitrary portions of measurement data at site. <P>SOLUTION: Sound information and video information are simultaneously sampled by a sound/video sampling unit 10, where a plurality of microphones M1-M5 are integrated with a camera 12. Audio waveform data, namely sound information, and image data, namely video information, are stored in a storage means 24. Only sound pressure waveform data is extracted from the storage means 24 to display a graph of a time series waveform of a sound pressure level on a display screen 25M of a display means 25. Time t<SB>z</SB>for analysis of a sound source direction is designated on the graph. Then, the sound pressure waveform data of analysis time length T<SB>w</SB>with the designated time t<SB>z</SB>as the center are used, and the phase difference between sound pressure signals of the sound sampled by the plurality of microphones M1-M5 is calculated to estimate the direction of the sound source. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、複数のマイクロフォンで採取した音の情報と、撮影手段で撮影した映像の情報とを用いて、音源を推定する方法とその装置に関するものである。   The present invention relates to a method and apparatus for estimating a sound source using sound information collected by a plurality of microphones and video information photographed by a photographing means.

従来、音の到来方向を推定する方法としては、多数のマイクロフォンを等間隔に配置したマイクロフォンアレーを構築し、基準となるマイクロフォンに対する各マイクロフォンの位相差から音波の到来方向である音源方向を推定する、いわゆる音響学的手法が考案されている(例えば、非特許文献1参照)。
一方、計測点に配置された複数のマイクロフォンの出力信号の位相差からではなく、複数のマイクロフォンから互いに交わる直線状に配置された複数のマイクロフォン対を構成し、対となる2つのマイクロフォン間の位相差に相当する到達時間差と、他の対となる2つのマイクロフォン間の到達時間差との比から音源方向を推定する方法が提案されている(例えば、特許文献1〜3参照)。
Conventionally, as a method of estimating the direction of sound arrival, a microphone array in which a large number of microphones are arranged at equal intervals is constructed, and the sound source direction that is the direction of sound wave arrival is estimated from the phase difference of each microphone relative to the reference microphone. So-called acoustic techniques have been devised (for example, see Non-Patent Document 1).
On the other hand, not a phase difference between output signals of a plurality of microphones arranged at a measurement point, but a plurality of microphone pairs arranged in a straight line intersecting each other from the plurality of microphones, and the position between the two microphones constituting the pair There has been proposed a method of estimating a sound source direction from a ratio between an arrival time difference corresponding to a phase difference and an arrival time difference between two paired two microphones (see, for example, Patent Documents 1 to 3).

具体的には、図5に示すように、4個のマイクロフォンM1〜M4を、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するように配置し、前記マイクロフォン対(M1,M3)を構成するマイクロフォンM1,M3に入力する音圧信号の到達時間差と、前記マイクロフォン対(M2,M4)を構成するマイクロフォンM2,M4に入力する音圧信号の到達時間差との比から、計測点と音源位置との成す水平角θを推定するとともに、第5のマイクロフォンM5を前記マイクロフォンM1〜M4の作る平面上にない位置に配置して、更に4組のマイクロフォン対(M5, M1),(M5, M2),(M5, M3),(M5, M4)を構成し、前記各マイクロフォン対を構成するマイクロフォン間の到達時間差から、計測点と音源位置との成す仰角φを推定する。   Specifically, as shown in FIG. 5, two microphone pairs (M1, M3) and microphone pairs (four microphones M1 to M4) are arranged at predetermined intervals on two straight lines orthogonal to each other. M2, M4) are arranged so as to constitute the microphone pair (M1, M3) and the microphones constituting the microphone pair (M2, M4) and the arrival time difference of the sound pressure signals input to the microphones M1, M3. The horizontal angle θ formed by the measurement point and the sound source position is estimated from the ratio with the arrival time difference between the sound pressure signals input to M2 and M4, and the fifth microphone M5 is not on the plane formed by the microphones M1 to M4. Further, four microphone pairs (M5, M1), (M5, M2), (M5, M3), (M5, M4) are configured and arranged in the positions. The elevation angle φ formed by the measurement point and the sound source position is estimated from the arrival time difference between the microphones constituting the pair of microphones.

これにより、マイクロフォンアレーを用いて音源方向を推定する場合に比較して、少ないマイクロフォン数で音源方向を正確に推定することができる。
また、このとき、CCDカメラ等の映像採取手段を設けて前記推定された音源方向の映像を撮影した後、この映像のデータと音源方向のデータとを合成して、映像中に前記推定した音源方向と音圧レベルとを図形で表示するようにすれば、音源を視覚的に把握することができる。
また、音の採取と同時に映像採取手段にて映像を連続的に撮影し、音の情報とともに、映像の情報を動画としてコンピュータに保存しておき、その後音源方向の計算を行って映像中に推定した音源方向と音圧レベルとを図形を表示して音源を推定する方法も行われている。
Thereby, compared with the case where the sound source direction is estimated using the microphone array, the sound source direction can be accurately estimated with a small number of microphones.
Further, at this time, a video sampling means such as a CCD camera is provided to shoot a video of the estimated sound source direction, and then the video data and the data of the sound source direction are combined to generate the estimated sound source in the video. If the direction and the sound pressure level are displayed graphically, the sound source can be grasped visually.
At the same time as the sound is collected, the video is continuously captured by the video sampling means, and the video information is stored in the computer together with the sound information, and then the direction of the sound source is calculated and estimated in the video. There is also a method of estimating a sound source by displaying a figure of the sound source direction and sound pressure level.

特開2002−181913号公報Japanese Patent Laid-Open No. 2002-181913 特開2006−324895号公報JP 2006-324895 A 特開2008−224259号公報JP 2008-224259 A

大賀寿郎,山崎芳男,金田豊;音響システムとディジタル処理,コロナ社,1995Toshiro Oga, Yoshio Yamazaki, Yutaka Kaneda; Acoustic system and digital processing, Corona, 1995

ところで、前記従来の方法では、音の情報と映像の情報とをコンピュータに取り込んだ後に、取り込んだ情報をすべて用いて音源方向の計算を行っていた。そのため、音源位置の解析に時間がかかってしまい、現場ですぐに音源位置の推定結果を知ることができなかった。また、測定の妥当性についても検証できないといった問題点があった。   By the way, in the conventional method, after the sound information and the video information are taken into the computer, the direction of the sound source is calculated using all the taken-in information. For this reason, it took time to analyze the sound source position, and it was impossible to immediately know the estimation result of the sound source position at the site. In addition, there was a problem that the validity of the measurement could not be verified.

本発明は、従来の問題点に鑑みてなされたもので、現場において、測定データの任意の部分を抽出して音源位置の推定を行う方法とその装置を提供することを目的とする。   The present invention has been made in view of the conventional problems, and an object of the present invention is to provide a method and apparatus for estimating a sound source position by extracting an arbitrary part of measurement data in the field.

本願の請求項1に記載の発明は、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形データと映像の画像データとを用いて音源を推定する音源の推定方法であって、前記採取した音と映像のデータをそれぞれ記憶手段に保存するとともに、前記音圧波形データのみを記憶手段から抽出して音圧レベルの時系列波形のグラフを表示し、このグラフ上で音源方向の解析を行う時間位置を指定した後、この指定された時間位置を含む所定の解析時間長の音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出して音源方向を推定し、前記推定された音源方向と前記解析時間内に撮影された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて前記音源を推定することを特徴とする。   The invention according to claim 1 of the present application collects sound information and video information at the same time using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated, and A sound source estimation method for estimating a sound source using sound pressure waveform data that is data of a sound pressure signal and video image data, and storing the collected sound and video data in a storage means, respectively, After extracting only the sound pressure waveform data from the storage means and displaying a graph of the time series waveform of the sound pressure level, after specifying the time position to analyze the sound source direction on this graph, the specified time position is included Using sound pressure waveform data of a predetermined analysis time length, a phase difference between sound pressure signals of sounds collected by the plurality of microphones is calculated to estimate a sound source direction, and the estimated sound source direction and the analysis time Within A sound source position estimation image in which a figure showing the estimated sound source direction is drawn is synthesized by combining with the shadowed image data, and the sound source is estimated using the sound source position estimation image. .

請求項2に記載の発明は、請求項1に記載の音源の推定方法であって、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取する第1のステップと、前記採取した音の音圧信号をA/D変換して音圧波形データとして記憶手段に保存し、前記映像の信号をA/D変換して画像データとして記憶手段に保存する第2のステップと、前記音圧波形データを記憶手段から抽出して音圧レベルの時系列波形のグラフを作成して表示手段の表示画面に表示する第3のステップと、前記表示画面上においてグラフ上の特定の点を指定することで、音源方向の解析を行う時間位置を指定する第4のステップと、前記記憶手段から、前記指定された時間位置を含む予め設定された解析時間長の音圧波形データを抽出する第5のステップと、前記抽出された音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出し、音源方向を推定する第6のステップと、前記記憶手段から、前記解析時間の開始時刻と終了時刻との間の時刻における画像データを抽出する第7のステップと、前記第6のステップで推定された音源方向のデータと、前記第7のステップで抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成して表示する第8のステップと、前記音源位置推定画像を用いて、前記音源を推定する第9のステップとを備えたことを特徴とする。   The invention according to claim 2 is the sound source estimation method according to claim 1, wherein sound information and video information are obtained using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated. The sound pressure signal of the collected sound is A / D converted and stored in the storage means as sound pressure waveform data, and the video signal is A / D converted to image data. And a third step of extracting the sound pressure waveform data from the storage means, creating a graph of a time series waveform of the sound pressure level, and displaying it on the display screen of the display means; A fourth step of designating a time position for analyzing the direction of the sound source by designating a specific point on the graph on the display screen, and a preset including the designated time position from the storage means Analysis time And calculating the phase difference between the sound pressure signals of the sounds collected by the plurality of microphones using the extracted sound pressure waveform data and estimating the sound source direction. A sixth step of extracting image data at a time between a start time and an end time of the analysis time from the storage unit; and a sound source direction estimated in the sixth step. An eighth step of synthesizing the data and the image data extracted in the seventh step to create and display a sound source position estimated image in which a graphic showing the estimated sound source direction is drawn; And a ninth step of estimating the sound source using a sound source position estimation image.

請求項3に記載の発明は、請求項2に記載の音源の推定方法において、前記第3のステップで抽出して表示する音圧レベルの時系列波形を、採取音の大きさの時系列波形としたことを特徴とする。
また、請求項4に記載の発明は、請求項2に記載の音源の推定方法において、前記第3のステップに、推定する音圧信号の周波数帯域を指定するステップと、前記記憶手段から抽出した音圧レベルの時系列波形を周波数分析して、前記指定された周波数帯域における音圧レベルの時系列波形を求めるステップとを設け、前記求められた指定周波数帯域の音圧レベルの時系列波形のグラフを表示手段の表示画面に表示することを特徴とする。
According to a third aspect of the present invention, in the sound source estimation method according to the second aspect, the time-series waveform of the sound pressure level extracted and displayed in the third step is replaced with the time-series waveform of the magnitude of the collected sound. It is characterized by that.
According to a fourth aspect of the present invention, in the sound source estimation method according to the second aspect, the step of designating a frequency band of the sound pressure signal to be estimated is extracted from the storage means in the third step. Analyzing the frequency of the time-series waveform of the sound pressure level to obtain a time-series waveform of the sound pressure level in the designated frequency band, and providing a time-series waveform of the sound pressure level of the obtained designated frequency band. The graph is displayed on the display screen of the display means.

請求項5に記載の発明は、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を有するマイクロフォン群と音源方向の映像を撮影する撮影手段と表示手段とを備え、前記マイクロフォン群で採取した音源から伝播する音の音圧信号と音源方向を撮影した映像信号とから、音源位置のデータが表示された画像を作成して表示手段に表示し音源を推定する音源の推定装置であって、前記各マイクロフォンで採取した音圧信号と撮影手段で撮影した映像信号とをそれぞれデジタル信号に変換するA/D変換器と、前記A/D変換された音圧信号を時系列的に並べた音圧波形データを音ファイルとして保存し、前記A/D変換された映像信号を時系列的に並べた動画データを、動画ファイルとして保存する記憶手段と、前記音ファイルから予め設定した解析時間長の音圧波形データを抽出して、音圧レベルの時系列波形のグラフを作成する音圧波形作成手段と、前記時系列波形のグラフの特定の点を指定することで、音源方向の解析を行う時間位置を指定する解析位置指定手段と、前記音ファイルから、指定された時間位置を含む予め設定された解析時間長の音圧波形データを抽出し、この抽出された音圧波形データを周波数解析して前記2組のマイクロフォン対を構成するマイクロフォン間のそれぞれの位相差を求め、この求められた2組のマイクロフォン対の位相差の比から音源方向を推定する音源方向推定手段と、前記動画ファイルから、前記解析時間の開始時刻と終了時刻との間の時刻における画像データを抽出する画像データ抽出手段と、前記推定された音源方向のデータと前記抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源方向推定画像を作成する音源位置推定画像作成手段とを備え、前記複数のマイクロフォンと前記撮影手段とは一体に組み込まれて、音の情報と映像の情報とを同時に採取し、前記表示手段は、前記音圧波形作成手段で作成された音圧波形のグラフと、前記音源位置推定画像作成手段で作成された音源方向推定画像とを表示することを特徴とする。   The invention according to claim 5 includes a microphone group having two pairs of microphones arranged at predetermined intervals on two straight lines that intersect with each other, an imaging unit that captures an image of a sound source direction, and a display unit, From the sound pressure signal of the sound propagated from the sound source collected by the microphone group and the video signal obtained by photographing the sound source direction, an image displaying the sound source position data is created and displayed on the display means to estimate the sound source An estimation device, an A / D converter for converting a sound pressure signal collected by each microphone and a video signal photographed by a photographing means into a digital signal, and the A / D-converted sound pressure signal on time Storage means for storing sound pressure waveform data arranged in series as a sound file and storing moving picture data in which the A / D converted video signals are arranged in time series as a moving picture file Extracting sound pressure waveform data having a predetermined analysis time length from the sound file to generate a sound pressure level time-series waveform graph; and a specific point of the time-series waveform graph. By designating, the analysis position specifying means for specifying the time position for analyzing the sound source direction, and the sound pressure waveform data of the preset analysis time length including the specified time position are extracted from the sound file. Then, the extracted sound pressure waveform data is subjected to frequency analysis to obtain respective phase differences between the microphones constituting the two sets of microphone pairs, and the sound source direction is determined from the ratio of the phase differences between the two obtained microphone pairs. A sound source direction estimating means for estimating the image data extracting means for extracting image data at a time between a start time and an end time of the analysis time from the moving image file; Sound source position estimation image creating means for synthesizing the data of the determined sound source direction and the extracted image data, and creating a sound source direction estimation image in which a figure indicating the estimated sound source direction is drawn; The plurality of microphones and the photographing unit are integrally incorporated, and simultaneously collect sound information and video information, and the display unit includes a sound pressure waveform graph created by the sound pressure waveform creating unit, The sound source direction estimated image created by the sound source position estimated image creating means is displayed.

請求項6に記載の発明は、請求項5に記載の音源の推定装置において、前記マイクロフォン群に、前記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンを追加するとともに、前記音源方向推定手段では、前記2組のマイクロフォン対を構成するマイクロフォン間の位相差と、前記第5のマイクロフォンと前記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差とを用いて音源方向を推定することを特徴とする。   According to a sixth aspect of the present invention, in the sound source estimating apparatus according to the fifth aspect, a fifth microphone not on a plane formed by the two pairs of microphones is added to the microphone group, and the sound source direction is added. In the estimation means, the four sets of microphones constituted by the phase difference between the microphones constituting the two sets of microphone pairs, and each of the fifth microphone and the four microphones constituting the two sets of microphone pairs. A sound source direction is estimated using a phase difference between microphones constituting a pair.

本発明によれば、複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形データと映像の画像データとをそれぞれ記憶手段に保存するとともに、前記音圧波形データのみを記憶手段から呼び出して表示した音圧レベルの時系列波形のグラフを用いて音源方向の解析を行う時間位置を指定し、この指定された時間位置を含む所定解析時間長分の音圧波形データを用いて音源方向を推定するようにしたので、現場において、測定データの任意の部分を抽出して音源位置の推定を行うことができる。したがって、音源位置の推定時間を大幅に短縮することができる。
また、音源を推定する際には、推定された音源方向と前記解析時間内に撮影された画像データとを合成して、推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて、前記音源を推定するようにしたので、音源を確実に推定できる。
また、計測点の位置が適当でないなど、測定の妥当性についても、早期に判断できるので、音源位置の推定を効率良く行うことができる。しかも、任意の時間のデータを取り出すことができるので、音源位置の変化についても把握することができるとともに、伝播した音の履歴についても、現場にて検証できる。
According to the present invention, sound information and video information are simultaneously collected using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated, and the sound pressure signal data of the collected sound is collected. The sound pressure waveform data and the video image data are respectively stored in the storage means, and only the sound pressure waveform data is called from the storage means and displayed using the time-series waveform graph of the sound pressure level. Since the time position for analysis is specified and the sound source direction is estimated using the sound pressure waveform data for the predetermined analysis time length including this specified time position, any part of the measurement data can be The sound source position can be estimated by extraction. Therefore, the estimation time of the sound source position can be greatly shortened.
Also, when estimating the sound source, the estimated sound source direction and the image data taken within the analysis time are combined to create a sound source position estimation image in which a figure showing the estimated sound source direction is drawn. Since the sound source is estimated using the sound source position estimation image, the sound source can be reliably estimated.
In addition, since the validity of the measurement can be determined at an early stage such that the position of the measurement point is not appropriate, the sound source position can be estimated efficiently. In addition, since data at an arbitrary time can be taken out, it is possible to grasp the change in the sound source position, and the history of the propagated sound can be verified on site.

また、請求項2に記載のステップに従って音源を推定するようにすれば、現場において、測定データの任意の部分を確実に抽出して音源位置の推定を行うことができる。
また、表示する音圧レベルの時系列波形を採取音の大きさの時系列波形とすれば、伝播音の大きさに応じた音源位置の推定を行うことができる。
また、表示する音圧レベルの時系列波形を所定の周波数帯域の音圧レベルの時系列波形とすれば、例えば、電源ボックスのトランスからの音や空調機の振動音などの特定の機器からの伝播音を対象とした音源位置の推定を行うことができる。
In addition, if the sound source is estimated according to the steps described in claim 2, it is possible to reliably extract an arbitrary portion of the measurement data and estimate the sound source position at the site.
If the time series waveform of the sound pressure level to be displayed is the time series waveform of the magnitude of the collected sound, the sound source position can be estimated according to the magnitude of the propagation sound.
Moreover, if the time-series waveform of the sound pressure level to be displayed is a time-series waveform of the sound pressure level in a predetermined frequency band, for example, a sound from a specific device such as a sound from a power box transformer or a vibration sound of an air conditioner is used. It is possible to estimate the position of the sound source for the propagation sound.

また、請求項5に記載の音源の推定装置を用いることにより、測定データの任意の部分を確実に抽出することができるので、音源位置の推定を効率良く行うことができる。
このとき、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を構成する第1〜第4のマイクロフォンと、2組のマイクロフォン対の作る平面上にない第5のマイクロフォンとから成る音採取手段を構成し、2組のマイクロフォン対を構成するマイクロフォン間の位相差の比と、前記第1〜第5のマイクロフォン間の位相差とを用いて音源方向を推定するようにすれば、少ないマイクロフォン数で、効率よくかつ正確に水平角θと仰角φとを推定することができる。
In addition, by using the sound source estimation apparatus according to the fifth aspect, it is possible to reliably extract an arbitrary portion of the measurement data, so that the sound source position can be estimated efficiently.
At this time, the first to fourth microphones constituting the two microphone pairs arranged on the two straight lines intersecting each other at a predetermined interval and the fifth microphone not on the plane formed by the two microphone pairs And the sound source direction is estimated using the phase difference ratio between the microphones constituting the two microphone pairs and the phase difference between the first to fifth microphones. Then, the horizontal angle θ and the elevation angle φ can be estimated efficiently and accurately with a small number of microphones.

なお、前記発明の概要は、本発明の必要な全ての特徴を列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となり得る。   The summary of the invention does not enumerate all necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本実施の形態に係る音源推定システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the sound source estimation system which concerns on this Embodiment. 本発明による音源の推定方法を示すフローチャートである。3 is a flowchart illustrating a sound source estimation method according to the present invention. 音圧レベルの時系列波形の一例を示す図である。It is a figure which shows an example of the time-sequential waveform of a sound pressure level. 音源位置推定画像が表示された表示画面の一例を示す図である。It is a figure which shows an example of the display screen on which the sound source position estimation image was displayed. 従来のマイクロフォン対を用いた音源の推定方法におけるマイクロフォンの配列を示す図である。It is a figure which shows the arrangement | sequence of the microphone in the estimation method of the sound source using the conventional microphone pair.

以下、実施の形態を通じて本発明を詳説するが、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また、実施の形態の中で説明される特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described in detail through embodiments, but the following embodiments do not limit the invention according to the claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は音源推定システムの構成を示す機能ブロック図である。
音源推定システムは、音・映像採取ユニット10と音源位置推定装置20とを備える。
音・映像採取ユニット10は、音採取手段11と、映像採取手段としてのCCDカメラ(以下、カメラという)12と、マイクロフォン固定部13と、カメラ支持台14と、支柱15と、回転台16と、基台17とを備える。音採取手段11は複数のマイクロフォンM1〜M5を備える。
マイクロフォン固定部13にはマイクロフォンM1〜M5が設置され、カメラ支持台14にはカメラ12が設置され、マイクロフォン固定部13とカメラ支持台14とは、3本の支柱15によって連結されている。つまり、音採取手段11とカメラ12とは一体化されている。なお、マイクロフォンM1〜M5は、カメラ12の上部に配置される。
基台17は3脚から成る支持部材で、この基台17上に回転台16が設置されている。カメラ支持台14は回転台16の回転部材16rに搭載されている。
したがって、回転部材16rを回転させることにより、音採取手段11とカメラ12とを一体に回転させることができる。
マイクロフォンM1〜M5は、図示しない音源から伝播される音の音圧レベルをそれぞれ測定する。
FIG. 1 is a functional block diagram showing the configuration of the sound source estimation system.
The sound source estimation system includes a sound / video sampling unit 10 and a sound source position estimation device 20.
The sound / image collection unit 10 includes a sound collection unit 11, a CCD camera (hereinafter referred to as a camera) 12 as a video collection unit, a microphone fixing unit 13, a camera support 14, a column 15, and a turntable 16. The base 17 is provided. The sound collection means 11 includes a plurality of microphones M1 to M5.
The microphones M1 to M5 are installed on the microphone fixing unit 13, the camera 12 is installed on the camera support base 14, and the microphone fixing unit 13 and the camera support base 14 are connected by three support columns 15. That is, the sound collection means 11 and the camera 12 are integrated. The microphones M1 to M5 are disposed on the upper part of the camera 12.
The base 17 is a support member composed of three legs, and the turntable 16 is installed on the base 17. The camera support 14 is mounted on the rotation member 16r of the turntable 16.
Therefore, the sound collecting means 11 and the camera 12 can be rotated together by rotating the rotating member 16r.
Microphones M1 to M5 each measure the sound pressure level of sound propagated from a sound source (not shown).

マイクロフォンM1〜M5の配置は、前記図5に示したものと同様で、4個のマイクロフォンM1〜M4を、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するように配置するとともに、第5のマイクロフォンM5を前記マイクロフォンM1〜M4の作る平面上にない位置、詳細には、マイクロフォンM1〜M4の作る正方形を底面とする四角錐の頂点の位置に配置する。これにより、更に4組のマイクロフォン対(M5, M1)〜(M5, M4)が構成される。
本例では、カメラ12の撮影方向を、前記直交する2直線の交点を通り前記2直線とほぼ45°をなす方向に設定している。したがって、音・映像採取ユニット10の向きは、図1の白抜きの矢印Dの方向となる。カメラ12は、音・映像採取ユニット10の向きに応じた映像を採取する。
The arrangement of the microphones M1 to M5 is the same as that shown in FIG. 5, and two microphone pairs (M1) in which four microphones M1 to M4 are arranged at predetermined intervals on two straight lines orthogonal to each other. , M3) and the microphone pair (M2, M4), and the fifth microphone M5 is not located on the plane formed by the microphones M1 to M4, more specifically, the square formed by the microphones M1 to M4. It is arranged at the position of the apex of the quadrangular pyramid with the bottom face. Thereby, four pairs of microphones (M5, M1) to (M5, M4) are further configured.
In this example, the shooting direction of the camera 12 is set to a direction that passes through the intersection of the two orthogonal lines and forms approximately 45 ° with the two lines. Therefore, the direction of the sound / image collection unit 10 is the direction of the white arrow D in FIG. The camera 12 collects an image corresponding to the direction of the sound / image collection unit 10.

音源位置推定装置20は、増幅器21と、A/D変換器22と、映像入出力手段23と、記憶手段24と、表示手段25と、解析時間長設定手段26と、解析周波数指定手段27と、音圧波形作成手段28と、解析位置指定手段29と、音圧波形データ取出手段30と、音源方向推定手段31と、画像データ取出手段32と、データ合成手段33とを備える。
増幅器21はローパスフィルタを備え、マイクロフォンM1〜M5で採取した音の音圧信号から高周波ノイズ成分を除去するとともに、前記音圧信号を増幅してA/D変換器22に出力する。A/D変換器22は、前記音圧信号をA/D変換した音圧波形データを作成し、これを、記憶手段24に出力する。
映像入出力手段23は、カメラ12で連続的に撮影された映像信号を入力し、所定時間(例えば、1/30秒)毎に撮影方向の画像データを記憶手段24に出力する。
記憶手段24は、音圧波形データと画像データとを時系列に配列して保存する。
音圧波形データと画像データとを時系列に配列して記憶する方法としては、音圧波形データと画像データとを同期させて記憶するか、あるいは、音圧波形データと画像データとにそれぞれ時刻データを付けて記憶するなど、周知の方法を用いることができる。
以下、音圧波形データを保存したファイルを音ファイルと呼び、画像データを保存したファイルを動画ファイルと呼ぶ。
The sound source position estimating apparatus 20 includes an amplifier 21, an A / D converter 22, a video input / output unit 23, a storage unit 24, a display unit 25, an analysis time length setting unit 26, and an analysis frequency specifying unit 27. A sound pressure waveform generating means 28, an analysis position specifying means 29, a sound pressure waveform data extracting means 30, a sound source direction estimating means 31, an image data extracting means 32, and a data synthesizing means 33.
The amplifier 21 includes a low-pass filter, removes high-frequency noise components from the sound pressure signal of the sound collected by the microphones M1 to M5, amplifies the sound pressure signal, and outputs the amplified signal to the A / D converter 22. The A / D converter 22 creates sound pressure waveform data obtained by A / D converting the sound pressure signal, and outputs the sound pressure waveform data to the storage unit 24.
The video input / output unit 23 inputs video signals continuously shot by the camera 12 and outputs image data in the shooting direction to the storage unit 24 every predetermined time (for example, 1/30 seconds).
The storage unit 24 arranges and stores the sound pressure waveform data and the image data in time series.
As a method of storing sound pressure waveform data and image data in time series, the sound pressure waveform data and the image data are stored in synchronization, or the sound pressure waveform data and the image data are respectively stored in time. A well-known method such as storing data can be used.
Hereinafter, a file storing sound pressure waveform data is called a sound file, and a file storing image data is called a moving image file.

表示手段25は、後述する音圧波形データのグラフを表示する音圧レベル表示部25aと音源位置を推定するための音源位置推定画像を表示する画像表示部25bとを備えた表示画面25Mを備える。音圧波形データのグラフは音圧波形作成手段28で作成され、音源位置推定画像はデータ合成手段33で作成される。
解析時間長設定手段26は、音源方向の推定に使用する音圧波形データの大きさである解析時間長を設定する。
解析周波数指定手段27は、音圧波形作成手段28で作成する音圧レベルの時系列波形の周波数帯域を指定する。
音圧波形作成手段28は、記憶手段24の音ファイルから音圧波形データを抽出し、音圧レベルの時系列波形のグラフを表示するためのデータを作成する。この音圧波形作成手段28は周波数分析手段28Fを備えており、解析周波数指定手段27にて周波数帯域が指定された場合には、記憶手段24の音ファイルから呼び出された音圧レベルの時系列波形を周波数分析して、所定の周波数帯域の音圧レベルの時系列波形のグラフを表示するためのデータを作成する。
解析位置指定手段29は、表示画面25Mの音圧レベル表示部25aに表示されたグラフの特定の点を指定することで、音源方向の解析を行う時間位置を指定する。
音圧波形データ取出手段30は、音源方向の解析を行う音圧波形データ、すなわち、前記指定された時間位置を中心とした時間幅が解析時間長の音圧波形データを記憶手段24の音ファイルから抽出して音源方向推定手段31に出力する。
音源方向推定手段31は、取出された音圧波形データから各マイクロフォンM1〜M5間の位相差を求め、この求められた位相差から音源方向を推定し、その推定結果をデータ合成手段33に出力する。なお、音源方向の推定の詳細については後述する。
The display means 25 includes a display screen 25M including a sound pressure level display unit 25a that displays a graph of sound pressure waveform data, which will be described later, and an image display unit 25b that displays a sound source position estimation image for estimating the sound source position. . The sound pressure waveform data graph is created by the sound pressure waveform creation means 28, and the sound source position estimation image is created by the data synthesis means 33.
The analysis time length setting means 26 sets an analysis time length that is the size of the sound pressure waveform data used for estimating the sound source direction.
The analysis frequency designation means 27 designates the frequency band of the time series waveform of the sound pressure level created by the sound pressure waveform creation means 28.
The sound pressure waveform creation means 28 extracts sound pressure waveform data from the sound file in the storage means 24 and creates data for displaying a time series waveform graph of the sound pressure level. This sound pressure waveform creation means 28 includes frequency analysis means 28F. When the frequency band is designated by the analysis frequency designation means 27, a time series of sound pressure levels called from the sound file in the storage means 24 is obtained. The waveform is subjected to frequency analysis, and data for displaying a time-series waveform graph of sound pressure levels in a predetermined frequency band is created.
The analysis position designating unit 29 designates a time point for analyzing the sound source direction by designating a specific point on the graph displayed on the sound pressure level display unit 25a of the display screen 25M.
The sound pressure waveform data extracting means 30 stores the sound pressure waveform data for analyzing the sound source direction, that is, the sound pressure waveform data whose time width centered on the designated time position is the analysis time length. And output to the sound source direction estimating means 31.
The sound source direction estimating means 31 obtains the phase difference between the microphones M1 to M5 from the extracted sound pressure waveform data, estimates the sound source direction from the obtained phase difference, and outputs the estimation result to the data synthesizing means 33. To do. Details of the estimation of the sound source direction will be described later.

画像データ取出手段32は、記憶手段24から、前記解析時間の開始時刻と終了時刻との真中の時刻における画像データを抽出してこれをデータ合成手段33に出力する。
データ合成手段33は、音源方向推定手段31で推定された音源方向のデータと画像データ取出手段32から出力される画像データとを合成し、画像中に音源方向を示す図形が描画された画像である音源位置推定画像を作成して表示手段25に出力する。
The image data extraction means 32 extracts the image data at the middle time between the start time and the end time of the analysis time from the storage means 24 and outputs this to the data synthesis means 33.
The data synthesizing unit 33 synthesizes the sound source direction data estimated by the sound source direction estimating unit 31 and the image data output from the image data extracting unit 32, and is an image in which a graphic showing the sound source direction is drawn in the image. A sound source position estimation image is created and output to the display means 25.

次に、音源推定システムを用いて音源方向を推定する方法について、図2のフローチャートを参照して説明する。
まず、音・映像採取ユニット10と音源位置推定装置20とを接続した後、音・映像採取ユニット10を計測点にセットする。そして、カメラ12の撮影方向を測定予定場所に向け、マイクロフォンM1〜M5にて音を採取し、カメラ12にて測定予定場所の映像を採取する(ステップS11)。このとき、回転台16を、例えば、3°/sec.程度のゆっくりした速度で、測定予定場所を中心に往復させながら、音と映像とを採取する。回転範囲としては±60°程度が適当である。
次に、マイクロフォンM1〜M5の出力信号とカメラ12の映像信号とをそれぞれA/D変換し、音圧波形データを記憶手段24の音ファイルに保存し、画像データを動画ファイルに保存する(ステップS12)。
Next, a method for estimating the sound source direction using the sound source estimation system will be described with reference to the flowchart of FIG.
First, after connecting the sound / video sampling unit 10 and the sound source position estimating device 20, the sound / video sampling unit 10 is set at a measurement point. Then, the shooting direction of the camera 12 is directed to the planned measurement location, the sound is collected by the microphones M1 to M5, and the image of the planned measurement location is collected by the camera 12 (step S11). At this time, sound and video are sampled while the revolving table 16 is reciprocated around the planned measurement location at a slow speed of, for example, about 3 ° / sec. A rotation range of about ± 60 ° is appropriate.
Next, the output signals of the microphones M1 to M5 and the video signal of the camera 12 are A / D converted, respectively, the sound pressure waveform data is stored in the sound file of the storage means 24, and the image data is stored in the moving image file (step). S12).

次に、音ファイルから音圧波形データを呼び出して音圧レベルの時系列波形のグラフを作成し、このグラフを表示手段25の表示画面25Mに設けられた音圧レベル表示部25aに表示する(ステップS13)。
図3はその一例を示す図で、グラフの横軸は時間(秒)、縦軸は音圧レベル(dB)、実線で示すグラフP(t)が採取音の大きさ、すなわち、全周波数の音圧レベルの時間変化を示すグラフである。
なお、画像表示部25bには必ずしも画像を表示する必要はないが、図3では、現在撮影している画像を動画として表示している。
測定者は、音源方向の推定を最初から行うか、測定タイミングを指定して行うかを入力する(ステップS14)。但し、音と映像とを採取する時間が短い場合には、測定タイミングを指定して行うのは作業上難しいので、音と映像とを採取した後に、測定タイミングを指定して行う場合と同様の方法で、音源の推定を行うことが好ましい。
Next, the sound pressure waveform data is called from the sound file to create a time-series waveform graph of the sound pressure level, and this graph is displayed on the sound pressure level display section 25a provided on the display screen 25M of the display means 25 ( Step S13).
FIG. 3 is a diagram showing an example of this. The horizontal axis of the graph is time (seconds), the vertical axis is the sound pressure level (dB), and the solid line P (t) indicates the magnitude of the collected sound, that is, the total frequency. It is a graph which shows the time change of a sound pressure level.
Although it is not always necessary to display an image on the image display unit 25b, in FIG. 3, the currently captured image is displayed as a moving image.
The measurer inputs whether the sound source direction is estimated from the beginning or the measurement timing is designated (step S14). However, if the time to collect the sound and video is short, it is difficult to specify the measurement timing for the work, so it is the same as when specifying the measurement timing after sampling the sound and video. Preferably, the method estimates the sound source.

音源方向の推定を最初から行う場合には、音ファイルの先頭から、予め設定しておいた解析時間長Twの音圧波形データを抽出して、音源方向の推定を行う(ステップS15)。
音源方向の推定は、音圧波形データをFFTにて周波数解析し、各周波数毎にマイクロフォンM1〜M5間のそれぞれの位相差を求め、この求められた位相差から各周波数毎に音源方向を推定する。なお、本例では、位相差に代えて、位相差に比例する物理量である到達時間差を用いて水平角θ及び仰角φを求めている。
このステップS15の水平角θ及び仰角φの計算方法については後述する。
When performing sound source direction estimated from the first, from the beginning of the sound file, extract the sound pressure waveform data analysis time length T w that is set in advance, performs DOA estimation (Step S15).
The sound source direction is estimated by frequency-analyzing the sound pressure waveform data by FFT, obtaining the respective phase differences between the microphones M1 to M5 for each frequency, and estimating the sound source direction for each frequency from the obtained phase difference. To do. In this example, instead of the phase difference, the horizontal angle θ and the elevation angle φ are obtained using the arrival time difference which is a physical quantity proportional to the phase difference.
The calculation method of the horizontal angle θ and the elevation angle φ in step S15 will be described later.

次に、解析時間の中心時刻tm、すなわち、測定開始時刻t0から解析時間長Twの半分の長さだけ過ぎた時刻tm=t0+(Tw/2)に位置する画像データGmを動画ファイルから抽出する(ステップS16)。
そして、前記計算された周波数毎の音源方向のデータ(θf,φf)と前記画像データGmとを合成し(ステップS17)、この合成された画像である音源位置推定画像を表示手段25の表示画面25Mに設けられた画像表示部25bに表示するとともに、音圧レベル表示部25aに音源位置推定画像のデータである画像データGmの採取時間を表示する(ステップS18)。
図4はその一例を示す図で、画像表示部25bには、前記画像データGmの上に、音源方向を表す図形(網目模様の丸印)34が描画された音源位置推定画面35が表示される。音源位置推定画面35の横軸は水平角θfで、縦軸は仰角φfである。また、丸の大きさは音圧レベルを表す。
なお、推定された音源方向を、予め設定した周波数帯域毎に表示することも可能である。この場合には、周波数帯域毎に網目模様の丸印34の色を設定すればよい。
また、音圧レベルの時系列波形のグラフに代えて、音圧レベル表示部25aに、横軸を水平角θとしたときの音圧レベル(dB)を表示した音圧レベル表示画面36を表示することも可能である。
最後に、音源位置推定画面35から音源を推定する(ステップS19)。音源位置推定画面35において、音源方向を表す図形34が描画されている箇所に映っている映像が推定される音源の映像である。
Next, central time t m of the analysis time, namely, the image data located half the time has passed by a length t m = t 0 + (T w / 2) of the analysis time length T w from the measurement starting time t 0 G m is extracted from the moving image file (step S16).
Then, the calculated sound source direction data (θ f , φ f ) for each frequency and the image data G m are combined (step S 17), and the sound source position estimation image which is the combined image is displayed on the display means 25. and displays on the image display unit 25b provided on the display screen 25M, the sound pressure level display section 25a displays the taken time of the image data G m is the data of the sound source position estimation image (step S18).
Figure 4 is a diagram showing an example, in the image display unit 25b, on the image data G m, the sound source position estimation screen 35 is displayed graphic (circles tracery) 34 is drawn representing the sound source direction Is done. The horizontal axis of the sound source position estimation screen 35 is the horizontal angle θ f , and the vertical axis is the elevation angle φ f . The size of the circle represents the sound pressure level.
It is also possible to display the estimated sound source direction for each preset frequency band. In this case, the color of the mesh-shaped circle 34 may be set for each frequency band.
Further, instead of the graph of the time-series waveform of the sound pressure level, the sound pressure level display screen 36 displaying the sound pressure level (dB) when the horizontal axis is the horizontal angle θ is displayed on the sound pressure level display unit 25a. It is also possible to do.
Finally, a sound source is estimated from the sound source position estimation screen 35 (step S19). On the sound source position estimation screen 35, the image of the sound source that is estimated at the location where the graphic 34 representing the sound source direction is drawn.

音源方向の推定を、測定タイミングを指定して行う場合には、ステップS21に進む。ステップS21では、前記音圧レベルの時系列波形のグラフ上の特定の点を指定することで、音源方向の解析を行う時間位置を指定する。
例えば、音源位置推定装置20の記憶手段24〜データ合成手段33までをコンピュータにより構成した場合、ディスプレイ(表示手段25)の画面上に表示された音圧レベルの時系列波形のグラフ上に、マウスのクリック位置をもっていって、グラフ上の時間位置を取得することで、音源方向の解析を行う時間位置を指定する。
指定された時間位置を時刻tzとすると、この時刻tzが解析時間の中心時刻となるので、音ファイルから、時刻tzよりも解析時間長Twの半分の長さだけ前の時刻から時刻tzよりも解析時間長Twの半分の長さだけ過ぎた時刻までの音圧波形データを抽出して、音源方向の推定を行う(ステップS22)。
音源方向の推定については、前記ステップS15と同様である。
When estimating the sound source direction by designating the measurement timing, the process proceeds to step S21. In step S21, a time point for analyzing the sound source direction is designated by designating a specific point on the time-series waveform graph of the sound pressure level.
For example, when the storage means 24 to the data synthesizing means 33 of the sound source position estimation apparatus 20 are configured by a computer, the mouse is displayed on the graph of the time-series waveform of the sound pressure level displayed on the screen of the display (display means 25). The time position where the sound source direction is analyzed is designated by acquiring the time position on the graph.
If the specified time position and time t z, because this time t z is the center time of the analysis time, from the sound file, only half the length of the analysis time length T w than the time t z from the previous time extracts sound pressure waveform data up to the time that has passed by half the length of the analysis time length T w than the time t z, it performs DOA estimation (step S22).
The estimation of the sound source direction is the same as in step S15.

音源方向の推定が完了した後には、解析時間の中心時刻である時刻tzにおいて撮影した画像データGzを動画ファイルから抽出し(ステップS23)、前記計算された周波数毎の音源方向のデータ(θf,φf)と前記画像データGzとを合成し(ステップS24)、前記合成された画像である音源位置推定画面35を表示画面25Mの画像表示部25bに表示するとともに、音圧レベル表示部25aに前記画像データGzの採取時間を表示する(ステップS25)。前記音源位置推定画面35は、図4に示したものと、同様の画面である。
最後に、音源位置推定画面35から音源を推定する(ステップS26)。
また、前記ステップS21からステップS26までの作業を繰り返すことで、複数の時刻での音源方向を効率良く推定することができるので、音源の推定を効率的にかつ確実に行うことができる。なお、ステップS26で得られた音源位置推定画面35に描画された音源方向のバラつきが大きい場合には、音・映像採取ユニット10の設置位置を変更して、再測定することが好ましい。
After the sound source direction estimation is completed, the image data G z taken at time t z is the center time of the analysis time is extracted from the moving image file (step S23), the sound source direction data for each of the calculated frequency ( θ f , φ f ) and the image data G z are synthesized (step S24), and the sound source position estimation screen 35, which is the synthesized image, is displayed on the image display unit 25b of the display screen 25M, and the sound pressure level is also displayed. Show acquisition time of the image data G z in the display section 25a (step S25). The sound source position estimation screen 35 is the same as that shown in FIG.
Finally, a sound source is estimated from the sound source position estimation screen 35 (step S26).
In addition, by repeating the operations from step S21 to step S26, the sound source direction at a plurality of times can be estimated efficiently, so that the sound source can be estimated efficiently and reliably. When the variation of the sound source direction drawn on the sound source position estimation screen 35 obtained in step S26 is large, it is preferable to change the installation position of the sound / video sampling unit 10 and perform the measurement again.

ステップS15における水平角θ及び仰角φの計算方法は以下の通りである。
各マイクロフォン対(Mi, Mj)のマイクロフォンMiとマイクロフォンMjとの間の到達時間差をDijとすると、音の入射方向である水平角θと仰角φとは以下の式(1),(2)で表わせるので、各マイクロフォンM1〜M5の出力信号をFFTを用いて周波数解析し、対象となる周波数fにおける各マイクロフォンM,M間の到達時間差Dijを算出することにより、前記水平角θ及び仰角φを求めることができる。

Figure 2010206419
すなわち、互いに直交する2直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3)及びマイクロフォン対(M2,M4)を構成するマイクロフォンM1,M3に入力する音圧信号の到達時間差D13と、前記マイクロフォン対(M2,M4)を構成するマイクロフォンM2,M4に入力する音圧信号の到達時間差D24との比から、計測点と音源位置との水平角θを推定し、前記到達時間差D13,D24と、前記第5のマイクロフォンM5と他のマイクロフォンM1〜M4との到達時間差D5j(j=1〜4)とから計測点と音源位置との成す仰角φを推定する。 The calculation method of the horizontal angle θ and the elevation angle φ in step S15 is as follows.
When the arrival time difference between the microphone Mi and the microphone Mj of each microphone pair (Mi, Mj) is D ij , the horizontal angle θ and the elevation angle φ, which are the sound incident directions, are expressed by the following equations (1) and (2). Therefore, by analyzing the frequency of the output signals of the microphones M1 to M5 using FFT and calculating the arrival time difference D ij between the microphones M i and M j at the target frequency f, the horizontal angle is calculated. θ and elevation angle φ can be obtained.
Figure 2010206419
That is, arrival of sound pressure signals input to the microphones M1 and M3 constituting the two microphone pairs (M1, M3) and the microphone pairs (M2, M4) arranged at predetermined intervals on two orthogonal lines. The horizontal angle θ between the measurement point and the sound source position is estimated from the ratio between the time difference D 13 and the arrival time difference D 24 of the sound pressure signals input to the microphones M2 and M4 constituting the microphone pair (M2, M4). The elevation angle φ between the measurement point and the sound source position is estimated from the arrival time differences D 13 and D 24 and the arrival time differences D 5j (j = 1 to 4) between the fifth microphone M5 and the other microphones M1 to M4. To do.

なお、前記到達時間差Dijは、2つのマイクロフォン対(M,M)に入力される信号のクロススペクトルPij(f)を求め、更に、対象とする前記周波数fの位相角情報Ψ(rad)を用いて、以下の式(3)により算出される。

Figure 2010206419
音源方向の推定結果は、所定時間毎に記憶された撮影方向の画像データ毎に行う。 The arrival time difference D ij is obtained as a cross spectrum P ij (f) of signals input to the two microphone pairs (M i , M j ), and further, the phase angle information ψ ( rad) is calculated by the following equation (3).
Figure 2010206419
The estimation result of the sound source direction is performed for each image data in the shooting direction stored every predetermined time.

このように、本実施の形態では、複数のマイクロフォンM1〜M5とカメラ12とを一体化した音・映像採取ユニット10を用いて音と映像とを同時に採取した後A/D変換して、音圧波形データを記憶手段24の音ファイルに保存し、画像データを動画ファイルに保存するとともに、前記音圧波形データのみを記憶手段24から呼び出して表示手段25の表示画面25Mに音圧レベルの時系列波形のグラフを表示し、このグラフ上で音源方向の解析を行う時刻tzを指定した後、この指定された時刻tzを中心とした解析時間長Twの音圧波形データを用いて、前記複数のマイクロフォンM1〜M5で採取した音の音圧信号間の位相差を算出して音源方向を推定し、この推定された音源方向と前記時刻tzにおいて撮影された画像データGzとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成し、前記音源を推定するようにしたので、音源位置の推定時間を大幅に短縮することができる。
また、計測点の位置が適当でないなど、測定の妥当性に問題がある場合には、早期に判断できるので、音源位置の推定を効率良く行うことができる。
As described above, in this embodiment, sound and video are simultaneously collected using the sound / video sampling unit 10 in which a plurality of microphones M1 to M5 and the camera 12 are integrated, and then A / D converted to obtain a sound. The pressure waveform data is saved in the sound file of the storage means 24, the image data is saved in the moving image file, and only the sound pressure waveform data is called from the storage means 24 and the display screen 25M of the display means 25 has a sound pressure level. display graph series waveform, this after specifying the time t z for analyzing sound source direction on the graph, with a sound pressure waveform data analysis time length T w centered on the specified time t z to estimate the sound source direction by calculating the phase difference between the sound pressure signals of sound collected by the plurality of microphones M1 to M5, and the image data G z taken at this estimated sound source direction the time t z , And a sound source position estimation image in which a figure indicating the estimated sound source direction is drawn is generated and the sound source is estimated. Therefore, the estimation time of the sound source position can be greatly shortened.
Also, if there is a problem with the validity of the measurement, for example, the position of the measurement point is not appropriate, the determination can be made early, so that the sound source position can be estimated efficiently.

なお、前記実施の形態では、音と映像とを採取しながら、測定タイミングを指定して音源方向の推定を行ったが、音と映像を採取後に、測定タイミングを指定して音源方向の推定を行ってもよい。本発明の測定タイミングを指定して音源方向を推定する方法を用いれば、任意の時間のデータを取り出して音源位置推定画像を作成することができるので、従来に比較して音源位置推定画像の作成枚数が大幅に少なくて済む。したがって、音源位置の推定時間を大幅に短縮することができる。また、音源位置の変化についても把握することができるとともに、伝播した音の履歴についても、現場にて検証することができる。   In the above embodiment, the sound source direction is estimated by specifying the measurement timing while collecting the sound and the video. However, after the sound and video are collected, the measurement timing is specified and the sound source direction is estimated. You may go. By using the method for estimating the sound source direction by specifying the measurement timing of the present invention, it is possible to create a sound source position estimation image by extracting data at an arbitrary time. The number of sheets can be greatly reduced. Therefore, the estimation time of the sound source position can be greatly shortened. In addition, it is possible to grasp the change of the sound source position, and it is possible to verify the history of the propagated sound on site.

また、前記例では、音圧レベルの時系列波形のグラフP(t)を採取音の大きさとしたが、予め設定した周波数帯域毎の音圧レベルのグラフに切換えることも可能である。
具体的には、解析周波数指定手段27により、音圧波形作成手段28で作成する音圧波形の周波数帯域を指定し、音圧波形作成手段28に設けられた周波数分析手段28Fを用いて、記憶手段24の音ファイルから呼び出した音圧波形データを周波数解析して、前記指定された周波数帯域の音圧レベルの時系列波形のグラフを表示するためのデータを作成すればよい。
周波数fを中心とした所定の帯域幅を有する周波数帯域の音圧波形のグラフとしては、例えば、図3の破線で示すグラフpf(t)のように、全周波数の音圧波形のグラフよりも鋭いピークを有するものが多い。
このように、周波数帯域を制限した音圧波形のグラフを用いることにより、電源ボックスのトランスからの音や空調機の振動音などの特定の機器からの伝播音を対象とした音源位置の推定を精度良く行うことができる。
また、車室内で音源の推定を行う場合のように、低い周波数の音は車外の騒音で解析する必要がない場合には、周波数帯域を制限した音圧波形のグラフを用いて、中域音のみの音源推定を行うことが好ましい。
In the above example, the graph P (t) of the time-series waveform of the sound pressure level is the magnitude of the collected sound, but it is also possible to switch to a graph of the sound pressure level for each preset frequency band.
Specifically, the frequency band of the sound pressure waveform created by the sound pressure waveform creation means 28 is designated by the analysis frequency designation means 27 and stored using the frequency analysis means 28F provided in the sound pressure waveform creation means 28. The sound pressure waveform data called from the sound file of the means 24 may be frequency-analyzed to generate data for displaying a time-series waveform graph of the sound pressure level in the designated frequency band.
As a graph of a sound pressure waveform in a frequency band having a predetermined bandwidth centered on the frequency f, for example, from a graph of a sound pressure waveform at all frequencies, such as a graph p f (t) indicated by a broken line in FIG. Many of them also have sharp peaks.
In this way, by using the sound pressure waveform graph with a limited frequency band, it is possible to estimate the position of the sound source for the sound transmitted from a specific device, such as the sound from the transformer of the power supply box and the vibration sound of the air conditioner. It can be performed with high accuracy.
In addition, when it is not necessary to analyze low-frequency sound as noise outside the vehicle, as in the case of sound source estimation in the passenger compartment, a mid-range sound can be obtained using a sound pressure waveform graph with a limited frequency band. It is preferable to perform only sound source estimation.

また、前記例では、音・映像採取ユニット10を回転させながら音と映像とを採取したが、音が間欠的に発生したり、時間的に変化する音源の存在が予想される場合には、音・映像採取ユニット10を固定して測定する方が好ましい。
また、前記例では、5本のマイクロフォンM1〜M5を用いて、計測点と音源位置とのなす水平角θと仰角φとを推定したが、音源位置が水平角θだけで十分な場合には、マイクロフォンM5を省略して、互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対(M1,M3),(M2,M4)のみを用いればよい。
In the above example, sound and video are sampled while the sound / video sampling unit 10 is rotated. If sound is generated intermittently or a sound source that changes with time is expected, It is preferable to measure with the sound / video sampling unit 10 fixed.
In the above example, the horizontal angle θ and the elevation angle φ formed by the measurement point and the sound source position are estimated using the five microphones M1 to M5. However, when the sound source position is sufficient, the horizontal angle θ is sufficient. The microphone M5 may be omitted, and only two pairs of microphones (M1, M3) and (M2, M4) arranged at predetermined intervals on two straight lines that intersect with each other may be used.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は前記実施の形態に記載の範囲には限定されない。前記実施の形態に、多様な変更または改良を加えることが可能であることが当業者にも明らかである。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the embodiment. It is apparent from the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

以上説明したように、本発明によれば、現場において、測定データの任意の部分を抽出して音源位置の推定を行うことができるので、音源位置の推定時間を大幅に短縮することができ、音源の推定を効率よく行うことができる。
また、計測点の位置が適当でないなど、測定の妥当性についても、早期に判断できるので、音源位置の推定を効率良く行うことができる。
As described above, according to the present invention, since it is possible to estimate the sound source position by extracting any part of the measurement data in the field, the estimation time of the sound source position can be greatly reduced, Sound source estimation can be performed efficiently.
In addition, since the validity of the measurement can be determined at an early stage such that the position of the measurement point is not appropriate, the sound source position can be estimated efficiently.

10 音・映像採取ユニット、11 音採取手段、M1〜M5 マイクロフォン、
12 CCDカメラ、13 マイクロフォン固定部、14 カメラ支持台、
15 支柱、16 回転台、16r 回転部材、17 基台、
20 音源位置推定装置、21 増幅器、22 A/D変換器、23 映像入出力手段、24 記憶手段、25 表示手段、25M 表示画面、25a 音圧レベル表示部、
25b 画像表示部、26 解析時間長設定手段、27 解析周波数指定手段、
28 音圧波形作成手段、29 解析位置指定手段、30 音圧波形データ取出手段、
31 音源方向推定手段、32 画像データ取出手段、33 データ合成手段、
34 音源方向を表す図形、35 音源位置推定画面。
10 sound / video sampling unit, 11 sound sampling means, M1-M5 microphone,
12 CCD camera, 13 microphone fixing part, 14 camera support,
15 struts, 16 turntables, 16r rotation members, 17 bases,
20 sound source position estimation device, 21 amplifier, 22 A / D converter, 23 video input / output means, 24 storage means, 25 display means, 25M display screen, 25a sound pressure level display section,
25b image display unit, 26 analysis time length setting means, 27 analysis frequency designation means,
28 sound pressure waveform creation means, 29 analysis position designation means, 30 sound pressure waveform data extraction means,
31 sound source direction estimation means, 32 image data extraction means, 33 data synthesis means,
34 Graphic representing sound source direction, 35 Sound source position estimation screen.

Claims (6)

複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取して、この採取した音の音圧信号のデータである音圧波形データと映像の画像データとをそれぞれ記憶手段に保存するとともに、前記音圧波形データのみを記憶手段から抽出して音圧レベルの時系列波形のグラフを表示し、このグラフ上で音源方向の解析を行う時間位置を指定した後、この指定された時間位置を含む所定の解析時間長の音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出して音源方向を推定し、前記推定された音源方向と前記解析時間内に撮影された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成し、この音源位置推定画像を用いて前記音源を推定することを特徴とする音源の推定方法。   Sound pressure waveform data, which is the sound pressure signal data of the collected sound, is collected at the same time using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated. And the image data of the video are respectively stored in the storage means, and only the sound pressure waveform data is extracted from the storage means to display a time-series waveform graph of the sound pressure level, and the sound source direction is analyzed on the graph. After designating the time position to be performed, using the sound pressure waveform data of a predetermined analysis time length including the designated time position, the phase difference between the sound pressure signals of the sounds collected by the plurality of microphones is calculated. Estimating the sound source direction, combining the estimated sound source direction and the image data captured within the analysis time, creating a sound source position estimation image in which a figure showing the estimated sound source direction is drawn, Estimation method of a sound source, which comprises of estimating the sound source using the sound source position estimation image. 複数のマイクロフォンと撮影手段とを一体に組み込んだ音・映像採取ユニットを用いて音の情報と映像の情報とを同時に採取する第1のステップと、
前記採取した音の音圧信号をA/D変換して音圧波形データとして記憶手段に保存し、前記映像の信号をA/D変換して画像データとして記憶手段に保存する第2のステップと、
前記音圧波形データを記憶手段から抽出して音圧レベルの時系列波形のグラフを作成して表示手段の表示画面に表示する第3のステップと、
前記表示画面上においてグラフ上の特定の点を指定することで、音源方向の解析を行う時間位置を指定する第4のステップと、
前記記憶手段から、前記指定された時間位置を含む予め設定された解析時間長の音圧波形データを抽出する第5のステップと、
前記抽出された音圧波形データを用いて、前記複数のマイクロフォンで採取した音の音圧信号間の位相差を算出し、音源方向を推定する第6のステップと、
前記記憶手段から、前記解析時間の開始時刻と終了時刻との間の時刻における画像データを抽出する第7のステップと、
前記第6のステップで推定された音源方向のデータと、前記第7のステップで抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源位置推定画像を作成して表示する第8のステップと、
前記音源位置推定画像を用いて、前記音源を推定する第9のステップとを備えたことを特徴とする請求項1に記載の音源の推定方法。
A first step of simultaneously collecting sound information and video information using a sound / video sampling unit in which a plurality of microphones and photographing means are integrated;
A second step of A / D converting the sound pressure signal of the collected sound and storing it as sound pressure waveform data in a storage means, and A / D converting the video signal and storing it as image data in the storage means; ,
A third step of extracting the sound pressure waveform data from the storage means, creating a graph of a time series waveform of the sound pressure level, and displaying the graph on the display screen of the display means;
A fourth step of designating a time position for analyzing the sound source direction by designating a specific point on the graph on the display screen;
A fifth step of extracting, from the storage means, sound pressure waveform data having a preset analysis time length including the designated time position;
A sixth step of calculating a phase difference between sound pressure signals of sounds collected by the plurality of microphones using the extracted sound pressure waveform data, and estimating a sound source direction;
A seventh step of extracting image data at a time between a start time and an end time of the analysis time from the storage means;
A sound source position estimation image in which a graphic representing the estimated sound source direction is drawn by combining the sound source direction data estimated in the sixth step and the image data extracted in the seventh step. An eighth step of creating and displaying;
The sound source estimation method according to claim 1, further comprising: a ninth step of estimating the sound source using the sound source position estimation image.
前記第3のステップにおいて、前記記憶手段から抽出する音圧レベルの時系列波形が採取音の大きさの時系列波形であることを特徴とする請求項2に記載の音源の推定方法。   The sound source estimation method according to claim 2, wherein in the third step, the time-series waveform of the sound pressure level extracted from the storage means is a time-series waveform of the magnitude of the collected sound. 前記第3のステップに、推定する音圧信号の周波数帯域を指定するステップと、前記記憶手段から抽出した音圧レベルの時系列波形を周波数分析して、前記指定された周波数帯域における音圧レベルの時系列波形を求めるステップとを設け、前記求められた指定周波数帯域の音圧レベルの時系列波形のグラフを表示手段の表示画面に表示することを特徴とする請求項2に記載の音源の推定方法。   In the third step, the step of designating the frequency band of the sound pressure signal to be estimated, and the time series waveform of the sound pressure level extracted from the storage means are frequency-analyzed, and the sound pressure level in the designated frequency band A time series waveform is obtained, and a graph of a time series waveform of the obtained sound pressure level in the designated frequency band is displayed on a display screen of the display means. Estimation method. 互いに交わる2つの直線上にそれぞれ所定の間隔で配置された2組のマイクロフォン対を有するマイクロフォン群と音源方向の映像を撮影する撮影手段と表示手段とを備え、前記マイクロフォン群で採取した音源から伝播する音の音圧信号と音源方向を撮影した映像信号とから、音源位置のデータが表示された画像を作成して表示手段に表示し音源を推定する音源の推定装置であって、
前記各マイクロフォンで採取した音圧信号と撮影手段で撮影した映像信号とをそれぞれデジタル信号に変換するA/D変換器と、
前記A/D変換された音圧信号を時系列的に並べた音圧波形データを音ファイルとして保存し、前記A/D変換された映像信号を時系列的に並べた動画データを、動画ファイルとして保存する記憶手段と、
前記音ファイルから予め設定した解析時間長の音圧波形データを抽出して、音圧レベルの時系列波形のグラフを作成する音圧波形作成手段と、
前記時系列波形のグラフの特定の点を指定することで、音源方向の解析を行う時間位置を指定する解析位置指定手段と、
前記音ファイルから、指定された時間位置を含む予め設定された解析時間長の音圧波形データを抽出し、この抽出された音圧波形データを周波数解析して前記2組のマイクロフォン対を構成するマイクロフォン間のそれぞれの位相差を求め、この求められた2組のマイクロフォン対の位相差の比から音源方向を推定する音源方向推定手段と、
前記動画ファイルから、前記解析時間の開始時刻と終了時刻との間の時刻における画像データを抽出する画像データ抽出手段と、
前記推定された音源方向のデータと前記抽出された画像データとを合成して、前記推定された音源方向を示す図形が描画された音源方向推定画像を作成する音源位置推定画像作成手段とを備え、
前記複数のマイクロフォンと前記撮影手段とは一体に組み込まれて、音の情報と映像の情報とを同時に採取し、
前記表示手段は、前記音圧波形作成手段で作成された音圧波形のグラフと、前記音源位置推定画像作成手段で作成された音源方向推定画像とを表示することを特徴とする音源の推定装置。
Providing a microphone group having two pairs of microphones arranged at predetermined intervals on two intersecting straight lines, a photographing means for photographing a sound source direction image and a display means, and propagating from the sound source collected by the microphone group A sound source estimation device that creates an image on which sound source position data is displayed from a sound pressure signal of a sound and a video signal obtained by photographing a sound source direction, displays the image on a display unit, and estimates a sound source,
An A / D converter that converts the sound pressure signal collected by each microphone and the video signal photographed by the photographing means into digital signals,
The sound pressure waveform data in which the A / D converted sound pressure signals are arranged in time series is stored as a sound file, and the moving picture data in which the A / D converted video signals are arranged in time series is stored in a moving picture file. Storage means for storing as,
Sound pressure waveform creating means for extracting sound pressure waveform data of a preset analysis time length from the sound file and creating a graph of a time-series waveform of sound pressure levels;
By specifying a specific point on the graph of the time series waveform, an analysis position specifying means for specifying a time position for analyzing the sound source direction;
Sound pressure waveform data having a predetermined analysis time length including a specified time position is extracted from the sound file, and the extracted sound pressure waveform data is subjected to frequency analysis to form the two sets of microphone pairs. Sound source direction estimating means for obtaining respective phase differences between the microphones and estimating the sound source direction from the ratio of the phase differences of the two obtained microphone pairs;
Image data extraction means for extracting image data at a time between the start time and the end time of the analysis time from the moving image file;
Sound source position estimated image creating means for creating a sound source direction estimated image in which a figure showing the estimated sound source direction is drawn by combining the estimated sound source direction data and the extracted image data; ,
The plurality of microphones and the photographing unit are integrally incorporated, and simultaneously collect sound information and video information,
The display means displays a graph of the sound pressure waveform created by the sound pressure waveform creation means and a sound source direction estimation image created by the sound source position estimation image creation means, .
前記マイクロフォン群に、前記2組のマイクロフォン対の作る平面上にない第5のマイクロフォンを追加するとともに、前記音源方向推定手段では、前記2組のマイクロフォン対を構成するマイクロフォン間の位相差と、前記第5のマイクロフォンと前記2組のマイクロフォン対を構成する4個のマイクロフォンのそれぞれとで構成される4組のマイクロフォン対を構成するマイクロフォン間の位相差とを用いて音源方向を推定することを特徴とする請求項5に記載の音源の推定装置。   A fifth microphone that is not on the plane formed by the two sets of microphone pairs is added to the microphone group, and the sound source direction estimation means includes a phase difference between the microphones constituting the two sets of microphone pairs, and A sound source direction is estimated using a fifth microphone and a phase difference between the microphones constituting the four pairs of microphones constituted by each of the four microphones constituting the two pairs of microphones. The sound source estimation apparatus according to claim 5.
JP2009048554A 2009-02-27 2009-03-02 Sound source estimation method and apparatus Active JP5294925B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009048554A JP5294925B2 (en) 2009-03-02 2009-03-02 Sound source estimation method and apparatus
US12/713,425 US8363512B2 (en) 2009-02-27 2010-02-26 Method and apparatus for estimating sound source
CN201010123928.0A CN101820565B (en) 2009-02-27 2010-02-26 Method and apparatus for estimating sound source

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009048554A JP5294925B2 (en) 2009-03-02 2009-03-02 Sound source estimation method and apparatus

Publications (2)

Publication Number Publication Date
JP2010206419A true JP2010206419A (en) 2010-09-16
JP5294925B2 JP5294925B2 (en) 2013-09-18

Family

ID=42967474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009048554A Active JP5294925B2 (en) 2009-02-27 2009-03-02 Sound source estimation method and apparatus

Country Status (1)

Country Link
JP (1) JP5294925B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
CN105611478A (en) * 2016-03-14 2016-05-25 互联天下科技发展(深圳)有限公司 Real-time positioning recording device and method
JP2017050649A (en) * 2015-08-31 2017-03-09 富士通株式会社 Video audio reproducing apparatus, video audio reproducing method, and program
JP2017161223A (en) * 2016-03-07 2017-09-14 株式会社大林組 Noise source searching system
WO2018020841A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Voice monitoring system and voice monitoring method
KR20200104510A (en) * 2019-02-27 2020-09-04 대구대학교 산학협력단 A recommendation method of acoustic equipment based on user's music listening style

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020255358A1 (en) * 2019-06-20 2020-12-24 日本電気株式会社 Optical fiber sensing system and sound source position identifying method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160077A (en) * 1994-12-08 1996-06-21 Yokogawa Electric Corp Waveform analyzer
JP2005348860A (en) * 2004-06-09 2005-12-22 Matsushita Electric Ind Co Ltd Body movement analyzer
JP2006324895A (en) * 2005-05-18 2006-11-30 Chubu Electric Power Co Inc Correcting method for microphone output for sound source survey, low-frequency generating device, sound source survey system, and microphone frame
JP2008224259A (en) * 2007-03-09 2008-09-25 Chubu Electric Power Co Inc System for estimating acoustic source location

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08160077A (en) * 1994-12-08 1996-06-21 Yokogawa Electric Corp Waveform analyzer
JP2005348860A (en) * 2004-06-09 2005-12-22 Matsushita Electric Ind Co Ltd Body movement analyzer
JP2006324895A (en) * 2005-05-18 2006-11-30 Chubu Electric Power Co Inc Correcting method for microphone output for sound source survey, low-frequency generating device, sound source survey system, and microphone frame
JP2008224259A (en) * 2007-03-09 2008-09-25 Chubu Electric Power Co Inc System for estimating acoustic source location

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150059A (en) * 2011-01-20 2012-08-09 Chubu Electric Power Co Inc Method and device for estimating sound source
JP2017050649A (en) * 2015-08-31 2017-03-09 富士通株式会社 Video audio reproducing apparatus, video audio reproducing method, and program
JP2017161223A (en) * 2016-03-07 2017-09-14 株式会社大林組 Noise source searching system
CN105611478A (en) * 2016-03-14 2016-05-25 互联天下科技发展(深圳)有限公司 Real-time positioning recording device and method
CN105611478B (en) * 2016-03-14 2019-04-23 互联天下科技发展(深圳)有限公司 A kind of real-time locating recordings device and method
WO2018020841A1 (en) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 Voice monitoring system and voice monitoring method
US10930295B2 (en) 2016-07-28 2021-02-23 Panasonic Intellectual Property Management Co., Ltd. Voice monitoring system and voice monitoring method
US11631419B2 (en) 2016-07-28 2023-04-18 Panasonic Intellectual Property Management Co., Ltd. Voice monitoring system and voice monitoring method
KR20200104510A (en) * 2019-02-27 2020-09-04 대구대학교 산학협력단 A recommendation method of acoustic equipment based on user's music listening style
KR102434636B1 (en) * 2019-02-27 2022-08-22 대구대학교 산학협력단 A recommendation method of acoustic equipment based on user's music listening style

Also Published As

Publication number Publication date
JP5294925B2 (en) 2013-09-18

Similar Documents

Publication Publication Date Title
JP5089198B2 (en) Sound source position estimation system
JP5294925B2 (en) Sound source estimation method and apparatus
US8363512B2 (en) Method and apparatus for estimating sound source
JP5693201B2 (en) Method and apparatus for reproducing propagation sound from specified area
JP5702160B2 (en) Sound source estimation method and sound source estimation apparatus
JP6061693B2 (en) Abnormality diagnosis apparatus and abnormality diagnosis method using the same
JP5456563B2 (en) Method and apparatus for displaying sound source estimation image
EP3073766A1 (en) Sound field re-creation device, method, and program
JP4476870B2 (en) Correction method of microphone output for sound source search, low frequency generator, sound source search system, and microphone frame
JP2016146547A5 (en)
CN110068388A (en) A kind of method for detecting vibration of view-based access control model and blind source separating
JP2017040585A (en) Structure deterioration determination method
Liu et al. Time-varying motion filtering for vision-based nonstationary vibration measurement
JP5242452B2 (en) Sound source estimation method and apparatus
JP5826582B2 (en) Sound source direction estimation method, sound source direction estimation device, and sound source estimation image creation device
JP2016114426A (en) Sound source direction estimation method
JP2010236939A (en) Method and apparatus for estimating sound source
JP5462667B2 (en) Surveillance camera device with sound source direction estimation function
JP5534870B2 (en) Sound source estimation image creation device
Torres et al. Room acoustics analysis using circular arrays: An experimental study based on sound field plane-wave decomposition
JP2015161659A (en) Sound source direction estimation device and display device of image for sound source estimation
JP5242450B2 (en) Sound source estimation method
JP5151575B2 (en) Hand shake vibration waveform generation method, hand shake image photographing method using the same, and hand shake vibration waveform generation apparatus
JP6297858B2 (en) Sound source estimation image creation device
JP5749060B2 (en) Isogo deterioration diagnosis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130611

R150 Certificate of patent or registration of utility model

Ref document number: 5294925

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350