JP2013213739A - Sound source position estimating device, sound source position estimating method and program therefor - Google Patents

Sound source position estimating device, sound source position estimating method and program therefor Download PDF

Info

Publication number
JP2013213739A
JP2013213739A JP2012084211A JP2012084211A JP2013213739A JP 2013213739 A JP2013213739 A JP 2013213739A JP 2012084211 A JP2012084211 A JP 2012084211A JP 2012084211 A JP2012084211 A JP 2012084211A JP 2013213739 A JP2013213739 A JP 2013213739A
Authority
JP
Japan
Prior art keywords
sound source
unit
source position
sound wave
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012084211A
Other languages
Japanese (ja)
Inventor
Takashi Sato
尚 佐藤
Takehiro Moriya
健弘 守谷
Masaru Kamamoto
優 鎌本
Yoshifumi Shiraki
善史 白木
Pablo Nava Gabriele
パブロ ナバ ガブリエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012084211A priority Critical patent/JP2013213739A/en
Publication of JP2013213739A publication Critical patent/JP2013213739A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Arrangements For Transmission Of Measured Signals (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound source position estimating technique which allows time and labor for microphone position measurement and wiring to be saved by transmitting information necessary for sound source position estimation via visible light communication, and which allows easy alteration and expansion of an area covered by a microphone array and advantageous in estimating a sound source direction.SOLUTION: A sound source position estimating device comprises a plurality of sensor units and a receiver. Each of the sensor unit includes: a soundwave direction estimating section for estimating a strength by soundwave receiving direction that is an aggregation of soundwave strengths for each direction, by using acoustic signals; and a transmitting section for encoding the strength by soundwave receiving direction and transmitting it via visible light communication by making a light emitter flash. The receiver includes: a decoding section which decodes the flashing of the light emitter on the image data to acquire the strength by soundwave receiving direction, and further estimates a sensor unit position from a flashing position of the light emitter on the image data using a position of a light receiving section as a reference point; and a sound source position reconfiguration section for estimating a sound source position using the strength by soundwave receiving direction and the sensor unit position.

Description

本発明は、マイクロホンを用いて音源の位置を推定する音源位置推定装置、音源位置推定方法及びそのプログラムに関する。   The present invention relates to a sound source position estimation apparatus, a sound source position estimation method, and a program thereof that estimate the position of a sound source using a microphone.

複数のマイクロホンからなるマイクロホンアレイを用いた音源方向、位置の推定に関しては様々な研究開発がなされている。音源方向、位置の推定という目標に対し、通常はマイクロホンの位置及びその計測情報という二つの情報が必要となる。また、一般的にはマイクロホンアレイの配置面積が広く、また、そのマイクロホンの数が多いほど、音源位置推定には有利になる。   Various research and development have been conducted on the estimation of sound source direction and position using a microphone array composed of a plurality of microphones. For the target of sound source direction and position estimation, two pieces of information such as a microphone position and measurement information are usually required. In general, the arrangement area of the microphone array is large, and the larger the number of microphones, the more advantageous for sound source position estimation.

そのため、マイクロホンの位置をその都度測定したり、予め位置関係の決まったマイクロホンアレイを作成したりする方法がとられている(非特許文献1参照)。   For this reason, a method is employed in which the position of the microphone is measured each time or a microphone array having a predetermined positional relationship is created (see Non-Patent Document 1).

しかし前者ではマイクロホンのチャンネル数を多くすると位置計測や配線の手間が増えるという課題があり、後者では音源方向推定に有利に働くマイクロホンアレイのカバーする面積を容易に増やせないという課題があった。   However, in the former, there is a problem that if the number of microphone channels is increased, there is a problem that the labor of position measurement and wiring increases.

H. Krim, M. Viberg, “Two decades of array signal processing research”, IEEE Signal Processing Magazine, July 1996, pp.67-94H. Krim, M. Viberg, “Two decades of array signal processing research”, IEEE Signal Processing Magazine, July 1996, pp.67-94

この課題に対し、マイクロホンアレイからの情報を、可視光通信(参考文献1参照)によってイメージセンサを用いて取得する構成とすると、位置情報とマイクロホンアレイの情報を同時に取得でき、配線も簡略化できるという大きなメリットがある(参考文献2参照)。
(参考文献1)中川正雄,「可視光通信の世界」,工業調査会,2006年2月1日,p3−21,p159−170
(参考文献2)Toru Nagura, Takaya YAMAZATO, Masaaki KATAYAMA, Tomohiro YENDO, Toshiaki FUJII, Hiraku OKADA, “Improved Decoding Methods of Visible Light Communication System for ITS Using LED Array and High-Speed Camera”, Vehicular Technology Conference (VTC 2010-Spring), 2010 IEEE 71st, IEEE, 16-19 May 2010, pp.1-5
In response to this problem, if the configuration is such that information from the microphone array is acquired using an image sensor by visible light communication (see Reference 1), position information and information on the microphone array can be acquired simultaneously, and wiring can be simplified. (See Reference 2).
(Reference 1) Masao Nakagawa, “The World of Visible Light Communication”, Industrial Research Committee, February 1, 2006, p3-21, p159-170
(Reference 2) Toru Nagura, Takaya YAMAZATO, Masaaki KATAYAMA, Tomohiro YENDO, Toshiaki FUJII, Hiraku OKADA, “Improved Decoding Methods of Visible Light Communication System for ITS Using LED Array and High-Speed Camera”, Vehicular Technology Conference (VTC 2010 -Spring), 2010 IEEE 71st, IEEE, 16-19 May 2010, pp.1-5

しかし、単純にマイクロホンアレイからの情報を可視光通信によって伝送する場合、マイクロホンアレイのチャンネル数を多くすると取得した音響信号を全て伝送するには通信帯域が不足するという課題もある(参考文献3参照)。
(参考文献3)石田正徳,春山真一郎,中川正雄,「並列可視光無線通信方式における通信速度限界の検討」,電子情報通信学会技術研究報告CS通信方式,社団法人電子情報通信学会,2007年1月4日,Vol.106,No.450,pp.37−41
However, when information from a microphone array is simply transmitted by visible light communication, there is a problem that a communication band is insufficient to transmit all of the acquired acoustic signals when the number of channels of the microphone array is increased (see Reference 3). ).
(Reference 3) Masanori Ishida, Shinichiro Haruyama, Masao Nakagawa, “Examination of Communication Speed Limit in Parallel Visible Light Wireless Communication System”, IEICE Technical Report CS Communication System, The Institute of Electronics, Information and Communication Engineers, 2007 1 May 4, Vol. 106, no. 450, pp. 37-41

本発明では、音響信号を全て伝送するのではなく、センサユニット内、あるいは複数センサユニット間で音源位置推定に必要な情報のみをある程度抽出したのち、その情報のみ伝送する解決策を上記可視光通信の解決策と組み合わせて用いる。   In the present invention, instead of transmitting all acoustic signals, a solution for extracting only information necessary for sound source position estimation within a sensor unit or between a plurality of sensor units to some extent and then transmitting only the information is the visible light communication described above. Used in combination with the above solution.

本発明は、可視光通信によって音源位置推定に必要な情報を送信することで、マイクロホンの位置計測や配線の手間が省くことができ、かつ、音源方向推定に有利に働くマイクロホンアレイのカバーする面積を容易に変更、増加することできる音源位置推定技術を提供することを目的とする。   The present invention eliminates the trouble of microphone position measurement and wiring by transmitting information necessary for sound source position estimation by visible light communication, and covers the area of the microphone array that works advantageously for sound source direction estimation. An object of the present invention is to provide a sound source position estimation technique that can easily change or increase the number of sound sources.

上記の課題を解決するために、本発明の第一の態様によれば、音源位置推定装置は、複数のセンサユニットと受信装置とを含む。センサユニットは、音波を電気信号に変換し、音響信号を生成するマイクロホンと、音響信号を用いて、各方向に対する音波の強さの集合である音波受信方向別強度を推定する音波方向推定部と、音波受信方向別強度を符号化し、発光素子を点滅させて、可視光通信により送信する送信部と、を有する。受信装置は、イメージセンサからなり、発光素子の点滅をイメージデータとして受信する受光部と、イメージデータ上の発光素子の点滅を復号して音波受信方向別強度を取得し、さらに、受光部の位置を基点としてイメージデータ上の発光素子の点滅位置からセンサユニットの位置を推定する復号部と、音波受信方向別強度とセンサユニットの位置とを用いて、音源位置を推定する音源位置再構成部と、を有する。   In order to solve the above-described problem, according to the first aspect of the present invention, the sound source position estimating device includes a plurality of sensor units and a receiving device. The sensor unit converts a sound wave into an electrical signal, generates a sound signal, and uses the sound signal to estimate a sound wave direction estimation unit that estimates a strength for each sound wave reception direction, which is a set of sound wave strengths in each direction. A transmitter that encodes the intensity for each sound wave reception direction, blinks the light emitting element, and transmits the light by visible light communication. The receiving device is composed of an image sensor, receives a flashing light emitting element as image data, decodes the flashing light emitting element on the image data to obtain the intensity for each sound wave receiving direction, and further receives the position of the light receiving unit. A decoding unit that estimates the position of the sensor unit from the blinking position of the light emitting element on the image data, and a sound source position reconstruction unit that estimates the sound source position using the intensity for each sound wave reception direction and the position of the sensor unit; Have.

上記の課題を解決するために、本発明の第二の態様によれば、音源位置推定方法は、複数のセンサユニットと受信装置とを用いる。音源位置推定方法は、センサユニットのマイクロホンが、音波を電気信号に変換し、音響信号を生成する収音ステップと、センサユニットの音波方向推定部が、音響信号を用いて、各方向に対する音波の強さの集合である音波受信方向別強度を推定する音波方向推定ステップと、センサユニットの送信部が、音波受信方向別強度を符号化し、発光素子を点滅させて、可視光通信により送信する送信ステップと、受信装置の受光部が、発光素子の点滅をイメージデータとして受信する受信ステップと、受信装置の復号部が、イメージデータ上の発光素子の点滅を復号して音波受信方向別強度を取得し、さらに、受光部の位置を基点としてイメージデータ上の発光素子の点滅位置からセンサユニットの位置を推定する復号ステップと、受信装置の音源位置再構成部が、音波受信方向別強度とセンサユニットの位置とを用いて、音源位置を推定する音源位置再構成ステップと、を含む。   In order to solve the above problem, according to the second aspect of the present invention, the sound source position estimation method uses a plurality of sensor units and a receiving device. The sound source position estimation method includes a sound collection step in which a microphone of a sensor unit converts a sound wave into an electrical signal and generates an acoustic signal, and a sound wave direction estimation unit of the sensor unit uses the sound signal to generate a sound wave for each direction. A sound wave direction estimating step for estimating the intensity for each sound wave reception direction, which is a set of strengths, and a transmission in which the transmission unit of the sensor unit encodes the intensity for each sound wave reception direction, blinks the light emitting element, and transmits it by visible light communication. A receiving step in which the light receiving unit of the receiving device receives the blinking of the light emitting element as image data; and a decoding unit of the receiving device decodes the blinking of the light emitting element on the image data to obtain the intensity for each sound wave receiving direction. And a decoding step of estimating the position of the sensor unit from the blinking position of the light emitting element on the image data with the position of the light receiving unit as a base point, Source position reconstruction unit, using the position of the wave reception direction-strength and the sensor unit includes a sound source position reconstruction step of estimating the sound source position.

本発明によれば、可視光通信によって音源位置推定に必要な情報を送信することで、マイクロホンの位置計測や配線の手間が省くことができ、かつ、音源方向推定に有利に働くマイクロホンアレイのカバーする面積を容易に変更、増加することできる。   According to the present invention, by transmitting information necessary for sound source position estimation by visible light communication, it is possible to save the trouble of microphone position measurement and wiring, and it is advantageous for sound source direction estimation. The area to be changed can be easily changed or increased.

第一実施形態に係る音源位置推定装置100の機能ブロック図。The functional block diagram of the sound source position estimation apparatus 100 which concerns on 1st embodiment. 第一実施形態に係る音源位置推定装置100の処理フローを示す図。The figure which shows the processing flow of the sound source position estimation apparatus 100 which concerns on 1st embodiment. 図3Aは二つのセンサユニットと受信装置との配置例を、図3Bは受信装置の受光部で得られるイメージデータの例を、図3Cは、最大の強度と重複部分の関係を示す図。FIG. 3A is an arrangement example of two sensor units and a receiving device, FIG. 3B is an example of image data obtained by a light receiving unit of the receiving device, and FIG. 3C is a diagram showing a relationship between maximum intensity and overlapping portions. 図4Aはセンサユニットの正面図を、図4Bはその平面図を、図4Cがその背面図を示す。4A is a front view of the sensor unit, FIG. 4B is a plan view thereof, and FIG. 4C is a rear view thereof. 第一実施形態の変形例に係る受信装置の受光部で得られるイメージデータの例を示す図。The figure which shows the example of the image data obtained by the light-receiving part of the receiver which concerns on the modification of 1st embodiment. マイクロホンの収音エリアを三次元的に配置した場合の例を示す図。The figure which shows the example at the time of arrange | positioning the sound collection area of a microphone three-dimensionally. 3つのセンサユニットを配置する例を示す図。The figure which shows the example which arrange | positions three sensor units. 3つのセンサユニットと受信装置との配置例を示す図。The figure which shows the example of arrangement | positioning of three sensor units and a receiver. 図8の場合のイメージデータの例を示す図。The figure which shows the example of the image data in the case of FIG. 図8の場合の最大の強度と重複部分の関係を示す図。The figure which shows the relationship of the maximum intensity | strength and overlapping part in the case of FIG. 図11Aは送信部のLEDを基板の正面上に配置した場合のセンサユニットの正面図を、図11Bはその平面図。FIG. 11A is a front view of the sensor unit when the LED of the transmission unit is arranged on the front surface of the substrate, and FIG. 11B is a plan view thereof. 送信部のLEDを基板の正面上に配置した場合のセンサユニットと受信装置との配置例を示す図。The figure which shows the example of arrangement | positioning with the sensor unit at the time of arrange | positioning LED of a transmission part on the front of a board | substrate, and a receiver. 二つのセンサユニットを異なる方向に設置した場合のセンサユニットと受信装置との配置例を示す図。The figure which shows the example of arrangement | positioning of a sensor unit and a receiver at the time of installing two sensor units in a different direction. 音源位置推定装置200の機能ブロック図。The functional block diagram of the sound source position estimation apparatus 200. FIG. 図15Aは第二実施形態に係るセンサユニットの正面図を、図15Bはその平面図を、図15Cがその背面図。15A is a front view of the sensor unit according to the second embodiment, FIG. 15B is a plan view thereof, and FIG. 15C is a rear view thereof. 第二実施形態に係るセンサユニットにおいて、音響信号x(t)、x(t)及びx(t)と音波受信方向別強度との関係を示す図。In the sensor unit according to the second embodiment, it shows the relationship between the acoustic signals x 1 (t), x 2 (t) and x 3 (t) and wave receiving direction-strength. 音波受信方向別強度と到来軸との関係を説明するための図。The figure for demonstrating the relationship between the intensity | strength according to a sound wave receiving direction, and an arrival axis. 到来軸の交点を示す図。The figure which shows the intersection of an arrival axis.

以下、本発明の実施形態について説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。   Hereinafter, embodiments of the present invention will be described. In the drawings used for the following description, constituent parts having the same function and steps for performing the same process are denoted by the same reference numerals, and redundant description is omitted. Further, the processing performed for each element of a vector or matrix is applied to all elements of the vector or matrix unless otherwise specified.

<第一実施形態>
図1は音源位置推定装置100の機能ブロック図を、図2はその処理フローを示す。
<First embodiment>
FIG. 1 is a functional block diagram of the sound source position estimating apparatus 100, and FIG.

音源位置推定装置100は、二つのセンサユニット110−1及び110−2と、受信装置120とを含む。図3Aは二つのセンサユニット110−1及び110−2と受信装置120との配置例を、図3Bは受信装置120の受光部121で得られるイメージデータの例を示す。本実施形態では、簡単のために音源方向推定を水平方向に限定した場合を示す。従って、センサユニット110−1及び110−2は、受信装置120(の受光部121)から見て、同一の高さに水平に設置されているものとする。   The sound source position estimation device 100 includes two sensor units 110-1 and 110-2 and a reception device 120. 3A shows an arrangement example of the two sensor units 110-1 and 110-2 and the receiving device 120, and FIG. 3B shows an example of image data obtained by the light receiving unit 121 of the receiving device 120. In the present embodiment, the case where the sound source direction estimation is limited to the horizontal direction is shown for simplicity. Therefore, it is assumed that the sensor units 110-1 and 110-2 are horizontally installed at the same height when viewed from the receiving device 120 (the light receiving unit 121).

[センサユニット110−1及び110−2]
図4Aはセンサユニット110−1の正面図を、図4Bはその平面図を、図4Cがその背面図を示す。センサユニット110−1は、マイクロホン111、111及び111と、音波方向推定部113と、送信部115とを有する(図1参照)。センサユニット110−2も同様の構成を有する。
[Sensor units 110-1 and 110-2]
4A is a front view of the sensor unit 110-1, FIG. 4B is a plan view thereof, and FIG. 4C is a rear view thereof. The sensor unit 110-1 includes microphones 111 R , 111 F, and 111 L , a sound wave direction estimation unit 113, and a transmission unit 115 (see FIG. 1). The sensor unit 110-2 has a similar configuration.

センサユニット110−1は、その設置された位置における音波の到来方向を推定し、可視光通信を用いて、音波の到来方向に関する情報を受信装置に伝送する。   The sensor unit 110-1 estimates the arrival direction of the sound wave at the installed position, and transmits information regarding the arrival direction of the sound wave to the reception device using visible light communication.

[マイクロホン111、111及び111
マイクロホン111、111及び111は、それぞれ、鋭い指向性を持ち、異なる収音エリアを持つ。本実施形態では、マイクロホン111、111及び111は、左右45°と正面から到来する音波を最もよくとらえるように基板117の正面上に設置される(図4参照)。マイクロホン111、111及び111は、それぞれ音波を収音して電気信号に変換し、音響信号x(t),x(t)及びx(t)を生成し、音波方向推定部113に送信する(s1)。ただし、tはフレーム番号、または、フレーム番号に対応する時刻を表す。
[Microphones 111 R , 111 F and 111 L ]
Each of the microphones 111 R , 111 F, and 111 L has a sharp directivity and a different sound collection area. In the present embodiment, the microphones 111 R , 111 F, and 111 L are installed on the front surface of the substrate 117 so as to best capture sound waves coming from the front, 45 ° left and right (see FIG. 4). The microphones 111 R , 111 F, and 111 L pick up sound waves and convert them into electric signals, generate acoustic signals x R (t), x F (t), and x L (t), and estimate sound wave directions. The data is transmitted to the unit 113 (s1). Here, t represents a frame number or a time corresponding to the frame number.

[音波方向推定部113]
音波方向推定部113は、CPU,メモリ、処理回路等によって構成される。音波方向推定部113は、音響信号x(t),x(t)及びx(t)を受け取り、これらの値を用いて、各方向に対する音波の強さである音波受信方向別強度を推定し(s2)、送信部に送信する。
[Sound wave direction estimation unit 113]
The sound wave direction estimation unit 113 includes a CPU, a memory, a processing circuit, and the like. The sound wave direction estimation unit 113 receives the acoustic signals x R (t), x F (t), and x L (t), and uses these values to determine the strength of the sound wave in each direction that is the strength of the sound wave in each direction. Is estimated (s2) and transmitted to the transmitter.

ここで、音波受信方向別強度とは、計測位置(センサユニットの設置位置)における音波の進行方向別の強度の集合であり、計測位置の情報さえ与えられたら音波の進行方向を推定することができる情報である。なお、理想的な音源と無限空間での計測では音源方向にのみ、進行波の強度が存在する。   Here, the intensity by sound wave reception direction is a set of intensities by sound wave traveling direction at the measurement position (installation position of the sensor unit), and if the information on the measurement position is given, the traveling direction of the sound wave can be estimated. Information that can be done. Note that the intensity of the traveling wave exists only in the direction of the sound source when measuring in an ideal sound source and infinite space.

例えば、音波方向推定部113は、マイクロホン111、111及び111から生成される音響信号x(t),x(t)及びx(t)の短時間積分をその強度として求め、その集合である音波受信方向別強度を推定する。例えば、各方向から来た音波の強さを周期T1ごとに算出する。n回目に計算される正面方向からの音波の強さφ(n)は、x(t)を用いて、 For example, the sound wave direction estimating unit 113 obtains the short-time integration of the acoustic signals x R (t), x F (t), and x L (t) generated from the microphones 111 R , 111 F, and 111 L as its intensity. The intensity for each sound wave receiving direction, which is the set, is estimated. For example, the intensity of the sound wave coming from each direction is calculated for each period T1. The intensity φ F (n) of the sound wave from the front direction calculated for the nth time is expressed as x F (t),

Figure 2013213739
Figure 2013213739

と推定される。T2は積分時間を表す。同様に左45°,右45°に関する音波の強さφ(n),φ(n)もx(t)、x(t)から求めることができる。求めた音波受信方向別強度φ(n)=[φ(n),φ(n),φ(n)]を周期T1ごとに送信部115に出力する。 It is estimated to be. T2 represents the integration time. Similarly, sound wave strengths φ L (n) and φ R (n) regarding 45 ° to the left and 45 ° to the right can be obtained from x L (t) and x R (t). The obtained intensity for each sound wave receiving direction φ (n) = [φ F (n), φ L (n), φ R (n)] is output to the transmitter 115 every period T1.

[送信部115]
送信部115は、符号化を行う回路またはプログラム、発光素子用ドライバ(LEDドライバ等)、発光素子(LED等)等で構成される。本実施形態では、LEDは基板117の背面上に配置される(図4参照)。送信部115は、音波受信方向別強度φ(n)=[φ(n),φ(n),φ(n)]を受け取り、可視光通信用に符号化し、LEDを点滅させて、可視光通信により送信する(s3)。可視光による点滅は後述する受信装置120の受光部121に向けて出力される。
[Transmitter 115]
The transmission unit 115 includes a circuit or program that performs encoding, a light emitting element driver (such as an LED driver), and a light emitting element (such as an LED). In this embodiment, the LED is disposed on the back surface of the substrate 117 (see FIG. 4). The transmitter 115 receives the intensity φ (n) = [φ F (n), φ L (n), φ R (n)] for each sound wave receiving direction, encodes it for visible light communication, and blinks the LED. Then, it transmits by visible light communication (s3). The blinking by visible light is output toward the light receiving unit 121 of the receiving device 120 described later.

本実施形態では、例えばn回目に得られた音波受信方向別強度φ(n)をT1時間内に受信装置120に送ることができればよく、例えば、参考文献3にある通信方式を用いても良い。   In the present embodiment, for example, it is only necessary that the intensity φ (n) for each sound wave reception direction obtained at the nth time can be sent to the receiving device 120 within T1 time. For example, the communication method described in Reference 3 may be used. .

以下において、センサユニット110−1から出力される音波受信方向別強度をφ(n)=[φ1F(n),φ1L(n),φ1R(n)]とし、センサユニット110−2から出力される音波受信方向別強度をφ(n)=[φ2F(n),φ2L(n),φ2R(n)]とする。 In the following description, the intensity for each sound wave reception direction output from the sensor unit 110-1 is φ 1 (n) = [φ 1F (n), φ 1L (n), φ 1R (n)], and the sensor unit 110-2. The intensity for each sound wave reception direction output from the signal is φ 2 (n) = [φ 2F (n), φ 2L (n), φ 2R (n)].

つまり、本実施形態では、マイクロホンの音響信号やその特徴量を伝送するのではなく、予めセンサユニット単体で、音源推定に必要な情報(音波受信方向別強度)のみを抽出したうえで、その情報のみを可視光通信で伝送する。音波受信方向別強度が単独のセンサユニットで算出される音波の方向別強度である。   In other words, in the present embodiment, the acoustic signal of the microphone and its feature amount are not transmitted, but only the information necessary for sound source estimation (the intensity for each sound wave reception direction) is extracted in advance by the sensor unit alone, and then the information is extracted. Only transmit with visible light communication. The intensity for each sound wave reception direction is the intensity for each sound wave direction calculated by a single sensor unit.

[受信装置120]
受信装置120は、受光部121、復号部123及び音源位置再構成部125を有する(図1参照)。複数のセンサユニットから発せられる音波受信方向別強度を取得し、音源の位置を再構成する。
[Receiving device 120]
The receiving device 120 includes a light receiving unit 121, a decoding unit 123, and a sound source position reconstruction unit 125 (see FIG. 1). The intensity for each sound wave receiving direction emitted from a plurality of sensor units is acquired, and the position of the sound source is reconstructed.

[受光部121]
受光部121は、イメージセンサで構成される。LEDの点滅をイメージデータとして受信し(s4)、受信したイメージデータを復号部123へ出力する。図3Bはイメージデータの例を示す。
[Light receiving unit 121]
The light receiving unit 121 includes an image sensor. The blinking LED is received as image data (s4), and the received image data is output to the decoding unit 123. FIG. 3B shows an example of image data.

[復号部123]
復号部123は、イメージデータを受け取り、イメージデータのLEDの点滅を復号して音波受信方向別強度φ(n)、φ(n)を取得する(s5)。さらに、受光部121の位置を基点としてイメージデータ上のLEDの点滅位置からセンサユニット110−1及び110−2の位置を推定する。取得した音波受信方向別強度φ(n)、φ(n)と、推定したセンサユニットの位置とを音源位置再構成部125に出力する。このような構成とすることで、センサユニットの位置情報と、センサユニットの計測情報を一度の計測で得られるようにする。
[Decoding unit 123]
The decoding unit 123 receives the image data, decodes the blinking of the LED of the image data, and acquires the intensity φ 1 (n), φ 2 (n) for each sound wave reception direction (s5). Further, the positions of the sensor units 110-1 and 110-2 are estimated from the blinking positions of the LEDs on the image data with the position of the light receiving unit 121 as a base point. The acquired strengths φ 1 (n) and φ 2 (n) for each sound wave reception direction and the estimated position of the sensor unit are output to the sound source position reconstruction unit 125. With such a configuration, the position information of the sensor unit and the measurement information of the sensor unit can be obtained by a single measurement.

本実施形態では、例えば、センサユニット110−1及び110−2の送信した点滅を符号化方式に対応する参考文献3記載の復号を行う。   In the present embodiment, for example, the blinking transmitted by the sensor units 110-1 and 110-2 is decoded as described in Reference 3 corresponding to the encoding method.

同時に、センサユニット110−1及び110−2のイメージデータ上のLEDの点滅位置から実際のセンサ位置を推定する。センサユニット110−1及び110−2の作る面Dから受信装置120までの距離がz0として与えられているとする(図3A参照)。すると、復号部123は、イメージデータ上のLEDの点滅位置に基づき、センサユニット110−1及び110−2の位置を、受信装置120の受光部121の位置を基点として、それぞれベクトル位置r(n,1)、r(n,2)にあると公知技術を用いて推定することができる。このような構成とすることで、センサユニット110−1及び110−2の位置は、面D上であれば、移動したとしても、イメージデータ上のLEDの点滅位置に基づき、ベクトル位置r(n,1)、r(n,2)を容易に推定することができる。   At the same time, the actual sensor position is estimated from the blinking positions of the LEDs on the image data of the sensor units 110-1 and 110-2. Assume that the distance from the surface D formed by the sensor units 110-1 and 110-2 to the receiving device 120 is given as z0 (see FIG. 3A). Then, the decoding unit 123 determines the positions of the sensor units 110-1 and 110-2 based on the blinking positions of the LEDs on the image data, and the vector positions r (n) based on the position of the light receiving unit 121 of the receiving device 120, respectively. , 1) and r (n, 2) can be estimated using known techniques. With such a configuration, even if the positions of the sensor units 110-1 and 110-2 move on the plane D, the vector positions r (n) are based on the blinking positions of the LEDs on the image data. , 1), r (n, 2) can be easily estimated.

復号部123は、これらを全てまとめた情報[r(n,1),φ(n)]、[r(n,2),φ(n)]を音源位置再構成部125に出力する。 The decoding unit 123 outputs information [r (n, 1), φ 1 (n)] and [r (n, 2), φ 2 (n)] that are all of these to the sound source position reconstruction unit 125. .

[音源位置再構成部125]
音源位置再構成部125は、音波受信方向別強度φ(n)、φ(n)と、センサユニットの位置r(n,1)、r(n,2)とを受け取り、これらの値を用いて、音源位置を推定し(s6)、推定した音源位置を、音源位置推定装置100の出力値として出力する。
[Sound source position reconstruction unit 125]
The sound source position reconstruction unit 125 receives the intensity φ 1 (n), φ 2 (n) for each sound wave reception direction, and the position r (n, 1), r (n, 2) of the sensor unit, and these values. Is used to estimate the sound source position (s6), and the estimated sound source position is output as an output value of the sound source position estimating apparatus 100.

本実施形態では、音源位置再構成部125は、センサユニット110−1及び110−2の位置r(n,1)、r(n,2)から各マイクロホン111、111及び111の収音エリアを推定する。なお、収音エリアは、センサユニット110−1及び110−2の位置及びその方向により特定されるが、前述の通り、位置はイメージデータ上のLEDの点滅位置に基づき推定され、その方向は、予め与えられているものとする。 In the present embodiment, the sound source position reconstruction unit 125 collects the microphones 111 R , 111 F, and 111 L from the positions r (n, 1) and r (n, 2) of the sensor units 110-1 and 110-2. Estimate the sound area. The sound collection area is specified by the positions and directions of the sensor units 110-1 and 110-2. As described above, the position is estimated based on the blinking position of the LED on the image data. It shall be given in advance.

さらに、音源位置再構成部125は、センサユニット110−1の音波受信方向別強度φ(n)=[φ1F(n),φ1L(n),φ1R(n)]の中から最大の強度(φ1F(n),φ1L(n),φ1R(n)の何れか)に対応するマイクロホン(マイクロホン111、111及び111の何れか)を選択し、同様に、センサユニット110−2の音波受信方向別強度φ(n)=[φ2F(n),φ2L(n),φ2R(n)]の中から最大の強度(φ2F(n),φ2L(n),φ2R(n)の何れか)に対応するマイクロホン(マイクロホン111、111及び111の何れか)を選択する。さらに、音源位置再構成部125は、選択されたマイクロホンの収音エリアの重複部分に音源があると推定する。図3Cは、最大の強度と重複部分の関係を示す。例えばφ1L(n)とφ2F(n)が最大値であったとき、図3Aのエリア(3)に音源が存在すると推定する。 Furthermore, the sound source position reconstructing unit 125 has the maximum intensity φ 1 (n) = [φ 1F (n), φ 1L (n), φ 1R (n)] for each sound wave reception direction of the sensor unit 110-1. The microphone (any one of the microphones 111 R , 111 F, and 111 L ) corresponding to the intensity (any one of φ 1F (n), φ 1L (n), φ 1R (n)) is selected, and similarly, the sensor Intensities φ 2 (n) = [φ 2F (n), φ 2L (n), φ 2R (n)] for each sound wave reception direction of the unit 110-2, the maximum intensity (φ 2F (n), φ 2L (N) or any one of φ 2R (n)) (one of the microphones 111 R , 111 F, and 111 L ) is selected. Furthermore, the sound source position reconstruction unit 125 estimates that there is a sound source in an overlapping portion of the sound pickup area of the selected microphone. FIG. 3C shows the relationship between maximum intensity and overlap. For example, when φ 1L (n) and φ 2F (n) are maximum values, it is estimated that a sound source exists in area (3) in FIG. 3A.

<効果>
このような構成により、センサユニットの位置とセンサユニットで生成した音波受信方向別強度とがイメージデータとして、同時に取得されるため、センサユニットの配置や位置の計測を変更する毎に行わなくてよい。
<Effect>
With such a configuration, since the position of the sensor unit and the intensity for each sound wave reception direction generated by the sensor unit are simultaneously acquired as image data, it does not have to be performed each time the arrangement or position measurement of the sensor unit is changed. .

対象センサユニットが固定されていなくても良い。周期T1での移動がイメージセンサ上で無視できる程度の速度であれば、面D上を移動していてもかまわない。   The target sensor unit may not be fixed. As long as the movement in the period T1 is negligible on the image sensor, the movement on the surface D may be performed.

また、センサユニットにおける計測はイメージセンサへ可視光通信する帯域に制限される必要がない。そのため、センサユニットにおけるマイクロホンの計測帯域を十分に確保できる。従って、個々のセンサユニットにおける音源方向の推定精度が劣化しにくい。例えば、40kHzで計測した音波受信方向別強度を、イメージデータのビデオレート(例えば30Hz〜40Hz)で伝送しても良い。   Further, the measurement in the sensor unit does not need to be limited to the band for visible light communication to the image sensor. Therefore, a sufficient measurement band of the microphone in the sensor unit can be secured. Therefore, the estimation accuracy of the sound source direction in each sensor unit is unlikely to deteriorate. For example, the intensity for each sound wave reception direction measured at 40 kHz may be transmitted at a video rate of image data (for example, 30 Hz to 40 Hz).

センサユニット側の配線は、電源のみで済む。従って、大量のセンサユニットを広範囲に配置することが容易になる。また、個々のセンサユニットで計測、処理された情報をイメージセンサで取得するため、配線の手間も少ない。   Wiring on the sensor unit side requires only a power source. Therefore, it becomes easy to arrange a large amount of sensor units over a wide range. In addition, since information measured and processed by each sensor unit is acquired by an image sensor, wiring work is reduced.

また、センサユニットを広範囲に容易に設置できるため、音源方向、音源位置の推定上、有利になる。   Further, since the sensor unit can be easily installed in a wide range, it is advantageous in estimating the sound source direction and the sound source position.

<変形例>
センサユニット110−1及びセンサユニット110−2は、同一の高さに水平に設置されていなくともよい。例えば、センサユニットは受信装置120の受光部121の位置から見て、異なる高さに、二次元的に配置されてもよい。この場合の受信装置120の受光部121で得られるイメージデータの例を図5に示す。このような構成であっても、イメージデータ上のLEDの点滅位置と距離z0から、受信装置120に対するセンサユニットの位置を推定することができる。
<Modification>
The sensor unit 110-1 and the sensor unit 110-2 do not have to be installed horizontally at the same height. For example, the sensor units may be two-dimensionally arranged at different heights when viewed from the position of the light receiving unit 121 of the receiving device 120. An example of image data obtained by the light receiving unit 121 of the receiving apparatus 120 in this case is shown in FIG. Even with such a configuration, the position of the sensor unit relative to the receiving device 120 can be estimated from the blinking position of the LED on the image data and the distance z0.

また、図6に示すように、マイクロホン111を中心にマイクロホン111RH、111RL、111LL、111LHが四方を取り囲み、左右45°上下45°の方向からの音波の強さを測定可能な構成とし、収音エリアを三次元的に配置してもよい。このような構成により、左右方向に加えて上下方向の情報を加えた形で、可視光通信、音源位置の推定を行うことができる。 Further, as shown in FIG. 6, the microphones 111 RH , 111 RL , 111 LL , and 111 LH surround the four sides around the microphone 111 F, and the intensity of sound waves from 45 ° left and right and up and down 45 ° can be measured. The sound collection area may be three-dimensionally arranged. With such a configuration, visible light communication and sound source position estimation can be performed in a form in which information in the vertical direction is added in addition to the horizontal direction.

また、必ずしも、センサユニットは二つでなくともよく、複数個であればよい。例えば、3つのセンサユニット110−1、110−2及び110−3を配置する例を図7に示す。図8は3つのセンサユニット110−1、110−2及び110−3と受信装置120との配置例を、図9は図8の場合のイメージデータの例を、図10は図8の場合の最大の強度と重複部分の関係を示す。このように、複数のセンサユニットを配置することで、より詳細に音源位置を推定することができる。   In addition, the number of sensor units is not necessarily two, and a plurality of sensor units may be used. For example, an example in which three sensor units 110-1, 110-2, and 110-3 are arranged is shown in FIG. 8 shows an arrangement example of the three sensor units 110-1, 110-2 and 110-3 and the receiving device 120, FIG. 9 shows an example of image data in the case of FIG. 8, and FIG. 10 shows a case of FIG. Shows the relationship between maximum intensity and overlap. Thus, by arranging a plurality of sensor units, it is possible to estimate the sound source position in more detail.

また、送信部115のLEDを基板117の正面上に配置してもよい(図11A及び図11B参照)。その場合、受信装置120は、基板117の正面側に配置される(図12)。   Moreover, you may arrange | position LED of the transmission part 115 on the front of the board | substrate 117 (refer FIG. 11A and FIG. 11B). In that case, the receiving device 120 is disposed on the front side of the substrate 117 (FIG. 12).

各センサユニット間でクロックを共有していても良い。このような構成により、T1毎に送信される[φ1F(n),φ1L(n),φ1R(n)]、[φ2F(n),φ2L(n),φ2R(n)]の計測タイミングと、送信タイミングがユニット間で同期することとなる。 A clock may be shared between the sensor units. With such a configuration, [φ 1F (n), φ 1L (n), φ 1R (n)], [φ 2F (n), φ 2L (n), φ 2R (n) transmitted every T1. ] And the transmission timing are synchronized between the units.

T1は、センサユニットが実質的に静止しているとみなせる時間に設定されているほうが、センサユニットの位置を特定するうえで望ましい。   It is desirable for T1 to be set to a time when the sensor unit can be regarded as being substantially stationary in order to specify the position of the sensor unit.

受信装置120は、複数個であってもよい。例えば、二つの受信装置120を用いて、ステレオカメラといった公知技術を利用しても良い。このような構成により、センサユニットの位置を面D上に限定する必要がなく、受信装置120の受光部121の位置から見て、三次元的に配置されてもよい。さらに、z0の値を予め測定しておく手間を省くことができる。   There may be a plurality of receiving apparatuses 120. For example, a known technique such as a stereo camera may be used by using the two receiving devices 120. With such a configuration, it is not necessary to limit the position of the sensor unit on the surface D, and the sensor unit may be arranged three-dimensionally when viewed from the position of the light receiving unit 121 of the receiving device 120. Further, it is possible to save the trouble of measuring the value of z0 in advance.

なお、本実施形態では、二つのセンサユニット110−1及び110−2は、同一の方向に設置されているが、異なる方向に設置してもよい(図13参照)。このような構成とすることでより、より詳細に音源位置を推定することができる。ただし、センサユニットの方向(向き)については、LEDの点滅だけでは取得できないので、予め受信装置120に与えておく。   In the present embodiment, the two sensor units 110-1 and 110-2 are installed in the same direction, but may be installed in different directions (see FIG. 13). With such a configuration, the sound source position can be estimated in more detail. However, since the direction (orientation) of the sensor unit cannot be acquired only by blinking the LED, it is given to the receiving device 120 in advance.

<第二実施形態>
第一実施形態と異なる部分についてのみ説明する。
<Second embodiment>
Only parts different from the first embodiment will be described.

図14は音源位置推定装置200の機能ブロック図を示す。   FIG. 14 shows a functional block diagram of the sound source position estimating apparatus 200.

音源位置推定装置200は、P個のセンサユニット210−pと、受信装置220とを含む。ただし、Pは3以上の整数であり、pはセンサユニットのインデックスを表す正の整数であり、p=1,2,…,Pである。   The sound source position estimating apparatus 200 includes P sensor units 210-p and a receiving apparatus 220. However, P is an integer greater than or equal to 3, p is a positive integer showing the index of a sensor unit, and p = 1, 2, ..., P.

P個のセンサユニット210−pは、縦続接続され、隣接するセンサユニット間では、マイクロホンの音響信号を相互に送信し、やり取りする。簡単のために水平方向に接続されたセンサユニットにおいて両隣が接続されている場合を示す。   The P sensor units 210-p are connected in cascade, and the acoustic signals of the microphones are mutually transmitted and exchanged between adjacent sensor units. For the sake of simplicity, the case where both sides of the sensor unit connected in the horizontal direction are connected will be described.

[センサユニット210−p]
センサユニット210−pは、無指向性のマイクロホン211、音波方向推定部213及び送信部115を含む。
[Sensor unit 210-p]
The sensor unit 210-p includes an omnidirectional microphone 211, a sound wave direction estimation unit 213, and a transmission unit 115.

センサユニット210−pは、設置された位置における音源到来方向を推定し、その情報を可視光通信で受信装置に伝送する。なお、有線接続は最も近接するセンサユニットになされているものとする。一般性を失わず、p番目のセンサユニット110−pは、受信装置120から見て左側にある(p−1)番目のセンサユニット210−(p−1)と右側にある(p+1)番目のセンサユニット210−(p+1)と有線接続されているとしてよい。   The sensor unit 210-p estimates the sound source arrival direction at the installed position, and transmits the information to the receiving device by visible light communication. It is assumed that the wired connection is made to the closest sensor unit. Without losing generality, the p-th sensor unit 110-p has (p−1) th sensor unit 210- (p−1) on the left side and (p + 1) th on the right side as viewed from the receiving device 120. The sensor unit 210- (p + 1) may be wired.

[マイクロホン211]
マイクロホン211は、一般的なマイクロホンであり、指向性はない方が望ましく、基板117の正面上に設置される(図15参照)。マイクロホン211は、音波を収音して電気信号に変換し、音響信号x(t)を生成し、音波方向推定部113に送信する(s1)。なお、センサユニット210−pのマイクロホン211の生成した音響信号をx(t)として表す。
[Microphone 211]
The microphone 211 is a general microphone and preferably has no directivity, and is installed on the front surface of the substrate 117 (see FIG. 15). The microphone 211 picks up the sound wave and converts it into an electric signal, generates an acoustic signal x (t), and transmits it to the sound wave direction estimation unit 113 (s1). Note that an acoustic signal generated by the microphone 211 of the sensor unit 210-p is represented as x p (t).

[音波方向推定部213]
音波方向推定部213は、マイクロホン211から生成される音響信号x(t)と、隣接するセンサユニット210−(p−1)及び210−(p+1)のマイクロホン211から生成される音響信号xp−1(t)及びxp+1(t)とを受け取り、それらの情報からセンサユニット210−pの近辺に到来した音波受信方向別強度を算出する。算出された音波受信方向別強度を送信部115に出力する。また、音波方向推定部213は、マイクロホン211の生成した音響信号x(t)を隣接するセンサユニット210−(p−1)及び210−(p+1)に出力する。
[Sound wave direction estimation unit 213]
Wave direction estimation section 213, a sound signal x p (t) that are generated from the microphone 211, the acoustic signal x p generated from the microphone 211 of the adjacent sensor units 210- (p-1) and 210- (p + 1) −1 (t) and x p + 1 (t) are received, and the intensity for each sound wave reception direction that arrives in the vicinity of the sensor unit 210-p is calculated from the information. The calculated intensity for each sound wave reception direction is output to the transmitter 115. The sound wave direction estimation unit 213 outputs the acoustic signal x p (t) generated by the microphone 211 to the adjacent sensor units 210- (p−1) and 210- (p + 1).

本実施形態では、周期T1毎に音波受信方向別強度φ(n)の一部が、積分時間T2の相関関数φ(n,a,b)として以下の式に基づき算出される(図15参照)。x(t)とxp−1(t)との相関関数と、x(t)とxp+1(t)との相関関数とからなる集合を音波受信方向別強度φ(n)として推定する。例えば、n回目に算出される相関関数φ(n,a,b)を、 In the present embodiment, a part of the intensity φ p (n) for each sound wave reception direction is calculated for each period T1 as the correlation function φ p (n, a, b) of the integration time T2 based on the following equation (FIG. 15). A set consisting of a correlation function between x p (t) and x p-1 (t) and a correlation function between x p (t) and x p + 1 (t) is defined as the intensity φ p (n) for each sound wave reception direction. presume. For example, the correlation function φ p (n, a, b) calculated for the nth time is

Figure 2013213739
Figure 2013213739

として算出する。ここで、aは隣接するセンサユニットを区別する整数インデックスであり、本実施形態では−1と1をとる。τは時間遅れの差分を表す定数であり、bは時間遅れを表すインデックスであり、bは0からBまでの整数をとるとする。図16は、センサユニット210−2において、音響信号x(t)、x(t)及びx(t)と音波受信方向別強度との関係を示す。差分τずつ、ずらしながら積分時間T2に対応する音響信号x(t)、x(t)及びx(t)を用いて、相関関数φ(n,a,b)を計算する。 Calculate as Here, a is an integer index that distinguishes adjacent sensor units, and takes -1 and 1 in this embodiment. τ is a constant representing the difference in time delay, b is an index representing the time delay, and b is an integer from 0 to B. FIG. 16 shows the relationship between the acoustic signals x 1 (t), x 2 (t) and x 3 (t) and the intensity for each sound wave reception direction in the sensor unit 210-2. The correlation function φ 2 (n, a, b) is calculated using the acoustic signals x 1 (t), x 2 (t) and x 3 (t) corresponding to the integration time T2 while shifting by the difference τ.

よって、例えば、B=2、a=1またはa=−1であるとき、送信部115に対して10回目に送る音波受信方向別強度φ(n)は、φ(n)=[φ(10,−1,0),φ(10,1,0),φ(10,−1,1),φ(10,1,1),φ(10,−1,2),φ(10,1,2)]となる。 Therefore, for example, when B = 2, a = 1, or a = −1, the intensity φ p (n) for each sound wave reception direction sent to the transmission unit 115 for the tenth time is φ p (n) = [φ p (10, -1,0), φ p (10,1,0), φ p (10, -1,1), φ p (10,1,1), φ p (10, -1,2 ), Φ p (10, 1, 2)].

送信部115は、第一実施形態と同様の構成であり、本実施形態では、周期T1時間内に音波受信方向別強度φ(n)(言い換えると、2×(B+1)個の相関関数φ(n,a,b))を受信装置120に対して送出できればよい。 The transmission unit 115 has the same configuration as that of the first embodiment. In this embodiment, the intensity φ p (n) (in other words, 2 × (B + 1) correlation functions φ within the period T1 time. It is only necessary that p (n, a, b)) can be transmitted to the receiving device 120.

なお、隣接するセンサユニットがない場合(両端のセンサユニット210−1及び210−P)は、相関関数φ(n,a,b)の一部が算出されないので、「null」やブランク情報を代わりに送信部115に送る。 When there is no adjacent sensor unit (sensor units 210-1 and 210-P at both ends), since a part of the correlation function φ p (n, a, b) is not calculated, “null” or blank information is used. Instead, it is sent to the transmission unit 115.

このような構成により、予めセンサユニット間で、音源推定に必要な情報(音波受信方向別強度)のみを抽出したうえで、その情報のみを可視光通信で伝送する。   With such a configuration, only information necessary for sound source estimation (intensity by sound wave reception direction) is extracted in advance between sensor units, and only the information is transmitted by visible light communication.

[受信装置220]
本実施形態において、受信装置220は、受光部121、復号部223及び音源位置再構成部225を有する(図14参照)。
[Receiver 220]
In the present embodiment, the receiving device 220 includes a light receiving unit 121, a decoding unit 223, and a sound source position reconstruction unit 225 (see FIG. 14).

[復号部223]
復号部223は、イメージデータを受け取り、イメージデータのLEDの点滅を復号してp個の音波受信方向別強度φ(n)を取得する。さらに、受光部121の位置を基点としてイメージデータ上のLEDの点滅位置からP個のセンサユニット210−pの位置r(n,p)を推定する。取得したP個の音波受信方向別強度φ(n)と、P個の推定したセンサユニットの位置r(n,p)とを音源位置再構成部225に出力する。
[Decoding unit 223]
The decoding unit 223 receives the image data, decodes the blinking of the LED of the image data, and acquires p sound wave reception direction-specific intensities φ p (n). Further, the position r (n, p) of the P sensor units 210-p is estimated from the blinking position of the LED on the image data with the position of the light receiving unit 121 as a base point. The acquired P sound wave reception direction-specific intensities φ p (n) and the P estimated sensor unit positions r (n, p) are output to the sound source position reconstruction unit 225.

[音源位置再構成部225]
音源位置再構成部225は、P個の音波受信方向別強度φ(n)と、P個のセンサユニットの位置r(n,p)とを受け取り、これらの値を用いて、音源位置を推定し、推定した音源位置を、音源位置推定装置200の出力値として出力する。
[Sound source position reconstruction unit 225]
The sound source position reconstructing unit 225 receives the P sound wave receiving direction-specific intensities φ p (n) and the P sensor unit positions r (n, p), and uses these values to determine the sound source position. The estimated sound source position is output as an output value of the sound source position estimating apparatus 200.

本実施形態では、センサユニットの位置r(n,p)を用いて、音波受信方向別強度φ(n)に実際の音波方向を反映したものに修正する。まず、音源位置再構成部225は、P個のセンサユニットの位置r(n,p)の位置を用いて、隣接するセンサユニット間の相対距離を求める。例えば、n回目の計測におけるセンサユニット210−pと210−(p+a)の間の距離は、
d(n,p,p+a)=|r(n,p)-r(n,p+a)|
で求められる。
In the present embodiment, the position r (n, p) of the sensor unit is used to correct the intensity φ p (n) for each sound wave reception direction to reflect the actual sound wave direction. First, the sound source position reconstruction unit 225 obtains the relative distance between adjacent sensor units using the position of the position r (n, p) of the P sensor units. For example, the distance between the sensor units 210-p and 210- (p + a) in the n-th measurement is
d (n, p, p + a) = | r (n, p) -r (n, p + a) |
Is required.

次に、P個の音波受信方向別強度φ(n)を用いて、音波の到来方向を予測する。例えば、以下の式により、実際の角度θp(n,a,b)と2×(B+1)個の相関関数φ(n,a,b)とを紐づけることができる。相関関数φ(n,a,b)は、センサユニット210−pと210−(p+1)の中点から見て、以下の角度θp(n,a,b)から音波がきたとみなせる強さ(確からしさ)を表しているとみなせる。 Next, the arrival direction of the sound wave is predicted using the P sound wave reception direction-specific intensities φ p (n). For example, the actual angle θ p (n, a, b) and 2 × (B + 1) correlation functions φ p (n, a, b) can be linked by the following expression. The correlation function φ p (n, a, b) is a strength that can be regarded as a sound wave coming from the following angle θ p (n, a, b) when viewed from the midpoint of the sensor units 210-p and 210- (p + 1). It can be regarded as representing the certainty.

Figure 2013213739
Figure 2013213739

ただし、sign(a)はaの符号を表す関数を、sin−1()は逆正接関数を、cは音速を表す。 Here, sign (a) represents a function representing the sign of a, sin −1 () represents an arc tangent function, and c represents sound velocity.

言い換えると、センサユニット210−p及び210−(p+1)から送信された音波受信方向別強度φ(n)、φp+1(n)の一部(半分)をそれぞれ持ってくると、中点である(r(n,p)+r(n,p+1))÷2の位置から角度θp(n,1、b)、θp+1(n,−1、b)の方向にみた軸(以下、「到来軸」という)からの音波の強さがそれぞれφp(n,1、b)とφp+1(n,−1、b)であるとして図上にまとめることができる(図17参照)。 In other words, when a part (half) of the intensity φ p (n) and φ p + 1 (n) according to the sound wave reception direction transmitted from the sensor units 210-p and 210- (p + 1) is brought to the middle point, respectively. An axis (hereinafter referred to as “a (n, p) + r (n, p + 1)) / 2” as viewed in the direction of angles θ p (n, 1, b) and θ p + 1 (n, −1, b) The intensity of sound waves from the “arrival axis”) can be summarized on the diagram as φ p (n, 1, b) and φ p + 1 (n, −1, b) , respectively (see FIG. 17).

従って、音源位置再構成部225は、p番目のセンサユニットの音波受信方向別強度に含まれる相関関数の一つと、p’番目(ただし、p’=1,2,…,P、p≠p’)のセンサユニットの音波受信方向別強度に含まれる相関関数の一つとの加算平均を、全ての組合せについて求め、その加算平均が最大となる到来軸の交点に音源があると推定する(図18参照)。例えば、図18の場合、音源3に最も近い交点4の加算平均(φ(n,1,1)+φp−1(n,1,1))÷2が最大となり、音源があると推定される。到来軸の交点の位置は、P個のセンサユニットの位置から得られる隣接するセンサユニットの中点と、音速cと、定数τと、相対距離d(n,p,p+a)から求められる。 Therefore, the sound source position reconstruction unit 225 calculates one of the correlation functions included in the intensity of each sound wave reception direction of the p-th sensor unit and the p′-th (where p ′ = 1, 2,... P, p ≠ p Calculate the average of all the combinations with one of the correlation functions included in the intensity of the sound wave reception direction of the sensor unit of ') for all the combinations, and estimate that the sound source is at the intersection of the arrival axes where the sum of the average is the maximum (Fig. 18). For example, in the case of FIG. 18, the addition average (φ p (n, 1,1) + φ p−1 (n, 1,1)) ÷ 2 of the intersection 4 closest to the sound source 3 is maximized, and it is estimated that there is a sound source. Is done. The position of the intersection of the arrival axes is obtained from the midpoint of adjacent sensor units obtained from the positions of the P sensor units, the sound speed c, the constant τ, and the relative distance d (n, p, p + a).

なお、音源位置再構成部225でのθp(a,b)の算出は、センサユニットの位置が固定されているのならば、一度だけ計算されればよい。 Note that θ p (a, b) in the sound source position reconstruction unit 225 may be calculated only once if the position of the sensor unit is fixed.

<効果>
このような構成により、第一実施形態と同様の効果を得ることができる。なお、本実施形態では、電源と隣接ユニットとの通信線のみで済み、大量のセンサユニットを広範囲に配置することが容易になる。
<Effect>
With such a configuration, the same effect as that of the first embodiment can be obtained. In the present embodiment, only a communication line between the power source and the adjacent unit is required, and a large number of sensor units can be easily arranged over a wide range.

<変形例>
第一実施形態と同様の変形例が考えられる。
<Modification>
A modification similar to the first embodiment can be considered.

なお、図17から明らかなように、相関関数φ(n,1,0)とφp+1(n,−1,0)は同じ値となる。つまり、b=0のときの相関関数は同じ値となる。そこで、送信データの重複を避けるためセンサユニット210−pがφ(n,1,0)を送出しないか、またはセンサユニット210−(p+1)がφp+1(n,1,0)を送出しない構成としてもよい。要は、重複する相関関数を、音波方向推定部213が計算しない、または、送信部115が送信しない構成とすればよい。このような構成により、計算量及び送信量を減らすことができる。 As is clear from FIG. 17, the correlation functions φ p (n, 1, 0) and φ p + 1 (n, −1, 0) have the same value. That is, the correlation function when b = 0 is the same value. Therefore, in order to avoid duplication of transmission data, the sensor unit 210-p does not send φ p (n, 1, 0) or the sensor unit 210- (p + 1) does not send φ p + 1 (n, 1, 0). It is good also as a structure. In short, the overlapping correlation function may be configured such that the sound wave direction estimating unit 213 does not calculate or the transmitting unit 115 does not transmit. With such a configuration, the calculation amount and the transmission amount can be reduced.

音源位置再構成部125において、最後の音源位置の特定の際に、到来軸の交点を全て求め、さらに、その位置での相関関数φ(n,a,b)の加算平均を求めている。センサユニット数が多くなると計算量が急激に増加する問題がある。そこで以下のような処理としてもよい。 When the final sound source position is specified, the sound source position reconstruction unit 125 calculates all the intersections of the arrival axes, and further calculates the addition average of the correlation function φ p (n, a, b) at that position. . As the number of sensor units increases, there is a problem that the calculation amount increases rapidly. Therefore, the following processing may be performed.

センサユニット210−p及び210−(p+1)の中点位置からまとめた段階(図17参照)で、以降の計算を当該の中点位置にまとめられた相関関数φ(n,a,b)の中から最大値をもつ到来軸の方向に限定して行う。つまり、音源位置再構成部225は、各センサユニット210−pの音波方向推定部213が推定した音波受信方向別強度φ(n)に含まれる2×(B+1)個の相関関数φ(n,a,b)の中から、最大の相関関数を選択する。さらに、複数のセンサユニットからそれぞれ最大の相関関数を選択する。選択された複数の最大の相関関数の加算平均のみを求め、その加算平均が最大となる到来軸の交点に音源があると推定する。 At the stage where the sensor units 210-p and 210- (p + 1) are gathered from the midpoint position (see FIG. 17), the correlation function φ p (n, a, b) in which the subsequent calculations are gathered at the midpoint position. This is limited to the direction of the arrival axis having the maximum value. That is, the sound source position reconstructing unit 225 includes 2 × (B + 1) correlation functions φ p (included in the intensity φ p (n) for each sound wave receiving direction estimated by the sound wave direction estimating unit 213 of each sensor unit 210-p. The maximum correlation function is selected from n, a, b). Further, the maximum correlation function is selected from each of the plurality of sensor units. Only the addition average of a plurality of selected maximum correlation functions is obtained, and it is estimated that there is a sound source at the intersection of the arrival axes that maximizes the addition average.

図17の例で説明すると、センサユニット210−p及び210−(p+1)の中点位置(r(n,p)+r(n,p+1))÷2を元にまとめなおした音波受信方向別強度φ(n)=[φ(n,1,0),φ(n,1,1),φ(n,1,2),φp+1(n,1,1),φp+1(n,1,2)]である。この最大値がφ(n,1,1)であるとき、以降の計算に用いるこの中点位置から到来軸を角度θp(n,1,1)の到来軸に関してのみ考える。このような構成によって、音源位置推定の精度をある程度確保しつつ、計算量を大幅に削減できる。 Referring to the example of FIG. 17, the intensities according to the sound wave receiving directions recombined based on the midpoint position (r (n, p) + r (n, p + 1)) / 2 of the sensor units 210-p and 210- (p + 1). φ p (n) = [φ p (n, 1, 0), φ p (n, 1, 1), φ p (n, 1, 2), φ p + 1 (n, 1, 1), φ p + 1 ( n, 1, 2)]. When this maximum value is φ p (n, 1, 1), the arrival axis from the midpoint position used in the subsequent calculations is considered only with respect to the arrival axis of the angle θ p (n, 1, 1) . With such a configuration, it is possible to greatly reduce the amount of calculation while ensuring the accuracy of sound source position estimation to some extent.

本実施形態では、x(t)とxp−1(t)との相関関数や、x(t)とxp+1(t)との相関関数を、その類似度として用いているが、他の値を類似度として用いてもよい。例えば、隣接するセンサユニットとの相関を音響信号のエネルギーで正規化したものを類似度として用いてもよい。このとき、類似度(送信される情報)は例えば In the present embodiment, a correlation function between x p (t) and x p-1 (t) and a correlation function between x p (t) and x p + 1 (t) are used as the similarity. Other values may be used as the similarity. For example, the correlation between adjacent sensor units normalized by the energy of the acoustic signal may be used as the similarity. At this time, the similarity (information to be transmitted) is, for example,

Figure 2013213739
Figure 2013213739

と計算される。 Is calculated.

本実施形態では、a=1またはa=−1とし、一つ隣のセンサユニットとの相関関数を求めているが、二つ以上隣のセンサユニットとの相関関数を設けてもよい。A個隣のセンサユニットとの相関関数を求める場合、2A×(B+1)個の相関関数を求めればよい。このような構成により、より細かい音源位置の推定が可能となる。   In this embodiment, a = 1 or a = −1 and a correlation function with one adjacent sensor unit is obtained, but a correlation function with two or more adjacent sensor units may be provided. When obtaining correlation functions with A adjacent sensor units, 2A × (B + 1) correlation functions may be obtained. With such a configuration, it is possible to estimate the sound source position more finely.

<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other variations>
The present invention is not limited to the above-described embodiments and modifications. For example, the various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. In addition, it can change suitably in the range which does not deviate from the meaning of this invention.

<プログラム及び記録媒体>
上述した音源位置推定装置は、コンピュータにより機能させることもできる。より具体的にいうと、音源位置推定装置を構成する各センサユニット及び受信装置は、それぞれコンピュータにより機能させることもできる。この場合はコンピュータに、目的とする装置(各種実施形態で図に示した機能構成をもつ装置)として機能させるためのプログラム、またはその処理手順(各実施形態で示したもの)の各過程をコンピュータに実行させるためのプログラムを、CD−ROM、磁気ディスク、半導体記憶装置などの記録媒体から、あるいは通信回線を介してそのコンピュータ内にダウンロードし、そのプログラムを実行させればよい。
<Program and recording medium>
The above-described sound source position estimation apparatus can be functioned by a computer. More specifically, each sensor unit and receiving device constituting the sound source position estimating device can be caused to function by a computer. In this case, each process of a program for causing a computer to function as a target device (a device having the functional configuration shown in the drawings in various embodiments) or a process procedure (shown in each embodiment) is processed by the computer. A program to be executed by the computer may be downloaded from a recording medium such as a CD-ROM, a magnetic disk, or a semiconductor storage device or via a communication line into the computer, and the program may be executed.

100,200 音源位置推定装置
110,210 センサユニット
111,211 マイクロホン
113,213 音波方向推定部
115 送信部
120,220 受信装置
121 受光部
123,223 復号部
125,225 音源位置再構成部
200 音源位置推定装置
210 センサユニット
210 各センサユニット
210 センサユニット
211 マイクロホン
100, 200 Sound source position estimation device 110, 210 Sensor unit 111, 211 Microphone 113, 213 Sound wave direction estimation unit 115 Transmission unit 120, 220 Reception device 121 Light reception unit 123, 223 Decoding unit 125, 225 Sound source position reconstruction unit 200 Sound source position Estimating device 210 Sensor unit 210 Each sensor unit 210 Sensor unit 211 Microphone

Claims (8)

複数のセンサユニットと受信装置とを含む音源位置推定装置であって、
前記センサユニットは、
音波を電気信号に変換し、音響信号を生成するマイクロホンと、
前記音響信号を用いて、各方向に対する音波の強さの集合である音波受信方向別強度を推定する音波方向推定部と、
前記音波受信方向別強度を符号化し、発光素子を点滅させて、可視光通信により送信する送信部と、を有し、
前記受信装置は、
イメージセンサからなり、前記発光素子の点滅をイメージデータとして受信する受光部と、
前記イメージデータ上の前記発光素子の点滅を復号して前記音波受信方向別強度を取得し、さらに、前記受光部の位置を基点としてイメージデータ上の前記発光素子の点滅位置から前記センサユニットの位置を推定する復号部と、
前記音波受信方向別強度と前記センサユニットの位置とを用いて、音源位置を推定する音源位置再構成部と、を有する、
音源位置推定装置。
A sound source position estimating device including a plurality of sensor units and a receiving device,
The sensor unit is
A microphone that converts sound waves into electrical signals and generates acoustic signals;
Using the acoustic signal, a sound wave direction estimating unit that estimates a strength for each sound wave receiving direction, which is a set of sound wave strengths for each direction,
A transmitter that encodes the intensity for each sound wave receiving direction, blinks the light emitting element, and transmits the visible light communication;
The receiving device is:
A light receiving unit comprising an image sensor and receiving blinking of the light emitting element as image data;
Decoding the blinking of the light emitting element on the image data to obtain the intensity for each sound wave receiving direction, and further, the position of the sensor unit from the blinking position of the light emitting element on the image data based on the position of the light receiving unit A decoding unit for estimating
A sound source position reconstructing unit that estimates a sound source position using the intensity for each sound wave receiving direction and the position of the sensor unit;
Sound source position estimation device.
請求項1記載の音源位置推定装置であって、
前記マイクロホンは、指向性を持ち、一つの前記センサユニットに対し複数個含まれ、
一つの前記センサユニットに含まれる複数個の前記マイクロホンは、それぞれ異なる収音エリアを持ち、
前記音波方向推定部は、各前記マイクロホンから生成される前記音響信号の強度の集合を前記音波受信方向別強度として推定し、
前記音源位置再構成部は、前記センサユニットの位置から各前記マイクロホンの収音エリアを推定し、各前記センサユニットの前記音波受信方向別強度の中から最大の強度に対応する前記マイクロホンを選択し、複数の前記センサユニットからそれぞれ選択された前記マイクロホンの収音エリアの重複部分に音源があると推定する、
音源位置推定装置。
The sound source position estimation apparatus according to claim 1,
The microphone has directivity and is included in plural for one sensor unit,
The plurality of microphones included in one sensor unit each have a different sound collection area,
The sound wave direction estimation unit estimates a set of intensity of the acoustic signal generated from each microphone as the intensity for each sound wave reception direction,
The sound source position reconstruction unit estimates a sound collection area of each microphone from the position of the sensor unit, and selects the microphone corresponding to the maximum intensity from the intensity of each sensor unit in the sound wave reception direction. , It is estimated that there is a sound source in the overlapping portion of the microphone sound collection area selected from each of the plurality of sensor units,
Sound source position estimation device.
請求項1記載の音源位置推定装置であって、
Pは3以上の整数であり、前記センサユニットの個数であり、p=1,2,…,P、p’=1,2,…,P、p≠p’であり、
前記センサユニットは、無指向性の前記マイクロホンを一個含み、
複数の前記センサユニットは、縦続接続され、隣接する前記センサユニット間では、前記マイクロホンの音響信号を相互に送信し、
前記音波方向推定部は、各前記マイクロホンから生成される前記音響信号と、隣接する前記マイクロホンから生成される前記音響信号との間で類似度を計算し、その類似度の集合を前記音波受信方向別強度として推定し、
前記類似度は、隣接するセンサユニットの位置の中点から見て、そのセンサユニット間の相対距離と、時間遅れの差分とにより定まる角度の方向にみた到来軸からの音波の強さとし、前記音源位置再構成部は、p番目のセンサユニットの前記音波受信方向別強度に含まれる前記類似度の一つと、p’番目のセンサユニットの前記音波受信方向別強度に含まれる前記類似度の一つとの加算平均を求め、その加算平均が最大となる前記到来軸の交点に音源があると推定する、
音源位置推定装置。
The sound source position estimation apparatus according to claim 1,
P is an integer of 3 or more, the number of the sensor units, p = 1, 2,..., P, p ′ = 1, 2,..., P, p ≠ p ′,
The sensor unit includes one omnidirectional microphone,
The plurality of sensor units are connected in cascade, and between adjacent sensor units, the acoustic signals of the microphones are transmitted to each other,
The sound wave direction estimating unit calculates a similarity between the acoustic signal generated from each of the microphones and the acoustic signal generated from an adjacent microphone, and sets the similarity to the sound wave receiving direction. Estimated as another strength,
The similarity is the strength of the sound wave from the arrival axis viewed in the direction of the angle determined by the relative distance between the sensor units and the difference in time delay when viewed from the midpoint of the position of the adjacent sensor unit. The position reconstruction unit includes one of the similarities included in the intensity for each sound wave reception direction of the p-th sensor unit, and one of the similarities included in the intensity for each sound wave reception direction of the p'th sensor unit. Is estimated, and it is estimated that there is a sound source at the intersection of the arrival axes where the average is the maximum.
Sound source position estimation device.
請求項3記載の音源位置推定装置であって、
前記センサユニットは、重複する前記類似度を送信しない、
音源位置推定装置。
The sound source position estimation apparatus according to claim 3,
The sensor unit does not transmit the overlapping similarity.
Sound source position estimation device.
請求項3または請求項4記載の音源位置推定装置であって、
前記音源位置再構成部は、各前記センサユニットの前記音波方向推定部が推定した前記音波受信方向別強度に含まれる前記類似度の中から、最大の前記類似度を選択し、複数の前記センサユニットからそれぞれ選択された複数の最大の前記類似度の加算平均を求め、その加算平均が最大となる前記到来軸の交点に音源があると推定する、
音源位置推定装置。
The sound source position estimation apparatus according to claim 3 or 4,
The sound source position reconstruction unit selects the maximum similarity from the similarities included in the intensity for each sound wave reception direction estimated by the sound wave direction estimation unit of each sensor unit, and a plurality of the sensors Obtaining an average of a plurality of maximum similarities each selected from a unit, and estimating that a sound source exists at the intersection of the arrival axes that maximizes the average of the addition,
Sound source position estimation device.
請求項2記載の音源位置推定装置であって、
前記センサユニットを前記受光部に対して三次元的に配置し、
前記マイクロホンの収音エリアを三次元的に配置する、
音源位置推定装置。
The sound source position estimation apparatus according to claim 2,
The sensor unit is three-dimensionally arranged with respect to the light receiving unit,
The microphone sound collection area is three-dimensionally arranged.
Sound source position estimation device.
複数のセンサユニットと受信装置とを用いる音源位置推定方法であって、
前記センサユニットのマイクロホンが、音波を電気信号に変換し、音響信号を生成する収音ステップと、
前記センサユニットの音波方向推定部が、前記音響信号を用いて、各方向に対する音波の強さの集合である音波受信方向別強度を推定する音波方向推定ステップと、
前記センサユニットの送信部が、前記音波受信方向別強度を符号化し、発光素子を点滅させて、可視光通信により送信する送信ステップと、
前記受信装置のイメージセンサからなる受光部が、前記発光素子の点滅をイメージデータとして受信する受信ステップと、
前記受信装置の復号部が、前記イメージデータ上の前記発光素子の点滅を復号して前記音波受信方向別強度を取得し、さらに、前記受光部の位置を基点としてイメージデータ上の前記発光素子の点滅位置から前記センサユニットの位置を推定する復号ステップと、
前記受信装置の音源位置再構成部が、前記音波受信方向別強度と前記センサユニットの位置とを用いて、音源位置を推定する音源位置再構成ステップと、を含む、
音源位置推定方法。
A sound source position estimation method using a plurality of sensor units and a receiving device,
The microphone of the sensor unit converts a sound wave into an electrical signal and generates an acoustic signal; and
A sound wave direction estimating step in which the sound wave direction estimating unit of the sensor unit uses the acoustic signal to estimate the strength for each sound wave receiving direction, which is a set of sound wave strengths for each direction;
A transmission step in which the transmission unit of the sensor unit encodes the intensity for each sound wave reception direction, blinks the light emitting element, and transmits the visible light communication.
A light receiving unit comprising an image sensor of the receiving device receives the blinking of the light emitting element as image data; and
The decoding unit of the receiving device decodes the blinking of the light emitting element on the image data to acquire the intensity for each sound wave receiving direction, and further, the light emitting element of the light emitting element on the image data on the basis of the position of the light receiving unit. A decoding step of estimating the position of the sensor unit from the blinking position;
A sound source position reconstruction unit of the reception device includes a sound source position reconstruction step of estimating a sound source position using the intensity for each sound wave reception direction and the position of the sensor unit.
Sound source position estimation method.
請求項1から請求項6の何れかに記載の音声位置推定装置として、コンピュータを機能させるためのプログラム。   The program for functioning a computer as an audio | voice position estimation apparatus in any one of Claims 1-6.
JP2012084211A 2012-04-02 2012-04-02 Sound source position estimating device, sound source position estimating method and program therefor Pending JP2013213739A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012084211A JP2013213739A (en) 2012-04-02 2012-04-02 Sound source position estimating device, sound source position estimating method and program therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012084211A JP2013213739A (en) 2012-04-02 2012-04-02 Sound source position estimating device, sound source position estimating method and program therefor

Publications (1)

Publication Number Publication Date
JP2013213739A true JP2013213739A (en) 2013-10-17

Family

ID=49587158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012084211A Pending JP2013213739A (en) 2012-04-02 2012-04-02 Sound source position estimating device, sound source position estimating method and program therefor

Country Status (1)

Country Link
JP (1) JP2013213739A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529516B1 (en) * 2014-10-27 2015-06-18 국방과학연구소 Sound sourcelocalization device and sound sourcelocalization method
CN105954711A (en) * 2016-06-15 2016-09-21 广州尚云在线科技有限公司 Sound-intensity-difference-effect-based real-time sound source orientation method
CN106679651A (en) * 2017-02-08 2017-05-17 北京地平线信息技术有限公司 Sound localization method and device and electronic equipment
US20190250240A1 (en) * 2016-06-29 2019-08-15 Nec Corporation Correlation function generation device, correlation function generation method, correlation function generation program, and wave source direction estimation device
CN113050038A (en) * 2021-03-23 2021-06-29 上海交通大学 Transformer substation sound source positioning method and system based on virtual array extension

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5797473A (en) * 1980-12-10 1982-06-17 Meidensha Electric Mfg Co Ltd Detector for position of sound source body
JPH0750896A (en) * 1991-07-17 1995-02-21 At & T Corp Method for giving desired frequency response to differential type microphone and its method
JP2001236092A (en) * 2000-02-23 2001-08-31 Nec Corp Speaker direction detecting circuit and speaker direction detecting method used in the circuit
JP2002044774A (en) * 2000-07-27 2002-02-08 Ibuki Kogyo Kk Acoustic reception apparatus
JP2007164506A (en) * 2005-12-14 2007-06-28 Toshiba Corp Light transmission type sensor and environment monitoring system using the same
WO2007129731A1 (en) * 2006-05-10 2007-11-15 Honda Motor Co., Ltd. Sound source tracking system, method and robot
JP2009103476A (en) * 2007-10-22 2009-05-14 Shimizu Corp Position management system of object
JP2009199158A (en) * 2008-02-19 2009-09-03 Hitachi Ltd Acoustic pointing device, method of pointing sound source position and computer system
JP2009216473A (en) * 2008-03-07 2009-09-24 Univ Nihon Device for measuring distance to sound source and apparatus for separating acoustic information using it
JP2010197296A (en) * 2009-02-26 2010-09-09 Nec Corp Calibration system, method, and program of array type sensor

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5797473A (en) * 1980-12-10 1982-06-17 Meidensha Electric Mfg Co Ltd Detector for position of sound source body
JPH0750896A (en) * 1991-07-17 1995-02-21 At & T Corp Method for giving desired frequency response to differential type microphone and its method
JP2001236092A (en) * 2000-02-23 2001-08-31 Nec Corp Speaker direction detecting circuit and speaker direction detecting method used in the circuit
JP2002044774A (en) * 2000-07-27 2002-02-08 Ibuki Kogyo Kk Acoustic reception apparatus
JP2007164506A (en) * 2005-12-14 2007-06-28 Toshiba Corp Light transmission type sensor and environment monitoring system using the same
WO2007129731A1 (en) * 2006-05-10 2007-11-15 Honda Motor Co., Ltd. Sound source tracking system, method and robot
JP2009103476A (en) * 2007-10-22 2009-05-14 Shimizu Corp Position management system of object
JP2009199158A (en) * 2008-02-19 2009-09-03 Hitachi Ltd Acoustic pointing device, method of pointing sound source position and computer system
JP2009216473A (en) * 2008-03-07 2009-09-24 Univ Nihon Device for measuring distance to sound source and apparatus for separating acoustic information using it
JP2010197296A (en) * 2009-02-26 2010-09-09 Nec Corp Calibration system, method, and program of array type sensor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
和泉慎太郎、外6名: ""ネットワーク型マイクロホンアレイ間のデータ集約による音声信号ビームフォーミング"", 電子情報通信学会技術研究報告, vol. 110, no. 216, JPN6015028096, 28 September 2010 (2010-09-28), pages 95 - 100, ISSN: 0003115335 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101529516B1 (en) * 2014-10-27 2015-06-18 국방과학연구소 Sound sourcelocalization device and sound sourcelocalization method
CN105954711A (en) * 2016-06-15 2016-09-21 广州尚云在线科技有限公司 Sound-intensity-difference-effect-based real-time sound source orientation method
US20190250240A1 (en) * 2016-06-29 2019-08-15 Nec Corporation Correlation function generation device, correlation function generation method, correlation function generation program, and wave source direction estimation device
CN106679651A (en) * 2017-02-08 2017-05-17 北京地平线信息技术有限公司 Sound localization method and device and electronic equipment
CN106679651B (en) * 2017-02-08 2019-10-25 北京地平线信息技术有限公司 Sound localization method, device and electronic equipment
CN113050038A (en) * 2021-03-23 2021-06-29 上海交通大学 Transformer substation sound source positioning method and system based on virtual array extension

Similar Documents

Publication Publication Date Title
JP2013213739A (en) Sound source position estimating device, sound source position estimating method and program therefor
US9602916B2 (en) Signal processing device, signal processing method, measurement method, and measurement device
CN106659936A (en) System and method for determining audio context in augmented-reality applications
CN108028976A (en) Distributed audio microphone array and locator configuration
CN110677802B (en) Method and apparatus for processing audio
KR20160086831A (en) Sound field re-creation device, method, and program
Liu et al. Azimuthal source localization using interaural coherence in a robotic dog: modeling and application
Tiete et al. MEMS microphones for wireless applications
US20220026518A1 (en) System for localization of sound sources
CA2759084C (en) Apparatus and method for the binaural reproduction of audio sonar signals
Van Dam et al. In-air ultrasonic 3D-touchscreen with gesture recognition using existing hardware for smart devices
KR20090128221A (en) Method for sound source localization and system thereof
JP2018034221A (en) Robot system
JP5867799B2 (en) Sound collecting / reproducing apparatus, program, and sound collecting / reproducing method
Cobos et al. Wireless acoustic sensor networks and applications
CN116299182A (en) Sound source three-dimensional positioning method and device
Aprea et al. Acoustic reconstruction of the geometry of an environment through acquisition of a controlled emission
JP2017085265A (en) Impulse response generation device and program
JP2012208109A (en) Three-dimensional positioning system, node, host, and operation method thereof
US20210092301A1 (en) Imaging system, imaging device, and imaging method
TWI649576B (en) Radio device capable of resolving sound source orientation to improve receiving effect
US11805380B2 (en) Augmented audio for communications
RU2793077C1 (en) Microphone module, microphone array system containing microphone modules, and method for collecting and processing audio data
WO2022116042A1 (en) Microphone array system and electronic device
KR100831936B1 (en) Sound Source Localization Device for Humanoids

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151222