JP6953287B2 - Sound source search device, sound source search method and its program - Google Patents

Sound source search device, sound source search method and its program Download PDF

Info

Publication number
JP6953287B2
JP6953287B2 JP2017216735A JP2017216735A JP6953287B2 JP 6953287 B2 JP6953287 B2 JP 6953287B2 JP 2017216735 A JP2017216735 A JP 2017216735A JP 2017216735 A JP2017216735 A JP 2017216735A JP 6953287 B2 JP6953287 B2 JP 6953287B2
Authority
JP
Japan
Prior art keywords
weight
correlation matrix
sound source
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017216735A
Other languages
Japanese (ja)
Other versions
JP2018146948A (en
Inventor
丈郎 金森
丈郎 金森
亘平 林田
亘平 林田
信太郎 吉國
信太郎 吉國
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to US15/898,896 priority Critical patent/US10264350B2/en
Priority to CA2995697A priority patent/CA2995697A1/en
Priority to EP18157565.5A priority patent/EP3370232B1/en
Priority to CN201810158701.6A priority patent/CN108540898B/en
Publication of JP2018146948A publication Critical patent/JP2018146948A/en
Application granted granted Critical
Publication of JP6953287B2 publication Critical patent/JP6953287B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Description

本開示は、音源探査装置、音源探査方法およびそのプログラムに関する。 The present disclosure relates to a sound source exploration device, a sound source exploration method, and a program thereof.

例えば特許文献1には、複数のマイクロホンユニットで得た複数の音響信号から音源の方向を精度よく推定できる音源方向推定装置が提案されている。この特許文献1では、複数の音響信号に基づく雑音信号の相関行列を用いて雑音対策を行うことで、複数の音響信号から音源の方向を精度よく推定する。 For example, Patent Document 1 proposes a sound source direction estimation device capable of accurately estimating the direction of a sound source from a plurality of acoustic signals obtained by a plurality of microphone units. In Patent Document 1, the direction of a sound source is accurately estimated from a plurality of acoustic signals by taking noise countermeasures using a correlation matrix of noise signals based on a plurality of acoustic signals.

特開2014−56181号公報Japanese Unexamined Patent Publication No. 2014-56181

しかしながら、特許文献1では、観測信号である複数のマイクロホンユニットで得た複数の音響信号に基づいて雑音信号の相関行列を算出する。そのため、騒音源と探査対象の音源とが同時に存在する場合や、騒音が探査対象の音源より高いレベルである場合に、騒音成分のみの相関行列を正確に求めることが困難である。つまり、複数のマイクロホンユニットで得た複数の音響信号の信号位相差に基づいて音源探査を行う方式では、探査対象の音源よりも高い音圧レベルの騒音が存在する場合、その騒音の影響で探査対象の音源を検知すなわち探査できなくなるという課題がある。 However, in Patent Document 1, the correlation matrix of noise signals is calculated based on a plurality of acoustic signals obtained by a plurality of microphone units which are observation signals. Therefore, when the noise source and the sound source to be searched exist at the same time, or when the noise is at a higher level than the sound source to be searched, it is difficult to accurately obtain the correlation matrix of only the noise component. In other words, in the method of searching for a sound source based on the signal phase difference of a plurality of acoustic signals obtained by a plurality of microphone units, if there is noise with a sound pressure level higher than that of the sound source to be searched, the noise is used for the search. There is a problem that the target sound source cannot be detected, that is, explored.

本開示は、上述の事情を鑑みてなされたもので、探査対象範囲にある探査対象の音源の方向をより確実に探査することができる音源探査装置を提供することを目的とする。 The present disclosure has been made in view of the above circumstances, and an object of the present disclosure is to provide a sound source exploration device capable of more reliably exploring the direction of a sound source of an exploration target within the exploration target range.

本開示の一態様に係る音源探査装置は、探査対象の音源の方向を探査する音源探査装置であって、互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出部と、記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習部と、前記学習部により算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出部とを備える。 The sound source exploration device according to one aspect of the present disclosure is a sound source exploration device that searches the direction of a sound source to be searched, and is picked up by a microphone array composed of two or more microphone units arranged apart from each other. A correlation matrix calculation unit that calculates a first correlation matrix that is a correlation matrix of an observation signal that is an acoustic signal, and a plurality of second correlation matrices that are stored in advance in the storage unit, from the array array of the microphone array. A learning unit that calculates the weight by learning so that the linear sum obtained by multiplying each of the plurality of second correlation matrices, which is the calculated correlation matrix for each direction, by a weight is equal to the first correlation matrix, and the learning unit. It is provided with a spatial spectrum calculation unit which is a spatial spectrum showing the sound pressure intensity for each direction and calculates the spatial spectrum of the observed signal by using the weight calculated by.

なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROMなどの記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせを用いて実現されてもよい。 It should be noted that some specific embodiments of these may be realized by using a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, the method, the method, and the like. It may be implemented using any combination of integrated circuits, computer programs and recording media.

本開示によれば、探査対象範囲にある探査対象の音源の方向をより確実に探査することができる音源探査装置等を実現できる。 According to the present disclosure, it is possible to realize a sound source exploration device or the like capable of more reliably exploring the direction of the sound source of the exploration target within the exploration target range.

図1は、実施の形態1における音源探査システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of the sound source exploration system according to the first embodiment. 図2は、実施の形態1におけるマイクロホンアレイと探査対象の音源がある音源方向との位置関係を示す説明図である。FIG. 2 is an explanatory diagram showing the positional relationship between the microphone array in the first embodiment and the sound source direction in which the sound source to be searched is located. 図3は、図2に示す位置関係においてマイクロホンアレイが観測する観測信号の空間スペクトル図である。FIG. 3 is a spatial spectrum diagram of the observation signal observed by the microphone array in the positional relationship shown in FIG. 図4は、図1に示す音源探査装置の詳細構成の一例を示す図である。FIG. 4 is a diagram showing an example of a detailed configuration of the sound source exploration device shown in FIG. 図5は、実施の形態1における選択部の選択方法の説明図である。FIG. 5 is an explanatory diagram of a method of selecting a selection unit according to the first embodiment. 図6は、実施の形態1における非線形関数部の構成の一例を示す図である。FIG. 6 is a diagram showing an example of the configuration of the nonlinear function unit according to the first embodiment. 図7は、実施の形態1における音源探査装置の音源探査処理を示すフローチャートである。FIG. 7 is a flowchart showing a sound source search process of the sound source search device according to the first embodiment. 図8は、図7に示す音源探査処理の詳細を示すフローチャート図である。FIG. 8 is a flowchart showing details of the sound source exploration process shown in FIG. 7. 図9は、比較例における空間スペクトル図である。FIG. 9 is a spatial spectrum diagram in a comparative example. 図10は、実施の形態1における空間スペクトル図である。FIG. 10 is a spatial spectrum diagram according to the first embodiment. 図11は、実施の形態2における音源探査システムの構成の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration of the sound source exploration system according to the second embodiment.

本開示の一態様に係る音源探査装置は、探査対象の音源の方向を探査する音源探査装置であって、互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出部と、記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習部と、前記学習部により算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出部とを備える。 The sound source exploration device according to one aspect of the present disclosure is a sound source exploration device that searches the direction of a sound source to be searched, and is picked up by a microphone array composed of two or more microphone units arranged apart from each other. A correlation matrix calculation unit that calculates a first correlation matrix that is a correlation matrix of an observation signal that is an acoustic signal, and a plurality of second correlation matrices that are stored in advance in the storage unit, from the array array of the microphone array. A learning unit that calculates the weight by learning so that the linear sum obtained by multiplying each of the plurality of second correlation matrices, which is the calculated correlation matrix for each direction, by a weight is equal to the first correlation matrix, and the learning unit. It is provided with a spatial spectrum calculation unit which is a spatial spectrum showing the sound pressure intensity for each direction and calculates the spatial spectrum of the observed signal by using the weight calculated by.

この構成により、探査対象範囲にある探査対象の音源の方向をより確実に探査することができる。さらに、学習により算出された重みを用いて観測信号の空間スペクトルを算出するので、耐騒音性および音の変化に対して追従性に優れた音源探査装置を実現することができる。 With this configuration, it is possible to more reliably search the direction of the sound source of the search target within the search target range. Further, since the spatial spectrum of the observation signal is calculated using the weight calculated by learning, it is possible to realize a sound source exploration device having excellent noise resistance and followability to changes in sound.

ここで、例えば、前記音源探査装置は、さらに、前記第1相関行列を構成する要素のうちの一つである第1要素と、前記複数の第2相関行列それぞれを構成する要素のうち、前記第1要素と対応する位置にある要素である第2要素を選択し、かつ、選択する前記第1要素および前記第2要素を逐次に切り替える選択部を備え、前記学習部は、前記第2要素に第1重みを乗算した第1要素線形和が前記第1要素と等しくなるように、前記第1重みを前記学習によって算出した第2重みに更新し、更新した前記第2重みを、次に前記選択部により選択された前記第2要素に乗算した第2要素線形和が、次に前記選択部により選択された前記第1要素と等しくなるように、前記第2重みを前記学習によって算出した第3重みに更新することを前記逐次に繰り返すことにより、前記重みを前記学習により算出してもよい。 Here, for example, the sound source exploration device further includes the first element, which is one of the elements constituting the first correlation matrix, and the elements constituting each of the plurality of second correlation matrices. The learning unit includes a selection unit that selects a second element that is an element at a position corresponding to the first element and sequentially switches between the first element and the second element to be selected, and the learning unit is the second element. The first weight is updated to the second weight calculated by the learning so that the linear sum of the first elements obtained by multiplying the first weight by the first element is equal to the first element. The second weight was calculated by the learning so that the linear sum of the second elements multiplied by the second element selected by the selection unit would then be equal to the first element selected by the selection unit. The weight may be calculated by the learning by repeating the updating to the third weight sequentially.

これにより、第1相関行列と複数の第2相関行列との対応する行列要素ごとに同時に等しくなる重みを学習により算出できるので、3以上のマイクロホンユニットからなるマイクロホンアレイにより収音された音響信号に基づいて、探査対象範囲にある探査対象の音源の方向をより確実に探査することができる。 As a result, the weights that are simultaneously equal for each corresponding matrix element of the first correlation matrix and the plurality of second correlation matrices can be calculated by learning, so that the acoustic signal picked up by the microphone array consisting of three or more microphone units can be obtained. Based on this, the direction of the sound source of the exploration target in the exploration target range can be searched more reliably.

また、例えば、前記選択部は、前記第1相関行列および前記第2相関行列を構成する対角成分を除く要素のうち、前記対角成分により区切られる2組の複数の要素の一方の組の複数の要素のうちからのみ、前記第1要素および前記第2要素を選択するとしてもよい。 Further, for example, the selection unit is a set of one of two sets of elements separated by the diagonal component among the elements excluding the diagonal components constituting the first correlation matrix and the second correlation matrix. The first element and the second element may be selected only from a plurality of elements.

これにより、演算量を削減できるので、より高速に探査対象範囲にある探査対象の音源の方向を探査することができる。 As a result, the amount of calculation can be reduced, so that the direction of the sound source of the search target within the search target range can be searched at a higher speed.

また、例えば、前記学習部は、LMS(Least Mean Square)アルゴリズム、またはICA(Independent Component Analysis)を用いることにより、前記線形和および前記第1相関行列の差である誤差と前記第2相関行列とから、前記重みを算出するとしてもよい。 Further, for example, the learning unit uses an LMS (Least Mean Square) algorithm or an ICA (Independent Component Analysis) to obtain an error that is the difference between the linear sum and the first correlation matrix and the second correlation matrix. Therefore, the weight may be calculated.

これにより、方向間の影響を互いにキャンセルしながら方向別の強度を算出できるので、耐騒音性により優れた音源探査装置を実現することができる。 As a result, the strength for each direction can be calculated while canceling the influences between the directions, so that a sound source exploration device having better noise resistance can be realized.

また、例えば、前記学習部は、重みを保持する保持部と、前記複数の第2相関行列それぞれに、前記保持部が保持する重みを乗算した線形和を算出する線形和算出部と、前記線形和および前記第1相関行列の差である誤差を算出する誤差算出部と、前記誤差と前記第2相関行列の積から重み更新量を算出し、前記保持部が保持する重みに前記重み更新量を加えることで前記保持部が保持する重みとする重み更新部とを備えるとしてもよい。 Further, for example, the learning unit includes a holding unit that holds weights, a linear sum calculation unit that calculates a linear sum obtained by multiplying each of the plurality of second correlation matrices by the weights held by the holding unit, and the linearity. The weight update amount is calculated from the product of the error calculation unit that calculates the sum and the difference between the first correlation matrix and the error and the second correlation matrix, and the weight update amount is added to the weight held by the holding unit. May be provided with a weight updating unit which is a weight held by the holding unit by adding the above.

ここで、例えば、前記重み更新部は、LMSアルゴリズムまたはICAを用いることにより、前記誤差および前記第2相関行列から重み更新量を算出するとしてもよい。 Here, for example, the weight update unit may calculate the weight update amount from the error and the second correlation matrix by using the LMS algorithm or the ICA.

また、例えば、前記学習部は、さらに、所定の非線形関数を用いて、前記誤差に非線形性を加える非線形関数部を備え、前記重み更新部は、前記非線形関数部により非線形性が加えられた前記誤差、および、前記第2相関行列から重み更新量を算出し、前記保持部が保持する重みに前記重み更新量を加えることで前記保持部が保持する重みとするとしてもよい。 Further, for example, the learning unit further includes a non-linear function unit that adds non-linearity to the error by using a predetermined non-linear function, and the weight updating unit is the non-linearity added by the non-linear function unit. The weight update amount may be calculated from the error and the second correlation matrix, and the weight update amount may be added to the weight held by the holding unit to obtain the weight held by the holding unit.

これにより、算出した誤差に非線形性を与えて、方向間相互影響を抑制することができるので、耐騒音性により優れた音源探査装置を実現することができる。 As a result, it is possible to give non-linearity to the calculated error and suppress mutual influence between directions, so that a sound source exploration device having better noise resistance can be realized.

また、本開示の一態様に係る音源探査方法は、探査対象の音源の方向を探査する音源探査方法であって、互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとを含む。 Further, the sound source exploration method according to one aspect of the present disclosure is a sound source exploration method for exploring the direction of a sound source to be explored, and is collected by a microphone array composed of two or more microphone units arranged apart from each other. An array of the microphone array, which is a correlation matrix calculation step for calculating a first correlation matrix which is a correlation matrix of an observation signal which is a sounded acoustic signal, and a plurality of second correlation matrices stored in advance in a storage unit. The learning step of calculating the weight by learning so that the linear sum obtained by multiplying each of the plurality of second correlation matrices, which is the correlation matrix for each direction calculated from the array, by the weight is equal to the first correlation matrix. The spatial spectrum calculation step of calculating the spatial spectrum of the observed signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated in the learning step, is included.

また、本開示の一態様に係るプログラムは、探査対象の音源の方向を探査する音源探査方法をコンピュータに実行させるためのプログラムであって、互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとをコンピュータに実行させる。 Further, the program according to one aspect of the present disclosure is a program for causing a computer to execute a sound source search method for searching the direction of a sound source to be searched, and is composed of two or more microphone units arranged apart from each other. A correlation matrix calculation step for calculating a first correlation matrix which is a correlation matrix of an observation signal which is an acoustic signal picked up by a computer array, and a plurality of second correlation matrices stored in advance in a storage unit. , The weight is calculated by learning so that the linear sum obtained by multiplying each of the plurality of second correlation matrices, which is the correlation matrix for each direction calculated from the array array of the computer array, by the weight is equal to the first correlation matrix. The computer is made to execute the learning step to be performed and the spatial spectrum calculation step of calculating the spatial spectrum of the observed signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated in the learning step. ..

なお、これらのうちの一部の具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータで読み取り可能なCD−ROM等の記録媒体を用いて実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせを用いて実現されてもよい。 It should be noted that some specific embodiments of these may be realized by using a recording medium such as a system, a method, an integrated circuit, a computer program, or a computer-readable CD-ROM, and the system, the method, the method, and the like. It may be implemented using any combination of integrated circuits, computer programs or recording media.

以下、本開示の一態様に係る音源探査装置について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることもできる。 Hereinafter, the sound source exploration device according to one aspect of the present disclosure will be specifically described with reference to the drawings. It should be noted that all of the embodiments described below show a specific example of the present disclosure. Numerical values, shapes, materials, components, arrangement positions of components, and the like shown in the following embodiments are examples, and are not intended to limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims indicating the highest level concept are described as arbitrary components. Moreover, in all the embodiments, each content can be combined.

(実施の形態1)
図1は、実施の形態1における音源探査システム1000の構成の一例を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing an example of the configuration of the sound source exploration system 1000 according to the first embodiment.

音源探査システム1000は、探査対象の音源の方向を探査するために用いられる。本実施の形態では、音源探査システム1000は、図1に示すように、音源探査装置1と、マイクロホンアレイ200と、周波数分析部300とを備える。 The sound source exploration system 1000 is used to search the direction of the sound source to be searched. In the present embodiment, as shown in FIG. 1, the sound source exploration system 1000 includes a sound source exploration device 1, a microphone array 200, and a frequency analysis unit 300.

[マイクロホンアレイ200]
マイクロホンアレイ200は、互いに離間して配置された2以上のマイクロホンユニットから構成され、全ての方向から到来する音波を観測すなわち収音して電気信号に変換した音響信号を出力する。本実施の形態では、マイクロホンアレイ200は、3つのマイクロホンユニットすなわちマイクロホンユニット201,202,203で構成されているとして、以下説明する。マイクロホンユニット201、マイクロホンユニット202およびマイクロホンユニット203は、例えば音圧に対する感度が高い無指向性のマイクロホン素子であり、離間して(換言すると異なる位置に)配される。ここで、マイクロホンユニット201は、収音した音波を電気信号に変換した時間領域信号である音響信号m1(n)を出力する。同様に、マイクロホンユニット202は、収音した音波を電気信号に変換した時間領域の信号である音響信号m2(n)を出力し、マイクロホンユニット203は、収音した音波を電気信号に変換した時間領域の信号である音響信号m3(n)を出力する。
[Microphone Array 200]
The microphone array 200 is composed of two or more microphone units arranged apart from each other, and outputs an acoustic signal converted into an electric signal by observing, that is, collecting sound waves coming from all directions. In the present embodiment, the microphone array 200 will be described below assuming that the microphone array 200 is composed of three microphone units, that is, microphone units 201, 202, 203. The microphone unit 201, the microphone unit 202, and the microphone unit 203 are, for example, omnidirectional microphone elements having high sensitivity to sound pressure, and are arranged apart from each other (in other words, at different positions). Here, the microphone unit 201 outputs an acoustic signal m1 (n) which is a time domain signal obtained by converting the pickled sound wave into an electric signal. Similarly, the microphone unit 202 outputs an acoustic signal m2 (n) which is a signal in the time region obtained by converting the collected sound sound into an electric signal, and the microphone unit 203 outputs the time when the collected sound sound is converted into an electric signal. The acoustic signal m3 (n), which is a signal of the region, is output.

図2は、実施の形態1におけるマイクロホンアレイ200と探査対象の音源Sがある音源方向との位置関係を示す説明図である。図3は、図2に示す位置関係においてマイクロホンアレイ200が観測する観測信号の空間スペクトル図である。図2には、マイクロホンユニット201、マイクロホンユニット202およびマイクロホンユニット203がθ=0度の軸に一列に配列されたアレイ配列からなるマイクロホンアレイ200の構成が示されている。また、図2には、マイクロホンアレイ200に対して、θ=θsの方向に探査対象の音源Sが存在しており、妨害音となる音源が存在しない場合が示されている。この場合、音源探査装置1の探査結果である空間スペクトルは、図3に示すようになる。すなわち、探査結果である図3に示す空間スペクトルにおいて最も高い強度を示す角度がθsとなる。 FIG. 2 is an explanatory diagram showing the positional relationship between the microphone array 200 in the first embodiment and the sound source direction in which the sound source S to be searched is located. FIG. 3 is a spatial spectrum diagram of the observation signal observed by the microphone array 200 in the positional relationship shown in FIG. FIG. 2 shows the configuration of a microphone array 200 including an array array in which the microphone unit 201, the microphone unit 202, and the microphone unit 203 are arranged in a row on the axis of θ = 0 degrees. Further, FIG. 2 shows a case where the sound source S to be searched exists in the direction of θ = θs with respect to the microphone array 200, and there is no sound source that becomes a disturbing sound. In this case, the spatial spectrum that is the exploration result of the sound source exploration device 1 is as shown in FIG. That is, the angle showing the highest intensity in the spatial spectrum shown in FIG. 3 which is the exploration result is θs.

[周波数分析部300]
周波数分析部300は、2以上のマイクロホンユニットそれぞれにおいて観測された音響信号を周波数領域の信号に変換して、周波数スペクトル信号として出力する。より具体的には、周波数分析部300は、マイクロホンアレイ200から入力された音響信号を周波数分析を行い、周波数領域の信号である周波数スペクトル信号を出力する。なお、周波数分析には、高速フーリエ変換(Fast Fourier Transform:FFT)または離散フーリエ変換(Discrete Fourier Transform:DFT)など時間信号を周波数成分毎の振幅情報と位相情報に変換するものを用いればよい。
[Frequency analysis unit 300]
The frequency analysis unit 300 converts the acoustic signal observed in each of the two or more microphone units into a signal in the frequency domain and outputs it as a frequency spectrum signal. More specifically, the frequency analysis unit 300 performs frequency analysis on the acoustic signal input from the microphone array 200, and outputs a frequency spectrum signal which is a signal in the frequency domain. For frequency analysis, one that transforms a time signal into amplitude information and phase information for each frequency component, such as Fast Fourier Transform (FFT) or Discrete Fourier Transform (DFT), may be used.

本実施の形態では、周波数分析部300は、高速フーリエ変換を行うFFT301、FFT302およびFFT303で構成されている。FFT301は、マイクロホンユニット201から出力された音響信号m1(n)を入力として、高速フーリエ変換を用いて時間領域から周波数領域への変換を行って周波数スペクトル信号Sm1(ω)を出力する。FFT302は、マイクロホンユニット202から出力された音響信号m2(n)を入力として、高速フーリエ変換を用いて時間領域から周波数領域への変換を行って周波数スペクトル信号Sm2(ω)を出力する。FFT303は、マイクロホンユニット203から出力された音響信号m3(n)を入力として、高速フーリエ変換を用いて時間領域から周波数領域への変換を行って周波数スペクトル信号Sm3(ω)を出力する。 In the present embodiment, the frequency analysis unit 300 is composed of FFT301, FFT302, and FFT303 that perform a fast Fourier transform. The FFT 301 receives the acoustic signal m1 (n) output from the microphone unit 201 as an input, performs conversion from the time domain to the frequency domain using a fast Fourier transform, and outputs the frequency spectrum signal Sm1 (ω). The FFT 302 takes the acoustic signal m2 (n) output from the microphone unit 202 as an input, performs conversion from the time domain to the frequency domain using a fast Fourier transform, and outputs the frequency spectrum signal Sm2 (ω). The FFT 303 takes the acoustic signal m3 (n) output from the microphone unit 203 as an input, performs conversion from the time domain to the frequency domain using a fast Fourier transform, and outputs the frequency spectrum signal Sm3 (ω).

[音源探査装置1]
図4は、図1に示す音源探査装置1の詳細構成の一例を示す図である。
[Sound source exploration device 1]
FIG. 4 is a diagram showing an example of the detailed configuration of the sound source exploration device 1 shown in FIG.

音源探査装置1は、探査対象の音源の方向を探査する。本実施の形態では、音源探査装置1は、図1および図4に示すように、相関行列算出部10と、記憶部20と、選択部30と、学習部40と、空間スペクトル算出部100と、出力部110とを備える。なお、音源探査装置1は、マイクロホンアレイ200を構成するマイクロホンユニットの数が2であれば選択部30を備えなくてもよい。また、音源探査装置1は、マイクロホンアレイ200および周波数分析部300を備えるとしてもよい。以下、各構成要素について説明する。 The sound source search device 1 searches for the direction of the sound source to be searched. In the present embodiment, as shown in FIGS. 1 and 4, the sound source exploration device 1 includes a correlation matrix calculation unit 10, a storage unit 20, a selection unit 30, a learning unit 40, and a spatial spectrum calculation unit 100. , The output unit 110 is provided. The sound source search device 1 does not have to include the selection unit 30 as long as the number of microphone units constituting the microphone array 200 is 2. Further, the sound source search device 1 may include a microphone array 200 and a frequency analysis unit 300. Hereinafter, each component will be described.

<相関行列算出部10>
相関行列算出部10は、マイクロホンアレイ200により収音された音響信号である観測信号の相関行列である第1相関行列を算出する。
<Correlation matrix calculation unit 10>
The correlation matrix calculation unit 10 calculates a first correlation matrix which is a correlation matrix of observation signals which are acoustic signals picked up by the microphone array 200.

本実施の形態では、相関行列算出部10は、周波数分析部300が出力した周波数スペクトルから、第1相関行列である観測相関行列Rx(ω)を算出する。より具体的には、相関行列算出部10は、下記の(式1)および(式2)を用いて、FFT301からの周波数スペクトル信号Sm1(ω)と、FFT302からの周波数スペクトル信号Sm2(ω)と、FFT303からの周波数スペクトル信号Sm3(ω)とを入力として、観測相関行列Rx(ω)を算出する。 In the present embodiment, the correlation matrix calculation unit 10 calculates the observation correlation matrix Rx (ω), which is the first correlation matrix, from the frequency spectrum output by the frequency analysis unit 300. More specifically, the correlation matrix calculation unit 10 uses the following (Equation 1) and (Equation 2) to obtain the frequency spectrum signal Sm1 (ω) from FFT301 and the frequency spectrum signal Sm2 (ω) from FFT302. And the frequency spectrum signal Sm3 (ω) from FFT303 are input to calculate the observation correlation matrix Rx (ω).

ここで、観測相関行列Rx(ω)を構成する各要素Xij(ω)は、各マイクロホンユニットに到来する複数の音波であって実環境に存在する複数の音源からの複数の音波に対する位相差情報が蓄えられたものである。例えば、(式1)に示される要素X12(ω)は、マイクロホンユニット201およびマイクロホンユニット202に到来する音波に対する位相差情報を示している。また、例えば(式1)に示される要素X13(ω)は、マイクロホンユニット201およびマイクロホンユニット203に到来する音波に対する位相差情報を示している。(式2)に示される(・)は複素共役を示している。 Here, each element X ij (ω) constituting the observation correlation matrix Rx (ω) is a plurality of sound waves arriving at each microphone unit, and the phase difference with respect to a plurality of sound waves from a plurality of sound sources existing in the real environment. Information is stored. For example, the element X 12 (ω) shown in (Equation 1) indicates the phase difference information for the sound waves arriving at the microphone unit 201 and the microphone unit 202. Further, for example, the element X 13 (ω) shown in (Equation 1) indicates the phase difference information for the sound waves arriving at the microphone unit 201 and the microphone unit 203. (・) * Shown in (Equation 2) indicates the complex conjugate.

Figure 0006953287
Figure 0006953287
Figure 0006953287
Figure 0006953287

なお、本実施の形態ではマイクロホンユニット201〜203として示される各マイクロホンユニットの音圧感度特性がほぼ等しく均一である場合、観測相関行列Rx(ω)の各要素Xij(ω)を、(式3)により示すことができる。(式3)に示される観測相関行列Rx(ω)の各要素Xij(ω)は、(式2)における分母の正規化項が省略されたものに該当する。 In the present embodiment, when the sound pressure sensitivity characteristics of the microphone units shown as the microphone units 201 to 203 are substantially equal and uniform, each element X ij (ω) of the observation correlation matrix Rx (ω) is expressed by (Equation). It can be shown by 3). Each element X ij (ω) of the observation correlation matrix Rx (ω) shown in (Equation 3) corresponds to the one in which the normalization term of the denominator in (Equation 2) is omitted.

Figure 0006953287
Figure 0006953287

<記憶部20>
記憶部20は、マイクロホンアレイ200のアレイ配列から算出された方向別の相関行列である複数の第2相関行列を予め記憶する。
<Memory unit 20>
The storage unit 20 stores in advance a plurality of second correlation matrices, which are direction-specific correlation matrices calculated from the array array of the microphone array 200.

本実施の形態では、記憶部20は、メモリ等で構成され、第2相関行列である、探査方向θ毎の参照相関行列Rr(θ,ω)を予め記憶している。図4に示す例では、記憶部20は、例えば方向数N=180個の0≦θ≦180の範囲における参照相関行列Rr(θ,ω)〜Rr(θ,ω)を予め記憶している。 In the present embodiment, the storage unit 20 is composed of a memory or the like, and stores in advance the reference correlation matrix Rr (θ, ω) for each search direction θ, which is the second correlation matrix. In the example shown in FIG. 4, the storage unit 20 stores in advance the reference correlation matrices Rr (θ 1 , ω) to Rr (θ N , ω) in the range of 0 ≦ θ ≦ 180, for example, the number of directions N = 180. ing.

参照相関行列Rr(θ,ω)は、方向θ毎の音波に対するマイクロホンユニット間の位相差を表すので、音源の方向θと、マイクロホンアレイ200のマイクロホンユニット配列であるアレイ配列とが決まれば理論的に算出することができる。以下、図2に示すマイクロホンアレイ200のアレイ配列を例に挙げて、参照相関行列Rr(θ,ω)の算出する方法について説明する。 Since the reference correlation matrix Rr (θ, ω) represents the phase difference between the microphone units for the sound wave in each direction θ, it is theoretical if the direction θ of the sound source and the array array which is the microphone unit array of the microphone array 200 are determined. Can be calculated. Hereinafter, a method of calculating the reference correlation matrix Rr (θ, ω) will be described by taking the array array of the microphone array 200 shown in FIG. 2 as an example.

図2には、上述したように、マイクロホンアレイ200を構成するマイクロホンユニット201〜203が直線状に配列されたアレイ配列の例が示されている。また、図2には、方向θsに音源Sが存在するといった位置関係も示されている。 As described above, FIG. 2 shows an example of an array arrangement in which the microphone units 201 to 203 constituting the microphone array 200 are linearly arranged. Further, FIG. 2 also shows a positional relationship in which the sound source S exists in the direction θs.

マイクロホンユニット201〜203への音源Sからの音波の到来時刻は、中央のマイクロホンユニット202を基準にすると、マイクロホンユニット201では時間τ早く、マイクロホンユニット203では時間τ遅くなる。時間τは、以下の(式4)を用いて算出できる。(式4)において、Lはマイクロホンユニット間距離、cは音速を示す。 The arrival time of the sound wave from the sound source S to the microphone units 201 to 203 is earlier in time τ in the microphone unit 201 and later in the microphone unit 203 with reference to the central microphone unit 202. The time τ can be calculated using the following (Equation 4). In (Equation 4), L indicates the distance between microphone units, and c indicates the speed of sound.

Figure 0006953287
Figure 0006953287

そして、方向θの音源からの音波に対するマイクロホンユニット201〜203の位相差関係を示す方向ベクトルは、中央にあるマイクロホンユニット202の位置を基準とすると、(式5)を用いて表せる。 Then, the direction vector showing the phase difference relationship of the microphone units 201 to 203 with respect to the sound wave from the sound source in the direction θ can be expressed by using (Equation 5) with reference to the position of the microphone unit 202 in the center.

Figure 0006953287
Figure 0006953287

したがって、音源が方向θにあるときの換言すると方向θに対する、参照相関行列Rr(θ,ω)は、(式2)、(式3)および(式5)の関係から、(式6)に示されるように定義できる。(式6)において、(・)は、複素共役転置を示す。 Therefore, when the sound source is in the direction θ, in other words, the reference correlation matrix Rr (θ, ω) with respect to the direction θ is changed to (Equation 6) from the relations of (Equation 2), (Equation 3) and (Equation 5). Can be defined as shown. In (Equation 6), (.) H represents a complex conjugate transpose.

Figure 0006953287
Figure 0006953287

このようにして、方向θ〜θ(例えばN=180)に対する参照相関行列Rr(θ,ω)〜Rr(θ,ω)を算出できる。 In this way, the reference correlation matrices Rr (θ 1 , ω) to Rr (θ N , ω) for the directions θ 1 to θ N (for example, N = 180) can be calculated.

<選択部30>
選択部30は、第1相関行列を構成する要素のうちの一つである第1要素と、複数の第2相関行列それぞれを構成する要素のうち、第1要素と対応する位置にある要素である第2要素を選択し、かつ、選択する第1要素および第2要素を逐次に切り替える。ここで、選択部30は、第1相関行列および第2相関行列を構成する対角成分を除く要素のうち、対角成分により区切られる2組の複数の要素の一方の組の複数の要素のうちからのみ、第1要素および第2要素を選択すればよい。
<Selection unit 30>
The selection unit 30 is an element at a position corresponding to the first element among the first element which is one of the elements constituting the first correlation matrix and the elements constituting each of the plurality of second correlation matrices. A certain second element is selected, and the selected first element and the second element are sequentially switched. Here, the selection unit 30 is a plurality of elements of one set of two sets of elements separated by diagonal components among the elements excluding the diagonal components constituting the first correlation matrix and the second correlation matrix. Only one of them needs to select the first element and the second element.

本実施の形態では、選択部30は、相関行列算出部10からの観測相関行列Rx(ω)と記憶部20からの参照相関行列Rr(θ,ω)とを入力として、観測相関行列Rx(ω)および複数の参照相関行列Rr(θ,ω)における対応する相関行列の要素を選択して出力する。選択部30は、例えば図4に示すように、行列要素選択部31と、行列要素選択部32−1〜行列要素選択部32−Nとを備える。なお、図4には、方向θに対する参照相関行列Rr(θ,ω)が入力される行列要素選択部32−1と、方向θに対する参照相関行列Rr(θ,ω)が入力される行列要素選択部32−Nとの2つが設けられている場合の例が示されているが、これに限られない。方向数N=180の場合は、方向θ〜θに対する参照相関行列Rr(θ,ω)〜Rr(θ,ω)が入力されるN個の行列要素選択部32−1〜行列要素選択部32−Nが設けられる。 In the present embodiment, the selection unit 30 receives the observation correlation matrix Rx (ω) from the correlation matrix calculation unit 10 and the reference correlation matrix Rr (θ, ω) from the storage unit 20 as inputs, and the observation correlation matrix Rx ( ω) and the elements of the corresponding correlation matrix in the plurality of reference correlation matrices Rr (θ, ω) are selected and output. As shown in FIG. 4, for example, the selection unit 30 includes a matrix element selection unit 31 and a matrix element selection unit 32-1 to a matrix element selection unit 32-N. In FIG. 4, the matrix element selection unit 32-1 into which the reference correlation matrix Rr (θ 1 , ω) for the direction θ 1 is input, and the reference correlation matrix Rr (θ N , ω) for the direction θ N are input. An example is shown in the case where two matrix element selection units 32-N are provided, but the present invention is not limited to this. For direction number N = 180, the direction theta 1 through? Reference correlation matrix for N Rr (θ 1, ω) ~Rr (θ N, ω) N pieces that are input matrix element selecting unit 32-1~ matrix The element selection unit 32-N is provided.

以下、選択部30の選択方法の一例について図5を用いて具体的に説明する。 Hereinafter, an example of the selection method of the selection unit 30 will be specifically described with reference to FIG.

図5は、実施の形態1における選択部30の選択方法の説明図である。 FIG. 5 is an explanatory diagram of a selection method of the selection unit 30 in the first embodiment.

図5に示すように、行列要素選択部31は、相関行列算出部10から入力された観測相関行列Rx(ω)を構成する要素(行列要素とも称する)のうちの一つを選択して、位相差信号x(ω)として出力する。行列要素選択部32−m(mは1以上N以下の自然数)は、記憶部20から入力された参照相関行列Rr(θ,ω)を構成する要素のうち行列要素選択部31が選択した要素と同じ行と列の要素を選択して、位相差信号r(θ,ω)として出力する。 As shown in FIG. 5, the matrix element selection unit 31 selects one of the elements (also referred to as matrix elements) constituting the observation correlation matrix Rx (ω) input from the correlation matrix calculation unit 10. It is output as a phase difference signal x (ω). The matrix element selection unit 32-m (m is a natural number of 1 or more and N or less) is selected by the matrix element selection unit 31 among the elements constituting the reference correlation matrix Rr (θ m, ω) input from the storage unit 20. The same row and column elements as the elements are selected and output as a phase difference signal r (θ m , ω).

なお、通常は相関行列の対角要素は1となり信号処理上意味を持たない。また、相関行列において行番号と列番号とが入れ替わったxijとxjiとは、位相回転が逆の関係で情報としては同一である。これらを考慮して、選択部30は、参照相関行列Rr(θ,ω)および観測相関行列Rx(ω)の相関行列を構成する対角成分を除く要素のうち、対角成分により区切られる2組の複数の要素の一方の組の複数の要素から要素を選択して出力すればよい。つまり、選択部30は、参照相関行列Rr(θ,ω)および観測相関行列Rx(ω)の相関行列の対角成分を除いた上三角行列または下三角行列の要素を選択して出力すればよい。これにより、音源探査装置1は演算量を削減できる。 Normally, the diagonal element of the correlation matrix is 1, which has no meaning in signal processing. Further, x ij and x ji in which the row number and the column number are exchanged in the correlation matrix are the same as the information because the phase rotations are opposite to each other. In consideration of these, the selection unit 30 is separated by the diagonal component among the elements excluding the diagonal component constituting the correlation matrix of the reference correlation matrix Rr (θ, ω) and the observation correlation matrix Rx (ω). It suffices to select and output an element from a plurality of elements of one set of a plurality of elements of a set. That is, if the selection unit 30 selects and outputs the elements of the upper triangular matrix or the lower triangular matrix excluding the diagonal components of the correlation matrix of the reference correlation matrix Rr (θ, ω) and the observation correlation matrix Rx (ω). good. As a result, the sound source exploration device 1 can reduce the amount of calculation.

さらに、選択部30は、演算量の削減などの観点から、上三角行列または下三角行列の要素を選択する数を間引いてもよい。 Further, the selection unit 30 may thin out the number of elements to be selected in the upper triangular matrix or the lower triangular matrix from the viewpoint of reducing the amount of calculation.

<学習部40>
学習部40は、記憶部20に予め記憶されている複数の第2相関行列それぞれに重みを乗算した線形和が第1相関行列と等しくなるように、当該重みを学習によって算出する。ここで、学習部40は、LMSアルゴリズム、またはICA(Independent Component Analysis)を用いることにより、当該線形和および第1相関行列の差である誤差と、第2相関行列とから、重みを算出する。より具体的には、学習部40は、選択部30により選択された第2要素に第1重みを乗算した第1要素線形和が、選択部30により選択された第1要素と等しくなるように、第1重みを学習によって算出した第2重みに更新する。続いて、学習部40は、更新した第2重みを、次に選択部30により選択された第2要素に乗算した第2要素線形和が、次に選択部30により選択された第1要素と等しくなるように、第2重みを学習によって算出した第3重みに更新する。学習部40は、これらの更新を逐次に繰り返すことにより、当該重みを学習により算出する。
<Learning Department 40>
The learning unit 40 calculates the weights by learning so that the linear sum obtained by multiplying each of the plurality of second correlation matrices stored in advance in the storage unit 20 by the weights becomes equal to the first correlation matrix. Here, the learning unit 40 calculates the weight from the error which is the difference between the linear sum and the first correlation matrix and the second correlation matrix by using the LMS algorithm or ICA (Independent Component Analysis). More specifically, the learning unit 40 makes the first element linear sum obtained by multiplying the second element selected by the selection unit 30 by the first weight equal to the first element selected by the selection unit 30. , The first weight is updated to the second weight calculated by learning. Subsequently, in the learning unit 40, the second element linear sum obtained by multiplying the updated second weight by the second element selected by the selection unit 30 is then combined with the first element selected by the selection unit 30. The second weight is updated to the third weight calculated by learning so that they are equal. The learning unit 40 calculates the weight by learning by sequentially repeating these updates.

本実施の形態では、学習部40は、図1および図4に示すように、保持部50と、線形和算出部60と、誤差算出部70と、非線形関数部80と、重み更新部90とを備える。なお、非線形関数部80は必須の構成ではなく、学習部40は非線形関数部80を備えなくてもよい。 In the present embodiment, as shown in FIGS. 1 and 4, the learning unit 40 includes a holding unit 50, a linear sum calculation unit 60, an error calculation unit 70, a nonlinear function unit 80, and a weight update unit 90. To be equipped. The non-linear function unit 80 is not an indispensable configuration, and the learning unit 40 does not have to include the non-linear function unit 80.

≪保持部50≫
保持部50は、重み更新部90により更新される重みを保持する。保持部50は、参照相関行列Rr(θ,ω)毎に対して乗算する重みを保持している。換言すると、当該重みは、参照相関行列Rr(θ,ω)〜Rr(θ,ω)それぞれの相関行列を構成する各要素に対して共通である。
≪Holding part 50≫
The holding unit 50 holds the weight updated by the weight updating unit 90. The holding unit 50 holds a weight to be multiplied for each reference correlation matrix Rr (θ, ω). In other words, the weight is common to each element constituting the correlation matrix of the reference correlation matrix Rr (θ 1 , ω) to Rr (θ N, ω).

また、重みはθおよびωを変数とする関数であるが、ωは定数として扱うことで一次元の係数として扱うことができる。以下、重みを重み係数a(θ,ω)と称して説明する。 The weight is a function with θ and ω as variables, but ω can be treated as a one-dimensional coefficient by treating it as a constant. Hereinafter, the weight will be described with reference to the weight coefficient a (θ, ω).

本実施の形態では、重み係数a(θ,ω)は、方向θ毎の参照相関行列Rr(θ,ω)に乗算される係数である。図4には、一例として、例えば180個の0≦θ≦180の範囲における参照相関行列Rr(θ,ω)に対応する方向θ〜θ(N=180)の重み係数a(θ,ω)〜a(θ,ω)が示されている。 In the present embodiment, the weighting coefficient a (θ, ω) is a coefficient multiplied by the reference correlation matrix Rr (θ, ω) for each direction θ. As an example, FIG. 4 shows a weighting coefficient a (θ 1 ) in the directions θ 1 to θ N (N = 180) corresponding to the reference correlation matrix Rr (θ, ω) in the range of 180 0 ≦ θ ≦ 180. , Ω) to a (θ N , ω) are shown.

保持部50は、重み更新部90により更新される重み係数a(θ,ω)を保持する。つまり、重み係数a(θ,ω)は、重み更新部90で算出された重み更新量に基づいて、値が更新される学習係数である。また、保持部50は、保持する重み係数a(θ,ω)を空間スペクトル算出部100へ出力する。 The holding unit 50 holds the weighting coefficient a (θ, ω) updated by the weight updating unit 90. That is, the weight coefficient a (θ, ω) is a learning coefficient whose value is updated based on the weight update amount calculated by the weight update unit 90. Further, the holding unit 50 outputs the weighting coefficient a (θ, ω) to be held to the space spectrum calculation unit 100.

≪線形和算出部60≫
線形和算出部60は、複数の第2相関行列それぞれに、保持部50が保持する重みを乗算した線形和を算出する。
<< Linear sum calculation unit 60 >>
The linear sum calculation unit 60 calculates a linear sum obtained by multiplying each of the plurality of second correlation matrices by the weights held by the holding unit 50.

本実施の形態では、線形和算出部60は、図4に示すように、信号乗算部61−1〜信号乗算部61−Nと、信号加算部62とを備える。 In the present embodiment, as shown in FIG. 4, the linear sum calculation unit 60 includes a signal multiplication unit 61-1 to a signal multiplication unit 61-N and a signal addition unit 62.

信号乗算部61−1は、行列要素選択部32−1で選択された参照相関行列Rr(θ,ω)の要素r(θ,ω)に、方向θの重み係数a(θ,ω)乗算して、信号加算部62に出力する。同様にして、信号乗算部61−Nは、行列要素選択部32−Nで選択された参照相関行列Rr(θ,ω)の要素r(θ,ω)に、方向θの重み係数a(θ,ω)乗算して、信号加算部62に出力する。このように、信号乗算部61−1〜信号乗算部61−Nはそれぞれ、方向θ〜θ毎において参照相関行列Rr(θ,ω)に重み係数a(θ,ω)を乗算した信号を信号加算部62に出力する。 The signal multiplication unit 61-1 has a weighting coefficient a (θ 1 ) in the direction θ 1 on the element r (θ 1 , ω) of the reference correlation matrix Rr (θ 1 , ω) selected by the matrix element selection unit 32-1. , Ω) Multiply and output to the signal addition unit 62. Similarly, the signal multiplication unit 61-N has a weighting coefficient of the direction θ N on the element r (θ N , ω) of the reference correlation matrix Rr (θ N , ω) selected by the matrix element selection unit 32-N. Multiply by a (θ N , ω) and output to the signal addition unit 62. Thus, each signal multiplier unit 61-1~ signal multiplication unit 61-N, the direction theta 1 through? N reference correlation matrix in each Rr (θ, ω) the weighting coefficient a (θ, ω) multiplied by the signal Is output to the signal addition unit 62.

信号加算部62は、信号乗算部61−1〜信号乗算部61−Nから出力された信号を加算した推定位相差信号xr(ω)を、誤差算出部70に出力する。より具体的には、信号加算部62は、(式7)を用いて、信号乗算部61−1〜信号乗算部61−Nから出力された信号の線形和を、推定位相差信号xr(ω)として算出する。 The signal addition unit 62 outputs an estimated phase difference signal xr (ω) obtained by adding the signals output from the signal multiplication units 61-1 to the signal multiplication units 61-N to the error calculation unit 70. More specifically, the signal addition unit 62 uses (Equation 7) to calculate the linear sum of the signals output from the signal multiplication units 61-1 to the signal multiplication units 61-N by estimating the phase difference signal xr (ω). ).

Figure 0006953287
Figure 0006953287

≪誤差算出部70≫
誤差算出部70は、線形和算出部60により算出された線形和と第1相関行列との差である誤差を算出する。本実施の形態では、誤差算出部70は、図4に示すように、信号減算部71を備える。
<< Error calculation unit 70 >>
The error calculation unit 70 calculates an error which is the difference between the linear sum calculated by the linear sum calculation unit 60 and the first correlation matrix. In the present embodiment, the error calculation unit 70 includes a signal subtraction unit 71 as shown in FIG.

信号減算部71は、行列要素選択部31からの位相差信号x(ω)から、信号加算部62からの推定位相差信号xr(ω)を減算することで誤差信号e(ω)を算出する。より具体的には、信号減算部71は、(式8)を用いて、誤差信号e(ω)を算出する。 The signal subtraction unit 71 calculates the error signal e (ω) by subtracting the estimated phase difference signal xr (ω) from the signal addition unit 62 from the phase difference signal x (ω) from the matrix element selection unit 31. .. More specifically, the signal subtraction unit 71 calculates the error signal e (ω) using (Equation 8).

Figure 0006953287
Figure 0006953287

≪非線形関数部80≫
非線形関数部80は、所定の非線形関数を用いて、誤差に非線形性を加える。より具体的には、非線形関数部80は、信号減算部71から入力された誤差信号e(ω)を、非線形入出力特性を持つ関数である非線形関数により非線形性を加えた信号に変換する。非線形関数は、例えばハイパブリックタンジェントであるが、これに限られない。信号振幅に制限を与えることができる非線形入出力特性を有する非線形関数であれば、どのような関数であってもよい。外乱により位相差を狂わされて誤差信号e(ω)が一時的に大きくなったとしても、後述する重み更新部90において学習される重み更新量への影響を抑制することができるからである。
<< Non-linear function part 80 >>
The non-linear function unit 80 adds non-linearity to the error by using a predetermined non-linear function. More specifically, the non-linear function unit 80 converts the error signal e (ω) input from the signal subtraction unit 71 into a signal to which non-linearity is added by a non-linear function which is a function having non-linear input / output characteristics. Non-linear functions are, for example, high public tangents, but are not limited to this. Any non-linear function having non-linear input / output characteristics that can limit the signal amplitude may be used. This is because even if the phase difference is disturbed by the disturbance and the error signal e (ω) temporarily increases, the influence on the weight update amount learned by the weight update unit 90, which will be described later, can be suppressed.

図6は、実施の形態1における非線形関数部80の構成の一例を示す図である。非線形関数部80は、図6に示すように、実部抽出部801と、虚部抽出部802と、非線形性追加部803と、非線形性追加部804と、虚数単位乗算部805と、信号加算部806とを備える。 FIG. 6 is a diagram showing an example of the configuration of the nonlinear function unit 80 according to the first embodiment. As shown in FIG. 6, the non-linear function unit 80 includes a real part extraction unit 801, an imaginary part extraction unit 802, a non-linear addition unit 803, a non-linearity addition unit 804, an imaginary unit multiplication unit 805, and signal addition. A unit 806 is provided.

実部抽出部801は、入力された誤差信号e(ω)の実数部を抽出して、非線形性追加部803に出力する。虚部抽出部802は、入力された誤差信号e(ω)の虚数部を抽出して、非線形性追加部804に出力する。 The real part extraction unit 801 extracts the real part of the input error signal e (ω) and outputs it to the non-linearity addition unit 803. The imaginary part extraction unit 802 extracts the imaginary part of the input error signal e (ω) and outputs it to the non-linearity addition unit 804.

非線形性追加部803は、実部抽出部801から入力された誤差信号e(ω)の実数部の信号振幅に非線形関数により非線形性を加えて、信号加算部806に出力する。非線形性追加部804は、虚部抽出部802から入力された誤差信号e(ω)の虚数部の信号振幅に非線形関数により非線形性を加えて、虚数単位乗算部805に出力する。 The non-linearity addition unit 803 adds non-linearity to the signal amplitude of the real number part of the error signal e (ω) input from the real part extraction unit 801 by a non-linear function, and outputs it to the signal addition unit 806. The non-linearity addition unit 804 adds non-linearity to the signal amplitude of the imaginary part of the error signal e (ω) input from the imaginary part extraction unit 802 by a nonlinear function, and outputs it to the imaginary unit multiplication unit 805.

虚数単位乗算部805は、非線形性追加部804から入力された信号を虚数に戻すため、虚数単位jを乗算して、信号加算部806に出力する。信号加算部806は、実部信号である非線形性追加部803から入力された信号と、虚部信号である虚数単位乗算部805から入力された信号とを加算した非線形性が加えられた複素信号f(e(ω))、重み更新部90に出力する。 The imaginary unit multiplication unit 805 multiplies the imaginary unit j and outputs the signal to the signal addition unit 806 in order to return the signal input from the non-linearity addition unit 804 to an imaginary number. The signal addition unit 806 is a complex signal to which the non-linearity added by adding the signal input from the non-linearity addition unit 803 which is the real part signal and the signal input from the imaginary unit multiplication unit 805 which is the imaginary part signal is added. f (e (ω)) is output to the weight update unit 90.

非線形性が加えられた複素信号f(e(ω))の一例を、(式9)に示す。(式9)は、非線形関数にハイパブリックタンジェントtanh(・)を用いた場合の例である。real(・)は実数部、imag(・)は虚数部を表し、jは虚数単位である。 An example of the complex signal f (e (ω)) to which the non-linearity is added is shown in (Equation 9). (Equation 9) is an example when the high public tangent tanh (・) is used for the nonlinear function. real (・) represents the real part, imag (・) represents the imaginary part, and j is the imaginary unit.

Figure 0006953287
Figure 0006953287

≪重み更新部90≫
重み更新部90は、LMS(Least Mean Square)アルゴリズム、またはICA(Independent Component Analysis)を用いることにより、誤差および第2相関行列から重み更新量を算出し、保持部50が保持する重みに当該重み更新量を加えて保持部50が保持する重みとする。また、音源探査装置1が非線形関数部80を備える場合には、重み更新部90は、非線形関数部80により非線形性が加えられた誤差、および、第2相関行列から重み更新量を算出し、保持部50が保持する重みに当該重み更新量を加えて保持部50が保持する重みとする。
≪Weight update part 90≫
The weight update unit 90 calculates the weight update amount from the error and the second correlation matrix by using the LMS (Least Mean Square) algorithm or the ICA (Independent Component Analysis), and the weight held by the holding unit 50 is the weight. The update amount is added to obtain the weight held by the holding unit 50. When the sound source exploration device 1 includes the non-linear function unit 80, the weight update unit 90 calculates the weight update amount from the error to which the non-linearity is added by the non-linear function unit 80 and the second correlation matrix. The weight update amount is added to the weight held by the holding unit 50 to obtain the weight held by the holding unit 50.

本実施の形態では、重み更新部90は、非線形関数部80から入力された複素信号f(e(ω))と、選択部30から入力されたN個の位相差信号r(θ,ω)〜r(θ,ω)とが入力される。そして、重み更新部90は、N個の位相差信号r(θ,ω)〜r(θ,ω)に乗算される重み係数a(θ,ω)〜a(θ,ω)に対する重み更新量Δa(θ,ω)〜Δa(θ,ω)を算出する。 In the present embodiment, the weight updating unit 90 includes the complex signal f (e (ω)) input from the nonlinear function unit 80 and the N phase difference signals r (θ 1 , ω) input from the selection unit 30. ) To R (θ N , ω) are input. Then, the weight updating unit 90 has weight coefficients a (θ 1 , ω) to a (θ N , ω) multiplied by N phase difference signals r (θ 1 , ω) to r (θ N, ω). The weight update amount Δa (θ 1 , ω) to Δa (θ N , ω) with respect to is calculated.

例えば、音源探査装置1が非線形関数部80を備えない場合には、重み更新部90は、(式10)を用いて、重み更新量Δa(θ,ω)〜Δa(θ,ω)を算出する。一方、音源探査装置1が非線形関数部80を備える場合には、重み更新部90は、(式11)を用いて、重み更新量Δa(θ,ω)〜Δa(θ,ω)を算出する。 For example, when the sound source search device 1 does not include the nonlinear function unit 80, the weight update unit 90 uses (Equation 10) to update the weights Δa (θ 1 , ω) to Δa (θ N , ω). Is calculated. On the other hand, when the sound source exploration device 1 includes the nonlinear function unit 80, the weight update unit 90 uses (Equation 11) to set the weight update amounts Δa (θ 1 , ω) to Δa (θ N , ω). calculate.

Figure 0006953287
Figure 0006953287

Figure 0006953287
Figure 0006953287

なお、(式10)および(式11)は、LMSアルゴリズムを用いて重み更新量を算出する場合が示されている。βは更新速度を制御するパラメータである。また、相関行列では、要素rij(ω)とrji(ω)とにおいて位相反転の関係がある。そのため、(式10)および(式11)では、複素共役の関係から虚部がキャンセルされるためreal(・)の部分を設けている。 In addition, (Equation 10) and (Equation 11) show the case where the weight update amount is calculated by using the LMS algorithm. β is a parameter that controls the update speed. Further, in the correlation matrix, there is a phase inversion relationship between the elements r ij (ω) and r ji (ω). Therefore, in (Equation 10) and (Equation 11), the real (・) part is provided because the imaginary part is canceled due to the complex conjugate relationship.

そして、重み更新部90は、下記の(式12)に示すように、算出した重み更新量を用いて、保持部50に保持される重み係数a(θ,ω)を更新する。 Then, as shown in the following (Equation 12), the weight updating unit 90 updates the weight coefficient a (θ k , ω) held by the holding unit 50 by using the calculated weight updating amount.

Figure 0006953287
Figure 0006953287

≪空間スペクトル算出部100≫
空間スペクトル算出部100は、学習部40により算出された重みを用いて、方向別の音圧強度を示す空間スペクトルであって観測信号の空間スペクトルを算出する。
<< Spatial spectrum calculation unit 100 >>
The spatial spectrum calculation unit 100 uses the weights calculated by the learning unit 40 to calculate the spatial spectrum of the observed signal, which is a spatial spectrum indicating the sound pressure intensity for each direction.

本実施の形態では、空間スペクトル算出部100は、保持部50が保持する、重み更新部90により学習により更新された重み係数a(θ,ω)〜a(θ,ω)を入力として、空間スペクトルp(θ)を算出して、出力部110に出力する。 In the present embodiment, the spatial spectrum calculation unit 100 inputs the weight coefficients a (θ 1 , ω) to a (θ N , ω) held by the holding unit 50 and updated by learning by the weight updating unit 90. , The spatial spectrum p (θ) is calculated and output to the output unit 110.

より具体的には、空間スペクトル算出部100は、下記の(式13)に示すように、保持部50が保持する重み係数a(θ,ω)を周波数ωについて和または平均を計算することで空間スペクトルp(θ)を得ることができる。原理は後述するが、重み係数a(θ,ω)は、方向θおよび周波数ω毎の音波の強度を示す関数として扱えるからである。 More specifically, as shown in the following (Equation 13), the spatial spectrum calculation unit 100 calculates the sum or average of the weighting coefficients a (θ, ω) held by the holding unit 50 with respect to the frequency ω. The spatial spectrum p (θ) can be obtained. The principle will be described later, but the weighting coefficient a (θ, ω) can be treated as a function indicating the intensity of the sound wave for each direction θ and frequency ω.

Figure 0006953287
Figure 0006953287

[音源探査装置1の動作]
以上のように構成される音源探査装置1が行う音源探査処理について説明する。
[Operation of sound source search device 1]
The sound source exploration process performed by the sound source exploration device 1 configured as described above will be described.

図7は、実施の形態1における音源探査装置1の音源探査処理を示すフローチャートである。 FIG. 7 is a flowchart showing the sound source search process of the sound source search device 1 according to the first embodiment.

まず、音源探査装置1は、観測信号の相関行列算出処理を行う(S10)。より具体的には、音源探査装置1は、互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイ200により収音された音響信号である観測信号の相関行列である観測相関行列Rx(ω)を算出する。 First, the sound source exploration device 1 performs a correlation matrix calculation process of the observed signal (S10). More specifically, the sound source exploration device 1 is an observation correlation matrix which is a correlation matrix of observation signals which are acoustic signals picked up by a microphone array 200 composed of two or more microphone units arranged apart from each other. Calculate Rx (ω).

次に、音源探査装置1は、参照相関行列それぞれに乗算する重みの学習処理を行う(S20)。より具体的には、音源探査装置1は、記憶部20に予め記憶されている複数の参照相関行列Rr(θ,ω)であって、マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の参照相関行列Rr(θ,ω)それぞれに重み係数a(θ,ω)を乗算した線形和が観測相関行列Rx(ω)と等しくなるように、重みを学習によって算出する。 Next, the sound source search device 1 performs a learning process of weights to be multiplied by each reference correlation matrix (S20). More specifically, the sound source search device 1 is a plurality of reference correlation matrices Rr (θ, ω) stored in advance in the storage unit 20, and is a correlation matrix for each direction calculated from the array array of the microphone array. The weights are calculated by learning so that the linear sum obtained by multiplying each of the plurality of reference correlation matrices Rr (θ, ω) is equal to the observed correlation matrix Rx (ω).

次に、音源探査装置1は、観測信号の空間スペクトル算出処理を行う(S30)。より具体的には、音源探査装置1は、ステップS20において算出された重みを用いて、方向別の音圧強度を示す空間スペクトルp(θ)であって観測信号の空間スペクトルp(θ)を算出する。 Next, the sound source exploration device 1 performs a spatial spectrum calculation process of the observation signal (S30). More specifically, the sound source exploration device 1 uses the weight calculated in step S20 to obtain a spatial spectrum p (θ) indicating the sound pressure intensity for each direction and a spatial spectrum p (θ) of the observed signal. calculate.

図8は、図7に示す音源探査処理の詳細を示すフローチャートである。図7と同様の要素には同一の符号を付している。 FIG. 8 is a flowchart showing details of the sound source exploration process shown in FIG. 7. The same elements as those in FIG. 7 are designated by the same reference numerals.

より詳細には、まず、ステップS10において、マイクロホンアレイ200は、時刻tの音響信号を取得する(S101)。次いで、周波数分析部300は、ステップS101で取得した音響信号の周波数分析を行い(S102)、周波数領域の信号である周波数スペクトル信号に変換する。そして、音源探査装置1は、ステップS102において変換された周波数スペクトル信号から、時刻tにおける観測信号の相関行列である観測相関行列Rx(ω)を算出する(S103)。 More specifically, first, in step S10, the microphone array 200 acquires an acoustic signal at time t (S101). Next, the frequency analysis unit 300 performs frequency analysis of the acoustic signal acquired in step S101 (S102) and converts it into a frequency spectrum signal which is a signal in the frequency domain. Then, the sound source exploration device 1 calculates the observation correlation matrix Rx (ω), which is the correlation matrix of the observation signals at time t, from the frequency spectrum signal converted in step S102 (S103).

次に、ステップS20において、まず、重みの学習処理を行う回数として所定回数Ntを音源探査装置1に設定する(S201)。次いで、音源探査装置1は、観測相関行列Rx(ω)および参照相関行列Rr(θ,ω)の対応する行列要素を選択し、位相差信号x(ω)および位相差信号r(θ,ω)を出力する(S202)。次いで、音源探査装置1は、位相差信号x(ω)と、位相差信号r(θ,ω)と、重み係数a(θ,ω)とから、誤差信号e(ω)を算出する(S203)。次いで、音源探査装置1は、誤差信号e(ω)に非線形性を加えた複素信号f(e(ω))を算出する(S204)。次いで、音源探査装置1は、ステップS204で算出した複素信号f(e(ω))と、ステップS203で算出した位相差信号r(θ,ω)とから、重み係数a(θ,ω)の重み更新量Δa(θ,ω)を算出し、重み係数a(θ,ω)を更新する(S205)。そして、音源探査装置1は、ステップS202で選択した観測相関行列Rx(ω)および参照相関行列Rr(θ,ω)の行列要素が一巡したか判断する(S206)。一巡した場合には(S206でYES)、重み係数a(θ,ω)の学習処理を行う回数が所定回数Ntに達したかを判断する(S207)。所定回数Ntに達した場合には(S207でYES)、音源探査装置1は、次のステップS30に処理に進む。なお、ステップS206またはステップS207において、一巡していない場合(S206でNO)または所定回数Ntに達していない場合(S207でNO)、ステップS202に戻り処理を繰り返す。 Next, in step S20, first, a predetermined number of times Nt is set in the sound source exploration device 1 as the number of times the weight learning process is performed (S201). Next, the sound source exploration device 1 selects the corresponding matrix elements of the observation correlation matrix Rx (ω) and the reference correlation matrix Rr (θ, ω), and selects the phase difference signal x (ω) and the phase difference signal r (θ, ω). ) Is output (S202). Next, the sound source search device 1 calculates the error signal e (ω) from the phase difference signal x (ω), the phase difference signal r (θ, ω), and the weighting coefficient a (θ, ω) (S203). ). Next, the sound source search device 1 calculates a complex signal f (e (ω)) obtained by adding non-linearity to the error signal e (ω) (S204). Next, the sound source exploration device 1 has a weighting coefficient a (θ, ω) from the complex signal f (e (ω)) calculated in step S204 and the phase difference signal r (θ, ω) calculated in step S203. The weight update amount Δa (θ, ω) is calculated, and the weight coefficient a (θ, ω) is updated (S205). Then, the sound source exploration device 1 determines whether the matrix elements of the observation correlation matrix Rx (ω) and the reference correlation matrix Rr (θ, ω) selected in step S202 have made a round (S206). When one cycle is completed (YES in S206), it is determined whether the number of times of learning processing of the weighting coefficient a (θ, ω) has reached a predetermined number of times Nt (S207). When the predetermined number of times Nt is reached (YES in S207), the sound source search device 1 proceeds to the next step S30. In step S206 or step S207, if the cycle has not been completed (NO in S206) or the predetermined number of times Nt has not been reached (NO in S207), the process returns to step S202 and the process is repeated.

次に、ステップS30において、音源探査装置1は、ステップS20での学習により更新された重み係数a(θ,ω)から、観測信号の空間スペクトルp(θ)を算出する(S301)。 Next, in step S30, the sound source exploration device 1 calculates the spatial spectrum p (θ) of the observed signal from the weighting coefficients a (θ, ω) updated by the learning in step S20 (S301).

次に、音源探査装置1は、ステップS40において、例えば時刻t+Δtに時刻tを更新して、ステップS50において、音源探査処理を終了するかを判定する。なお、音源探査処理を終了しない場合には(S50でNO)、ステップS10に戻り、時刻t+Δtにおける観測信号の相関行列である観測相関行列Rx(ω)を算出する。 Next, in step S40, the sound source search device 1 updates the time t to, for example, time t + Δt, and determines in step S50 whether to end the sound source search process. If the sound source search process is not completed (NO in S50), the process returns to step S10, and the observation correlation matrix Rx (ω), which is the correlation matrix of the observation signals at time t + Δt, is calculated.

このように、音源探査装置1は、複数の参照相関行列Rr(θ,ω)それぞれに重み係数a(θ,ω)を乗算した線形和が、観測相関行列Rx(ω)と等しくなるように、行列要素すべてについての重み係数a(θ,ω)を学習するまで、対応する行列要素ごとの学習を繰り返す。さらに、音源探査装置1は、学習の繰り返しを所定回数Nt行ってもよい。 In this way, in the sound source exploration apparatus 1, the linear sum obtained by multiplying each of the plurality of reference correlation matrices Rr (θ, ω) by the weighting coefficient a (θ, ω) is equal to the observation correlation matrix Rx (ω). , The learning for each corresponding matrix element is repeated until the weighting coefficients a (θ, ω) for all the matrix elements are learned. Further, the sound source exploration device 1 may repeat learning Nt a predetermined number of times.

例えば、3行3列の参照相関行列Rr(θ,ω)および観測相関行列Rx(ω)であり、所定回数Ntが3回であるとすると、上三角行列または下三角行列の3つ要素について3回学習処理することになるので、合計9回学習処理を行うことになる。 For example, if the reference correlation matrix Rr (θ, ω) and the observation correlation matrix Rx (ω) of 3 rows and 3 columns and the predetermined number of times Nt is 3 times, then for the three elements of the upper triangular matrix or the lower triangular matrix. Since the learning process is performed three times, the learning process is performed a total of nine times.

このように、複数の参照相関行列Rr(θ,ω)それぞれに重み係数a(θ,ω)を乗算した線形和が、観測相関行列Rx(ω)とより等しくなる重み係数a(θ,ω)を学習することができる。 In this way, the linear sum obtained by multiplying each of the plurality of reference correlation matrices Rr (θ, ω) by the weighting coefficient a (θ, ω) is more equal to the observed correlation matrix Rx (ω). ) Can be learned.

[動作の原理]
次に、複数の参照相関行列Rr(θ,ω)それぞれに重み係数a(θ,ω)を乗算した線形和が、観測相関行列Rx(ω)と等しくなる重み係数a(θ,ω)を学習によって算出できる原理について説明する。また、得られた重み係数a(θ,ω)を用いて空間スペクトルp(θ)を算出できる原理についても説明する。
[Principle of operation]
Next, the weighting coefficient a (θ, ω) at which the linear sum obtained by multiplying each of the plurality of reference correlation matrices Rr (θ, ω) by the weighting coefficient a (θ, ω) is equal to the observed correlation matrix Rx (ω) is obtained. The principle that can be calculated by learning will be explained. In addition, the principle that the spatial spectrum p (θ) can be calculated using the obtained weighting coefficients a (θ, ω) will also be described.

マイクロホンアレイ200からの信号を基に観測される観測相関行列Rx(ω)、すなわち相関行列算出部10の出力である観測相関行列Rx(ω)は、下記の(式14)に示すように、方向θに存在する空間の音源に対する相関行列Rs(θ,ω)と強度u(θ,ω)との線形和で近似できることが知られている。Rs(θ,ω)は音波の到来方向によるマイクロホンユニット間の位相差情報であり、方向情報を示す。強度u(θ,ω)は音波の強さを示す。そして、方向θ毎の音波に対する強度u(θ,ω)を求めることで空間スペクトルp(θ)を導出することができる。 The observation correlation matrix Rx (ω) observed based on the signal from the microphone array 200, that is, the observation correlation matrix Rx (ω) which is the output of the correlation matrix calculation unit 10, is as shown in the following (Equation 14). It is known that it can be approximated by the linear sum of the correlation matrix Rs (θ, ω) and the intensity u (θ, ω) with respect to the sound source in the space existing in the direction θ. Rs (θ, ω) is the phase difference information between the microphone units depending on the arrival direction of the sound wave, and indicates the direction information. The intensity u (θ, ω) indicates the intensity of the sound wave. Then, the spatial spectrum p (θ) can be derived by obtaining the intensity u (θ, ω) for the sound wave in each direction θ.

Figure 0006953287
Figure 0006953287

(式14)において、観測相関行列Rx(ω)は、観測可能な相関行列であり既知数である。一方で強度u(θ,ω)および相関行列Rs(θ,ω)は未知数である。ここで、相関行列Rs(θ,ω)は、方向θ別の相関行列であり、その行列要素は音波到来方向が方向θであるときのマイクロホンユニット間の位相差である。このことに着目すると、相関行列Rs(θ,ω)は、既知情報であるマイクロホンアレイにおけるマイクロホンユニット配列と方向θと音速cとを使って、理論値に置き換えることができる。なお、上述した(式4)、(式5)および(式6)は、相関行列Rs(θ,ω)を、既知情報を用いて予め計算したすなわち理論値である参照相関行列Rr(θ,ω)に置き換えたものである。 In (Equation 14), the observed correlation matrix Rx (ω) is an observable correlation matrix and is a known number. On the other hand, the intensities u (θ, ω) and the correlation matrix Rs (θ, ω) are unknown. Here, the correlation matrix Rs (θ, ω) is a correlation matrix for each direction θ, and the matrix element is the phase difference between the microphone units when the sound wave arrival direction is the direction θ. Focusing on this, the correlation matrix Rs (θ, ω) can be replaced with a theoretical value by using the microphone unit array, the direction θ, and the sound velocity c in the microphone array, which are known information. In the above-mentioned (Equation 4), (Equation 5) and (Equation 6), the correlation matrix Rs (θ, ω) is calculated in advance using known information, that is, the reference correlation matrix Rr (θ, θ, which is a theoretical value). It is replaced with ω).

また、音源探査装置1において空間スペクトルとして求める未知数を重み係数a(θ,ω)、すなわち重み係数a(θ,ω)が(式14)の強度u(θ,ω)に等しいとすることで、(式14)は(式15)に書き換えることができる。 Further, by assuming that the unknown number obtained as the spatial spectrum in the sound source exploration device 1 is the weighting coefficient a (θ, ω), that is, the weighting coefficient a (θ, ω) is equal to the intensity u (θ, ω) of (Equation 14). , (Equation 14) can be rewritten as (Equation 15).

Figure 0006953287
Figure 0006953287

したがって、(式15)を算出することは、観測相関行列Rx(ω)が観測値であり、参照相関行列Rr(θ,ω)が既知の理論値であることから、重み係数a(θ,ω)を求める問題となる。なお、このような問題は、セミブラインド同定の問題とも称される。 Therefore, in calculating (Equation 15), since the observed correlation matrix Rx (ω) is the observed value and the reference correlation matrix Rr (θ, ω) is a known theoretical value, the weighting coefficient a (θ, θ, It becomes a problem to find ω). It should be noted that such a problem is also referred to as a semi-blind identification problem.

ここで、通常の音響信号の同定と異なる点は、観測相関行列Rx(ω)と参照相関行列Rr(θ,ω)とが行列であり、重み係数a(θ,ω)が1次元の係数である点と、観測信号と参照信号とに相当する信号が位相差を表す回転子であり、常に振幅1の複素数である点である。 Here, the difference from the identification of a normal acoustic signal is that the observation correlation matrix Rx (ω) and the reference correlation matrix Rr (θ, ω) are matrices, and the weighting coefficient a (θ, ω) is a one-dimensional coefficient. The point is that the signal corresponding to the observation signal and the reference signal is a rotor representing a phase difference, and is always a complex number having an amplitude of 1.

観測相関行列Rx(ω)と参照相関行列Rr(θ,ω)とが行列であり、重み係数a(θ,ω)が1次元の係数である点から、重み係数a(θ,ω)は、観測相関行列Rx(ω)と参照相関行列Rr(θ,ω)との、対応する各行列要素に対して共通に成り立つ値を求めることになるのがわかる。つまり、行列の要素で(式15)を書き直した(式16)を満たす重み係数a(θ,ω)を求めることとなる。(式16)において、xij(ω)は、観測相関行列Rx(ω)の行列要素を示す。rij(θ,ω)は参照相関行列Rr(θ,ω)の行列要素を示す。 Since the observed correlation matrix Rx (ω) and the reference correlation matrix Rr (θ, ω) are matrices and the weighting coefficient a (θ, ω) is a one-dimensional coefficient, the weighting coefficient a (θ, ω) is , It can be seen that the values that are common to each of the corresponding matrix elements of the observed correlation matrix Rx (ω) and the reference correlation matrix Rr (θ, ω) are obtained. That is, the weighting coefficients a (θ, ω) satisfying (Equation 16) obtained by rewriting (Equation 15) with the matrix elements are obtained. In (Equation 16), x ij (ω) represents a matrix element of the observation correlation matrix Rx (ω). r ij (θ, ω) indicates the matrix elements of the reference correlation matrix Rr (θ, ω).

Figure 0006953287
Figure 0006953287

本実施の形態では、(式16)を(式17)と書きなおし、推定誤差である誤差信号e(ω)を最小化するLMSまたはICA(Independent Component Analysis)などの学習方式を用いることでa(θ,ω)を求める。なお、学習方式はこれらに限らない。 In this embodiment, (Equation 16) is rewritten as (Equation 17), and a learning method such as LMS or ICA (Independent Component Analysis) that minimizes the error signal e (ω), which is an estimation error, is used. Find (θ, ω). The learning method is not limited to these.

Figure 0006953287
Figure 0006953287

より具体的には、(式17)において、xij(ω)およびrij(θ,ω)の行列要素に対して共通に成り立つ重み係数a(θ,ω)を算出するため、選択部30によって、行列要素を順次選択して重み係数の学習を行う。そして、信号乗算部61−1,・・・,61−Nは(式17)の右辺第2項の乗算、信号加算部62は(式17)の右辺のΣ、信号減算部71は、(式17)の右辺の減算に対応する。 More specifically, in (Equation 17), in order to calculate the weighting coefficient a (θ, ω) that holds in common for the matrix elements of x ij (ω) and r ij (θ, ω), the selection unit 30 The matrix elements are sequentially selected and the weighting coefficient is learned. The signal multiplication units 61-1, ..., 61-N are the multiplication of the second term on the right side of (Equation 17), the signal addition unit 62 is Σ on the right side of (Equation 17), and the signal subtraction unit 71 is (. Corresponds to the subtraction of the right side of equation 17).

また、観測信号と参照信号とに相当する信号が位相差を表す回転子であり、常に振幅1の複素数である点から、誤差信号e(ω)に非線形性を与えて、方向間相互影響を抑制するよう独立成分分析(ICA)の効果を加える。 Further, since the signal corresponding to the observation signal and the reference signal is a rotor representing a phase difference and is always a complex number having an amplitude of 1, the error signal e (ω) is given non-linearity to cause mutual influence between directions. Add the effect of Independent Component Analysis (ICA) to suppress.

本実施の形態では、図6に示すように実部と虚部に分解した上で、上述した(式9)のような非線形関数を適用する。このようにすることで音波到来方向としての方向θの違いを独立な成分として学習することができるので、異なる方向の影響を受けにくい収束動作を得ることができる。 In the present embodiment, as shown in FIG. 6, after decomposing into a real part and an imaginary part, a non-linear function as described in (Equation 9) described above is applied. By doing so, it is possible to learn the difference in the direction θ as the sound wave arrival direction as an independent component, so that it is possible to obtain a convergence operation that is not easily affected by the different directions.

以上のような考えで、重み係数の更新を、(式11)および(式12)を用いて行う。そして、学習後の重み係数a(θ,ω)を用いて、(式13)を用いることにより、音源探査装置1の出力である空間スペクトルp(θ)を算出することができる。 Based on the above idea, the weighting coefficient is updated using (Equation 11) and (Equation 12). Then, by using the weighting coefficient a (θ, ω) after learning and using (Equation 13), the spatial spectrum p (θ) which is the output of the sound source exploration device 1 can be calculated.

[効果]
以上のように、本実施の形態の音源探査装置1によれば、マイクロホンアレイ200の複数素子であるマイクロホンユニットで観測した音響信号の観測相関行列Rx(ω)を基に空間スペクトルp(θ)を求めることができる。より具体的には、マイクロホンアレイ200のアレイ配列から理論値として計算できる方向別の参照相関行列Rr(θ,ω)を予め用意し、各々の方向を示す参照相関行列Rr(θ,ω)に各々重み係数a(θ,ω)を乗算した線形和が、観測相関行列Rx(ω)と等しくなるように重み係数a(θ,ω)を学習によって算出する。そして、得られた重み係数a(θ,ω)を用いて空間スペクトルp(θ)を算出する。これにより、演算量の大きい相関行列と方向ベクトルから空間スペクトルを導出する計算を行わずに、妨害音となる音源および探査対象の音源の方向に対応する強度を重み係数a(θ,ω)として逐次的に推定することができるので、周波数分析フレーム単位のミリ秒〜秒オーダといった間隔でマイクロホンユニットにおいて観測した音響信号の観測相関行列Rx(ω)を基に空間スペクトルp(θ)を求めることができる。つまり、本実施の形態によれば、音の変化に対する追従性に優れた音源探査装置1を実現できるのがわかる。
[effect]
As described above, according to the sound source exploration device 1 of the present embodiment, the spatial spectrum p (θ) is based on the observation correlation matrix Rx (ω) of the acoustic signal observed by the microphone unit which is a plurality of elements of the microphone array 200. Can be sought. More specifically, a reference correlation matrix Rr (θ, ω) for each direction that can be calculated as a theoretical value from the array array of the microphone array 200 is prepared in advance, and the reference correlation matrix Rr (θ, ω) indicating each direction is used. The weighting coefficient a (θ, ω) is calculated by learning so that the linear sum obtained by multiplying each weighting coefficient a (θ, ω) is equal to the observed correlation matrix Rx (ω). Then, the spatial spectrum p (θ) is calculated using the obtained weighting coefficients a (θ, ω). As a result, the intensity corresponding to the direction of the sound source that becomes the disturbing sound and the sound source to be searched is set as the weighting coefficient a (θ, ω) without performing the calculation of deriving the spatial spectrum from the correlation matrix and the direction vector having a large amount of calculation. Since it can be estimated sequentially, the spatial spectrum p (θ) should be obtained based on the observation correlation matrix Rx (ω) of the acoustic signal observed by the microphone unit at intervals of millisecond to second order in frequency analysis frame units. Can be done. That is, according to the present embodiment, it can be seen that the sound source exploration device 1 having excellent followability to changes in sound can be realized.

また、本実施の形態の音源探査装置1によれば、方向間の影響を互いにキャンセルしながら方向別の強度を算出できる。例えば、θ〜θの角度範囲を検知すべき探査範囲の方向、θm+1〜θの角度範囲を妨害音があり非探査範囲の方向であるとする。そして、(式15)を、検知すべき探査範囲を左辺、妨害音が存在する非探査範囲を右辺にくるように、(式18)のように変形する。 Further, according to the sound source exploration device 1 of the present embodiment, it is possible to calculate the intensity for each direction while canceling the influences between the directions. For example, the direction of theta 1 through? Search range to be detected an angular range of m, there is θ m + 1N angular range interference sound of a is the direction of the non-search range. Then, (Equation 15) is transformed as in (Equation 18) so that the exploration range to be detected is on the left side and the non-exploration range in which the disturbing sound exists is on the right side.

Figure 0006953287
Figure 0006953287

すると、(式18)の左辺は、音源探査結果として得られる空間スペクトルに対応する相関行列に該当するのがわかる。(式18)の右辺の第1項は観測される全方向の音波が混在した観測相関行列に該当し、(式18)の右辺の第2項は妨害音成分を示す相関行列に該当するのがわかる。また、(式18)の右辺の減算により、妨害音成分の相関行列が観測相関行列Rx(ω)から減算されて、キャンセル効果が得られることがわかる。このことは、各方向θの成分毎に互いに干渉をキャンセルする動作となるため耐騒音性能が高まるのがわかる。また、全ての方向に対する重み係数a(θ,ω)に関して同時に解を求めるため、音の変化に対する追従性にも優れるのがわかる。 Then, it can be seen that the left side of (Equation 18) corresponds to the correlation matrix corresponding to the spatial spectrum obtained as the sound source search result. The first term on the right side of (Equation 18) corresponds to the observation correlation matrix in which sound waves in all directions are mixed, and the second term on the right side of (Equation 18) corresponds to the correlation matrix showing the disturbing sound component. I understand. Further, it can be seen that by subtracting the right side of (Equation 18), the correlation matrix of the disturbing sound component is subtracted from the observed correlation matrix Rx (ω), and a canceling effect is obtained. It can be seen that this is an operation of canceling interference with each other for each component of each direction θ, so that the noise resistance performance is improved. In addition, since the solutions are obtained for the weighting coefficients a (θ, ω) in all directions at the same time, it can be seen that the followability to changes in sound is also excellent.

したがって、本実施の形態の音源探査装置1は、探査範囲の重み係数a(θ,ω)から空間スペクトルp(θ)を算出することで、耐騒音性能と音の変化に対する追従性とに優れた音源探査を実現することができる。 Therefore, the sound source exploration device 1 of the present embodiment is excellent in noise resistance performance and followability to changes in sound by calculating the spatial spectrum p (θ) from the weighting coefficients a (θ, ω) in the exploration range. Sound source exploration can be realized.

以上のように、本実施の形態の音源探査装置1によれば、探査対象範囲にある探査対象の音源の方向をより確実に探査することができる。さらに、本実施の形態の音源探査装置1は、重み係数a(θ,ω)を用いて空間スペクトルp(θ)を算出することにより、耐騒音性および音の変化に対して優れた追従性を発揮することができる。 As described above, according to the sound source exploration device 1 of the present embodiment, the direction of the sound source of the exploration target in the exploration target range can be searched more reliably. Further, the sound source exploration device 1 of the present embodiment has excellent noise resistance and followability to changes in sound by calculating the spatial spectrum p (θ) using the weighting coefficients a (θ, ω). Can be demonstrated.

ここで、図9および図10を用いて、本実施の形態における音源探査装置1の効果について説明する。 Here, the effect of the sound source exploration device 1 in the present embodiment will be described with reference to FIGS. 9 and 10.

図9は、比較例における空間スペクトル図である。図9では、探査対象の音源Sと、音源Sの近傍に音源Sの妨害音となる音源N1および音源N2が存在している場合において、特許文献1の技術を用いて空間スペクトルを算出したときの図が比較例として示されている。 FIG. 9 is a spatial spectrum diagram in a comparative example. In FIG. 9, when the sound source S to be searched and the sound source N1 and the sound source N2 that are interfering sounds of the sound source S exist in the vicinity of the sound source S, the spatial spectrum is calculated by using the technique of Patent Document 1. The figure of is shown as a comparative example.

図9に示す空間スペクトルにおいて、妨害音である音源N1の強度は、音源N1が存在する方向のみでなく音源N1の方向から(角度が)離れるに従って減衰するように現れる。妨害音である音源N2の強度も音源N1と同様の振る舞いで現れる。そのため、図9に示すように、音源N1と音源N2との音圧レベルが探査対象の音源Sの音圧レベルよりも高い場合、音源Sの強度のピークは、妨害音である2つの音源N1と音源N2の強度のピークに埋もれる状態となる。そのため、比較例では探査対象の音源Sの存在すなわち音源Sの強度のピークを検知できないので、音源Sの方向を探査できない。 In the spatial spectrum shown in FIG. 9, the intensity of the sound source N1 which is an interfering sound appears to be attenuated not only in the direction in which the sound source N1 exists but also as the distance (angle) from the direction of the sound source N1. The intensity of the sound source N2, which is a disturbing sound, also appears with the same behavior as the sound source N1. Therefore, as shown in FIG. 9, when the sound pressure level of the sound source N1 and the sound source N2 is higher than the sound pressure level of the sound source S to be searched, the peak of the intensity of the sound source S is the two sound sources N1 which are interfering sounds. And it becomes a state of being buried in the peak of the intensity of the sound source N2. Therefore, in the comparative example, the existence of the sound source S to be searched, that is, the peak of the intensity of the sound source S cannot be detected, so that the direction of the sound source S cannot be searched.

一方、図10は、実施の形態1における空間スペクトル図である。図10においても、探査対象の音源Sと、音源Sの近傍に音源Sの妨害音となる音源N1および音源N2が存在している場合に、本実施の形態の音源探査装置1が空間スペクトルを算出したときの図が示されている。音源探査装置1は、重み係数a(θ,ω)を用いて空間スペクトルp(θ)を算出するので、各方向θの成分毎に互いに干渉をキャンセルすることができる。そのため、図10に示すように、音源N1と音源N2との音圧レベルが探査対象の音源Sの音圧レベルよりも高くて低くても関係なく、音源Sの強度のピーク、妨害音である2つの音源N1と音源N2の強度のピークとが独立して現れる状態となる。つまり、妨害音である音源N1、音源N2および探査対象の音源Sの強度のピークを同時に独立して探査することができる。 On the other hand, FIG. 10 is a spatial spectrum diagram according to the first embodiment. Also in FIG. 10, when the sound source S to be searched and the sound source N1 and the sound source N2 which are the interfering sounds of the sound source S exist in the vicinity of the sound source S, the sound source search device 1 of the present embodiment obtains a spatial spectrum. The figure when calculated is shown. Since the sound source exploration device 1 calculates the spatial spectrum p (θ) using the weighting coefficients a (θ, ω), it is possible to cancel the interference with each other for each component of each direction θ. Therefore, as shown in FIG. 10, regardless of whether the sound pressure levels of the sound source N1 and the sound source N2 are higher or lower than the sound pressure level of the sound source S to be searched, the intensity peak of the sound source S and the disturbing sound are obtained. The two sound source N1 and the intensity peaks of the sound source N2 appear independently. That is, the peaks of the intensities of the sound source N1 and the sound source N2 which are the disturbing sounds and the sound source S to be searched can be searched independently at the same time.

したがって、本実施の形態の音源探査装置1によれば、探査対象範囲にある探査対象の音源の方向をより確実に探査することができるのがわかる。 Therefore, according to the sound source exploration device 1 of the present embodiment, it can be seen that the direction of the sound source of the exploration target in the exploration target range can be searched more reliably.

なお、相関行列算出部10が算出する観測相関行列Rx(ω)および記憶部20に記憶される探査方向θ毎の参照相関行列Rr(θ,ω)は、演算に使用する相関行列の上三角行列の要素または任意に選んだ要素をベクトルの形にして実現しても良い。その場合、選択部30は、ベクトルの要素を順次選択して出力すればよい。 The observation correlation matrix Rx (ω) calculated by the correlation matrix calculation unit 10 and the reference correlation matrix Rr (θ, ω) for each search direction θ stored in the storage unit 20 are the upper triangular of the correlation matrix used in the calculation. The elements of the matrix or arbitrarily selected elements may be realized in the form of a vector. In that case, the selection unit 30 may sequentially select and output the vector elements.

また、本実施の形態では、方向θ毎の参照相関行列Rr(θ,ω)と重み係数a(θ,ω)とにおいて、方向数Nが180個であるとして説明したが、これに限らない。音源探査装置1の用途、マイクロホンアレイの規模または演算規模に応じて方向数Nは、多くても少なくてもよく、特に制限を持たない。また、設定する角度間隔は均一でもよいし、偏りを持っていてもよい。 Further, in the present embodiment, it has been described that the number of directions N is 180 in the reference correlation matrix Rr (θ, ω) and the weighting coefficient a (θ, ω) for each direction θ, but the present invention is not limited to this. .. The number of directions N may be large or small depending on the application of the sound source exploration device 1, the scale of the microphone array, or the calculation scale, and is not particularly limited. Further, the angle interval to be set may be uniform or may have a bias.

また、本実施の形態では、周波数ω毎の観測相関行列Rx(ω)と参照相関行列Rr(θ,ω)と重み係数a(θ,ω)とにおいて、周波数ωの範囲を特に制限しなかったが、探査対象の音源に含まれる周波数成分に応じて、周波数ωの範囲に制限を設けてもよい。 Further, in the present embodiment, the range of the frequency ω is not particularly limited in the observation correlation matrix Rx (ω) for each frequency ω, the reference correlation matrix Rr (θ, ω), and the weighting coefficient a (θ, ω). However, the range of the frequency ω may be limited according to the frequency component included in the sound source to be searched.

(実施の形態2)
実施の形態1では、学習した重み係数a(θ,ω)を用いて空間スペクトルp(θ)を算出する場合について説明したがこれに限らない。学習した重み係数a(θ,ω)を用いて、指定した方向から到来する音響信号波形を算出してもよい。以下、この場合を実施の形態2として説明する。
(Embodiment 2)
In the first embodiment, the case where the spatial spectrum p (θ) is calculated using the learned weighting coefficients a (θ, ω) has been described, but the present invention is not limited to this. The learned weighting coefficient a (θ, ω) may be used to calculate the acoustic signal waveform arriving from the specified direction. Hereinafter, this case will be described as the second embodiment.

図11は、実施の形態2における音源探査システム1000Aの構成の一例を示す図である。音源探査システム1000Aは、音源探査装置を利用したマイクロホン装置に相当する。図1および図4と同様の要素には同一の符号を付しており、詳細な説明は省略する。 FIG. 11 is a diagram showing an example of the configuration of the sound source exploration system 1000A according to the second embodiment. The sound source exploration system 1000A corresponds to a microphone device using the sound source exploration device. The same elements as those in FIGS. 1 and 4 are designated by the same reference numerals, and detailed description thereof will be omitted.

図11に示す音源探査システム1000Aは、実施の形態1に係る音源探査システム1000に対して、音響信号スペクトル算出部100A、出力部110AおよびIFFT120の構成が異なる。 The sound source exploration system 1000A shown in FIG. 11 has different configurations of the acoustic signal spectrum calculation unit 100A, the output unit 110A, and the IFFT 120 from the sound source exploration system 1000 according to the first embodiment.

[音響信号スペクトル算出部100A]
音響信号スペクトル算出部100Aは、保持部50に保持される重み係数a(θ,ω)と、マイクロホンユニット201からの音響信号m1(n)に対する周波数スペクトル信号Sm1(ω)と、信号取得のために指定する方向である方向θとを入力として、出力の音響信号スペクトルY(ω)を算出する。
[Acoustic signal spectrum calculation unit 100A]
The acoustic signal spectrum calculation unit 100A obtains the weight coefficient a (θ, ω) held by the holding unit 50, the frequency spectrum signal Sm1 (ω) with respect to the acoustic signal m1 (n) from the microphone unit 201, and the signal acquisition. The output acoustic signal spectrum Y (ω) is calculated with the direction θ 0 , which is the direction specified in 1., as the input.

より具体的には、音響信号スペクトル算出部100Aは、(式19)を用いて、音響信号スペクトルY(ω)を算出する。 More specifically, the acoustic signal spectrum calculation unit 100A calculates the acoustic signal spectrum Y (ω) using (Equation 19).

Figure 0006953287
Figure 0006953287

なお、音源探査の角度分解能の観点から、マイクロホンアレイ200のサイズまたはマイクロホンユニット数によっては、指定する方向θの隣接する角度の重み係数を(式20)のように加算して用いても良い。 From the viewpoint of the angular resolution of sound source exploration, depending on the size of the microphone array 200 or the number of microphone units , the weighting coefficients of adjacent angles in the designated direction θ 0 may be added and used as in (Equation 20). ..

Figure 0006953287
Figure 0006953287

(式19)および(式20)における重み係数a(θ,ω)は、上記動作の原理において述べたように方向θ毎の音波に対する強度を表すことから、全方向のスペクトルに対するθ方向のスペクトルの強度比率を表す。そのため、全方向の周波数スペクトルSm1(ω)に乗算することで、指定する方向θから到来する音波に対する音響信号スペクトルY(ω)を算出することができる。 Since the weighting coefficients a (θ, ω) in (Equation 19) and (Equation 20) represent the intensities for sound waves in each direction θ as described in the principle of the above operation, the spectrum in the θ direction with respect to the spectrum in all directions. Represents the strength ratio of. Therefore, by multiplying the frequency spectrum Sm1 (ω) in all directions, the acoustic signal spectrum Y (ω) for the sound wave arriving from the designated direction θ 0 can be calculated.

[IFFT120]
IFFT(Inverse Fast Fourier Transform)120は、音響信号スペクトル算出部100Aにより算出された音響信号スペクトルY(ω)を、高速逆フーリエ変換した音響信号波形y(n)を算出し、出力部110Aに出力する。
[IFFT120]
The IFFT (Inverse Fast Fourier Transform) 120 calculates an acoustic signal waveform y (n) obtained by performing a fast inverse Fourier transform on the acoustic signal spectrum Y (ω) calculated by the acoustic signal spectrum calculation unit 100A, and outputs the acoustic signal waveform y (n) to the output unit 110A. do.

[効果]
以上のように、本実施の形態の音源探査システム1000Aによれば、耐騒音性に優れた音源探査装置において学習により算出した重み係数a(θ,ω)を使って、指定した特定の方向のみの音響信号波形y(n)を出力することができる。これにより、特定の方向のみの音を抽出するマイクロホン装置の機能を実現することができる。
[effect]
As described above, according to the sound source exploration system 1000A of the present embodiment, only the specified specific direction is used by using the weighting coefficient a (θ, ω) calculated by learning in the sound source exploration device having excellent noise resistance. The acoustic signal waveform y (n) can be output. This makes it possible to realize the function of a microphone device that extracts sound only in a specific direction.

以上、本開示の一つまたは複数の態様に係る音源探査装置等について、実施の形態および変形例に基づいて説明したが、本開示は、これら実施の形態等に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。例えば、以下のような場合も本開示に含まれる。 The sound source exploration device and the like according to one or more aspects of the present disclosure have been described above based on the embodiments and modifications, but the present disclosure is not limited to these embodiments and the like. As long as it does not deviate from the gist of the present disclosure, one or more of the present embodiments may be modified by those skilled in the art, or may be constructed by combining components in different embodiments. It may be included within the scope of the embodiment. For example, the following cases are also included in the present disclosure.

(1)上記の音源探査装置等は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムでもよい。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各構成要素は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。 (1) Specifically, the above-mentioned sound source search device or the like may be a computer system composed of a microprocessor, ROM, RAM, hard disk unit, display unit, keyboard, mouse and the like. A computer program is stored in the RAM or the hard disk unit. As the microprocessor operates according to the computer program, each component achieves its function. Here, a computer program is configured by combining a plurality of instruction codes indicating commands to a computer in order to achieve a predetermined function.

(2)上記の音源探査装置等を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。 (2) A part or all of the components constituting the sound source search device or the like may be composed of one system LSI (Large Scale Integration). A system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, is a computer system including a microprocessor, a ROM, a RAM, and the like. .. A computer program is stored in the RAM. When the microprocessor operates according to the computer program, the system LSI achieves its function.

(3)上記の音源探査装置等を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。 (3) A part or all of the components constituting the sound source exploration device or the like may be composed of an IC card or a single module that can be attached to and detached from each device. The IC card or the module is a computer system composed of a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the above-mentioned super multifunctional LSI. When the microprocessor operates according to a computer program, the IC card or the module achieves its function. This IC card or this module may have tamper resistance.

本開示は、複数のマイクロホンユニットを用いた音源探査装置に利用でき、特に、音源探査装置から比較的遠い位置にあるラジコンヘリまたはドローンなどマイクロホンユニットに到達する音が周囲の音と比較して小さい音源の方向をより確実に探査可能な音源探査装置に利用可能である。 The present disclosure can be used for a sound source exploration device using a plurality of microphone units, and in particular, the sound reaching the microphone unit such as a radio-controlled helicopter or a drone located relatively far from the sound source exploration device is smaller than the ambient sound. It can be used for a sound source exploration device that can more reliably explore the direction of a sound source.

1 音源探査装置
10 相関行列算出部
20 記憶部
30 選択部
31、32−1、32−m、32−N 行列要素選択部
40 学習部
50 保持部
60 線形和算出部
61−1、61−N 信号乗算部
62、806 信号加算部
70 誤差算出部
71 信号減算部
80 非線形関数部
90 重み更新部
100 空間スペクトル算出部
100A 音響信号スペクトル算出部
110、110A 出力部
120 IFFT
200 マイクロホンアレイ
201、202、203 マイクロホンユニット
300 周波数分析部
301、302、303 FFT
801 実部抽出部
802 虚部抽出部
803、804 非線形性追加部
805 虚数単位乗算部
1000、1000A 音源探査システム
1 Sound source search device 10 Correlation matrix calculation unit 20 Storage unit 30 Selection unit 31, 32-1, 32-m, 32-N Matrix element selection unit 40 Learning unit 50 Holding unit 60 Linear sum calculation unit 61-1, 61-N Signal multiplication unit 62, 806 Signal addition unit 70 Error calculation unit 71 Signal subtraction unit 80 Non-linear function unit 90 Weight update unit 100 Spatial spectrum calculation unit 100A Acoustic signal spectrum calculation unit 110, 110A Output unit 120 IFFT
200 Microphone Array 201, 202, 203 Microphone Unit 300 Frequency Analyzer 301, 302, 303 FFT
801 Real part extraction part 802 Imaginary part extraction part 803, 804 Non-linearity addition part 805 Imaginary unit multiplication part 1000, 1000A Sound source search system

Claims (12)

探査対象の音源の方向を探査する音源探査装置であって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出部と、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習部と、
前記学習部により算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出部とを備え、
前記音源探査装置は、さらに、
前記第1相関行列を構成する要素のうちの一つである第1要素と、前記複数の第2相関行列それぞれを構成する要素のうち、前記第1要素と対応する位置にある要素である第2要素を選択し、かつ、選択する前記第1要素および前記第2要素を逐次に切り替える選択部を備え、
前記学習部は、前記第2要素に第1重みを乗算した第1要素線形和が前記第1要素と等しくなるように、前記第1重みを前記学習によって算出した第2重みに更新し、更新した前記第2重みを、次に前記選択部により選択された前記第2要素に乗算した第2要素線形和が、次に前記選択部により選択された前記第1要素と等しくなるように、前記第2重みを前記学習によって算出した第3重みに更新することを前記逐次に繰り返すことにより、前記重みを前記学習により算出する、
源探査装置。
A sound source exploration device that explores the direction of the sound source to be explored.
A correlation matrix calculation unit that calculates a first correlation matrix that is a correlation matrix of observation signals that are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning unit that calculates the weights by learning so that they are equal to the first correlation matrix.
A spatial spectrum calculation unit for calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated by the learning unit, is provided.
The sound source exploration device further
The first element, which is one of the elements constituting the first correlation matrix, and the element constituting each of the plurality of second correlation matrices, which is an element at a position corresponding to the first element. A selection unit that selects two elements and sequentially switches between the first element and the second element to be selected is provided.
The learning unit updates and updates the first weight to the second weight calculated by the learning so that the linear sum of the first elements obtained by multiplying the second element by the first weight becomes equal to the first element. The second element linear sum obtained by multiplying the second element selected by the selection unit by the second weight is equal to the first element selected by the selection unit. By sequentially repeating updating the second weight to the third weight calculated by the learning, the weight is calculated by the learning.
Sound source exploration equipment.
前記選択部は、前記第1相関行列および前記第2相関行列を構成する対角成分を除く要素のうち、前記対角成分により区切られる2組の複数の要素の一方の組の複数の要素のうちからのみ、前記第1要素および前記第2要素を選択する、
請求項に記載の音源探査装置。
The selection unit is a plurality of elements of one set of two sets of elements separated by the diagonal components among the elements excluding the diagonal components constituting the first correlation matrix and the second correlation matrix. Select the first element and the second element only from among
The sound source exploration device according to claim 1.
探査対象の音源の方向を探査する音源探査装置であって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出部と、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習部と、
前記学習部により算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出部とを備え、
前記学習部は、
LMS(Least Mean Square)アルゴリズム、またはICA(Independent Component Analysis)を用いることにより、前記線形和および前記第1相関行列の差である誤差と前記第2相関行列とから、前記重みを算出する、
源探査装置。
A sound source exploration device that explores the direction of the sound source to be explored.
A correlation matrix calculation unit that calculates a first correlation matrix that is a correlation matrix of observation signals that are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning unit that calculates the weights by learning so that they are equal to the first correlation matrix.
A spatial spectrum calculation unit for calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated by the learning unit, is provided.
The learning unit
By using the LMS (Least Mean Square) algorithm or ICA (Independent Component Analysis), the weight is calculated from the error which is the difference between the linear sum and the first correlation matrix and the second correlation matrix.
Sound source exploration equipment.
探査対象の音源の方向を探査する音源探査装置であって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出部と、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習部と、
前記学習部により算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出部とを備え、
前記学習部は、
重みを保持する保持部と、
前記複数の第2相関行列それぞれに、前記保持部が保持する重みを乗算した線形和を算出する線形和算出部と、
前記線形和および前記第1相関行列の差である誤差を算出する誤差算出部と、
前記誤差と前記第2相関行列の積から重み更新量を算出し、前記保持部が保持する重みに前記重み更新量を加えることで前記保持部が保持する重みとする重み更新部とを備える、
源探査装置。
A sound source exploration device that explores the direction of the sound source to be explored.
A correlation matrix calculation unit that calculates a first correlation matrix that is a correlation matrix of observation signals that are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning unit that calculates the weights by learning so that they are equal to the first correlation matrix.
A spatial spectrum calculation unit for calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated by the learning unit, is provided.
The learning unit
A holding part that holds the weight and
A linear sum calculation unit that calculates a linear sum obtained by multiplying each of the plurality of second correlation matrices by the weights held by the holding unit.
An error calculation unit that calculates an error that is the difference between the linear sum and the first correlation matrix, and
The weight update amount is calculated from the product of the error and the second correlation matrix, and the weight update amount is added to the weight held by the holding unit to obtain the weight held by the holding unit.
Sound source exploration equipment.
前記重み更新部は、
LMSアルゴリズムまたはICAを用いることにより、前記誤差および前記第2相関行列から重み更新量を算出する、
請求項に記載の音源探査装置。
The weight update unit
By using the LMS algorithm or ICA, the weight update amount is calculated from the error and the second correlation matrix.
The sound source exploration device according to claim 4.
前記学習部は、さらに、
所定の非線形関数を用いて、前記誤差に非線形性を加える非線形関数部を備え、
前記重み更新部は、前記非線形関数部により非線形性が加えられた前記誤差、および、前記第2相関行列から重み更新量を算出し、前記保持部が保持する重みに前記重み更新量を加えることで前記保持部が保持する重みとする、
請求項またはに記載の音源探査装置。
The learning unit further
A non-linear function unit that adds non-linearity to the error by using a predetermined non-linear function is provided.
The weight update unit calculates the weight update amount from the error to which the non-linearity is added by the non-linear function unit and the second correlation matrix, and adds the weight update amount to the weight held by the holding unit. Is the weight held by the holding unit.
The sound source exploration apparatus according to claim 4 or 5.
探査対象の音源の方向を探査する音源探査方法であって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップと
前記第1相関行列を構成する要素のうちの一つである第1要素と、前記複数の第2相関行列それぞれを構成する要素のうち、前記第1要素と対応する位置にある要素である第2要素を選択し、かつ、選択する前記第1要素および前記第2要素を逐次に切り替える選択ステップとを含み、
前記学習ステップでは、前記第2要素に第1重みを乗算した第1要素線形和が前記第1要素と等しくなるように、前記第1重みを前記学習によって算出した第2重みに更新し、更新した前記第2重みを、次に前記選択ステップにおいて選択された前記第2要素に乗算した第2要素線形和が、次に前記選択ステップにおいて選択された前記第1要素と等しくなるように、前記第2重みを前記学習によって算出した第3重みに更新することを前記逐次に繰り返すことにより、前記重みを前記学習により算出する、
音源探査方法。
A sound source exploration method that explores the direction of the sound source to be explored.
A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
Using the weight calculated in the learning step, a spatial spectrum calculation step of calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction ,
The first element, which is one of the elements constituting the first correlation matrix, and the element constituting each of the plurality of second correlation matrices, which is an element at a position corresponding to the first element. Includes a selection step of selecting two elements and sequentially switching between the first element and the second element to be selected.
In the learning step, the first weight is updated to the second weight calculated by the learning so that the linear sum of the first elements obtained by multiplying the second element by the first weight becomes equal to the first element. The second element linear sum obtained by multiplying the second element selected in the selection step by the second weight is equal to the first element selected in the selection step. The weight is calculated by the learning by sequentially repeating updating the second weight to the third weight calculated by the learning.
Sound source exploration method.
探査対象の音源の方向を探査する音源探査方法をコンピュータに実行させるためのプログラムであって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップと、
前記第1相関行列を構成する要素のうちの一つである第1要素と、前記複数の第2相関行列それぞれを構成する要素のうち、前記第1要素と対応する位置にある要素である第2要素を選択し、かつ、選択する前記第1要素および前記第2要素を逐次に切り替える選択ステップとをコンピュータに実行させ、
前記学習ステップでは、前記第2要素に第1重みを乗算した第1要素線形和が前記第1要素と等しくなるように、前記第1重みを前記学習によって算出した第2重みに更新し、更新した前記第2重みを、次に前記選択ステップにおいて選択された前記第2要素に乗算した第2要素線形和が、次に前記選択ステップにおいて選択された前記第1要素と等しくなるように、前記第2重みを前記学習によって算出した第3重みに更新することを前記逐次に繰り返すことにより、前記重みを前記学習により算出する、
プログラム。
It is a program for making a computer execute a sound source search method for searching the direction of a sound source to be searched.
A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
Using the weight calculated in the learning step, a spatial spectrum calculation step of calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction,
The first element, which is one of the elements constituting the first correlation matrix, and the element constituting each of the plurality of second correlation matrices, which is an element at a position corresponding to the first element. A computer is made to select two elements and execute a selection step of sequentially switching between the first element to be selected and the second element to be selected.
In the learning step, the first weight is updated to the second weight calculated by the learning so that the linear sum of the first elements obtained by multiplying the second element by the first weight becomes equal to the first element. The second element linear sum obtained by multiplying the second element selected in the selection step by the second weight is equal to the first element selected in the selection step. The weight is calculated by the learning by sequentially repeating updating the second weight to the third weight calculated by the learning.
program.
探査対象の音源の方向を探査する音源探査方法であって、
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとを含み、
前記学習ステップでは、
LMS(Least Mean Square)アルゴリズム、またはICA(Independent Component Analysis)を用いることにより、前記線形和および前記第1相関行列の差である誤差と前記第2相関行列とから、前記重みを算出する、
音源探査方法
A sound source exploration method that explores the direction of the sound source to be explored.
A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
The spatial spectrum calculation step of calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated in the learning step, is included.
In the learning step
By using the LMS (Least Mean Square) algorithm or ICA (Independent Component Analysis), the weight is calculated from the error which is the difference between the linear sum and the first correlation matrix and the second correlation matrix.
Sound source exploration method .
探査対象の音源の方向を探査する音源探査方法であって、 A sound source exploration method that explores the direction of the sound source to be explored.
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、 A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、 A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとを含み、 The spatial spectrum calculation step of calculating the spatial spectrum of the observation signal, which is a spatial spectrum showing the sound pressure intensity for each direction by using the weight calculated in the learning step, is included.
前記学習ステップでは、 In the learning step
重みを保持する保持ステップと、 A retention step that retains weights and
前記複数の第2相関行列それぞれに、前記保持ステップにおいて保持される重みを乗算した線形和を算出する線形和算出ステップと、 A linear sum calculation step for calculating a linear sum obtained by multiplying each of the plurality of second correlation matrices by the weights held in the holding step.
前記線形和および前記第1相関行列の差である誤差を算出する誤差算出ステップと、 An error calculation step for calculating an error that is the difference between the linear sum and the first correlation matrix, and
前記誤差と前記第2相関行列の積から重み更新量を算出し、前記保持ステップにおいて保持される重みに前記重み更新量を加えることで前記保持ステップにおいて保持される重みとする重み更新ステップとを含む、 The weight update amount is calculated from the product of the error and the second correlation matrix, and the weight update amount is added to the weight held in the holding step to obtain the weight held in the holding step. include,
音源探査方法。 Sound source exploration method.
探査対象の音源の方向を探査する音源探査方法をコンピュータに実行させるためのプログラムであって、 It is a program for making a computer execute a sound source search method for searching the direction of a sound source to be searched.
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、 A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、 A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとをコンピュータに実行させ、 Using the weight calculated in the learning step, a computer is made to execute a spatial spectrum calculation step of calculating the spatial spectrum of the observed signal, which is a spatial spectrum indicating the sound pressure intensity for each direction.
前記学習ステップでは、 In the learning step
LMS(Least Mean Square)アルゴリズム、またはICA(Independent Component Analysis)を用いることにより、前記線形和および前記第1相関行列の差である誤差と前記第2相関行列とから、前記重みを算出する、 By using the LMS (Least Mean Square) algorithm or ICA (Independent Component Analysis), the weight is calculated from the error which is the difference between the linear sum and the first correlation matrix and the second correlation matrix.
プログラム。 program.
探査対象の音源の方向を探査する音源探査方法をコンピュータに実行させるためのプログラムであって、 It is a program for making a computer execute a sound source search method for searching the direction of a sound source to be searched.
互いに離間して配置された2以上のマイクロホンユニットから構成されるマイクロホンアレイにより収音された音響信号である観測信号の相関行列である第1相関行列を算出する相関行列算出ステップと、 A correlation matrix calculation step for calculating a first correlation matrix, which is a correlation matrix of observation signals, which are acoustic signals picked up by a microphone array composed of two or more microphone units arranged apart from each other.
記憶部に予め記憶されている複数の第2相関行列であって、前記マイクロホンアレイのアレイ配列から算出された方向別の相関行列である複数の第2相関行列それぞれに重みを乗算した線形和が前記第1相関行列と等しくなるように、前記重みを学習によって算出する学習ステップと、 A linear sum obtained by multiplying each of a plurality of second correlation matrices stored in advance in the storage unit, which are direction-specific correlation matrices calculated from the array array of the microphone array, by a weight. A learning step in which the weights are calculated by learning so as to be equal to the first correlation matrix.
前記学習ステップにおいて算出された前記重みを用いて、方向別の音圧強度を示す空間スペクトルであって前記観測信号の空間スペクトルを算出する空間スペクトル算出ステップとをコンピュータに実行させ、 Using the weight calculated in the learning step, a computer is made to execute a spatial spectrum calculation step of calculating the spatial spectrum of the observed signal, which is a spatial spectrum indicating the sound pressure intensity for each direction.
前記学習ステップでは、 In the learning step
重みを保持する保持ステップと、 A retention step that retains weights and
前記複数の第2相関行列それぞれに、前記保持ステップにおいて保持される重みを乗算した線形和を算出する線形和算出ステップと、 A linear sum calculation step for calculating a linear sum obtained by multiplying each of the plurality of second correlation matrices by the weights held in the holding step.
前記線形和および前記第1相関行列の差である誤差を算出する誤差算出ステップと、 An error calculation step for calculating an error that is the difference between the linear sum and the first correlation matrix, and
前記誤差と前記第2相関行列の積から重み更新量を算出し、前記保持ステップにおいて保持される重みに前記重み更新量を加えることで前記保持ステップにおいて保持される重みとする重み更新ステップとをコンピュータに実行させる、 The weight update amount is calculated from the product of the error and the second correlation matrix, and the weight update amount is added to the weight held in the holding step to obtain the weight held in the holding step. Let the computer do it,
プログラム。 program.
JP2017216735A 2017-03-03 2017-11-09 Sound source search device, sound source search method and its program Active JP6953287B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/898,896 US10264350B2 (en) 2017-03-03 2018-02-19 Sound source probing apparatus, sound source probing method, and storage medium storing program therefor
CA2995697A CA2995697A1 (en) 2017-03-03 2018-02-20 Sound source probing apparatus, sound source probing method, and storage medium storing program therefor
EP18157565.5A EP3370232B1 (en) 2017-03-03 2018-02-20 Sound source probing apparatus, sound source probing method, and storage medium storing program therefor
CN201810158701.6A CN108540898B (en) 2017-03-03 2018-02-26 Sound source detection device and method, and recording medium having sound source detection program recorded thereon

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201762466498P 2017-03-03 2017-03-03
US62/466,498 2017-03-03

Publications (2)

Publication Number Publication Date
JP2018146948A JP2018146948A (en) 2018-09-20
JP6953287B2 true JP6953287B2 (en) 2021-10-27

Family

ID=63592117

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017216735A Active JP6953287B2 (en) 2017-03-03 2017-11-09 Sound source search device, sound source search method and its program

Country Status (1)

Country Link
JP (1) JP6953287B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7402811B2 (en) * 2018-10-11 2023-12-21 株式会社半導体エネルギー研究所 vehicle warning device
CN111323750B (en) * 2020-03-19 2022-08-02 哈尔滨工程大学 Direct positioning method based on acoustic vector array network
CN111983357B (en) * 2020-08-21 2022-08-09 国网重庆市电力公司电力科学研究院 Ultrasonic visual fault detection method combined with voiceprint detection function
CN112903081B (en) * 2021-01-21 2022-05-03 中国海洋石油集团有限公司 Acoustic vector sensor array adaptive beam forming method, system and storage medium
CN113270108B (en) * 2021-04-27 2024-04-02 维沃移动通信有限公司 Voice activity detection method, device, electronic equipment and medium
CN116092297B (en) * 2023-04-07 2023-06-27 南京航空航天大学 Edge calculation method and system for low-permeability distributed differential signal control

Also Published As

Publication number Publication date
JP2018146948A (en) 2018-09-20

Similar Documents

Publication Publication Date Title
JP6953287B2 (en) Sound source search device, sound source search method and its program
CN108540898B (en) Sound source detection device and method, and recording medium having sound source detection program recorded thereon
Hazra et al. Hybrid time‐frequency blind source separation towards ambient system identification of structures
Schoukens et al. Parametric identification of parallel Wiener–Hammerstein systems
Karlsson et al. Fast missing-data IAA with application to notched spectrum SAR
WO2007053831A2 (en) Optimum nonlinear correntropy filter
Muhamad et al. On the orthogonalised reverse path method for nonlinear system identification
Moreira et al. A graph signal processing approach to direction of arrival estimation
Chanerley et al. Correcting data from an unknown accelerometer using recursive least squares and wavelet de-noising
JP6815956B2 (en) Filter coefficient calculator, its method, and program
Yan et al. Computationally efficient direction of arrival estimation with unknown number of signals
JP2022092827A (en) Computer system and data processing method
Wijnholds et al. Fundamental imaging limits of radio telescope arrays
US11482239B2 (en) Joint source localization and separation method for acoustic sources
US20200388298A1 (en) Target sound enhancement device, noise estimation parameter learning device, target sound enhancement method, noise estimation parameter learning method, and program
JP6644356B2 (en) Sound source separation system, method and program
Çavuşlu et al. FPGA implementation of bearing tracking using passive array for underwater acoustics
Tao et al. A novel approach to fast DOA estimation of multiple spatial narrowband signals
CN115267673A (en) Sparse sound source imaging method and system considering reconstruction grid offset
Rajani et al. Direction of arrival estimation by using artificial neural networks
JP6685943B2 (en) Separation matrix design device, filter coefficient calculation device, method thereof, and program
US7143015B1 (en) Method and system for rapid identification of multiple input systems
Su et al. Beyond 10log10M array gain: A beamforming method under non-Gaussian noise and multi-sources
Jia et al. Adaptive processing method for interference cancellation in sky‐wave OTHR
Bai et al. Bayesian approach of nearfield acoustic reconstruction with particle filters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200602

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210929

R150 Certificate of patent or registration of utility model

Ref document number: 6953287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150