JP2017130899A - Sound field estimation device, method therefor and program - Google Patents

Sound field estimation device, method therefor and program Download PDF

Info

Publication number
JP2017130899A
JP2017130899A JP2016011016A JP2016011016A JP2017130899A JP 2017130899 A JP2017130899 A JP 2017130899A JP 2016011016 A JP2016011016 A JP 2016011016A JP 2016011016 A JP2016011016 A JP 2016011016A JP 2017130899 A JP2017130899 A JP 2017130899A
Authority
JP
Japan
Prior art keywords
sound field
microphone
spherical
sound
plane wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016011016A
Other languages
Japanese (ja)
Inventor
暁 江村
Akira Emura
暁 江村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016011016A priority Critical patent/JP2017130899A/en
Publication of JP2017130899A publication Critical patent/JP2017130899A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic Arrangements (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a sound field estimation device having a larger space region in which sound field estimation is effective than prior arts, a method therefor and a program.SOLUTION: A sound field estimation device 200 includes: a plane wave decomposition unit 213 for estimating a vector consisting of a strength of a plane wave constituting a sound field using a sound collection signal u(ω, m, j) in frequency domain of M spherical microphone arrays 1 and 2 including microphones at predetermined positions on a sphere; and an interpolation estimation unit 216 for estimating a sound collection signal u^(ω, r) in frequency domain at a position rusing an estimate a(ω) of the vector consisting of the strength of the plane wave and the position rof the virtual microphone.SELECTED DRAWING: Figure 2

Description

本発明は、ある位置に配置されたマイクロホンの収音信号を用いて、他の位置にマイクロホンが配置された場合に得られる収音信号を推定する技術に関する。   The present invention relates to a technique for estimating a sound collection signal obtained when a microphone is disposed at another position using a sound collection signal of a microphone disposed at a certain position.

近年、オーディオ再生技術は2チャネルステレオから5.1チャネル再生に拡大し、さらに22.2チャネル再生や波面合成法の研究開発が進められ、再生そのものの臨場感を大きく向上させることと、臨場感の高い再生エリアをなるべく拡大することが図られている。   In recent years, audio playback technology has expanded from 2-channel stereo to 5.1-channel playback, and further research and development on 22.2 channel playback and wavefront synthesis methods have greatly improved the realism of reproduction itself. It is intended to expand the high playback area as much as possible.

このような多チャネルオーディオ再生方法を評価検証するには、再生された音場を計測することが重要になる。例えば波面合成法では、実際に収録された音場と再現された音場とを比較し、その相違を把握する必要がある。その理由は、収録音場を再生信号へ変換する信号処理、収録した信号のエンコードとデコード、再生装置が設置された部屋の音響特性などの諸要因が音場の再現精度に影響するためであり、再現精度の高い手法を確立することが重要だからである。   In order to evaluate and verify such a multi-channel audio reproduction method, it is important to measure the reproduced sound field. For example, in the wavefront synthesis method, it is necessary to compare the actually recorded sound field with the reproduced sound field and grasp the difference. The reason for this is that various factors such as signal processing for converting the recorded sound field into a playback signal, encoding and decoding of the recorded signal, and acoustic characteristics of the room where the playback device is installed affect the sound field reproduction accuracy. This is because it is important to establish a method with high reproducibility.

(従来法1)
音場を計測する方法として、対象とする測定エリアの一部に局所的にマイクロホンを集中配置し、その測定結果から周辺エリアの音場を推定することが考えられる。一例として球面マイクロホンアレーの検討が進められている。球面マイクロホンアレーとは、数十以上のマイクロホン素子を半径raの球面上に配置して構成するマイクロホンアレーであり、raは数cmから十数cmの範囲にある。
(Conventional method 1)
As a method for measuring the sound field, it is conceivable to concentrate microphones locally in a part of the target measurement area and estimate the sound field in the surrounding area from the measurement result. As an example, a spherical microphone array is being studied. The spherical microphone array, a microphone array configured by arranging the several tens or more microphone element on a sphere of radius r a, the r a is in the range from a few cm of ten cm.

図1に、従来技術における球面マイクロホンアレー1をもちいる音場推定処理の信号フローを示す。球面上に配置されたJ個のマイクロホンでそれぞれ収音された時間領域の信号y(t,raj)は、短時間フーリエ変換部111により周波数領域の信号u(i,ω,raj)に変換される。ただし、tは時刻、iはフレーム、Jは2以上の整数、ωは時間周波数、j=1,2,…,Jである。なお、以下の処理では、フレーム単位で処理を行うが、表記を簡略化するために、iを省略する。Ωjはj番目のマイクロホン素子の球面上の位置であり、elevation角θjとazimuth角φjのペアで指定される。Ωj=(θjj)である。 FIG. 1 shows a signal flow of sound field estimation processing using a spherical microphone array 1 in the prior art. The time domain signals y (t, r a , Ω j ) respectively picked up by the J microphones arranged on the spherical surface are converted by the short-time Fourier transform unit 111 into the frequency domain signals u (i, ω, r). a , Ω j ). Where t is time, i is a frame, J is an integer of 2 or more, ω is a time frequency, and j = 1, 2,. Note that in the following processing, processing is performed in units of frames, but i is omitted to simplify the notation. Ω j is a position on the spherical surface of the j-th microphone element, and is specified by a pair of elevation angle θ j and azimuth angle φ j . Ω j = (θ j , φ j ).

球面波スペクトル変換部112は、周波数ωごとに次式により球面波スペクトルun,m(ω,ra)を求める。 The spherical wave spectrum conversion unit 112 obtains a spherical wave spectrum u n, m (ω, r a ) by the following equation for each frequency ω.

Figure 2017130899
Figure 2017130899

ただしαjは、式(1)の積和が次式で表される球調和関数の直交条件を満たすように適切に設定された重みである。 However, α j is a weight appropriately set so that the product sum of Equation (1) satisfies the orthogonal condition of the spherical harmonic function expressed by the following equation.

Figure 2017130899
Figure 2017130899

なお、Yn mjj)はオーダーn、次数mの球調和関数であり、*は複素共役を意味する。n=0,1,…,N、m=-n,-n+1,…,nである。δnn'はn=n'のときに1、n≠n'のときに0となる値であり、δmm'はm=m'のときに1、m≠m'のときに0となる値である。オーダー数Nまでの球面波スペクトルを得るには、(N+1)2個以上のマイクロホン素子が必要になる。 Y n mj , φ j ) is a spherical harmonic function of order n and order m, and * means a complex conjugate. n = 0,1, ..., N, m = -n, -n + 1, ..., n. δ nn ′ is 1 when n = n ′, 0 when n ≠ n ′, δ mm ′ is 1 when m = m ′, and 0 when m ≠ m ′. Value. To obtain a spherical wave spectrum up to the order number N, (N + 1) 2 or more microphone elements are required.

なお、これ以降は測定対象範囲の外側にある音源によって生成された音場を測定すること、すなわち内部問題を扱う。別の言い方をすると、球面マイクロホンアレーの成す球体の外側にある音源によって生成された音場を測定する。   In the following, the sound field generated by the sound source outside the measurement target range is measured, that is, the internal problem is dealt with. In other words, the sound field generated by the sound source outside the sphere formed by the spherical microphone array is measured.

球面マイクロホンアレーの中心を原点として、極座標系(r,Ω)=(r,θ,φ)で音場を考える。   The sound field is considered in the polar coordinate system (r, Ω) = (r, θ, φ) with the center of the spherical microphone array as the origin.

外挿推定部116では、周波数ωで次式により、半径raの位置から半径rへと音場を外挿し、極座標系(r,Ω)=(r,θ,φ)における収音信号u(ω,r,Ω)を求める。言い換えると、球面マイクロホンアレー上に配置されたマイクロホンの収音信号を用いて球面マイクロホンアレーの成す球体の外側にある音場を推定する。 In extrapolation estimator 116, the following equation in the frequency omega, extrapolating the sound field to the radius r from the position of the radius r a, the polar coordinate system (r, Ω) = (r , θ, φ) collected sound in the signal u Find (ω, r, Ω). In other words, the sound field outside the sphere formed by the spherical microphone array is estimated using the collected sound signals of the microphones arranged on the spherical microphone array.

Figure 2017130899
Figure 2017130899

ただしkは波数k=ω/c(cは音速)であり、bn( )はモード強度関数である。 Where k is the wave number k = ω / c (c is the speed of sound), and b n () is the mode intensity function.

非特許文献1では、マイクロホン素子を中空で球面上に配置する開球型(open sphere)の球面マイクロホンアレーの場合が示されている。この場合、モード強度関数は次式で表される。   Non-Patent Document 1 shows a case of an open sphere spherical microphone array in which microphone elements are hollow and arranged on a spherical surface. In this case, the mode intensity function is expressed by the following equation.

Figure 2017130899
Figure 2017130899

である。ただしiは虚数であり、jn( )はn次の球ベッセル関数である。球面マイクロホンアレーが剛球表面にマイク素子を配置して構成されている場合には、非特許文献2に基づき、モード強度関数は次式で表される。 It is. Here, i is an imaginary number, and j n () is an nth order spherical Bessel function. When the spherical microphone array is configured by arranging microphone elements on the surface of a hard sphere, the mode intensity function is expressed by the following expression based on Non-Patent Document 2.

Figure 2017130899
Figure 2017130899

ただしhn( )はn次の第1種ハンケル関数である。なお、「A'」はAの微分を意味する。 Here, h n () is an nth-order first-class Hankel function. “A ′” means the differentiation of A.

短時間逆フーリエ変換部118は、空間的に外挿した収音信号を周波数領域の信号u(ω,r,Ω)から時間領域の信号y(t,r,Ω)に戻し、出力する。   The short-time inverse Fourier transform unit 118 returns the spatially extrapolated sound collection signal from the frequency domain signal u (ω, r, Ω) to the time domain signal y (t, r, Ω) and outputs it.

なお、式(3)は、球面波スペクトルにbn(kr)/bn(kra)を適用し、Yn m(θ,φ)で積和をとっている。このYn m(θ,φ)の積和は、逆球面波スペクトル変換に対応する。そのため、空間的に外挿した収音信号u(ω,r,Ω)は周波数領域の信号となっている。 In Equation (3), b n (kr) / b n (kr a ) is applied to the spherical wave spectrum, and the product sum is taken as Y n m (θ, φ). This product sum of Y n m (θ, φ) corresponds to inverse spherical wave spectrum conversion. Therefore, the spatially extrapolated sound pickup signal u (ω, r, Ω) is a frequency domain signal.

開球型のマイクロホンアレーによる計測では、特異点の影響を避けられず、jn(kr)=0になるkおよびrで測定不能になる。具体的には、音場が存在してもjn(kr)=0が満たされるとき、その出力が0になる。しかし剛球型のマイクロホンアレーには特異点がなく、測定不能にならない。そのため球面型マイクロホンアレーとしては、剛球型のマイクロホンアレーを使うことが主流である。 In the measurement using the open-ball type microphone array, the influence of the singular point cannot be avoided, and it becomes impossible to measure at k and r where j n (kr) = 0. Specifically, when j n (kr) = 0 is satisfied even if a sound field exists, its output becomes zero. However, the hard sphere type microphone array has no singular point and does not become impossible to measure. For this reason, as the spherical microphone array, it is mainstream to use a rigid sphere type microphone array.

T. Abhayapala and D. Ward, "Theory and design of high order sound field microphones using spherical microphone array", in Acoustics, Speech, and Signal Processing (ICASSP), IEEE International Conference on, 2002, pp. II-1949.T. Abhayapala and D. Ward, "Theory and design of high order sound field microphones using spherical microphone array", in Acoustics, Speech, and Signal Processing (ICASSP), IEEE International Conference on, 2002, pp. II-1949. Meyer, Jens; Elko, Gary, "A highly scalable spherical microphone array based on an orthonormal decomposition of the soundfield", Acoustics, Speech, and Signal Processing (ICASSP), 2002 IEEE International Conference on, 2002, II-1781 - II-1784.Meyer, Jens; Elko, Gary, "A highly scalable spherical microphone array based on an orthonormal decomposition of the soundfield", Acoustics, Speech, and Signal Processing (ICASSP), 2002 IEEE International Conference on, 2002, II-1781-II- 1784.

従来技術では、半径raの位置から半径rへと音場を外挿する際に、ベッセル関数jn(kr)もしくはベッセル関数jn(kr)とハンケル関数hn(kr)とを使用している。参考文献1によれば、2関数とも大域的な傾向としてkrが増大すると、1/krのペースで減少する。
(参考文献1)E.G.ウィリアムズ、「フーリエ音響学」、シュプリンガー・フェアラーク、2005、p.234-236.
例えばrがraの10倍になると、外挿の推定値は約1/10と急激に小さくなってしまう。そのため、外挿が有効な空間領域は球面マイクロホンアレー表面の周囲に限定されてしまう。また同じ理由により、周波数ωが高くなってもk=ω/cが大きくなり、外挿の推定値が急激に小さくなる。つまり周波数を高くすると外挿が有効な空間領域が急激に狭まってしまう。
In the prior art, when the position of the radius r a extrapolating the sound field to the radius r, using the Bessel function j n (kr) or Bessel functions j n (kr) and Hankel function h n (kr) ing. According to the reference 1, when kr increases as a global trend in both functions, it decreases at a rate of 1 / kr.
(Reference 1) G. Williams, “Fourier Acoustics”, Springer Fairlark, 2005, p.234-236.
For example, if r is 10 times r a, the estimated value of the extrapolation becomes abruptly small as about 1/10. For this reason, the spatial region in which extrapolation is effective is limited to the periphery of the spherical microphone array surface. For the same reason, even if the frequency ω increases, k = ω / c increases, and the extrapolated estimated value decreases rapidly. In other words, when the frequency is increased, the spatial region in which extrapolation is effective is rapidly narrowed.

本発明は、従来技術よりも、音場推定が有効な空間領域が大きい音場推定装置、その方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide a sound field estimation apparatus, a method and a program therefor, which have a larger spatial region in which sound field estimation is more effective than the prior art.

上記の課題を解決するために、本発明の一態様によれば、音場推定装置は、m=1,2,…,Mを球面マイクロホンアレーのインデックスとし、jm=1,2,…,Jm、rmを極座標の動径、θj_m及びφj_mを極座標の偏角、ωを時間周波数のインデックス、d- mを中心とする半径rmの球体上の偏角θj_m及びφj_mのJm個の位置r-(m,jm)=d- m+[rmsinθj_mcosφj_m rmsinθj_msinφj_m rmcosθj_m]Tにそれぞれマイクロホンを備えるM個の球面マイクロホンアレーmの周波数領域の収音信号u(ω,m,jm)を用いて、音場を構成する平面波の強度からなるベクトルを推定する平面波分解部と、平面波の強度からなるベクトルの推定値a(ω)と、仮想的なマイクロホンの位置r- pとを用いて、仮想マイクロホンの位置r- pでの周波数領域の収音信号u^(ω,r- p)を推定する補間推定部とを含む。 In order to solve the above problems, according to one aspect of the present invention, the sound field estimation apparatus uses m = 1, 2,..., M as an index of a spherical microphone array, and j m = 1, 2,. J m , r m are polar coordinate radials , θ j_m and φ j_m are polar coordinate declinations, ω is a time frequency index, and declination angles θ j_m and φ j_m on a sphere of radius r m centered at d - m of J m-number of position r - (m, j m) = d - m + [r m sinθ j_m cosφ j_m r m sinθ j_m sinφ j_m r m cosθ j_m] M pieces of each T comprises a microphone spherical microphone array m A plane wave decomposition unit that estimates a vector composed of the intensity of a plane wave that constitutes the sound field using a sound collection signal u (ω, m, j m ) in the frequency domain, and an estimated value a ( ω) and the virtual microphone position r - p, and an interpolation estimation unit that estimates the frequency domain sound pickup signal u ^ (ω, r - p ) at the virtual microphone position r - p. Including.

上記の課題を解決するために、本発明の他の態様によれば、音場推定方法は、m=1,2,…,Mを球面マイクロホンアレーのインデックス、jm=1,2,…,Jm、rmを極座標の動径、θj_m及びφj_mを極座標の偏角、ωを時間周波数のインデックスとし、平面波分解部が、d- mを中心とする半径rmの球体上の偏角θj_m及びφj_mのJm個の位置r-(m,jm)=d- m+[rmsinθj_mcosφj_m rmsinθj_msinφj_m rmcosθj_m]Tにそれぞれマイクロホンを備えるM個の球面マイクロホンアレーmの周波数領域の収音信号u(ω,m,jm)を用いて、音場を構成する平面波の強度からなるベクトルを推定する平面波分解ステップと、補間推定部が、平面波の強度からなるベクトルの推定値a(ω)と、仮想的なマイクロホンの位置r- pとを用いて、仮想マイクロホンの位置r- pでの周波数領域の収音信号u^(ω,r- p)を推定する補間推定ステップとを含む。 In order to solve the above problems, according to another aspect of the present invention, a sound field estimation method includes m = 1, 2,..., M as an index of a spherical microphone array, j m = 1, 2,. J m and r m are polar coordinate radials , θ j_m and φ j_m are polar coordinate declinations, ω is an index of time frequency, and the plane wave decomposition part is a deviation on a sphere with a radius r m centered on d - m. angle theta J_m and phi J_m of J m-number of position r - (m, j m) = d - m + [r m sinθ j_m cosφ j_m r m sinθ j_m sinφ j_m r m cosθ j_m] each T comprises a microphone M A plane wave decomposition step for estimating a vector consisting of the intensity of plane waves constituting the sound field using the collected sound signal u (ω, m, j m ) in the frequency domain of each spherical microphone array m, and an interpolation estimation unit, estimate of vector of intensity of a plane wave with a (ω), the position r of the virtual microphone - with a p, the position of the virtual microphone r - collected sound signal in the frequency domain in p u ^ (ω, r - and a interpolation estimation step of estimating p).

本発明によれば、従来技術よりも、音場推定が有効な空間領域が大きいという効果を奏する。   According to the present invention, there is an effect that a spatial region in which sound field estimation is effective is larger than that of the related art.

従来技術に係る音場推定装置の機能ブロック図。The functional block diagram of the sound field estimation apparatus which concerns on a prior art. 第一実施形態に係る音場推定装置の機能ブロック図。The functional block diagram of the sound field estimation apparatus which concerns on 1st embodiment. 第一実施形態に係る音場推定装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the sound field estimation apparatus which concerns on 1st embodiment. 第一実施形態、その変形例1における仮想マイクロホンの位置の概要を示す図。The figure which shows the outline | summary of the position of the virtual microphone in 1st embodiment and the modification 1. FIG. 第二実施形態に係る音場推定装置の機能ブロック図。The functional block diagram of the sound field estimation apparatus which concerns on 2nd embodiment. 第二実施形態に係る音場推定装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the sound field estimation apparatus which concerns on 2nd embodiment. 第三実施形態に係る音場推定装置の機能ブロック図。The functional block diagram of the sound field estimation apparatus which concerns on 3rd embodiment. 第三実施形態に係る音場推定装置の処理フローの例を示す図。The figure which shows the example of the processing flow of the sound field estimation apparatus which concerns on 3rd embodiment.

以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」「-」等は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。 Hereinafter, embodiments of the present invention will be described. In the drawings used for the following description, constituent parts having the same function and steps for performing the same process are denoted by the same reference numerals, and redundant description is omitted. In the following explanation, the symbols "^", " - ", etc. used in the text should be written immediately above the character just before, but they are written immediately after the character due to restrictions on the text notation. . In the formula, these symbols are written in their original positions. Further, the processing performed for each element of a vector or matrix is applied to all elements of the vector or matrix unless otherwise specified.

<第一実施形態のポイント>
本実施形態では、(1)単一の球面マイクロホンアレーでなく、複数のマイクロホンアレーをもちい、(2)球面波スペクトルの代わりに、周波数領域の収音信号から音場を構成する平面波の集まりを直接求めて、この平面波をもちいて音場を推定する。(1)と(2)により、音場推定が有効な空間範囲を大きく広げることが可能になる。以下、その方法を説明する。
<Points of first embodiment>
In this embodiment, (1) a plurality of microphone arrays are used instead of a single spherical microphone array, and (2) instead of a spherical wave spectrum, a collection of plane waves that constitute a sound field from a collected signal in the frequency domain. The sound field is estimated directly using this plane wave. (1) and (2) make it possible to greatly expand the spatial range in which sound field estimation is effective. The method will be described below.

<第一実施形態に係る音場推定装置200>
図2は第一実施形態に係る音場推定装置200の機能ブロック図を、図3はその処理フローを示す。
<Sound Field Estimation Device 200 according to First Embodiment>
FIG. 2 is a functional block diagram of the sound field estimation apparatus 200 according to the first embodiment, and FIG. 3 shows its processing flow.

音場推定装置200は、短時間フーリエ変換部211、平面波分解部213、補間推定部216及び短時間逆フーリエ変換部218を含む。   The sound field estimation apparatus 200 includes a short-time Fourier transform unit 211, a plane wave decomposition unit 213, an interpolation estimation unit 216, and a short-time inverse Fourier transform unit 218.

音場推定装置200は、球面マイクロホンアレー1から時間領域の収音信号y(t,1,j)(ただし、j=1,2,…,J)を受け取り、球面マイクロホンアレー2から時間領域の収音信号y(t,2,j)(ただし、j=1,2,…,J)を受け取り、仮想マイクロホンの位置情報r-を受け取り、仮想マイクロホンの位置r-における時間領域の収音信号y(t,r-)を推定し、出力する。 The sound field estimation apparatus 200 receives a time domain collected signal y (t, 1, j) (where j = 1, 2,..., J) from the spherical microphone array 1 and receives a time domain collected signal y from the spherical microphone array 2. Receives the collected sound signal y (t, 2, j) (where j = 1, 2,..., J), receives the virtual microphone position information r −, and collects the time domain sound collected signal at the virtual microphone position r y (t, r -) to estimate, to output.

本実施形態では、球面マイクロホンアレー1、2が含む球面上のマイクロホン数、球面マイクロホンアレー1、2におけるマイクロホンの配置、球面マイクロホンアレー1、2の半径が同一であるとする。球面マイクロホンアレー1、2は、開球型の球面マイクロホンアレーであり、半径raの球面上にJ個のマイクロホンが配置され、球面上のマイクロホン配置はelevation角とazimuth角のペア(θjj)で指定される。球面マイクロホンアレー1の中心位置をd- 1=[x1,y1,z1]とし、球面マイクロホンアレー2の中心位置をd- 2=[x2,y2,z2]とする。球面マイクロホンアレーm(m=1,2)上の第jマイクロホンの3次元位置は、 In this embodiment, it is assumed that the number of microphones on the spherical surfaces included in the spherical microphone arrays 1 and 2, the arrangement of the microphones in the spherical microphone arrays 1 and 2, and the radius of the spherical microphone arrays 1 and 2 are the same. The spherical microphone arrays 1 and 2 are open-type spherical microphone arrays in which J microphones are arranged on a spherical surface with a radius ra, and the microphone arrangement on the spherical surface is a pair of elevation angle and azimuth angle (θ j , φ j ). The center position of the spherical microphone array 1 d - 1 = a [x 1, y 1, z 1], the center position of the spherical microphone array 2 d - 2 = a [x 2, y 2, z 2]. The three-dimensional position of the jth microphone on the spherical microphone array m (m = 1, 2) is

Figure 2017130899
Figure 2017130899

で与えられる。このマイクロホンによる収音信号を、時間領域で収音信号y(t,m,j)(ただし、m=1,2、j=1,2,…,J)とする。 Given in. The collected sound signal from the microphone is assumed to be a collected sound signal y (t, m, j) (where m = 1, 2, j = 1, 2,..., J) in the time domain.

<短時間フーリエ変換部211>
短時間フーリエ変換部211は、時間領域の収音信号y(t,m,j)(ただし、m=1,2、j=1,2,…,J)を受け取り、短時間フーリエ変換により、時間領域の収音信号y(t,m,j)を周波数領域の収音信号u(i,ω,m,j)(ただし、iはフレーム番号、ω=1,2,…,F、j=1,2,…,J)に変換し(S211)、出力する。なお、以降の処理はフレームi毎に行うが、記載を簡略化するため、フレーム番号iを省略する。また、時間領域の信号を周波数領域の信号に変換する方法であれば、短時間フーリエ変換以外の方法を用いてもよい。
<Short-time Fourier transform unit 211>
The short-time Fourier transform unit 211 receives a time-domain sound pickup signal y (t, m, j) (where m = 1, 2, j = 1, 2,..., J), Time-domain sound pickup signal y (t, m, j) is changed to frequency-domain sound pickup signal u (i, ω, m, j) (where i is a frame number, ω = 1, 2,..., F, j = 1, 2,..., J) (S211) and output. The subsequent processing is performed for each frame i, but the frame number i is omitted to simplify the description. Further, any method other than the short-time Fourier transform may be used as long as it is a method for converting a time-domain signal into a frequency-domain signal.

<平面波分解部213>
平面波分解部213は、周波数領域の収音信号u(ω,m,j)(ただし、ω=1,2,…,F、m=1,2、j=1,2,…,J)を受け取り、これらの値を用いて、音場を構成する平面波の強度からなるベクトルを推定し(S213)、推定値a-(ω)(ただし、ω=1,2,…,F)を出力する。例えば、平面波分解部213は、音場を構成する平面波の集まりを求めるために、次のコスト関数Jを最小にする解ベクトル(推定値)a-(ω)を求める。
<Plane wave decomposition unit 213>
The plane wave decomposition unit 213 generates a frequency-domain sound pickup signal u (ω, m, j) (where ω = 1, 2,..., F, m = 1, 2, j = 1, 2,..., J). Using these values, a vector composed of the intensity of the plane wave constituting the sound field is estimated (S213), and an estimated value a (ω) (where ω = 1, 2,..., F) is output. . For example, the plane wave decomposition unit 213 obtains a solution vector (estimated value) a (ω) that minimizes the next cost function J in order to obtain a collection of plane waves constituting the sound field.

Figure 2017130899
Figure 2017130899

なお、λは正則化のための定数であり、λを大きくするほどu(ω,m,j)にのる雑音に対し、推定をロバストにすることができる。また、式(7)中のD(ω)は辞書行列とよばれ、 Note that λ is a constant for regularization. As λ is increased, estimation can be made more robust against noise on u (ω, m, j). Also, D (ω) in equation (7) is called a dictionary matrix,

Figure 2017130899
Figure 2017130899

であり、そのl番目の列ベクトルD(ω,l)は、elevation角とazimuth角のペア(θll)で指定された方向から振幅1の平面波が入射したとき、原点での位相が0の状態での各球面マイクロホンアレー1,2での観測値からなるベクトルである。例えば、L'個の平面波が全方位から万遍なく取得できるようにL'個の入射角(θll)を設定する。例えば、正多面体の頂点の方向から平面波が入射するようにL'個の入射角(θll)を設定する。 The l-th column vector D (ω, l) is the phase at the origin when a plane wave of amplitude 1 is incident from the direction specified by the elevation angle and azimuth angle pair (θ l , φ l ). Is a vector composed of observation values at the spherical microphone arrays 1 and 2 in a state where is 0. For example, L ′ incident angles (θ l , φ l ) are set so that L ′ plane waves can be obtained uniformly from all directions. For example, L ′ incident angles (θ l , φ l ) are set so that plane waves are incident from the direction of the apex of the regular polyhedron.

辞書行列D(ω)のl番目の列ベクトルD(ω,l)は、入射角(θll)の平面波が到来する際の球面マイクロホンアレーmの第jマイクロホンの観測値 The l-th column vector D (ω, l) of the dictionary matrix D (ω) is an observation value of the j-th microphone of the spherical microphone array m when a plane wave having an incident angle (θ l , φ l ) arrives.

Figure 2017130899

をもちいて、
Figure 2017130899

Use

Figure 2017130899

で表される。
Figure 2017130899

It is represented by

また、解ベクトルa-(ω)のl番目の値は、l番目の平面波の振幅に対応する。a(ω)=[a1(ω),a2(ω),…,al(ω),…,aL'(ω)]Tとする。 The l-th value of the solution vector a (ω) corresponds to the amplitude of the l-th plane wave. a (ω) = a [a 1 (ω), a 2 (ω), ..., a l (ω), ..., a L '(ω)] T.

上記のL1ノルムの正則化項をもちいる凸最適化は、解ベクトルa-(ω)として0を多く含むスパースなベクトルを導きだす。そのため、参考文献2で示されているように、あらかじめ想定する平面波の個数L'がマイクロホン数を大きく上回るような冗長な場合でも、平面波をうまく抽出することが可能である。
(参考文献2)A. Wabnitz, N. Epain, A. van.Shaik, C. Jin, "Reconstruction of spatial sound field using compressed sensing", in Acoustics, Speech, and Signal Processing (ICASSP), IEEE International Conference on, 2011.
Convex optimization of using the regularization term of L1 norm, the solution vector a - (ω) as derive sparse vector containing much 0. Therefore, as shown in Reference Document 2, it is possible to successfully extract plane waves even in a redundant case where the number L ′ of plane waves assumed in advance greatly exceeds the number of microphones.
(Reference 2) A. Wabnitz, N. Epain, A. van.Shaik, C. Jin, "Reconstruction of spatial sound field using compressed sensing", in Acoustics, Speech, and Signal Processing (ICASSP), IEEE International Conference on , 2011.

<補間推定部216>
補間推定部216は、推定値a(ω)と仮想マイクロホンの位置情報r-=(rx,ry,rz)とを受け取り、仮想マイクロホンの位置r-での周波数領域の収音信号u^(ω,r-)(ただし、ω=1,2,…,F)を次式により推定し(S216)(言い換えると、解ベクトルa-(ω)をパラメータとする平面波モデルから仮想マイクロホンの出力値u^(ω,r-)を推定し)、出力する。
<Interpolation estimation unit 216>
The interpolation estimation unit 216 receives the estimated value a (ω) and the virtual microphone position information r = (r x , r y , r z ), and collects the sound signal u in the frequency domain at the position r of the virtual microphone. ^ (ω, r ) (where ω = 1, 2,..., F) is estimated by the following equation (S216) (in other words, from the plane wave model with the solution vector a (ω) as a parameter, the virtual microphone the output value u ^ (ω, r -) to estimate), and outputs.

Figure 2017130899
Figure 2017130899

ただし、●は内積を意味し、k- lはl番目の平面波の入射方向に対応する波数ベクトルであり、次式により表される。 However, ● means an inner product, and k - l is a wave vector corresponding to the incident direction of the l-th plane wave, and is expressed by the following equation.

Figure 2017130899
Figure 2017130899

Tは転置を表す。なお、仮想マイクロホンの位置情報r-は、例えば、音場推定装置200の利用者により入力される。 T represents transposition. Note that the position information r of the virtual microphone is input by a user of the sound field estimation apparatus 200, for example.

<短時間逆フーリエ変換部218>
短時間逆フーリエ変換部218は、周波数領域の収音信号u^(ω,r-)(ただし、ω=1,2,…,F)を受け取り、逆短時間フーリエ変換により、収音信号u^(ω,r-)を時間領域の収音信号y(t,r-)に変換し(S218)、出力する。なお、時間領域の信号を周波数領域の信号に変換する方法として、短時間フーリエ変換部211における変換方法に対応する方法を用いればよい。
<Short-time inverse Fourier transform unit 218>
The short-time inverse Fourier transform unit 218 receives the collected sound signal u ^ (ω, r ) (where ω = 1, 2,..., F) in the frequency domain, and collects the collected sound signal u by inverse short-time Fourier transform. ^ (ω, r ) is converted into a time domain sound pickup signal y (t, r ) (S218) and output. Note that a method corresponding to the conversion method in the short-time Fourier transform unit 211 may be used as a method for converting a time-domain signal into a frequency-domain signal.

<効果>
以上の構成により、従来技術よりも、音場推定が有効な空間領域が大きい音場推定装置を実現することができる。
<Effect>
With the above configuration, it is possible to realize a sound field estimation apparatus having a larger spatial area in which sound field estimation is more effective than in the related art.

<変形例1>
第一実施形態では、1つの仮想的なマイクロホンを想定し、その位置で収音される信号を推定した。しかし、当然、複数の位置に仮想的なマイクロホンを想定してもよい。また、仮想的なマイクロホンを同一の球面上に配置することで、半径rの開球型の仮想的なマイクロホンアレーを構成することができる。例えば、仮想的なマイクロホンアレーの中心が、原点から見てD=[dx dy dz]の位置にあり、P個の仮想的なマイクロホンを備える仮想的なマイクロホンアレーを構成した場合、音場推定装置200は、P個の仮想マイクロホンの位置情報(r- p)(ただし、p=1,2,…,P)を受け取り、収音信号y(t,r- p)(ただし、p=1,2,…,P)を出力する。
<Modification 1>
In the first embodiment, a single virtual microphone is assumed, and a signal collected at that position is estimated. However, of course, virtual microphones may be assumed at a plurality of positions. Further, by arranging virtual microphones on the same spherical surface, an open-ball type virtual microphone array having a radius r can be configured. For example, if the center of the virtual microphone array is at the position of D = [d x d y d z ] when viewed from the origin, and a virtual microphone array including P virtual microphones is configured, the sound The field estimation apparatus 200 receives the position information (r p ) (where p = 1, 2,..., P) of the P virtual microphones, and collects the collected sound signal y (t, r p ) (where p = 1,2, ..., P) is output.

仮想的なマイクロホンアレーの球面上のp番目のマイクロホン位置をr- p(ただし、p=1,2,…,P)とするとき、補間推定部216は、周波数領域の収音信号u^(ω,r- p)を次式により推定する。 When the position of the p-th microphone on the spherical surface of the virtual microphone array is r - p (where p = 1, 2,..., P), the interpolation estimation unit 216 captures the collected sound signal u ^ ( ω, r - p ) is estimated by the following equation.

Figure 2017130899
Figure 2017130899

図4は、第一実施形態、その変形例1における仮想マイクロホンの位置の概要を示している。仮想的なマイクロホンアレーの中心[dx dy dz]が[rxry rz]、半径r=0、仮想的なマイクロホンアレーが備える仮想的なマイクロホンの個数Pが1のとき、第一実施形態となるため、第一実施形態は変形例1の一例とも言える(ただし、本変形例では半径rの球面上のマイクロホンが設けられる。一方、第一実施形態では半径r=0、つまり、球面上ではなく、点上にマイクロホンが設けられる)。 FIG. 4 shows an outline of the position of the virtual microphone in the first embodiment and the first modification thereof. When the center [d x d y d z ] of the virtual microphone array is [r x r y r z ], the radius r = 0, and the number P of virtual microphones included in the virtual microphone array is 1, Since this embodiment is an embodiment, the first embodiment can be said to be an example of Modification 1 (however, in this modification, a microphone on a spherical surface having a radius r is provided. On the other hand, in the first embodiment, a radius r = 0, that is, , A microphone is provided on the point, not on the spherical surface).

<変形例2>
第一実施形態では、開球型マイクロホンアレー2つを音場に設置する場合を説明した。本変形例では剛球型マイクロホンアレー2つを音場に設置する場合について説明する。
<Modification 2>
In the first embodiment, the case where two open-ball type microphone arrays are installed in the sound field has been described. In this modification, a case where two hard sphere type microphone arrays are installed in a sound field will be described.

剛球型マイクロホンアレーは、半径ra、マイクロホン数Jとし、球面上のマイクロホン配置はelevation角とazimuth角のペア(θjj)で指定されるとする。elevation角とazimuth角のペア(θl、φl)で指定された方向から振幅1の平面波が入射するとき、音場は入射波と散乱波からなる。 The hard-sphere microphone array has a radius r a and the number of microphones J, and the microphone arrangement on the spherical surface is specified by a pair of elevation angle and azimuth angle (θ j , φ j ). When a plane wave having an amplitude of 1 is incident from a direction specified by a pair of elevation angle and azimuth angle (θ l , φ l ), the sound field is composed of an incident wave and a scattered wave.

剛球型マイクロホンアレーの中心と座標系の原点が一致するとき、第jマイクロホンで観測される信号は   When the center of the hard-sphere microphone array coincides with the origin of the coordinate system, the signal observed by the jth microphone is

Figure 2017130899
Figure 2017130899

になる。第m(m=1,2)の剛球型マイクロホンアレーの中心が原点からdm離れている場合、その第jマイクロホンで観測される信号は、位相差を考慮して become. If the center of the rigid ball-type microphone array of the m (m = 1,2) is away d m from the origin, the signal observed at the j-th microphone, taking into account the phase difference

Figure 2017130899

になる。
Figure 2017130899

become.

そこで式(9)の代わりに式(16)をもちいて、式(10)の辞書行列D(ω)のl番目の列ベクトルD(ω,l)を生成すれば、あとは同様に最適化問題を解くことで、剛球マイクロホンアレーの出力信号から平面波を抽出することができる。   Therefore, if equation (16) is used instead of equation (9) and the l-th column vector D (ω, l) of the dictionary matrix D (ω) of equation (10) is generated, then optimization is performed similarly. By solving the problem, a plane wave can be extracted from the output signal of the hard sphere microphone array.

なお式(15)は無限個の項をふくむため、実際には有限のnをもちい、数値計算によりvrigid(ω,l,m,j)を求める。ra=4cmのとき、n=10程度にとればよい。 Since equation (15) includes an infinite number of terms, in actuality, finite n is used, and v rigid (ω, l, m, j) is obtained by numerical calculation. When r a = 4 cm, n = 10 is sufficient.

<その他の変形例>
本実施形態では、マイクロホンアレー1、2におけるマイクロホンの配置、球面マイクロホンアレー1、2の半径が同一であるとしているが、異なってもよい。また、マイクロホンアレーの個数は2つである必要はなく、複数個であればよい。例えば、Mを2以上の整数の何れかとし、M個の球面マイクロホンアレーm(m=1,2,…,M)上の第jmマイクロホンの3次元位置は、球面マイクロホンアレーmの中心をd- mとし、半径をrmとし、
<Other variations>
In the present embodiment, the microphone arrangement in the microphone arrays 1 and 2 and the radius of the spherical microphone arrays 1 and 2 are the same, but they may be different. Further, the number of microphone arrays need not be two, but may be plural. For example, M is any integer of 2 or more, and the three-dimensional position of the j m microphone on the M spherical microphone arrays m (m = 1, 2,..., M) is the center of the spherical microphone array m. d - m , radius r m

Figure 2017130899
Figure 2017130899

で与えられる。このマイクロホンによる収音信号を、時間領域で収音信号y(t,m,jm)(jm=1,2,…,Jmとし、Jmは球面マイクロホンアレーmが備えるマイクロホンの個数)とする。また、式(7),(8)は次式に置き換える。 Given in. The collected sound signal from the microphone is collected in the time domain as y (t, m, j m ) (j m = 1, 2,..., J m , where J m is the number of microphones included in the spherical microphone array m). And Also, equations (7) and (8) are replaced with the following equations.

Figure 2017130899
Figure 2017130899

辞書行列D(ω)のl番目の列ベクトルD(ω,l)は、入射角(θll)の平面波が到来する際の球面マイクロホンアレーmの第jmマイクロホンの観測値 The l-th column vector D (ω, l) of the dictionary matrix D (ω) is an observation value of the j m microphone of the spherical microphone array m when a plane wave having an incident angle (θ l , φ l ) arrives.

Figure 2017130899

をもちいて、
Figure 2017130899

Use

Figure 2017130899

で表される。
Figure 2017130899

It is represented by

また、第一実施形態の変形例2の式(15),(16)は次式に置き換える。   In addition, formulas (15) and (16) in the second modification of the first embodiment are replaced with the following formulas.

Figure 2017130899
Figure 2017130899

<第二実施形態>
第一実施形態の変形例1と異なる部分を中心に説明する。
<Second embodiment>
A description will be given centering on differences from the first modification of the first embodiment.

第一実施形態の変形例1では、仮想的に開球型のマイクロホンアレーを想定し、その収音信号を推定した。第二実施形態では、第一実施形態の変形例1の構成をベースとして、開球型のマイクロホンアレーの代わりに、仮想的に剛球型マイクロホンアレーを想定し、その収音信号を推定する。   In Modification 1 of the first embodiment, a sound pickup signal is estimated assuming a virtually open-ball type microphone array. In the second embodiment, based on the configuration of the first modification of the first embodiment, instead of the open-ball type microphone array, a hard-ball type microphone array is virtually assumed, and the collected sound signal is estimated.

図5は第二実施形態に係る音場推定装置300の機能ブロック図を、図6はその処理フローを示す。   FIG. 5 is a functional block diagram of the sound field estimation apparatus 300 according to the second embodiment, and FIG. 6 shows the processing flow.

音場推定装置300は、短時間フーリエ変換部211、平面波分解部213、補間推定部216及び短時間逆フーリエ変換部218を含み、さらに、アレー型変換部317を含む。   The sound field estimation apparatus 300 includes a short-time Fourier transform unit 211, a plane wave decomposition unit 213, an interpolation estimation unit 216, and a short-time inverse Fourier transform unit 218, and further includes an array type conversion unit 317.

最初に、仮想的な球面マイクロホンアレーとして、参考文献3の二重式開球型の球面マイクロホンアレー(dual open sphere microphone array)による収音を想定する。このマイクロホンアレーではマイクロホン素子が半径rの球面もしくは半径αrの球面上に配置されており、α=1.2が推奨されている。
(参考文献3)I. Balmages, B. Rafaely, "Open-Sphere Designs for Spherical Microphone Arrays", IEEE Transactions on Audio, Speech, and Language Processing, vol. 15, no. 2, pp 727-732, 2007.
例えば、Q=P×2とし、Q個の仮想的なマイクロホン素子のうち、P個の仮想的なマイクロホン素子の位置を変形例1と同様とする。つまり、仮想的なマイクロホンアレーの中心が、原点から見てD=[dx dy dz]の位置にあり、仮想的なマイクロホンアレーの球面上のp番目の仮想的なマイクロホンの位置r- pは、
First, as a virtual spherical microphone array, sound collection by a double open sphere microphone array of Reference 3 is assumed. In this microphone array, microphone elements are arranged on a spherical surface with a radius r or a spherical surface with a radius αr, and α = 1.2 is recommended.
(Reference 3) I. Balmages, B. Rafaely, "Open-Sphere Designs for Spherical Microphone Arrays", IEEE Transactions on Audio, Speech, and Language Processing, vol. 15, no. 2, pp 727-732, 2007.
For example, it is assumed that Q = P × 2, and the positions of P virtual microphone elements among the Q virtual microphone elements are the same as those in the first modification. That is, the center of the virtual microphone array is at the position of D = [d x d y d z ] when viewed from the origin, and the position of the p-th virtual microphone on the spherical surface of the virtual microphone array r p is

Figure 2017130899
Figure 2017130899

である。Q個の仮想的なマイクロホン素子のうち、残りP個の仮想的なマイクロホンを中心が[dx dydz]、半径αrの球面上に配置し、q番目の仮想的なマイクロホンの位置を It is. Of the Q virtual microphone elements, the remaining P virtual microphones are arranged on a spherical surface with a center of [d x d y d z ] and a radius αr, and the position of the qth virtual microphone is determined.

Figure 2017130899
Figure 2017130899

とする。また、Ωq=(θqq)=Ωp=(θpp)とする。つまり、q番目(q=P+p)のマイクロホンとp番目のマイクロホンとは、仮想的なマイクロホンアレーの中心からみて同じ方向にあり、q番目のマイクロホンは半径rの球面上にあり、q番目のマイクロホンは半径αrの球面上にある。 And Further, Ω q = (θ q , φ q ) = Ω p = (θ p , φ p ). In other words, the q-th (q = P + p) microphone and the p-th microphone are in the same direction as seen from the center of the virtual microphone array, the q-th microphone is on the spherical surface of radius r, and the q-th microphone The microphone is on a spherical surface with a radius αr.

補間推定部216は、推定値Aと仮想的なマイクロホンアレーの中心Dと、仮想マイクロホンのP個の位置情報(r- p)(ただし、p=1,2,…,P)とP個の位置情報(r- q)(ただし、q=P+1,P+2,…,Q)とを受け取り、仮想マイクロホンの位置(r- p)及び(r- q)での周波数領域の収音信号u^(ω,r- p)(ただし、p=1,2,…,P)、u^(ω,r- q)(ただし、q=P+1,P+2,…,Q)を推定し(S216)、出力する。なお、P個の位置情報(r- q)(ただし、q=P+1,P+2,…,Q)に代えて、αのみを受け取る構成とし、P個の位置情報(r- p)とαとから、P個の位置情報(r- q)を計算して求めてもよい。 Interpolation estimation section 216 includes estimated value A, virtual microphone array center D, virtual microphone P position information (r - p ) (where p = 1, 2,..., P) and P pieces of positional information. Receives position information (r - q ) (where q = P + 1, P + 2, ..., Q) and collects sound in the frequency domain at virtual microphone positions (r - p ) and (r - q ) Signal u ^ (ω, r - p ) (where p = 1,2, ..., P), u ^ (ω, r - q ) (where q = P + 1, P + 2, ..., Q) Is estimated (S216) and output. It should be noted that instead of P pieces of position information (r q ) (where q = P + 1, P + 2,..., Q), only α is received, and P pieces of position information (r p ) And P pieces of position information (r q ) may be calculated from α and α.

<アレー型変換部317>
アレー型変換部317は、周波数領域の収音信号u^(ω,r- p)(ただし、p=1,2,…,P)、u^(ω,r- q)(ただし、q=P+1,P+2,…,Q)を受け取り、次式により、球面波スペクトルun,m(ω,r)およびun,m(ω,αr)に変換する。
<Array type conversion unit 317>
The array-type conversion unit 317 is a frequency domain sound pickup signal u ^ (ω, r p ) (where p = 1, 2,..., P), u ^ (ω, r q ) (where q = P + 1, P + 2,..., Q) are received and converted into spherical wave spectra u n, m (ω, r) and u n, m (ω, αr) by the following equation.

Figure 2017130899
Figure 2017130899

開球型の球面マイクロホンアレーでは、特異点の影響によりjn(kr)=0になるkおよびrで測定が不可能になる。しかしun,m(ω,r)とun,m(ω,αr)のうち、絶対値の大きい方を選択することで、二重式開球型の球面マイクロホンアレーは特異点の影響を回避することができる。 In an open spherical spherical microphone array, measurement becomes impossible at k and r where j n (kr) = 0 due to the influence of singularities. However, by selecting the larger absolute value between u n, m (ω, r) and u n, m (ω, αr), the double-open spherical microphone array has the effect of singularities. It can be avoided.

そこで、アレー型変換部317は、   Therefore, the array type conversion unit 317

Figure 2017130899
Figure 2017130899

を用い、
|un,m(ω,r)|>|un,m(ω,αr)|のとき
Use
When | u n, m (ω, r) |> | u n, m (ω, αr) |

Figure 2017130899
Figure 2017130899

とし、|un,m(ω,r)|≦|un,m(ω,αr)|のとき When | u n, m (ω, r) | ≦ | u n, m (ω, αr) |

Figure 2017130899
Figure 2017130899

として、球面波スペクトルvn,m(ω,r)を求める。 To obtain a spherical wave spectrum v n, m (ω, r).

アレー型変換部317は、最後に逆球面波スペクトル変換   Finally, the array type conversion unit 317 performs inverse spherical wave spectrum conversion.

Figure 2017130899
Figure 2017130899

を適用する。これにより、最初に仮想的に設置した二重式開球型の球面マイクロホンアレーの位置に、半径rの剛球型マイクロホンアレーを設置した場合の収音信号を周波数領域で得ることができる。アレー型変換部317は周波数領域の信号v(ω,r- p)(ただし、p=1,2,…,P)を短時間逆フーリエ変換部218に出力する。 Apply. As a result, it is possible to obtain a sound collection signal in the frequency domain when a rigid spherical microphone array having a radius r is installed at the position of the double-type open spherical spherical microphone array that is virtually installed first. Array type conversion unit 317 frequency domain signal v (ω, r - p) ( however, p = 1,2, ..., P ) and outputs a short time inverse Fourier transform unit 218.

<効果>
このような構成とすることで、第一実施形態の変形例1と同様の効果を得ることができる。さらに、剛球型のマイクロホンアレーを設置した場合の収音信号を仮想的に得ることができる。なお、本実施形態と第一実施形態の変形例2とを組合せてもよい。
<Effect>
By setting it as such a structure, the effect similar to the modification 1 of 1st embodiment can be acquired. Furthermore, it is possible to virtually obtain a sound collection signal when a hard sphere type microphone array is installed. In addition, you may combine this embodiment and the modification 2 of 1st embodiment.

<第三実施形態>
剛球型マイクロホンアレーのバーチャルリアリティへの適用が、参考文献4で示されている。
(参考文献4)R. Duraiswami1, D. N. Zotkin1, Z. Li, E. Grassi, N. A. Gumerov, L. S. Davis, "High Order Spatial Audio Capture and Binaural Head-Tracked Playback over Headphones with HRTF Cues", Proceedings 119th convention of AES, 2005.
この参考文献4では、固定された剛球型マイクロホンアレーの収音信号および仮想的な頭部の方向を入力とし、指定方向に頭を向けたときに右耳および左耳に聞こえる信号(バイノーラル信号)を出力する方法が示されている。球面マイクロホンアレーが全方向に収音しているために、マイクロホン素子およびマイクロホンアレーを動かすことなく、指定された任意の方向に対応したバイノーラル信号を生成可能である。すなわち、受聴者の頭部回転をリアルタイムに計測して入力すると、その回転運動に追随してバイノーラル信号を生成して、受聴者に提示できる。
<Third embodiment>
Reference 4 shows an application of a hard-sphere microphone array to virtual reality.
(Reference 4) R. Duraiswami1, DN Zotkin1, Z. Li, E. Grassi, NA Gumerov, LS Davis, "High Order Spatial Audio Capture and Binaural Head-Tracked Playback over Headphones with HRTF Cues", Proceedings 119th convention of AES , 2005.
In this reference document 4, a sound signal (binaural signal) that can be heard by the right ear and the left ear when the head is turned in a specified direction with the sound pickup signal of the fixed rigid-sphere microphone array and the virtual head direction as inputs. How to output is shown. Since the spherical microphone array collects sound in all directions, a binaural signal corresponding to an arbitrary designated direction can be generated without moving the microphone element and the microphone array. That is, if the listener's head rotation is measured and input in real time, a binaural signal can be generated following the rotational movement and presented to the listener.

第二実施形態では、仮想的に設置した剛球型マイクロホンアレーの収音信号を求める方法を示した。この収音信号に対して、図7のようにこのバイノーラル信号生成法を組み合わせる構成が、本実施形態の構成である。   In the second embodiment, a method of obtaining a sound collection signal of a virtually spherical hard sphere microphone array has been described. A configuration in which this binaural signal generation method is combined with this collected sound signal as shown in FIG. 7 is the configuration of this embodiment.

第二実施形態と異なる部分を中心に説明する。   A description will be given centering on differences from the second embodiment.

図7は第三実施形態に係る音場推定装置400の機能ブロック図を、図8はその処理フローを示す。   FIG. 7 is a functional block diagram of the sound field estimation apparatus 400 according to the third embodiment, and FIG. 8 shows a processing flow thereof.

音場推定装置400は、短時間フーリエ変換部211、平面波分解部213、補間推定部216、アレー型変換部317及び短時間逆フーリエ変換部218を含み、さらに、バイノーラル信号生成部419を含む。   The sound field estimation apparatus 400 includes a short-time Fourier transform unit 211, a plane wave decomposition unit 213, an interpolation estimation unit 216, an array type conversion unit 317, and a short-time inverse Fourier transform unit 218, and further includes a binaural signal generation unit 419.

<バイノーラル信号生成部419>
バイノーラル信号生成部419は、仮想的な頭部の方向(姿勢)と時間領域の収音信号y(t,r- p)(ただし、p=1,2,…,P、剛球型球面マイクロホンアレーの収音信号に相当)とを受け取り、例えば参考文献4に記載の方法により、これらの信号から仮想的な頭部の位置と方向におけるバイノーラル信号y(t,R),y(t,L)を生成し(S419)、音場推定装置400の出力値として出力する。なお、仮想的な頭部の位置は、仮想的なマイクロホンアレーの中心D=[dx dy dz]に相当し、時間領域の収音信号y(t,r- p)は、仮想的な頭部の位置における剛球型球面マイクロホンアレーの収音信号に相当する。そのため、バイノーラル信号生成部419では、仮想的な頭部の方向(姿勢)と時間領域の収音信号y(t,r- p)とから仮想的な頭部の位置と方向におけるバイノーラル信号y(t,R),y(t,L)を生成することができる。
<Binaural signal generator 419>
The binaural signal generation unit 419 includes a virtual head direction (posture) and a time-domain sound pickup signal y (t, r - p ) (where p = 1, 2,..., P, a hard spherical spherical microphone array. And the binaural signals y (t, R), y (t, L) in the position and direction of the virtual head from these signals by the method described in Reference 4, for example. (S419) and output as the output value of the sound field estimation apparatus 400. Note that the position of the virtual head corresponds to the center D = [d x d y d z ] of the virtual microphone array, and the collected sound signal y (t, r - p ) in the time domain is the virtual This corresponds to the sound collection signal of the hard spherical spherical microphone array at the position of the head. Therefore, the binaural signal generation unit 419 uses the binaural signal y (() in the position and direction of the virtual head from the direction (posture) of the virtual head and the collected sound signal y (t, r - p ) in the time domain. t, R), y (t, L) can be generated.

参考文献4の手法は頭での回転運動にしか追随できず、頭の並進運動には対応できない。しかし、本実施形態の構成では、剛球型球面マイクロホンアレーを仮想的に並進移動させることができる。そのために本実施形態は、頭部の回転運動および並進運動の両方に追随してバイノーラル信号を生成することを可能にする。   The method of Reference 4 can only follow the rotational movement of the head and cannot cope with the translational movement of the head. However, in the configuration of the present embodiment, the rigid spherical spherical microphone array can be virtually translated. To this end, the present embodiment makes it possible to generate a binaural signal following both the rotational movement and translational movement of the head.

<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<Other variations>
The present invention is not limited to the above-described embodiments and modifications. For example, the various processes described above are not only executed in time series according to the description, but may also be executed in parallel or individually as required by the processing capability of the apparatus that executes the processes. In addition, it can change suitably in the range which does not deviate from the meaning of this invention.

<プログラム及び記録媒体>
また、上記の実施形態及び変形例で説明した各装置における各種の処理機能をコンピュータによって実現してもよい。その場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
<Program and recording medium>
In addition, various processing functions in each device described in the above embodiments and modifications may be realized by a computer. In that case, the processing contents of the functions that each device should have are described by a program. Then, by executing this program on a computer, various processing functions in each of the above devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Further, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶部に格納する。そして、処理の実行時、このコンピュータは、自己の記憶部に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実施形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよい。さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its storage unit. When executing the process, this computer reads the program stored in its own storage unit and executes the process according to the read program. As another embodiment of this program, a computer may read a program directly from a portable recording medium and execute processing according to the program. Further, each time a program is transferred from the server computer to the computer, processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program includes information provided for processing by the electronic computer and equivalent to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、コンピュータ上で所定のプログラムを実行させることにより、各装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In addition, although each device is configured by executing a predetermined program on a computer, at least a part of these processing contents may be realized by hardware.

Claims (8)

m=1,2,…,Mを球面マイクロホンアレーのインデックス、jm=1,2,…,Jm、rmを極座標の動径、θj_m及びφj_mを極座標の偏角、ωを時間周波数のインデックスとし、d- mを中心とする半径rmの球体上の偏角θj_m及びφj_mのJm個の位置r-(m,jm)=d- m+[rmsinθj_mcosφj_m rmsinθj_msinφj_m rmcosθj_m]Tにそれぞれマイクロホンを備えるM個の球面マイクロホンアレーmの周波数領域の収音信号u(ω,m,jm)を用いて、音場を構成する平面波の強度からなるベクトルを推定する平面波分解部と、
前記平面波の強度からなるベクトルの推定値a(ω)と、仮想的なマイクロホンの位置r- pとを用いて、前記仮想マイクロホンの位置r- pでの周波数領域の収音信号u^(ω,r- p)を推定する補間推定部とを含む、
音場推定装置。
m = 1,2, ..., the index of the spherical microphone array to M, j m = 1,2, ... , J m, r m a polar radius, θ j_m and φ the polar polarization angle J_m, the ω time and the frequency index, d - m spheres on the J m-number of deflection angle theta J_m and phi J_m position of radius r m around the r - (m, j m) = d - m + [r m sinθ j_m cosφ j_m r m sinθ j_m sinφ j_m r m cosθ j_m ] The sound field is constructed using the collected sound signals u (ω, m, j m ) in the frequency domain of M spherical microphone arrays m each having a microphone at T A plane wave decomposition unit for estimating a vector consisting of the intensity of the plane wave to be
Using the estimated value a (ω) of the vector composed of the intensity of the plane wave and the virtual microphone position r - p , the sound collected signal u ^ (ω in the frequency domain at the virtual microphone position r - p is used. , r - p ), and an interpolation estimation unit,
Sound field estimation device.
請求項1の音場推定装置であって、
αを所定の実数、p=1,2,…,Pとし、rを極座標の動径、θp及びφpを極座標の偏角、収音信号u^(ω,r,θpp)の球面波スペクトルun,m(ω,r)の絶対値|un,m(ω,r)|と、収音信号u^(ω,αr,θpp)の球面波スペクトルun,m(ω,αr)の絶対値|un,m(ω,αr)|との大小関係に基づき、剛球型マイクロホンアレーの収音信号から算出される球面波スペクトルvn,m(ω,r)を推定するアレー型変換部を含む、
音場推定装置。
The sound field estimation apparatus according to claim 1,
α is a predetermined real number, p = 1, 2,..., P, r is the radial radius of the polar coordinate, θ p and φ p are the polar coordinates, and the collected sound signal u ^ (ω, r, θ p , φ p ) Spherical wave spectrum u n, m (ω, r) absolute value | u n, m (ω, r) | and spherical wave spectrum of collected sound signal u ^ (ω, αr, θ p , φ p ) u n, m (ω, αr ) the absolute value of | u n, m (ω, αr) | based on magnitude relationship between the spherical wave spectrum is calculated from the sound signals picked up by a rigid ball-type microphone array v n, m ( including an array transform that estimates ω, r),
Sound field estimation device.
請求項2の音場推定装置であって、仮想的な頭部の位置を剛球型マイクロホンアレーの位置として、
前記球面波スペクトルvn,m(ω,r)から得られるP個の時間領域の収音信号y(t,r- p)と仮想的な頭部の方向に基づき、仮想的な頭部の位置と方向におけるバイノーラル信号を生成するバイノーラル信号生成部を含む、
音場推定装置。
The sound field estimation apparatus according to claim 2, wherein the position of the virtual head is defined as the position of the hard sphere microphone array.
Based on the P time collected sound signals y (t, r - p ) obtained from the spherical wave spectrum v n, m (ω, r) and the direction of the virtual head, Including a binaural signal generator for generating binaural signals in position and direction,
Sound field estimation device.
請求項1から請求項3の何れかの音場推定装置であって、
Pを1以上の整数、p=1,2,…,P、a(ω)=[a1(ω),a2(ω),…,al(ω),…,aL'(ω)]T、iを虚数、kを波数とし、音場を構成するl番目の平面波の極座標の偏角をθl及びφlとし、前記補間推定部は、
Figure 2017130899

により、[dx dy dz]を中心とする半径rの球体上の偏角θp及びφpの仮想的なマイクロホンの周波数領域の収音信号u^(ω,r- p)を推定する、
音場推定装置
The sound field estimation apparatus according to any one of claims 1 to 3,
P is an integer greater than or equal to 1, p = 1,2, ..., P, a (ω) = [a 1 (ω), a 2 (ω), ..., a l (ω), ..., a L ' (ω )] T and i are imaginary numbers, k is a wave number, polar argument of the l-th plane wave constituting the sound field is θ l and φ l , and the interpolation estimation unit includes:
Figure 2017130899

To estimate the sound collection signal u ^ (ω, r - p ) in the frequency domain of the virtual microphone with declination θ p and φ p on a sphere of radius r centered at [d x d y d z ] To
Sound field estimation device
請求項1から請求項4の何れかの音場推定装置であって、
前記M個の球面マイクロホンアレーmは、開球型のマイクロホンアレーであり、
||a(ω)||1をa(ω)のL1ノルムとし、正則化のための定数をλとし、前記平面波分解部は、
Figure 2017130899

をコスト関数とし、コスト関数Jを最小にする推定値a-(ω)を求める、
音場推定装置。
The sound field estimation apparatus according to any one of claims 1 to 4,
The M spherical microphone arrays m are open-type microphone arrays,
|| a (ω) || 1 is the L1 norm of a (ω), the constant for regularization is λ, and the plane wave decomposition unit is
Figure 2017130899

Is used as a cost function, and an estimated value a (ω) that minimizes the cost function J is obtained.
Sound field estimation device.
請求項1から請求項4の何れかの音場推定装置であって、
前記M個の球面マイクロホンアレーは、剛球型のマイクロホンアレーであり、
||a(ω)||1をa(ω)のL1ノルムとし、正則化のための定数をλとし、Yn m'をオーダーn、次数m'の球調和関数とし、kを波数、bn(krm)をモード強度関数とし、前記平面波分解部は、
Figure 2017130899

をコスト関数とし、コスト関数Jを最小にする推定値a-(ω)を求める、
音場推定装置。
The sound field estimation apparatus according to any one of claims 1 to 4,
The M spherical microphone arrays are rigid spherical microphone arrays,
|| a (ω) || 1 is the L1 norm of a (ω), λ is a constant for regularization, Y n m ′ is a spherical harmonic function of order n, order m ′, k is a wave number, b n (kr m ) is a mode intensity function, and the plane wave decomposition unit is
Figure 2017130899

Is used as a cost function, and an estimated value a (ω) that minimizes the cost function J is obtained.
Sound field estimation device.
m=1,2,…,Mを球面マイクロホンアレーのインデックス、jm=1,2,…,Jm、rmを極座標の動径、θj_m及びφj_mを極座標の偏角、ωを時間周波数のインデックスとし、平面波分解部が、d- mを中心とする半径rmの球体上の偏角θj_m及びφj_mのJm個の位置r-(m,jm)=d- m+[rmsinθj_mcosφj_m rmsinθj_msinφj_m rmcosθj_m]Tにそれぞれマイクロホンを備えるM個の球面マイクロホンアレーmの周波数領域の収音信号u(ω,m,jm)を用いて、音場を構成する平面波の強度からなるベクトルを推定する平面波分解ステップと、
補間推定部が、前記平面波の強度からなるベクトルの推定値a(ω)と、仮想的なマイクロホンの位置r- pとを用いて、前記仮想マイクロホンの位置r- pでの周波数領域の収音信号u^(ω,r- p)を推定する補間推定ステップとを含む、
音場推定方法。
m = 1,2, ..., the index of the spherical microphone array to M, j m = 1,2, ... , J m, r m a polar radius, θ j_m and φ the polar polarization angle J_m, the ω time an index of the frequency, the plane wave decomposition section, d - the argument of the sphere radius r m around the m θ j_m and phi J_m of J m-number of position r - (m, j m) = d - m + [r m sinθ j_m cosφ j_m r m sinθ j_m sinφ j_m r m cosθ j_m ] Using the collected sound signals u (ω, m, j m ) in the frequency domain of M spherical microphone arrays m each having a microphone in T A plane wave decomposition step for estimating a vector composed of the intensity of the plane wave constituting the sound field;
Interpolation estimation unit, and estimates a (omega) of the vector of intensity of the plane wave, the position r of the virtual microphone - with a p, the position r of the virtual microphone - sound pickup frequencies in the p region An interpolation estimation step for estimating the signal u ^ (ω, r - p ),
Sound field estimation method.
請求項1から請求項6の何れかの音場推定装置としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as a sound field estimation apparatus in any one of Claims 1-6.
JP2016011016A 2016-01-22 2016-01-22 Sound field estimation device, method therefor and program Pending JP2017130899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011016A JP2017130899A (en) 2016-01-22 2016-01-22 Sound field estimation device, method therefor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011016A JP2017130899A (en) 2016-01-22 2016-01-22 Sound field estimation device, method therefor and program

Publications (1)

Publication Number Publication Date
JP2017130899A true JP2017130899A (en) 2017-07-27

Family

ID=59395789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011016A Pending JP2017130899A (en) 2016-01-22 2016-01-22 Sound field estimation device, method therefor and program

Country Status (1)

Country Link
JP (1) JP2017130899A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200020233A (en) * 2018-08-16 2020-02-26 국방과학연구소 Method for estimating direction of incidence of sound source using spherical microphone arrays
CN111679244A (en) * 2020-05-13 2020-09-18 上海大学 Direct sound time-frequency point selection method based on plane wave relative density

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200020233A (en) * 2018-08-16 2020-02-26 국방과학연구소 Method for estimating direction of incidence of sound source using spherical microphone arrays
KR102097641B1 (en) * 2018-08-16 2020-04-06 국방과학연구소 Method for estimating direction of incidence of sound source using spherical microphone arrays
CN111679244A (en) * 2020-05-13 2020-09-18 上海大学 Direct sound time-frequency point selection method based on plane wave relative density
CN111679244B (en) * 2020-05-13 2023-11-17 上海大学 Direct sound time-frequency point selection method based on plane wave relative density

Similar Documents

Publication Publication Date Title
Teutsch et al. Acoustic source detection and localization based on wavefield decomposition using circular microphone arrays
Jin et al. Design, optimization and evaluation of a dual-radius spherical microphone array
WO2015076149A1 (en) Sound field re-creation device, method, and program
WO2014147442A1 (en) Spatial audio apparatus
JP2013507796A (en) Reconstructing the recorded sound field
Tylka et al. Performance of linear extrapolation methods for virtual sound field navigation
Sakamoto et al. Sound-space recording and binaural presentation system based on a 252-channel microphone array
Teutsch et al. Detection and localization of multiple wideband acoustic sources based on wavefield decomposition using spherical apertures
Tylka et al. Domains of practical applicability for parametric interpolation methods for virtual sound field navigation
Bader Microphone array
Chardon et al. A blind dereverberation method for narrowband source localization
Borra et al. Soundfield reconstruction in reverberant environments using higher-order microphones and impulse response measurements
Hold et al. Spatial filter bank design in the spherical harmonic domain
JP2017130899A (en) Sound field estimation device, method therefor and program
Borra et al. 1st-order microphone array system for large area sound field recording and reconstruction: Discussion and preliminary results
Fazi et al. Representation of sound fields for audio recording and reproduction
JP5986966B2 (en) Sound field recording / reproducing apparatus, method, and program
WO2018053050A1 (en) Audio signal processor and generator
JP2018077139A (en) Sound field estimation device, sound field estimation method and program
JP6087856B2 (en) Sound field recording and reproducing apparatus, system, method and program
Bastine et al. Ambisonics capture using microphones on head-worn device of arbitrary geometry
JP2017112415A (en) Sound field estimation device, method and program therefor
Peled et al. Objective performance analysis of spherical microphone arrays for speech enhancement in rooms
Erdem et al. Internal time delay calibration of rigid spherical microphone arrays for multi-perspective 6dof audio recordings
JP6535955B2 (en) Sound field information parameter group generation device, method and program