JP2018120129A - Sound field estimation device, method and program - Google Patents

Sound field estimation device, method and program Download PDF

Info

Publication number
JP2018120129A
JP2018120129A JP2017012349A JP2017012349A JP2018120129A JP 2018120129 A JP2018120129 A JP 2018120129A JP 2017012349 A JP2017012349 A JP 2017012349A JP 2017012349 A JP2017012349 A JP 2017012349A JP 2018120129 A JP2018120129 A JP 2018120129A
Authority
JP
Japan
Prior art keywords
sound field
microphone
frequency domain
signal
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017012349A
Other languages
Japanese (ja)
Inventor
江村 暁
Akira Emura
暁 江村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017012349A priority Critical patent/JP2018120129A/en
Publication of JP2018120129A publication Critical patent/JP2018120129A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic System (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technic capable of estimating precisely the sound field in a wider range.SOLUTION: A sound field estimation device comprises: a sound field representation vector estimating unit 120 which estimates a sound field representation vector a(ω)(ω=1,2,...,F) as a vector composed of decomposition coefficients a(ω, q)(ω=1, 2,...,F,q=1,2,...,Q) of mixed waves constituting the sound field, from a frequency domain collection sound signal u(ω,j) (ω=1,2,...,F,j=1,2,...,J) based on the signal collected by the spherical microphone array and a frequency domain collection signal u(ω,j)(ω=1,2,...,F,j=1,2,...,J) based on the signal collected by the additional microphone array group, by using the cost function J(ω)(ω=1,2,...,F); and a sound field calculation unit 130 which calculates the virtual microphone frequency domain collection signal u(ω,r)(ω=1,2,...,F), from the sound field representation vector a(ω)(ω=1,2,...,F) and a virtual microphone position r.SELECTED DRAWING: Figure 1

Description

本発明は、音場推定技術に関し、特に球面マイクロホンアレーと追加マイクロホンを用いて収音した収音信号から音場を推定する技術に関する。   The present invention relates to a sound field estimation technique, and more particularly to a technique for estimating a sound field from a collected sound signal collected using a spherical microphone array and an additional microphone.

近年、オーディオ再生に使われるチャネル数およびスピーカ数は、臨場感をより高め同時に再生エリアを拡大するために、2から、5.1へ、さらには22.1へと増加している。チャネル数等が拡張された再生手法の評価検証には、再生された音場を測定、推定することが重要になる。   In recent years, the number of channels and the number of speakers used for audio playback has increased from 2 to 5.1 and further to 22.1 in order to increase the sense of reality and simultaneously expand the playback area. It is important to measure and estimate the reproduced sound field for evaluation and verification of a reproduction method with an expanded number of channels.

このような音場推定法として、非特許文献1で球面マイクロホンアレーを用いる方法が提案されている。この方法では、バッフルを持つ剛球型球面マイクロホンアレーに配置された複数のマイクロホンで信号が収音され、そのマルチチャネル信号から音場の平面波分解が求められ、音場が推定される。   As such a sound field estimation method, Non-Patent Document 1 proposes a method using a spherical microphone array. In this method, a signal is picked up by a plurality of microphones arranged in a hard spherical spherical microphone array having a baffle, and plane wave decomposition of the sound field is obtained from the multichannel signal, and the sound field is estimated.

B. Rafaely, “Analysis and Design of Spherical Microphone Arrays”, IEEE Trans. Speech Audio Processing, Vol.13, No.1, pp.135-143, Jan. 2005.B. Rafaely, “Analysis and Design of Spherical Microphone Arrays”, IEEE Trans. Speech Audio Processing, Vol.13, No.1, pp.135-143, Jan. 2005. E. G. Williams, “Fourier Acoustics”, Academic Press, 6.10節, pp.224-231, 1999.E. G. Williams, “Fourier Acoustics”, Academic Press, verse 6.10, pp.224-231, 1999.

単一の球面マイクロホンアレーをもちいる従来の音場推定方法では、音場の測定点が半径数cmから十数cmの球面に限定される。その測定点から音場を外挿により推定するために、推定された音場について精度を確保できる範囲が限定されてしまう可能性がある。   In a conventional sound field estimation method using a single spherical microphone array, the sound field measurement points are limited to a spherical surface having a radius of several centimeters to several tens of centimeters. Since the sound field is estimated from the measurement point by extrapolation, there is a possibility that the range in which the accuracy of the estimated sound field can be secured is limited.

本発明は、音場をより広い範囲で精度よく推定することができる音場推定装置、方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide a sound field estimation apparatus, method, and program capable of accurately estimating a sound field in a wider range.

本発明の一態様による音場推定装置は、球面マイクロホンアレー上のマイクロホンの数をJとし、上記マイクロホンの配置位置を指定する仰角と方位角の組を(Θj, Φj) (j=1, 2,…, J)とし、上記球面マイクロホンアレーの半径をraとし、上記球面マイクロホンアレーの中心位置を原点とし、追加マイクロホン群のマイクロホンの数をJcとし、平面波モデルを3次元座標系の原点へ入射角(θqq)で入射してくる平面波(q=1, 2,…, Q)のモデルとし、上記球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvs(ω, q, j) (ωは周波数を表すインデックスとし、ω=1, 2,…, F、q=1, 2,…, Qとする)とし、上記追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvc(ω, q, j) (ω=1, 2,…, F、q=1, 2,…, Q)とし、ds(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJ次元の第q平面波ベクトルとし、 In the sound field estimation apparatus according to an aspect of the present invention, the number of microphones on the spherical microphone array is J, and a pair of elevation angle and azimuth angle that specifies the placement position of the microphone is (Θ j , Φ j ) (j = 1 , 2, ..., and J), the radius of the spherical microphone array and r a, the center position of the spherical microphone array as the origin, the number of additional microphones groups microphones and J c, 3-dimensional coordinate system plane wave model Is a model of a plane wave (q = 1, 2,..., Q) that is incident at an incident angle (θ q , φ q ), and the j-th microphone (j = 1, 2,...) On the spherical microphone array. , J) is the plane wave frequency domain observation signal, which is an observation signal in the frequency domain of the plane wave observed by v s (ω, q, j) (ω is an index representing frequency, ω = 1, 2, ..., F , q = 1, 2, ..., and Q) and then, the j c microphone in the additional microphone group (j c = 1, 2, ..., observed in J c) A plane wave frequency domain observed signal is the observation signal in the frequency domain of a plane wave v c (ω, q, j ) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) and, d s Let (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) be the J-dimensional q-plane wave vector defined by the following equation:

Figure 2018120129
Figure 2018120129

dc(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJc次元の第q球面波ベクトルとし、 Let d c (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) be the J c- dimensional q-th spherical wave vector defined by the following equation:

Figure 2018120129
Figure 2018120129

D(ω) (ω=1, 2,…, F)を、次式で定義される(J+Jc)×Qの辞書行列とし、 Let D (ω) (ω = 1, 2, ..., F) be a (J + J c ) × Q dictionary matrix defined by the following equation:

Figure 2018120129
Figure 2018120129

λを正則化パラメータとし、コスト関数J(ω) (ω=1, 2,…, F)を、音場表現ベクトルa(ω)(ω=1, 2,…, F)と分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いた次式で定義されるJ(ω)とし、 Using λ as a regularization parameter, the cost function J (ω) (ω = 1, 2, ..., F) is expressed as the sound field expression vector a (ω) (ω = 1, 2, ..., F) and the decomposition coefficient a p J (ω) defined by the following equation using (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q)

Figure 2018120129
Figure 2018120129

上記音場表現ベクトルa(ω)(ω=1, 2,…, F)は、上記分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いて次式で定義されるQ次元ベクトルであるとし、 The sound field expression vector a (ω) (ω = 1, 2,..., F) is the decomposition coefficient a p (ω, q) (ω = 1, 2,... F, q = 1, 2,. , Q) to be a Q-dimensional vector defined by

Figure 2018120129
Figure 2018120129

us(ω),uc(ω) (ω=1, 2,…, F)を、それぞれ次式で定義されるJ次元の球面マイクロホンアレーの周波数領域収音信号ベクトル及びJc次元の追加マイクロホン群の周波数領域収音信号ベクトルとして、 u s (ω), u c (ω) (ω = 1, 2,…, F) are added to the frequency domain sound signal vector and J c dimension of the J-dimensional spherical microphone array defined by the following equations, respectively. As the frequency domain sound pickup signal vector of the microphone group,

Figure 2018120129
Figure 2018120129

Figure 2018120129
Figure 2018120129

上記球面マイクロホンアレーで収音された信号に基づく周波数領域収音信号us(ω, j) (ω=1, 2,…, F、j=1, 2,…, J)と、上記追加マイクロホンアレー群で収音された信号に基づく周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、上記仮想マイクロホン位置rにおける周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω, r) (ω=1, 2,…, F)を推定する音場推定装置であって、
上記周波数領域収音信号us(ω,j) (ω=1, 2,…, F、j=1, 2,…, J)及び上記周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, Jc)から、上記コスト関数J(ω) (ω=1, 2,…, F)を用いて、音場を構成する混合波の分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)からなるベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を推定する音場表現ベクトル推定部と、
上記音場表現ベクトルa(ω) (ω=1, 2,…, F)及び上記仮想マイクロホン位置rから、上記仮想マイクロホン周波数領域収音信号u(ω, r)(ω=1, 2,…, F)を計算する音場計算部と、を備えている。
Frequency domain sound pickup signal u s (ω, j) (ω = 1, 2, ..., F, j = 1, 2, ..., J) based on the signal picked up by the spherical microphone array, and the additional microphone Frequency-domain sound pickup signal u c (ω, j c ) (ω = 1, 2,…, F, j = 1, 2,…, J c ) based on signals collected by the array group and sound field estimation Virtual microphone frequency domain sound pickup signal u (ω, r) (ω = 1) that is a sound pickup signal in the frequency domain at the virtual microphone position r , 2, ..., F) for estimating the sound field,
The frequency domain collected signal u s (ω, j) (ω = 1, 2, ..., F, j = 1, 2, ..., J) and the frequency domain collected signal u c (ω, j c ) ( ω = 1, 2, ..., F, j = 1, 2, ..., J c ), using the cost function J (ω) (ω = 1, 2, ..., F) Sound field expression vector a (ω) (ω = 1), which is a vector composed of the decomposition factor a p (ω, q) (ω = 1, 2,…, F, q = 1, 2,…, Q) of the mixed wave , 2, ..., F), a sound field expression vector estimator,
From the sound field expression vector a (ω) (ω = 1, 2,..., F) and the virtual microphone position r, the virtual microphone frequency domain collected signal u (ω, r) (ω = 1, 2,. , F), and a sound field calculation unit.

音場をより広い範囲で精度よく推定することができる。   The sound field can be accurately estimated in a wider range.

音場推定装置100の構成の一例を示す図。The figure which shows an example of a structure of the sound field estimation apparatus 100. FIG. 音場推定装置100の動作の一例を示す図。The figure which shows an example of operation | movement of the sound field estimation apparatus 100. 追加マイクロホン群の構成の一例を示す図。The figure which shows an example of a structure of an additional microphone group. 音場推定装置101の構成の一例を示す図。The figure which shows an example of a structure of the sound field estimation apparatus 101. FIG. 音場推定装置200の構成の一例を示す図。The figure which shows an example of a structure of the sound field estimation apparatus 200. 音場推定装置200の動作の一例を示す図。The figure which shows an example of operation | movement of the sound field estimation apparatus 200. 音場推定装置201の構成の一例を示す図。The figure which shows an example of a structure of the sound field estimation apparatus 201. FIG.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.

<第一実施形態>
まず、開球型球面マイクロホンアレーモデルについて説明する。
<First embodiment>
First, the open spherical spherical microphone array model will be described.

[開球型球面マイクロホンアレーモデル]
開球型球面マイクロホンアレーとは、各マイクロホンは細い骨格で支持されているが、音響的には中空に浮いている状態と等価とみなすことができる球面状のマイクロホンアレーである。以下、球面マイクロホンアレーは、開球型球面マイクロホンアレーであるとする。球面マイクロホンアレーには、半径ra(>0)の球面上にJ個(J≧1)のマイクロホンが配置されており、マイクロホンの配置位置は仰角と方位角の組(Θj, Φj) (j=1, 2,…, J)で指定されるものとする。また、球面マイクロホンアレーの中心位置は原点と同じとする。
[Open ball type spherical microphone array model]
An open spherical spherical microphone array is a spherical microphone array in which each microphone is supported by a thin skeleton, but can be considered acoustically equivalent to a floating state in a hollow state. Hereinafter, it is assumed that the spherical microphone array is an open spherical spherical microphone array. In the spherical microphone array, J (J ≧ 1) microphones are arranged on a spherical surface with a radius r a (> 0), and the microphones are arranged at a set of elevation and azimuth angles (Θ j , Φ j ) It is specified by (j = 1, 2, ..., J). The center position of the spherical microphone array is the same as the origin.

球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)の3次元位置r(j)は、仰角と方位角の組(Θj, Φj)が各球面マイクロホンアレーの中心位置から測定したものであるので、式(1)で表される。 The three-dimensional position r (j) of the j-th microphone (j = 1, 2, ..., J) on the spherical microphone array is the set of elevation and azimuth (Θ j , Φ j ) is the center position of each spherical microphone array Therefore, it is expressed by the formula (1).

Figure 2018120129
Figure 2018120129

同様に追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)の3次元位置rc(jc)は、球面マイクロホンアレーの中心位置から測定した距離、仰角及び方位角の組(rj_c, Θj_c, Φj_c)を用いて、式(2)で表される。 Similarly, the three-dimensional position r c (j c ) of the j c microphone (j c = 1, 2,..., J c ) in the additional microphone group is the distance, elevation angle, and azimuth measured from the center position of the spherical microphone array. Using a set of angles (r j_c , Θ j_c , Φ j_c ), it is expressed by equation (2).

Figure 2018120129
Figure 2018120129

[平面波モデル]
平面波モデルとは、3次元座標系の原点に入射する平面波のモデルのことであり、具体的には、原点へ入射角(θq, φq)で入射してくる平面波(q=1, 2,…, Q)のモデルのことである。θqは仰角、φqは方位角を表し、Qは1以上の整数とする。なお、Q個の入射角(θq, φq)は、Q個の平面波が全方位から万遍なく取得できるように例えば設定される。例えば、正多面体の頂点の方向から平面波、球面波が入射するようにQ個の入射角(θq, φq)が設定される。
[Plane wave model]
A plane wave model is a model of a plane wave that is incident on the origin of a three-dimensional coordinate system. Specifically, a plane wave that is incident on the origin at an incident angle (θ q , φ q ) (q = 1, 2 , ..., Q). θ q represents an elevation angle, φ q represents an azimuth angle, and Q is an integer of 1 or more. Note that the Q incident angles (θ q , φ q ) are set, for example, so that Q plane waves can be obtained uniformly from all directions. For example, Q incident angles (θ q , φ q ) are set so that a plane wave and a spherical wave are incident from the direction of the apex of the regular polyhedron.

以下、図1から図3を参照して音場推定装置100について説明する。   Hereinafter, the sound field estimation apparatus 100 will be described with reference to FIGS. 1 to 3.

図1に示すように、音場推定装置100は、短時間フーリエ変換部110、音場表現ベクトル推定部120、音場計算部130、短時間逆フーリエ変換部140、記録部190を例えば備えている。記録部190は、音場推定装置100の処理に必要な情報を適宜記録する構成部である。   As shown in FIG. 1, the sound field estimation apparatus 100 includes, for example, a short-time Fourier transform unit 110, a sound field expression vector estimation unit 120, a sound field calculation unit 130, a short-time inverse Fourier transform unit 140, and a recording unit 190. Yes. The recording unit 190 is a component that appropriately records information necessary for processing by the sound field estimation apparatus 100.

球面マイクロホンアレー901及び追加マイクロホン群902は、音場推定装置100に接続されている。球面マイクロホンアレー901及び追加マイクロホン群902による収音信号が、音場推定装置100に入力される。図3に追加マイクロホン群の配置の一例を示す。追加マイクロホンの位置は、任意である。追加マイクロホンは、例えば、球面マイクロホンアレーを中心として対称に配置される。図3の例では、追加マイクロホンは、直線状に配置されている。   The spherical microphone array 901 and the additional microphone group 902 are connected to the sound field estimation apparatus 100. Sound pickup signals from the spherical microphone array 901 and the additional microphone group 902 are input to the sound field estimation apparatus 100. FIG. 3 shows an example of the arrangement of additional microphone groups. The position of the additional microphone is arbitrary. For example, the additional microphones are arranged symmetrically around the spherical microphone array. In the example of FIG. 3, the additional microphones are arranged in a straight line.

球面マイクロホンアレー上の第jマイクロホンによる時間領域での収音信号である時間領域収音信号をys(t, j)と表すこととする。tを時間を表すパラメータとし、j=1, 2,…, Jとする。また、追加マイクロホン群中の第jcマイクロホンによる時間領域での収音信号である時間領域収音信号をyc(t, jc)と表すこととする。tを時間を表すパラメータとし、jc=1, 2,…, Jcとする。 The time domain sound pickup signal, which is the sound pickup signal in the time domain by the j-th microphone on the spherical microphone array, is represented as y s (t, j). Let t be a parameter representing time, and j = 1, 2,. In addition, a time domain collected signal that is a collected signal in the time domain by the j c microphone in the additional microphone group is represented as y c (t, j c ). Let t be a parameter representing time, and let j c = 1, 2,..., J c .

音場推定装置100は、球面マイクロホンアレーが収音した時間領域収音信号ys(t, j)(j=1, 2,…, J)と、追加マイクロホン群が収音した時間領域収音信号yc(t, 2, jc)(jc=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、仮想マイクロホン位置rにおける時間領域での収音信号である仮想マイクロホン時間領域収音信号y(t, r)を推定し、出力する。 The sound field estimation apparatus 100 includes a time domain sound collection signal y s (t, j) (j = 1, 2,..., J) collected by the spherical microphone array and a time domain sound collection collected by the additional microphone group. The virtual microphone position from the signal y c (t, 2, j c ) (j c = 1, 2,..., J c ) and the virtual microphone position r that is the position of the virtual microphone that is the target of sound field estimation. A virtual microphone time domain collected signal y (t, r) that is a collected signal in the time domain at r is estimated and output.

以下、図2を参照して、音場推定装置100の動作について説明する。   Hereinafter, the operation of the sound field estimation apparatus 100 will be described with reference to FIG.

短時間フーリエ変換部110は、短時間フーリエ変換を用いて、球面マイクロホンアレー上の第jマイクロホンによる時間領域収音信号ys(t, j)を、時間領域収音信号ys(t, j)の周波数領域表現である周波数領域収音信号us(n, ω, j)に変換し、出力する(ステップS110)。、nをフレーム番号を表すインデックスとし、ωを周波数を表すインデックスとし、ω=1, 2,…, Fとする。)に変換し、出力する。また、短時間フーリエ変換部110は、追加マイクロホン群中の第jcマイクロホンによる時間領域収音信号yc(t, jc)を、時間領域収音信号yc(t, jc)の周波数領域表現である周波数領域収音信号uc(n, ω, jc)に変換し、出力する(ステップS110)。nをフレーム番号を表すインデックスとし、ωを周波数を表すインデックスとし、ω=1, 2,…, Fとする。)に変換し、出力する。 The short-time Fourier transform unit 110 uses the short-time Fourier transform to convert the time-domain sound pickup signal y s (t, j) from the j-th microphone on the spherical microphone array into the time-domain sound pickup signal y s (t, j ) Is converted into a frequency domain sound pickup signal u s (n, ω, j), which is a frequency domain representation of (), and is output (step S110). , N is an index representing a frame number, ω is an index representing a frequency, and ω = 1, 2,. ) And output. In addition, the short-time Fourier transform unit 110 converts the time domain sound pickup signal y c (t, j c ) from the j c microphone in the additional microphone group into the frequency of the time domain sound pickup signal y c (t, j c ). It is converted into a frequency domain collected signal u c (n, ω, j c ) that is a domain representation and output (step S110). n is an index representing a frame number, ω is an index representing a frequency, and ω = 1, 2,. ) And output.

以降の処理は、具体的には音場表現ベクトル推定部120、音場計算部130での処理は、フレームnごとに実行されるが、記載を簡略化するため、フレーム番号nを省略し、us(n, ω,j)、uc(n, ω,jc)を単にus(ω, j)、uc(ω, jc)と表すことにする。 The subsequent processing is specifically performed by the sound field expression vector estimation unit 120 and the sound field calculation unit 130 for each frame n, but in order to simplify the description, the frame number n is omitted, u s (n, ω, j) and u c (n, ω, j c ) are simply expressed as u s (ω, j) and u c (ω, j c ).

また、周波数領域収音信号us(ω, j) (j=1, 2,…, J)を用いて、J次元ベクトルである、球面マイクロホンアレーの周波数領域収音信号ベクトルus(ω)を式(3)で定義する(ω=1, 2,…, F)。また、周波数領域収音信号uc(ω, j) (jc=1, 2,…, Jc)を用いて、J次元ベクトルである、球面マイクロホンアレーの周波数領域収音信号ベクトルum(ω)を式(4)で定義する(ω=1, 2,…, F)。 Further, using the frequency domain collected signal u s (ω, j) (j = 1, 2,..., J), the frequency domain collected signal vector u s (ω) of the spherical microphone array, which is a J-dimensional vector, is used. Is defined by equation (3) (ω = 1, 2,..., F). Further, using the frequency domain sound pickup signal u c (ω, j) (j c = 1, 2,..., J c ), the frequency domain sound pickup signal vector u m ( ω) is defined by equation (4) (ω = 1, 2,..., F).

Figure 2018120129
Figure 2018120129

Figure 2018120129
Figure 2018120129

なお、短時間フーリエ変換部110は、時間領域信号を周波数領域信号に変換するものであれば、短時間フーリエ変換以外の方法を用いてもよい。   Note that the short-time Fourier transform unit 110 may use a method other than the short-time Fourier transform as long as it converts the time-domain signal into the frequency-domain signal.

音場表現ベクトル推定部120は、周波数領域収音信号us(ω, j)と、uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)とから、音場を構成する分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)からなるベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を推定し、出力する(ステップS120)。以下、音場表現ベクトルa(ω)の算出方法について、説明する。 The sound field expression vector estimation unit 120 includes the frequency domain collected signal u s (ω, j) and u c (ω, j c ) (ω = 1, 2,..., F, j = 1, 2,. J, j c = 1, 2, ..., J c ) and decomposition coefficients a p (ω, q) (ω = 1, 2,…, F, q = 1, 2, ..., A sound field expression vector a (ω) (ω = 1, 2,..., F) that is a vector consisting of Q) is estimated and output (step S120). Hereinafter, a method for calculating the sound field expression vector a (ω) will be described.

まず、各マイクロホンで観測される信号のモデル、すなわち、周波数領域収音信号us(ω, j)及びuc(ω, jc)の線形結合モデルについて説明する。 First, a model of a signal observed by each microphone, that is, a linear combination model of the frequency domain collected signals u s (ω, j) and u c (ω, j c ) will be described.

[各マイクロホンで観測される信号のモデル]
各マイクロホンで観測される信号は、Q個の平面波からなる集まりであると仮定する。具体的には、周波数領域収音信号us(ω, j)及びuc(ω, j)は、Q個の平面波の周波数領域信号の線形結合として近似表現されるものとする。
[Signal model observed by each microphone]
Assume that the signal observed at each microphone is a collection of Q plane waves. Specifically, the frequency domain sound pickup signals u s (ω, j) and u c (ω, j) are approximated as linear combinations of Q plane wave frequency domain signals.

球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号vs(ω, q, j)、言い換えれば、平面波が到達したときにマイクロホンで観測される周波数領域での信号は、式(5)で表される。ω=1, 2,…, Fであり、q=1, 2,…, Qである。 Plane wave frequency domain observation signal v s (ω, q, j), which is the observation signal in the frequency domain of the plane wave observed by the j-th microphone (j = 1, 2, ..., J) on the spherical microphone array, in other words The signal in the frequency domain observed by the microphone when the plane wave arrives is expressed by Equation (5). ω = 1, 2, ..., F, and q = 1, 2, ..., Q.

Figure 2018120129
Figure 2018120129

kは周波数インデックスωに基づき決定される波数であり、^kqは式(6)で表されるベクトルである。なお、iは虚数単位、・は内積記号である。 k is the wave number determined based on the frequency index ω, and ^ k q is a vector represented by Equation (6). Note that i is an imaginary unit, and · is an inner product symbol.

Figure 2018120129
Figure 2018120129

また、追加マイクロホン群の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号vc(ω, q, j)は、式(7)で表される。ω=1, 2,…, Fであり、q=1, 2,…, Qである。 In addition, the plane wave frequency domain observation signal v c (ω, q, j, which is an observation signal in the frequency domain of the plane wave observed by the j c microphone (j c = 1, 2,..., J c ) of the additional microphone group. ) Is expressed by equation (7). ω = 1, 2, ..., F, and q = 1, 2, ..., Q.

Figure 2018120129
Figure 2018120129

ここで、音場を構成するQ個の平面波の分解係数ap(ω, 1),…, ap(ω, Q)を順に並べた、Q次元ベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を式(8)で定義すると、 Here, the sound field expression vector a (ω) which is a Q-dimensional vector in which the decomposition coefficients a p (ω, 1), ..., a p (ω, Q) of the Q plane waves constituting the sound field are arranged in order. If (ω = 1, 2, ..., F) is defined by equation (8),

Figure 2018120129
Figure 2018120129

周波数領域収音信号u(ω, m, j)は、式(9)(10)のようなQ個の平面波周波数領域観測信号vs(ω, q, m, j)とQ個の球面波周波数領域観測信号vc(ω, q, m, j)との線形結合として近似表現される。 The frequency domain collected signal u (ω, m, j) is composed of Q plane wave frequency domain observation signals v s (ω, q, m, j) and Q spherical waves as shown in equations (9) and (10). It is approximated as a linear combination with the frequency domain observation signal v c (ω, q, m, j).

Figure 2018120129
Figure 2018120129

次に、音場表現ベクトルa(ω)(ω=1, 2,…, F)の算出方法について説明する。   Next, a method for calculating the sound field expression vector a (ω) (ω = 1, 2,..., F) will be described.

[音場表現ベクトルa(ω)の算出方法]
まず、J次元ベクトルである、球面マイクロホンアレーの平面波ベクトルds(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を式(11)で定義する。
[Calculation method of sound field expression vector a (ω)]
First, a plane wave vector d s (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) of a spherical microphone array, which is a J-dimensional vector, is defined by Equation (11). .

Figure 2018120129
Figure 2018120129

同様に、Jc次元ベクトルである、追加マイクロホン群の平面波ベクトルdc(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を式(12)で定義する。 Similarly, a plane wave vector d c (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) of the additional microphone group, which is a J c- dimensional vector, is expressed by Equation (12). Define.

Figure 2018120129
Figure 2018120129

さらに、dp(ω, q)及びdc(ω,a q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いて、(J+Jc)×Qの辞書行列D(ω)(ω=1, 2,…, F)を式(13)で定義する。 Furthermore, using d p (ω, q) and d c (ω, aq) (ω = 1, 2,…, F, q = 1, 2,…, Q), (J + J c ) × Q The dictionary matrix D (ω) (ω = 1, 2,..., F) is defined by equation (13).

Figure 2018120129
Figure 2018120129

つまり、辞書行列D(ω)の第q列(q=1, 2,…, Q)は、仰角と方位角の組(θqq)で指定された方向から原点へ振幅1の平面波が入射した場合の、原点での位相が0の状態での球面マイクロホンアレー及び追加マイクロホン群の平面波周波数領域観測信号からなるベクトルdp(ω, q)及びdc(ω, q)から構成される。 That is, the q-th column (q = 1, 2,..., Q) of the dictionary matrix D (ω) is a plane wave with an amplitude of 1 from the direction specified by the pair of elevation angle and azimuth angle (θ q , φ q ) to the origin. Is composed of vectors d p (ω, q) and d c (ω, q) consisting of a plane microphone frequency domain observation signal of a spherical microphone array and an additional microphone group when the phase at the origin is zero. The

辞書行列D(ω)及び音場表現ベクトルa(ω)と、球面マイクロホンアレーの周波数領域収音信号ベクトルus(ω)と、追加マイクロホン群の周波数領域収音信号ベクトルuc(ω)とを用いて、コスト関数J(ω)を式(14)で定義する。ω=1, 2,…, Fである。 Dictionary matrix D (ω) and sound field expression vector a (ω), frequency domain collected signal vector u s (ω) of the spherical microphone array, frequency domain collected signal vector u c (ω) of the additional microphone group, Is used to define the cost function J (ω) by equation (14). ω = 1, 2, ..., F.

Figure 2018120129
Figure 2018120129

式(14)の第1項は式(9)(10)の線形結合の誤差に由来するものである。また、式(14)の第2項は、正則化項であり、音場表現ベクトルのL1ノルムに相当するΣ|ap(ω, q)|と正則化パラメータλを用いて表現される。 The first term of Equation (14) is derived from the error of linear combination of Equations (9) and (10). Further, the second term of the equation (14) is a regularization term, and is expressed using Σ | a p (ω, q) | corresponding to the L1 norm of the sound field expression vector and the regularization parameter λ.

音場表現ベクトルa(ω)をコスト関数J(ω)の最小値を実現するベクトルとして算出する。式(14)の第2項を正則化項として用いることにより、特定のqについてのap(ω, q)の組以外のqについてはap(ω, q)の値を0に近づける効果を持つ。すなわち、qに関して疎(スパース)な音場表現ベクトルa(ω)が算出される。これにより、あらかじめ想定する、線形結合による近似に用いる平面波の個数Qがマイクロホンの数を大きく上回るような冗長な場合であっても、λを適切に設定することで、平面波をうまく抽出することが可能となる。 The sound field expression vector a (ω) is calculated as a vector that realizes the minimum value of the cost function J (ω). By using the second term of equation (14) as a regularization term, the effect of bringing the value of a p (ω, q) closer to 0 for q other than the set of a p (ω, q) for a specific q have. That is, a sparse sound field expression vector a (ω) with respect to q is calculated. This makes it possible to extract plane waves well by setting λ appropriately even if the number Q of plane waves used for approximation by linear combination is significantly larger than the number of microphones. It becomes possible.

音場計算部130は、ステップS120で推定した音場表現ベクトルa(ω)と、仮想マイクロホン位置rから、式(15)を用いて、仮想マイクロホンの位置rでの周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω,r)(ω=1, 2,…, F)を計算し、出力する(ステップS130)。   The sound field calculation unit 130 uses the sound field expression vector a (ω) estimated in step S120 and the virtual microphone position r to obtain a sound collected signal in the frequency domain at the virtual microphone position r using Expression (15). The virtual microphone frequency domain sound pickup signal u (ω, r) (ω = 1, 2,..., F) is calculated and output (step S130).

Figure 2018120129
Figure 2018120129

なお、入力となる仮想マイクロホン位置rは、音場推定装置100のユーザが求めたい音場の位置として自由に設定することができる。   The input virtual microphone position r can be freely set as the position of the sound field desired by the user of the sound field estimation apparatus 100.

短時間逆フーリエ変換部140は、仮想マイクロホン周波数領域収音信号u(ω, r)(ω=1, 2,…, F)、フレーム番号を省略しないで記載すると仮想マイクロホン周波数領域収音信号u(n, ω, r)(ω=1, 2,…, F)から、短時間逆フーリエ変換を用いて、仮想マイクロホン周波数領域収音信号u(ω, r)の仮想マイクロホンによる時間領域での収音信号である仮想マイクロホン時間領域収音信号y(t, r)に変換し、出力する(ステップS140)。   The short-time inverse Fourier transform unit 140 includes a virtual microphone frequency domain sound collection signal u (ω, r) (ω = 1, 2,... From (n, ω, r) (ω = 1, 2, ..., F), using the short-time inverse Fourier transform, the virtual microphone frequency domain collected signal u (ω, r) in the time domain by the virtual microphone It converts into the virtual microphone time domain sound collection signal y (t, r) which is a sound collection signal, and outputs it (step S140).

なお、時間領域信号を周波数領域信号に変換する方法として短時間フーリエ変換以外の方法を用いた場合は、当該方法に対応する逆変換を用いればよい。   When a method other than the short-time Fourier transform is used as a method for converting the time domain signal into the frequency domain signal, an inverse transform corresponding to the method may be used.

[変形例1]
音場推定装置100では、球面マイクロホンアレー901及び追加マイクロホン群902による収音信号が時間領域収音信号ys(t, j) (j=1, 2,…, J)、yc(t,jc) (jc=1, 2,…, Jc)として入力されいてる。
[Modification 1]
In the sound field estimation apparatus 100, the sound collected signals by the spherical microphone array 901 and the additional microphone group 902 are time domain sound collected signals y s (t, j) (j = 1, 2,..., J), y c (t, j c ) (j c = 1, 2,..., J c ).

しかし、球面マイクロホンアレー901及び追加マイクロホン群902による収音信号が周波数領域収音信号us(ω, j)、uc(ω, j) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)として入力されてもよい。 However, the sound collected signals by the spherical microphone array 901 and the additional microphone group 902 are frequency domain sound collected signals u s (ω, j), u c (ω, j) (ω = 1, 2,..., F, j = 1 , 2, ..., J, j c = 1, 2, ..., J c ).

周波数領域収音信号us(ω, j)、uc(ω, j)を入力とするように構成した音場推定装置101を図4に示す。図4に示すように、音場推定装置101は、音場表現ベクトル推定部120、音場計算部130及び記録部190を例えば備えている。音場表現ベクトル推定部120、音場計算部130及び記録部190は、それぞれ音場推定装置100の音場表現ベクトル推定部120、音場計算部130及び記録部190と同一である。 FIG. 4 shows a sound field estimation apparatus 101 configured to receive the frequency domain sound pickup signals u s (ω, j) and u c (ω, j). As illustrated in FIG. 4, the sound field estimation apparatus 101 includes, for example, a sound field expression vector estimation unit 120, a sound field calculation unit 130, and a recording unit 190. The sound field expression vector estimation unit 120, the sound field calculation unit 130, and the recording unit 190 are the same as the sound field expression vector estimation unit 120, the sound field calculation unit 130, and the recording unit 190 of the sound field estimation apparatus 100, respectively.

音場推定装置101は、球面マイクロホンアレーが収音した周波数領域収音信号us(ω, 1, j)と、追加マイクロホン群が収音した周波数領域収音信号uc(ω, j) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、仮想マイクロホン位置rにおける周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω, r)を推定し、出力する。 The sound field estimation apparatus 101 includes a frequency domain collected signal u s (ω, 1, j) collected by the spherical microphone array and a frequency domain collected signal u c (ω, j) (collected by the additional microphone group). ω = 1, 2, ..., F, j = 1, 2, ..., J, j c = 1, 2, ..., J c ), and a virtual microphone that is the location of the virtual microphone that is the target of sound field estimation From the position r, a virtual microphone frequency domain collected signal u (ω, r), which is a collected signal in the frequency domain at the virtual microphone position r, is estimated and output.

本実施形態によれば、音場を平面波の集まりとみなし、その分解係数を周波数領域で求めることにより音場を推定する際に、球面マイクロホンアレーの収音信号とともに追加マイクロホン群の収音信号を用いることで、音場を高精度に推定できる空間範囲を広げることが可能となる。特に、分解係数からなる音場表現ベクトルのL1ノルムに相当する項を含む正則化項を用いて定義されるコスト関数J(ω)を用いることで、スパースな音場表現ベクトルが算出され、近似に用いるべき平面波をうまく抽出することが可能となる。   According to this embodiment, the sound field is regarded as a collection of plane waves, and the sound field of the additional microphone group is collected together with the sound collection signal of the spherical microphone array when estimating the sound field by obtaining the decomposition coefficient in the frequency domain. By using it, it becomes possible to widen the spatial range in which the sound field can be estimated with high accuracy. In particular, a sparse sound field expression vector is calculated and approximated by using a cost function J (ω) defined using a regularization term including a term corresponding to the L1 norm of the sound field expression vector composed of decomposition coefficients. It is possible to successfully extract plane waves to be used for the operation.

<第二実施形態>
第一実施形態では、開球型球面マイクロホンアレーを用いて収音した収音信号から音場を推定する方法について説明した。本実施形態では、剛球型球面マイクロホンアレーを用いて収音した収音信号から音場を推定する方法について説明する。
<Second embodiment>
In the first embodiment, the method of estimating the sound field from the collected sound signal collected using the open spherical spherical microphone array has been described. In the present embodiment, a method for estimating a sound field from a collected sound signal collected using a hard sphere type spherical microphone array will be described.

まず、剛球型球面マイクロホンアレーモデルについて説明する。   First, the hard sphere type spherical microphone array model will be described.

[剛球型球面マイクロホンアレーモデル]
球面マイクロホンアレーは、剛球型球面マイクロホンアレーであるとする。球面マイクロホンアレーには、半径ra(>0)の球面上にJ個(J≧1)のマイクロホンが配置されており、マイクロホンの配置位置は仰角と方位角の組(Θj, Φj) (j=1, 2,…, J)で指定されるものとする。また、球面マイクロホンアレーの中心位置は原点と同じとする。
[Hard sphere type spherical microphone array model]
The spherical microphone array is assumed to be a hard sphere type spherical microphone array. In the spherical microphone array, J (J ≧ 1) microphones are arranged on a spherical surface with a radius r a (> 0), and the microphones are arranged at a set of elevation and azimuth angles (Θ j , Φ j ) It is specified by (j = 1, 2, ..., J). The center position of the spherical microphone array is the same as the origin.

つまり、剛球型球面マイクロホンアレーモデルは、球面マイクロホンアレーが剛球型球面マイクロホンアレーに変更された点以外は第一実施形態の球面マイクロホンアレーモデルと同一である。   That is, the hard sphere type spherical microphone array model is the same as the spherical microphone array model of the first embodiment except that the spherical microphone array is changed to a hard sphere type spherical microphone array.

[平面波モデル]
平面波モデルは、第一実施形態のそれと同様である。
[Plane wave model]
The plane wave model is the same as that of the first embodiment.

以下、図5から図6を参照して音場推定装置200について説明する。図4に示すように、音場推定装置200は、短時間フーリエ変換部110、音場表現ベクトル推定部220、音場計算部230、短時間逆フーリエ変換部140及び記録部190を例えば備えている。記録部190は、音場推定装置200の処理に必要な情報を適宜記録する構成部である。   Hereinafter, the sound field estimation apparatus 200 will be described with reference to FIGS. As shown in FIG. 4, the sound field estimation apparatus 200 includes, for example, a short-time Fourier transform unit 110, a sound field expression vector estimation unit 220, a sound field calculation unit 230, a short-time inverse Fourier transform unit 140, and a recording unit 190. Yes. The recording unit 190 is a component that appropriately records information necessary for processing of the sound field estimation apparatus 200.

球面マイクロホンアレー903及び追加マイクロホン群904は音場推定装置200に接続されている。球面マイクロホンアレー903及び追加マイクロホン群904による収音信号が音場推定装置200に入力される。   The spherical microphone array 903 and the additional microphone group 904 are connected to the sound field estimation apparatus 200. The collected sound signals from the spherical microphone array 903 and the additional microphone group 904 are input to the sound field estimation apparatus 200.

音場推定装置200は、球面マイクロホンアレーが収音した時間領域収音信号ys(t, 1, j)(j=1, 2,…, J)と、追加マイクロホン群が収音した時間領域収音信号yc(t, 2, j)(jc=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、仮想マイクロホン位置rにおける時間領域での収音信号である仮想マイクロホン時間領域収音信号y(t, r)を推定し、出力する。 The sound field estimation apparatus 200 includes a time domain sound signal y s (t, 1, j) (j = 1, 2,..., J) collected by the spherical microphone array and a time domain collected by the additional microphone group. From the collected sound signal y c (t, 2, j) (j c = 1, 2,..., J c ) and the virtual microphone position r that is the position of the virtual microphone that is the target of sound field estimation, the virtual microphone A virtual microphone time domain collected signal y (t, r), which is a collected signal in the time domain at the position r, is estimated and output.

図6を参照して、音場推定装置200の動作について説明する。   The operation of the sound field estimation apparatus 200 will be described with reference to FIG.

短時間フーリエ変換部110は、時間領域収音信号ys(t, j)及びyc(t, jc) (j=1, 2,…, J、jc=1, 2,…, Jc)を、短時間フーリエ変換を用いて、時間領域収音信号ys(t, j)、yc(t, jc)の周波数領域表現である周波数領域収音信号us(n, ω, j)及びuc(n, ω, jc)に変換し、出力する(ステップS110)。nをフレーム番号を表すインデックスとし、ωは周波数を表すインデックスとし、ω=1, 2,…, Fとする。 The short-time Fourier transform unit 110 performs time-domain sound pickup signals y s (t, j) and y c (t, j c ) (j = 1, 2,..., J, j c = 1, 2,. c ) using a short-time Fourier transform, the frequency domain sound collected signal u s (n, ω), which is the frequency domain representation of the time domain sound collected signal y s (t, j), y c (t, j c ) , j) and u c (n, ω, j c ) and output (step S110). n is an index representing a frame number, ω is an index representing a frequency, and ω = 1, 2,.

以降の処理が、具体的には音場表現ベクトル推定部220、音場計算部230での処理が、フレームnごとに実行されるのは、第一実施形態と同様であり、記載を簡略化するため、フレーム番号nを省略し、us(n, ω, j)を単にus(ω, j)と表すことにする。 The subsequent processing, specifically, the processing in the sound field expression vector estimation unit 220 and the sound field calculation unit 230 is executed for each frame n, as in the first embodiment, and the description is simplified. Therefore, the frame number n is omitted and u s (n, ω, j) is simply expressed as u s (ω, j).

音場表現ベクトル推定部220は、周波数領域収音信号us(ω,j)、uc(ω,jc) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)から、音場を構成する分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)からなるベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を推定し、出力する(ステップS220)。以下、音場表現ベクトルa(ω)の算出方法について、説明する。 The sound field expression vector estimation unit 220 performs frequency domain collected signals u s (ω, j), u c (ω, j c ) (ω = 1, 2,..., F, j = 1, 2,. , J c = 1, 2, ..., J c ), the decomposition coefficient a p (ω, q) (ω = 1, 2,…, F, q = 1, 2,…, Q) A sound field expression vector a (ω) (ω = 1, 2,..., F) that is a vector consisting of is estimated and output (step S220). Hereinafter, a method for calculating the sound field expression vector a (ω) will be described.

まず、各マイクロホンで観測される信号のモデルについて説明する。   First, a model of a signal observed by each microphone will be described.

[各マイクロホンで観測される信号のモデル]
第一実施形態と同様、周波数領域収音信号us(ω,j)及びuc(ω,jc)は、Q個の平面波の周波数領域信号の線形結合として近似表現されるものとする。
[Signal model observed by each microphone]
As in the first embodiment, the frequency domain sound pickup signals u s (ω, j) and u c (ω, j c ) are approximated as linear combinations of frequency plane signals of Q plane waves.

まず、球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号vs(ω, q, j)について説明する。ω=1, 2,…, Fであり、q=1, 2,…, Qである。 First, the plane wave frequency domain observation signal v s (ω, q, j), which is the observation signal in the frequency domain of the plane wave observed by the jth microphone (j = 1, 2, ..., J) on the spherical microphone array explain. ω = 1, 2, ..., F, and q = 1, 2, ..., Q.

球面マイクロホンアレー903と同一の特徴を有する剛球型球面マイクロホンアレーを仮定し、その剛球型球面マイクロホンアレーの中心が3次元座標系の原点と一致している場合を考える。このとき、仰角及び方位角の組(θq, φq)で指定された方向から振幅1の平面波が入射した場合、音場は入射波と散乱波から構成されることを考慮すると、剛球型球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号vs(ω, q, j)は、非特許文献2より式(16)で表される。ω=1, 2,…, Fであり、q=1, 2,…, Qである。 Assume a hard spherical spherical microphone array having the same characteristics as the spherical microphone array 903, and consider the case where the center of the hard spherical spherical microphone array coincides with the origin of the three-dimensional coordinate system. At this time, if a plane wave with an amplitude of 1 is incident from the direction specified by the pair of elevation angle and azimuth angle (θ q , φ q ), considering that the sound field is composed of incident waves and scattered waves, a hard sphere type The observation signal v s (ω, q, j) in the frequency domain of the plane wave observed by the j-th microphone (j = 1, 2,..., J) on the spherical microphone array is expressed by the equation (16 ). ω = 1, 2, ..., F, and q = 1, 2, ..., Q.

Figure 2018120129
Figure 2018120129

Yn w(x, y)は次数n, wの球面調和関数であり、Yn w*(x, y)は次数n, wの球面調和関数の複素共役であり、jn(x)はオーダーnの球ベッセル関数であり、hn(x)はオーダーnの第1種ハンケル関数である。また、jn'(x)、hn'(x)は、それぞれjn(x)、hn(x)の微分関数である。なお、kは周波数インデックスωに基づき決定される波数である。 Y n w (x, y) is a spherical harmonic function of order n, w, Y n w * (x, y) is a complex conjugate of a spherical harmonic function of order n, w, and j n (x) is It is a spherical Bessel function of order n, and h n (x) is a first kind Hankel function of order n. J n ′ (x) and h n ′ (x) are differential functions of j n (x) and h n (x), respectively. Note that k is the wave number determined based on the frequency index ω.

次に、追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号vc(ω, q, jc)について説明する。ω=1, 2,…, Fであり、q=1, 2,…, Qである。 Next, the plane wave frequency domain observation signal v c (ω, q, which is an observation signal in the frequency domain of the plane wave observed by the j c microphone (j c = 1, 2,..., J c ) in the additional microphone group. , j c ) will be described. ω = 1, 2, ..., F, and q = 1, 2, ..., Q.

先ほどと同様、球面マイクロホンアレー903と同一の特徴を有する剛球型球面マイクロホンアレーを仮定し、その剛球型球面マイクロホンアレーの中心が3次元座標系の原点と一致している場合を考える。このとき、追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号vc(ω, q, jc)は、非特許文献2より式(17)で表される(ω=1, 2,…, F、q=1, 2,…, Q)。 As before, a rigid spherical spherical microphone array having the same characteristics as the spherical microphone array 903 is assumed, and the center of the rigid spherical spherical microphone array coincides with the origin of the three-dimensional coordinate system. At this time, the observation signal v c (ω, q, j c ) in the frequency domain of the plane wave observed by the j c microphone (j c = 1, 2, ..., J c ) in the additional microphone group is non- From Patent Document 2, it is expressed by the equation (17) (ω = 1, 2,..., F, q = 1, 2,..., Q).

Figure 2018120129
Figure 2018120129

周波数領域収音信号u(ω,m,j)は、式(16)の平面波周波数領域観測信号vs(ω, q, j)及び式(17)の平面波周波数領域観測信号vc(ω, q, m, jc)を用いて、式(9)(10)と同一の線形結合として近似表現される。 The frequency domain collected signal u (ω, m, j) is obtained by plane wave frequency domain observation signal v s (ω, q, j) in equation (16) and plane wave frequency domain observation signal v c (ω, q, m, j c ) is used as an approximate representation as the same linear combination as equations (9) and (10).

[音場表現ベクトルa(ω)の算出方法]
式(16)で定義される平面波周波数領域観測信号vs(ω, q, j)及び式(17)で定義される平面波周波数領域観測信号vc(ω, q, jc)を用いて、辞書行列D(ω)を式(13)と同様に、コスト関数J(ω)を式(14)と同様に定義する。第一実施形態と同様のLasso型の最適化問題を解くことに帰着するため、音場表現ベクトルa(ω)を算出することができる。
[Calculation method of sound field expression vector a (ω)]
Using the plane wave frequency domain observation signal v s (ω, q, j) defined by Equation (16) and the plane wave frequency domain observation signal v c (ω, q, j c ) defined by Equation (17), The dictionary matrix D (ω) is defined similarly to equation (13), and the cost function J (ω) is defined similarly to equation (14). The sound field expression vector a (ω) can be calculated to result in solving the Lasso-type optimization problem similar to the first embodiment.

なお、式(16)の観測信号vs(ω, q, j)と式(17)の観測信号vc(ω, q, jc)は極限(nについての無限和)をもって定義されているため、実際には有限のn(以下、Nとすると、Nは0以上の整数となる)を用いて数値計算することにより観測信号vs(ω, q, j)及び観測信号vc(ω, q, j)の値を求める必要がある。つまり、観測信号vs(ω, q, j)及び観測信号vc(ω, q, j)の計算式として、式(16)と式(17)の代わりに、式(16)’と式(17)’を用いる。 Note that the observed signal v s (ω, q, j) in equation (16) and the observed signal v c (ω, q, j c ) in equation (17) are defined with a limit (infinite sum of n). Therefore, in practice, the observed signal v s (ω, q, j) and the observed signal v c (ω are calculated by numerical calculation using finite n (hereinafter, N is an integer greater than or equal to 0). , q, j). In other words, instead of Equation (16) and Equation (17), Equation (16) ′ and Equation are used as the calculation formula for observation signal v s (ω, q, j) and observation signal v c (ω, q, j). (17) 'is used.

Figure 2018120129
Figure 2018120129

Figure 2018120129
Figure 2018120129

例えば、ra=4cmのとき、N=10程度にとればよい。 For example, when r a = 4 cm, it take approximately N = 10.

音場計算部230は、ステップS220で推定した音場表現ベクトルa(ω)、仮想マイクロホン位置rから、式(18)を用いて、仮想マイクロホンの位置rでの周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω,r)(ω=1, 2,…, F)を計算し、出力する(ステップS230)。   The sound field calculation unit 230 uses the sound field expression vector a (ω) estimated in step S220 and the virtual microphone position r to obtain a sound collected signal in the frequency domain at the virtual microphone position r using Equation (18). A certain virtual microphone frequency domain collected signal u (ω, r) (ω = 1, 2,..., F) is calculated and output (step S230).

Figure 2018120129
Figure 2018120129

ここで、(Θ+, Φ+)は3次元座標系の原点からみた仮想マイクロホン位置rの仰角及び方位角の組である。 Here, (Θ + , Φ + ) is a set of the elevation angle and azimuth angle of the virtual microphone position r viewed from the origin of the three-dimensional coordinate system.

短時間逆フーリエ変換部140は、仮想マイクロホン周波数領域収音信号u(ω, r)(ω=1, 2,…, F)、フレーム番号を省略しないで記載すると仮想マイクロホン周波数領域収音信号u(n, ω, r)(ω=1, 2,…, F)から、短時間逆フーリエ変換を用いて、仮想マイクロホン周波数領域収音信号u(ω, r)を仮想マイクロホンによる時間領域での収音信号である仮想マイクロホン時間領域収音信号y(t, r)に変換し、出力する(ステップS140)。   The short-time inverse Fourier transform unit 140 includes a virtual microphone frequency domain sound collection signal u (ω, r) (ω = 1, 2,... From (n, ω, r) (ω = 1, 2, ..., F), the short-time inverse Fourier transform is used to convert the virtual microphone frequency domain collected signal u (ω, r) in the time domain by the virtual microphone. It converts into the virtual microphone time domain sound collection signal y (t, r) which is a sound collection signal, and outputs it (step S140).

[変形例2]
第1実施形態の変形例1と同様に、音場推定装置200を構成してもよい。つまり、音場推定装置200では、球面マイクロホンアレー903及び追加マイクロホン群904による収音信号が時間領域収音信号ys(t, j)、yc(t, jc) (j=1, 2,…, J、jc=1, 2,…, Jc)として入力されているが、球面マイクロホンアレー903及び追加マイクロホン群904による収音信号が周波数領域収音信号us(ω, j)、uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)として入力されてもよい。
[Modification 2]
Similarly to the first modification of the first embodiment, the sound field estimation apparatus 200 may be configured. That is, in the sound field estimation apparatus 200, the sound collected signals by the spherical microphone array 903 and the additional microphone group 904 are time domain sound collected signals y s (t, j), y c (t, j c ) (j = 1, 2 ,..., J, j c = 1, 2,..., J c ), but the collected sound signals by the spherical microphone array 903 and the additional microphone group 904 are the frequency domain collected signals u s (ω, j). , U c (ω, j c ) (ω = 1, 2,..., F, j = 1, 2,..., J, j c = 1, 2,..., J c ).

周波数領域収音信号us(ω, j)、uc(ω, jc)を入力とする音場推定装置201を図7に示す。図7に示すように音場推定装置201は、音場表現ベクトル推定部220、音場計算部230及び記録部190を備えている。音場表現ベクトル推定部220、音場計算部230、記録部190は、それぞれ音場推定装置200の音場表現ベクトル推定部220、音場計算部230、記録部190と同一である。 FIG. 7 shows a sound field estimation apparatus 201 that receives the frequency domain collected signals u s (ω, j) and u c (ω, j c ) as inputs. As shown in FIG. 7, the sound field estimation apparatus 201 includes a sound field expression vector estimation unit 220, a sound field calculation unit 230, and a recording unit 190. The sound field expression vector estimation unit 220, the sound field calculation unit 230, and the recording unit 190 are the same as the sound field expression vector estimation unit 220, the sound field calculation unit 230, and the recording unit 190 of the sound field estimation apparatus 200, respectively.

音場推定装置201は、球面マイクロホンアレーが収音した周波数領域収音信号us(ω, j)と、追加マイクロホン群が収音した周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, J、jc=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、仮想マイクロホン位置rにおける周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω, r)を推定し、出力する。 The sound field estimation apparatus 201 includes a frequency domain collected signal u s (ω, j) collected by the spherical microphone array and a frequency domain collected signal u c (ω, j c ) (ω = 1, 2, ..., F, j = 1, 2, ..., J, j c = 1, 2, ..., J c ) and the virtual microphone position that is the placement position of the virtual microphone that is the target of sound field estimation From r, a virtual microphone frequency domain collected signal u (ω, r) that is a collected signal in the frequency domain at the virtual microphone position r is estimated and output.

本実施形態の発明によれば、音場を平面波の集まりとみなし、その分解係数を周波数領域で求めることにより音場を推定する際に、球面マイクロホンアレーからの収音信号とともに追加マイクロホン群からの収音信号を用いることで、音場を高精度に推定できる空間範囲を広げることが可能となる。特に、分解係数からなる音場表現ベクトルのL1ノルムに相当する項を含む正則化項を用いて定義されるコスト関数J(ω)を用いることで、スパースな音場表現ベクトルが算出され、近似に用いるべき平面波をうまく抽出することが可能となる。   According to the invention of this embodiment, the sound field is regarded as a collection of plane waves, and when the sound field is estimated by obtaining the decomposition coefficient in the frequency domain, the sound from the additional microphone group is collected together with the collected sound signal from the spherical microphone array. By using the collected sound signal, it is possible to expand the spatial range in which the sound field can be estimated with high accuracy. In particular, a sparse sound field expression vector is calculated and approximated by using a cost function J (ω) defined using a regularization term including a term corresponding to the L1 norm of the sound field expression vector composed of decomposition coefficients. It is possible to successfully extract plane waves to be used for the operation.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また、必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Supplementary note>
The apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Can be connected to a communication unit, a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged between the external storage devices. Further, if necessary, a hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。   The external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。   In the hardware entity, each program stored in an external storage device (or ROM or the like) and data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate. . As a result, the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).

本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. In addition, the processing described in the above embodiment may be executed not only in time series according to the order of description but also in parallel or individually as required by the processing capability of the apparatus that executes the processing. .

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。   As described above, when the processing functions in the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, a hardware entity is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Claims (4)

球面マイクロホンアレー上のマイクロホンの数をJとし、上記マイクロホンの配置位置を指定する仰角と方位角の組を(Θj, Φj) (j=1, 2,…, J)とし、上記球面マイクロホンアレーの半径をraとし、上記球面マイクロホンアレーの中心位置を原点とし、追加マイクロホン群のマイクロホンの数をJcとし、平面波モデルを3次元座標系の原点へ入射角(θqq)で入射してくる平面波(q=1, 2,…, Q)のモデルとし、上記球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvs(ω, q, j) (ωは周波数を表すインデックスとし、ω=1, 2,…, F、q=1, 2,…, Qとする)とし、上記追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvc(ω, q, j) (ω=1, 2,…, F、q=1, 2,…, Q)とし、ds(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJ次元の第q平面波ベクトルとし、
Figure 2018120129

dc(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJc次元の第q球面波ベクトルとし、
Figure 2018120129

D(ω) (ω=1, 2,…, F)を、次式で定義される(J+Jc)×Qの辞書行列とし、
Figure 2018120129

λを正則化パラメータとし、コスト関数J(ω) (ω=1, 2,…, F)を、音場表現ベクトルa(ω)(ω=1, 2,…, F)と分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いた次式で定義されるJ(ω)とし、
Figure 2018120129

上記音場表現ベクトルa(ω)(ω=1, 2,…, F)は、上記分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いて次式で定義されるQ次元ベクトルであるとし、
Figure 2018120129

us(ω),uc(ω) (ω=1, 2,…, F)を、それぞれ次式で定義されるJ次元の球面マイクロホンアレーの周波数領域収音信号ベクトル及びJc次元の追加マイクロホン群の周波数領域収音信号ベクトルとして、
Figure 2018120129

Figure 2018120129

上記球面マイクロホンアレーで収音された信号に基づく周波数領域収音信号us(ω, j) (ω=1, 2,…, F、j=1, 2,…, J)と、上記追加マイクロホンアレー群で収音された信号に基づく周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、上記仮想マイクロホン位置rにおける周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω, r) (ω=1, 2,…, F)を推定する音場推定装置であって、
上記周波数領域収音信号us(ω,j) (ω=1, 2,…, F、j=1, 2,…, J)及び上記周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、jc=1, 2,…, Jc)から、上記コスト関数J(ω) (ω=1, 2,…, F)を用いて、音場を構成する混合波の分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)からなるベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を推定する音場表現ベクトル推定部と、
上記音場表現ベクトルa(ω) (ω=1, 2,…, F)及び上記仮想マイクロホン位置rから、上記仮想マイクロホン周波数領域収音信号u(ω, r)(ω=1, 2,…, F)を計算する音場計算部と、
を含む音場推定装置。
J is the number of microphones on the spherical microphone array, and (Θ j , Φ j ) (j = 1, 2,..., J) is a set of elevation and azimuth angles that specify the placement position of the microphone. the radius of the array and r a, the center position of the spherical microphone array as the origin, a number of additional microphones group microphone and J c, the incident angle to the origin of the three-dimensional coordinate system plane wave model (θ q, φ q) In the frequency domain of the plane wave observed by the jth microphone (j = 1, 2, ..., J) on the spherical microphone array. Plane wave frequency domain observation signal of v s (ω, q, j) (ω is an index representing frequency, and ω = 1, 2, ..., F, q = 1, 2, ..., Q ), and the j c microphone in the additional microphone group (j c = 1, 2, ..., the observed signal der in the frequency domain of a plane wave observed in J c) The plane wave frequency domain observed signal v c (ω, q, j ) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) and, d s (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) as the J-dimensional q-plane wave vector defined by the following equation:
Figure 2018120129

Let d c (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) be the J c- dimensional q-th spherical wave vector defined by the following equation:
Figure 2018120129

Let D (ω) (ω = 1, 2, ..., F) be a (J + J c ) × Q dictionary matrix defined by the following equation:
Figure 2018120129

Using λ as a regularization parameter, the cost function J (ω) (ω = 1, 2, ..., F) is expressed as the sound field expression vector a (ω) (ω = 1, 2, ..., F) and the decomposition coefficient a p J (ω) defined by the following equation using (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q)
Figure 2018120129

The sound field expression vector a (ω) (ω = 1, 2,..., F) is the decomposition coefficient a p (ω, q) (ω = 1, 2,... F, q = 1, 2,. , Q) to be a Q-dimensional vector defined by
Figure 2018120129

u s (ω), u c (ω) (ω = 1, 2,…, F) are added to the frequency domain sound signal vector and J c dimension of the J-dimensional spherical microphone array defined by the following equations, respectively. As the frequency domain sound pickup signal vector of the microphone group,
Figure 2018120129

Figure 2018120129

Frequency domain sound pickup signal u s (ω, j) (ω = 1, 2, ..., F, j = 1, 2, ..., J) based on the signal picked up by the spherical microphone array, and the additional microphone Frequency-domain sound pickup signal u c (ω, j c ) (ω = 1, 2,…, F, j = 1, 2,…, J c ) based on signals collected by the array group and sound field estimation Virtual microphone frequency domain sound pickup signal u (ω, r) (ω = 1) that is a sound pickup signal in the frequency domain at the virtual microphone position r , 2, ..., F) for estimating the sound field,
The frequency domain collected signal u s (ω, j) (ω = 1, 2, ..., F, j = 1, 2, ..., J) and the frequency domain collected signal u c (ω, j c ) ( ω = 1, 2, ..., F, j c = 1, 2, ..., J c ), using the cost function J (ω) (ω = 1, 2, ..., F) Sound field expression vector a (ω) (ω =), which is a vector composed of decomposition coefficients a p (ω, q) (ω = 1, 2,…, F, q = 1, 2,…, Q) 1, 2, ..., F), a sound field expression vector estimator,
From the sound field expression vector a (ω) (ω = 1, 2,..., F) and the virtual microphone position r, the virtual microphone frequency domain collected signal u (ω, r) (ω = 1, 2,. , F)
A sound field estimation apparatus including:
請求項1の音場推定装置であって、
上記球面マイクロホンアレー上の第jマイクロホンによる時間領域収音信号ys(t, j)を上記周波数領域収音信号us(ω, j) (ω=1, 2,…, F、j=1, 2,…, J)に変換すると共に、上記追加マイクロホン群中の第jcマイクロホンによる時間領域収音信号yc(t, jc)を上記周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、jc=1, 2,…, Jc)に変換する短時間フーリエ変換部と、
上記仮想マイクロホン周波数領域収音信号u(ω,r) (ω=1, 2,…, F)を時間領域収音信号y(t, r) (ω=1, 2,…, F)に変換する短時間逆フーリエ変換部と、
をさらに含む音場推定装置。
The sound field estimation apparatus according to claim 1,
The time domain sound pickup signal y s (t, j) by the j-th microphone on the spherical microphone array is changed to the frequency domain sound pickup signal u s (ω, j) (ω = 1, 2,..., F, j = 1 , 2,..., J) and the time domain collected signal y c (t, j c ) by the j c microphone in the additional microphone group is converted to the frequency domain collected signal u c (ω, j c). ) a short-time Fourier transform unit for converting to (ω = 1, 2, ..., F, j c = 1, 2, ..., J c ),
Convert the above virtual microphone frequency domain collected signal u (ω, r) (ω = 1, 2, ..., F) into time domain collected signal y (t, r) (ω = 1, 2, ..., F) A short-time inverse Fourier transform unit,
A sound field estimation apparatus further comprising:
球面マイクロホンアレー上のマイクロホンの数をJとし、上記マイクロホンの配置位置を指定する仰角と方位角の組を(Θj, Φj) (j=1, 2,…, J)とし、上記球面マイクロホンアレーの半径をraとし、上記球面マイクロホンアレーの中心位置を原点とし、追加マイクロホン群のマイクロホンの数をJcとし、平面波モデルを3次元座標系の原点へ入射角(θqq)で入射してくる平面波(q=1, 2,…, Q)のモデルとし、上記球面マイクロホンアレー上の第jマイクロホン(j=1, 2,…, J)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvs(ω, q, j) (ωは周波数を表すインデックスとし、ω=1, 2,…, F、q=1, 2,…, Qとする)とし、上記追加マイクロホン群中の第jcマイクロホン(jc=1, 2,…, Jc)で観測される平面波の周波数領域での観測信号である平面波周波数領域観測信号をvc(ω, q, j) (ω=1, 2,…, F、q=1, 2,…, Q)とし、ds(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJ次元の第q平面波ベクトルとし、
Figure 2018120129

dc(ω, q)(ω=1, 2,…, F、q=1, 2,…, Q)を、次式で定義されるJc次元の第q球面波ベクトルとし、
Figure 2018120129

D(ω) (ω=1, 2,…, F)を、次式で定義される(J+Jc)×Qの辞書行列とし、
Figure 2018120129

λを正則化パラメータとし、コスト関数J(ω) (ω=1, 2,…, F)を、音場表現ベクトルa(ω)(ω=1, 2,…, F)と分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いた次式で定義されるJ(ω)とし、
Figure 2018120129

上記音場表現ベクトルa(ω)(ω=1, 2,…, F)は、上記分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)を用いて次式で定義されるQ次元ベクトルであるとし、
Figure 2018120129

us(ω),uc(ω) (ω=1, 2,…, F)を、それぞれ次式で定義されるJ次元の球面マイクロホンアレーの周波数領域収音信号ベクトル及びJc次元の追加マイクロホン群の周波数領域収音信号ベクトルとして、
Figure 2018120129

Figure 2018120129

上記球面マイクロホンアレーで収音された信号に基づく周波数領域収音信号us(ω, j) (ω=1, 2,…, F、j=1, 2,…, J)と、上記追加マイクロホンアレー群で収音された信号に基づく周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、j=1, 2,…, Jc)と、音場推定の対象となる仮想マイクロホンの配置位置である仮想マイクロホン位置rとから、上記仮想マイクロホン位置rにおける周波数領域での収音信号である仮想マイクロホン周波数領域収音信号u(ω, r) (ω=1, 2,…, F)を推定する音場推定方法であって、
音場表現ベクトル推定部が、上記周波数領域収音信号us(ω,j) (ω=1, 2,…, F、j=1, 2,…, J)及び上記周波数領域収音信号uc(ω, jc) (ω=1, 2,…, F、jc=1, 2,…, Jc)から、上記コスト関数J(ω) (ω=1, 2,…, F)を用いて、音場を構成する混合波の分解係数ap(ω, q) (ω=1, 2,…, F、q=1, 2,…, Q)からなるベクトルである音場表現ベクトルa(ω)(ω=1, 2,…, F)を推定する音場表現ベクトル推定ステップと、
音場計算部が、上記音場表現ベクトルa(ω) (ω=1, 2,…, F)及び上記仮想マイクロホン位置rから、上記仮想マイクロホン周波数領域収音信号u(ω, r)(ω=1, 2,…, F)を計算する音場計算ステップと、
を含む音場推定方法。
J is the number of microphones on the spherical microphone array, and (Θ j , Φ j ) (j = 1, 2,..., J) is a set of elevation and azimuth angles that specify the placement position of the microphone. the radius of the array and r a, the center position of the spherical microphone array as the origin, a number of additional microphones group microphone and J c, the incident angle to the origin of the three-dimensional coordinate system plane wave model (θ q, φ q) In the frequency domain of the plane wave observed by the jth microphone (j = 1, 2, ..., J) on the spherical microphone array. Plane wave frequency domain observation signal of v s (ω, q, j) (ω is an index representing frequency, and ω = 1, 2, ..., F, q = 1, 2, ..., Q ), and the j c microphone in the additional microphone group (j c = 1, 2, ..., the observed signal der in the frequency domain of a plane wave observed in J c) The plane wave frequency domain observed signal v c (ω, q, j ) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) and, d s (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) as the J-dimensional q-plane wave vector defined by the following equation:
Figure 2018120129

Let d c (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q) be the J c- dimensional q-th spherical wave vector defined by the following equation:
Figure 2018120129

Let D (ω) (ω = 1, 2, ..., F) be a (J + J c ) × Q dictionary matrix defined by the following equation:
Figure 2018120129

Using λ as a regularization parameter, the cost function J (ω) (ω = 1, 2, ..., F) is expressed as the sound field expression vector a (ω) (ω = 1, 2, ..., F) and the decomposition coefficient a p J (ω) defined by the following equation using (ω, q) (ω = 1, 2, ..., F, q = 1, 2, ..., Q)
Figure 2018120129

The sound field expression vector a (ω) (ω = 1, 2,..., F) is the decomposition coefficient a p (ω, q) (ω = 1, 2,... F, q = 1, 2,. , Q) to be a Q-dimensional vector defined by
Figure 2018120129

u s (ω), u c (ω) (ω = 1, 2,…, F) are added to the frequency domain sound signal vector and J c dimension of the J-dimensional spherical microphone array defined by the following equations, respectively. As the frequency domain sound pickup signal vector of the microphone group,
Figure 2018120129

Figure 2018120129

Frequency domain sound pickup signal u s (ω, j) (ω = 1, 2, ..., F, j = 1, 2, ..., J) based on the signal picked up by the spherical microphone array, and the additional microphone Frequency-domain sound pickup signal u c (ω, j c ) (ω = 1, 2,…, F, j = 1, 2,…, J c ) based on signals collected by the array group and sound field estimation Virtual microphone frequency domain sound pickup signal u (ω, r) (ω = 1) that is a sound pickup signal in the frequency domain at the virtual microphone position r , 2, ..., F) for estimating the sound field,
The sound field expression vector estimation unit is configured to perform the frequency domain sound collection signal u s (ω, j) (ω = 1, 2,..., F, j = 1, 2,. c (ω, j c ) (ω = 1, 2, ..., F, j c = 1, 2, ..., J c ), the cost function J (ω) (ω = 1, 2, ..., F) Is used to express the sound field that is a vector consisting of the decomposition coefficients a p (ω, q) (ω = 1, 2,…, F, q = 1, 2,…, Q) of the mixed wave that composes the sound field. A sound field expression vector estimation step for estimating a vector a (ω) (ω = 1, 2,..., F);
From the sound field expression vector a (ω) (ω = 1, 2,..., F) and the virtual microphone position r, the sound field calculation unit calculates the virtual microphone frequency domain collected signal u (ω, r) (ω = 1, 2, ..., F) calculating the sound field;
Sound field estimation method including
請求項1又は2の音場推定装置の各部としてコンピュータを機能させるためのプログラム。   The program for functioning a computer as each part of the sound field estimation apparatus of Claim 1 or 2.
JP2017012349A 2017-01-26 2017-01-26 Sound field estimation device, method and program Pending JP2018120129A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017012349A JP2018120129A (en) 2017-01-26 2017-01-26 Sound field estimation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017012349A JP2018120129A (en) 2017-01-26 2017-01-26 Sound field estimation device, method and program

Publications (1)

Publication Number Publication Date
JP2018120129A true JP2018120129A (en) 2018-08-02

Family

ID=63045193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017012349A Pending JP2018120129A (en) 2017-01-26 2017-01-26 Sound field estimation device, method and program

Country Status (1)

Country Link
JP (1) JP2018120129A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220061858A (en) * 2020-11-06 2022-05-13 하만인터내셔날인더스트리스인코포레이티드 Virtual location noise signal estimation for engine order cancellation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220061858A (en) * 2020-11-06 2022-05-13 하만인터내셔날인더스트리스인코포레이티드 Virtual location noise signal estimation for engine order cancellation
KR102408323B1 (en) 2020-11-06 2022-06-13 하만인터내셔날인더스트리스인코포레이티드 Virtual location noise signal estimation for engine order cancellation

Similar Documents

Publication Publication Date Title
JP6620140B2 (en) Method, computer-readable storage medium and apparatus for constructing a three-dimensional wave field representation of a three-dimensional wave field using a two-dimensional sensor array
Bi et al. An equivalent source technique for recovering the free sound field in a noisy environment
WO2015076149A1 (en) Sound field re-creation device, method, and program
JP7276470B2 (en) Direction-of-arrival estimation device, model learning device, direction-of-arrival estimation method, model learning method, program
Fernandez-Grande et al. Generative models for sound field reconstruction
JP2018077139A (en) Sound field estimation device, sound field estimation method and program
Antonello et al. Source localization and signal reconstruction in a reverberant field using the FDTD method
Gilquin et al. Iterative positioning of microphone arrays for acoustic imaging
JP2018120129A (en) Sound field estimation device, method and program
JP6567478B2 (en) Sound source enhancement learning device, sound source enhancement device, sound source enhancement learning method, program, signal processing learning device
JP4676893B2 (en) Signal arrival direction estimation device, signal arrival direction estimation method, signal arrival direction estimation program, and recording medium
JP2022500710A (en) Combined sound source localization and separation method for acoustic sources
JP5337189B2 (en) Reflector arrangement determination method, apparatus, and program for filter design
JP2018093379A (en) Sound field estimation device, sound field estimation method, and program
JP2017055156A (en) Sound field measurement device, sound field measurement method, program
JP6228945B2 (en) Sound field reproduction apparatus, sound field reproduction method, and program
JP2017130899A (en) Sound field estimation device, method therefor and program
Deboy et al. Tangential intensity algorithm for acoustic centering
WO2021255925A1 (en) Target sound signal generation device, target sound signal generation method, and program
JP7207539B2 (en) LEARNING DATA EXTENSION DEVICE, LEARNING DATA EXTENSION METHOD, AND PROGRAM
JP7375904B2 (en) Filter coefficient optimization device, latent variable optimization device, filter coefficient optimization method, latent variable optimization method, program
Sanalatii et al. Measuring the radiation of sound sources with the radiation mode method: Towards realistic problems
JP2017118189A (en) Sound collection signal estimating device, sound collection signal estimating method and program
Bai et al. Particle velocity estimation based on a two-microphone array and Kalman filter
JP2017034442A (en) Sound field reproduction apparatus and method thereof