JP6569945B2 - Binaural sound generator, microphone array, binaural sound generation method, program - Google Patents

Binaural sound generator, microphone array, binaural sound generation method, program Download PDF

Info

Publication number
JP6569945B2
JP6569945B2 JP2016023347A JP2016023347A JP6569945B2 JP 6569945 B2 JP6569945 B2 JP 6569945B2 JP 2016023347 A JP2016023347 A JP 2016023347A JP 2016023347 A JP2016023347 A JP 2016023347A JP 6569945 B2 JP6569945 B2 JP 6569945B2
Authority
JP
Japan
Prior art keywords
microphone
binaural sound
microphone array
sound
depressions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016023347A
Other languages
Japanese (ja)
Other versions
JP2017143406A (en
Inventor
健太 丹羽
健太 丹羽
小林 和則
和則 小林
隆典 西野
隆典 西野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Mie University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Mie University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Mie University NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016023347A priority Critical patent/JP6569945B2/en
Publication of JP2017143406A publication Critical patent/JP2017143406A/en
Application granted granted Critical
Publication of JP6569945B2 publication Critical patent/JP6569945B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Stereophonic Arrangements (AREA)
  • Stereophonic System (AREA)

Description

本発明は、バイノーラル音生成技術に関し、特に所定の立体形状をしたマイクロホンアレイを用いて収音した信号からバイノーラル音を生成する技術に関する。   The present invention relates to a binaural sound generation technique, and more particularly to a technique for generating binaural sound from a signal collected using a microphone array having a predetermined three-dimensional shape.

近年、全天球カメラが普及したことを背景として、ユーザが見渡している映像に対応した音を仮想的に生成するための研究が盛んにおこなわれている。その一つに、全天球映像音声視聴システムがある(非特許文献1)。全天球映像とは、全天球カメラで撮影した映像のことである。これにより、ユーザはあたかも撮影した場にいるかのような映像を視ることが可能となる。   In recent years, with the widespread use of omnidirectional cameras, extensive research has been conducted to virtually generate sound corresponding to images overlooked by users. One of them is an omnidirectional video / audio viewing system (Non-Patent Document 1). An omnidirectional image is an image taken with an omnidirectional camera. As a result, the user can view the video as if it were in the shooting location.

全天球映像音声視聴システムでは、複数の領域(具体的には、特定の角度幅で区切った領域)において推定した局所音源信号群にHRTF(Head−Related Transfer Function)を畳み込むことにより、ユーザが見渡している映像に対応するバイノーラル音を生成・出力することができる。このシステムでは、ユーザがジャイロセンサ付きのHMD(Head Mounted Display)を装着することで、頭部方向をリアルタイムに取得する。そして、取得した頭部方向に応じて各局所音源信号に畳み込むHRTFを切り替えることで、ユーザが見渡している映像に対応したバイノーラル音をリアルタイムに生成する。生成したバイノーラル音はイヤホンやヘッドホンを用いて聴取される。   In the omnidirectional video / audio viewing system, the user convolves a HRTF (Head-Related Transfer Function) with a local sound source signal group estimated in a plurality of regions (specifically, regions divided by specific angle widths). It can generate and output binaural sound corresponding to the overlooked video. In this system, the user acquires the head direction in real time by wearing an HMD (Head Mounted Display) with a gyro sensor. And the binaural sound corresponding to the image | video which the user overlooks is produced | generated in real time by switching HRTF convolved with each local sound source signal according to the acquired head direction. The generated binaural sound is heard using earphones or headphones.

なお、HMDは1枚のフレネルレンズとスマートホンを組み合わせて構成されるような簡単なものでもよい。スマートホンを用いて構成することにより、ネットワークで配信されるコンテンツの視聴が容易に可能となる。   The HMD may be as simple as a combination of one Fresnel lens and a smartphone. By using a smart phone, content distributed over the network can be easily viewed.

以下では、全天球映像音声視聴システムにおける音の生成(全天球映像に対応したバイノーラル音の生成システム)について説明する。   Hereinafter, sound generation in the omnidirectional video / audio viewing system (a binaural sound generation system corresponding to the omnidirectional video) will be described.

K個(Kは1以上の整数)の音源が存在する音場に、M本(Mは1以上の整数)のマイクロホンで構成されたアレイを設置して観測することを想定する。k番目(1≦k≦K)の音源信号をSk,ω,τ、m番目(1≦m≦M)の観測信号をXm,ω,τ、その間の伝達特性をAm,k,ωとするとき、観測信号群xω,τは次式でモデル化される。 Assume that an array composed of M (M is an integer of 1 or more) microphones is installed and observed in a sound field in which K (K is an integer of 1 or more) sound sources exist. The k-th (1 ≦ k ≦ K) sound source signal is represented by S k, ω, τ , the m-th (1 ≦ m ≦ M) observation signal is represented by X m, ω, τ , and the transfer characteristic therebetween is represented by A m, k, When ω , the observation signal group x ω, τ is modeled by the following equation.

ここで、ω、τはそれぞれ周波数のインデックス、フレーム時間のインデックスを表す。また、 Here, ω and τ represent a frequency index and a frame time index, respectively. Also,


であり、Tは転置、Nm,ω,τはm番目の観測信号に含まれる背景雑音を表す。

T represents transposition, and N m, ω, τ represents background noise included in the m-th observed signal.

ユーザが見渡している映像に対応したバイノーラル音bω,τ=[Bω,τ (Left),Bω,τ (Right)] の生成について説明する。フレーム時間τにおけるユーザの頭部方向(極座標表現)をΨτ=[Ψτ (Hor),Ψτ (Ver)]と表す。音源の指向性や背景雑音を無視できると仮定したとき、ユーザの頭部方向と各音源の間のHRTFを各音源信号に畳み込むことで、ユーザが見渡している映像に対応したバイノーラル音bω,τを出力できる。その様子を図1に示す。 The generation of binaural sound b ω, τ = [B ω, τ (Left) , B ω, τ (Right) ] T corresponding to the video that the user is looking over will be described. The head direction (polar coordinate expression) of the user at the frame time τ is expressed as Ψ τ = [Ψ τ (Hor) , Ψ τ (Ver) ] T. Assuming that the directivity of the sound source and background noise can be ignored, by convolving the HRTF between the direction of the user's head and each sound source into each sound source signal, the binaural sound b ω, τ can be output. This is shown in FIG.

ここで、Hk,Ψτ,ω (Left)、Hk,Ψτ,ω (Right)は、k番目の音源とユーザの左耳間のHRTF、k番目の音源とユーザの右耳間のHRTFをそれぞれ表す。 Here, H k, Ψτ, ω (Left) and H k, Ψτ, ω (Right) are the HRTF between the kth sound source and the user's left ear, and the HRTF between the kth sound source and the user's right ear. Represent each.

近接した音源の位置の違いに対してHRTFが劇的に変化しないことを考慮すると、局所的な領域内にある音源群を1つの音源信号(以下、局所音源信号という)と見なしてもユーザの音像定位に大きな影響を及ぼさないと考えられる。そこで、全天球映像音声視聴システムでは、個々の音源信号を抽出するのではなく、方向Θ=[Θ (Hor) (Ver)](j=1,…,L) を主軸とした角度幅を持つL個の領域(以下、簡単のため、局所領域Θともいう)群における局所音源信号群を推定する方向別収音する方式を採用する。その様子を図2に示す。例えば、図2の局所音源信号ZΘ3,ω,τと図1の3番目の音源信号S3,ω,τ、4番目の音源信号S4,ω,τが対応していることを示している。なお、方向別収音の具体的な方法については後述する。 Considering that the HRTF does not change dramatically with the difference in the position of adjacent sound sources, even if the sound source group in the local region is regarded as one sound source signal (hereinafter referred to as a local sound source signal), the user's It is considered that the sound image localization is not greatly affected. Therefore, in the omnidirectional video / audio viewing system, the direction Θ j = [Θ j (Hor) , Θ j (Ver) ] T (j = 1,..., L) is not extracted from individual sound source signals. A method of collecting sounds by direction for estimating a local sound source signal group in a group of L areas having an angular width as a main axis (hereinafter also referred to as a local area Θ j for simplicity) is adopted. This is shown in FIG. For example, the local sound source signal Z Θ3, ω, τ in FIG. 2 corresponds to the third sound source signal S 3, ω, τ in FIG. 1 and the fourth sound source signal S 4, ω, τ. Yes. A specific method of collecting sound by direction will be described later.

方向Θ=[Θ (Hor) (Ver)]を主軸とした角度幅を持つ領域とその他領域から到来した音源群を分離し、局所音源信号ZΘj,ω,τ(j=1,…,L)が推定されたと仮定すると、ユーザが見渡している映像に対応したバイノーラル音bω,τは、次式で仮想的に生成される。 Direction Θ j = [Θ j (Hor) , Θ j (Ver) ] A region having an angular width with T as the main axis and a sound source group coming from other regions are separated, and a local sound source signal Z Θj, ω, τ (j = 1,..., L), the binaural sound b ω, τ corresponding to the video overlooked by the user is virtually generated by the following equation.

ここで、HΘj,Ψτ,ω (Left)、HΘj,Ψτ,ω (Right)は、j番目の領域の主軸方向とユーザの左耳間のHRTF、j番目の領域の主軸方向とユーザの右耳間のHRTFをそれぞれ表す。なお、音場の残響時間、頭部や両耳の物理構造の個人性、音源と受聴者の間の距離に応じてHRTFが変化することは一般的に知られているが、ここでは、これらの影響を無視できると仮定し、HΘj,Ψτ,ω (Left)、HΘj,Ψτ,ω (Right)を簡略化して表すこととした。この簡略化したHΘj,Ψτ,ω (Left)、HΘj,Ψτ,ω (Right)は、あらかじめHATS(Head and Torso Simulators)を低残響下に設置し、スピーカを離散的に配置して収録したデータベースから最も近い方向のHRTFを選択することで得られる。 Here, H Θj, Ψτ, ω (Left) and H Θj, Ψτ, ω (Right) are the HRTF between the principal axis direction of the jth region and the left ear of the user, the principal axis direction of the jth region and the user's HRTF between right ears is represented respectively. It is generally known that the HRTF changes depending on the reverberation time of the sound field, the personality of the physical structure of the head and both ears, and the distance between the sound source and the listener. Assuming that the influence of can be ignored, H Θj, Ψτ, ω (Left) and H Θj, Ψτ, ω (Right) are simplified. This simplified H Θj, Ψτ, ω (Left) and H Θj, Ψτ, ω (Right) are recorded in advance by installing HATS (Head and Torso Simulators) under low reverberation and discretely arranging speakers. It is obtained by selecting the HRTF in the direction closest to the selected database.

音源信号群sω,τからバイノーラル音bω,τを生成するための全体的な処理フローを図3に示す。図3における再合成処理が式(9)、式(10)を用いたバイノーラル音の生成に対応する。その際、HMDにより取得されたユーザの頭部方向が入力される(図3におけるユーザコントロールが対応する)。 Excitation signal group s omega, binaural sound from the tau b omega, the overall processing flow for generating the tau shown in Fig. The re-synthesis process in FIG. 3 corresponds to the generation of binaural sound using Expressions (9) and (10). At that time, the head direction of the user acquired by the HMD is input (the user control in FIG. 3 corresponds).

次に、観測信号群xω,τから局所音源信号群zω,τ=[ZΘ1,ω,τ,…,ZΘL,ω,τ]を収音する方向別収音について説明する。全天球映像音声視聴システムでは、局所PSD(Power Spectral Density)推定に基づく音源強調方式による方向別収音を用いる。 Next, the sound collection by direction for collecting the local sound source signal group z ω, τ = [Z Θ1, ω, τ ,..., Z ΘL, ω, τ ] T from the observed signal group x ω, τ will be described. The omnidirectional video / audio viewing system uses direction-specific sound collection by a sound source enhancement method based on local PSD (Power Spectral Density) estimation.

ここで、全天球映像音声視聴システムにおいて音源別収音でなく、方向別収音を用いる理由を説明する。ユーザが見渡している映像に対応するように分離した信号群を定位操作し再合成するという用途では、近接した位置にある音源群を無理に分離する必要性はないと考えられる。これは、音源群と受聴者の間のHRTFの特性が大きく変わらないため、受聴者の音像定位に対して大きな影響を及ぼさないからである。むしろ、音源が時々刻々と移動する状況を想定するならば、できるだけ均一に区切られた領域群に対応する局所音源信号群を生成できる方が好ましいからである。   Here, the reason for using sound collection by direction instead of sound collection by sound source in the omnidirectional video and audio viewing system will be described. In an application where a signal group separated so as to correspond to a video that the user looks around is localized and re-synthesized, it is considered unnecessary to forcibly separate sound source groups at close positions. This is because the characteristics of the HRTF between the sound source group and the listener do not change greatly, and thus the sound image localization of the listener is not greatly affected. Rather, if it is assumed that the sound source moves from moment to moment, it is preferable that a local sound source signal group corresponding to a group of regions divided as uniformly as possible can be generated.

観測信号群xω,τにビームフォーミングを適用する、あるいはショットガンマイクのような超指向性のマイクロホンを用いて受音する等の手段により方向Θを主軸とした領域から到来した音をプリエンハンスした信号をYΘj,ω,τ(j=1,…,L)とする。また、プリエンハンスした信号群をyω,τ=[YΘ1,ω,τ,…,YΘL,ω,τと表す。プリエンハンスした信号群yω,τを生成する処理が図3における指向性形成処理である。 Pre-enhance sound coming from the region with the direction Θ j as the main axis by applying beam forming to the observation signal group x ω, τ or receiving sound using a super-directional microphone such as a shotgun microphone The signal obtained is defined as Y Θj, ω, τ (j = 1,..., L). Also, the pre-enhancement signal group y ω, τ = [Y Θ1 , ω, τ, ..., Y ΘL, ω, τ] denoted T. The process of generating the pre-enhanced signal group yω, τ is the directivity forming process in FIG.

音源信号が互いに無相関であると仮定すると、YΘj,ω,τのPSDφYΘj,ωは次式でモデル化される。 When the sound source signal is assumed to be mutually uncorrelated, Y Θj, ω, PSDφ YΘj of tau, omega is modeled by the following equation.

ここで、<・>は期待値演算、DΘj,k,ωはk番目の音源に対するj番目のビームフォーミング/受音の平均的な感度、φSk,ωはk番目の音源のPSDを表す。 Here, <•> represents the expected value calculation, D Θj, k, ω represents the average sensitivity of the jth beamforming / received sound for the kth sound source , and φ Sk, ω represents the PSD of the kth sound source. .

式(11)の関係が局所音源信号群zω,τとプリエンハンスされた信号群yω,τの関係についても成り立つと仮定すると、φYΘj,ωは次式で近似して表される。 Assuming that the relationship of Equation (11) also holds for the relationship between the local sound source signal group z ω, τ and the pre-enhanced signal group y ω, τ , φ YΘj, ω is expressed by the following equation.

ここで、DΘj,Θi,ωは方向Θを主軸とした領域に対するj番目のビームフォーミング/受音の平均的な感度、φSΘi,ωはi番目の局所音源信号のPSD(局所PSD)を表す。L個のφSΘi,ωとφYΘj,ωの関係は次式でモデル化される。 Here, D Θj, Θi, average sensitivity of the j-th beam forming / sound receiving the omega is the direction theta i for regions with the spindle, φ SΘi, ω is the i-th local source signal PSD (local PSD) Represents. The relationship between L φSΘi, ω and φYΘj, ω is modeled by the following equation.

L個の局所PSDφSΘi,ωを推定するために、式(13)の逆問題を解く。ここでは、雑音抑圧性能を高めるために、フレーム毎に局所PSDを推定することとすると、逆問題は次式で定式化される。 In order to estimate L local PSDφ SΘi, ω , the inverse problem of equation (13) is solved. Here, if the local PSD is estimated for each frame in order to enhance the noise suppression performance, the inverse problem is formulated by the following equation.

なお、実用上の課題としてスパース性を仮定できる局所領域の数L、Dω -1の安定性を制御する課題が生じる。Dωの要素はすべて正の数であるため、Dωの特異値の条件によっては安定に解が求まらないこともある。したがって、マニュアルで安定化計算の調整をする必要がある。例えば、以下のように対角項に所定の値を加算する操作を行い、調整すればよい。 As a practical problem, there arises a problem of controlling the stability of the number of local regions L and D ω −1 where sparseness can be assumed. Since all elements of D omega is the number of positive, depending on the conditions of the singular values of D omega sometimes not obtained is stable solutions. Therefore, it is necessary to adjust the stabilization calculation manually. For example, an operation of adding a predetermined value to the diagonal term may be performed and adjusted as follows.

ここで、εは安定化係数であり、値が大きいほど安定な逆行列計算を可能にする。 Here, ε is a stabilization coefficient, and a larger value enables more stable inverse matrix calculation.

観測信号に干渉雑音のみが混在している場合には、式(14)で算出したΦ^S,ω,τから目的音のPSD及び雑音のPSDを求めればよい。なお、目的音のPSD、雑音のPSDは音源強調のフィルタを生成する際に必要となる。 When only the interference noise is mixed in the observation signal, the PSD of the target sound and the PSD of the noise may be obtained from Φ ^ S, ω, τ calculated by the equation (14). Note that the PSD of the target sound and the PSD of the noise are necessary when generating a sound source enhancement filter.

しかし、実際には式(1)のように非干渉性(あるいは拡散性)の背景雑音が観測信号に存在する。そのような場合には、干渉性雑音のPSDと背景雑音のPSDを別々に推定した方が精度の高い音源強調のフィルタを生成できると考えられる。干渉性雑音のPSDと背景雑音のPSDを別々に推定するための一方法を以下で説明する。   However, in actuality, incoherent (or diffusive) background noise exists in the observed signal as shown in Equation (1). In such a case, it is considered that a more accurate sound source enhancement filter can be generated by separately estimating the PSD of coherent noise and the PSD of background noise. One method for separately estimating the PSD of the coherent noise and the PSD of the background noise will be described below.

まず、式(14)で算出したΦ^S,ω,τから背景雑音のPSDを取り除く。背景雑音は目的音、干渉雑音とは無相関であると仮定できるので、パワースペクトル領域での加算性を仮定しても近似的には成り立つと考えられる。i番目の方向Θの局所領域にある音源群を目的音とする。そのとき、局所PSDφSΘi,ω,τからその中に存在する背景雑音のPSDφBNTΘi,ω,τを減算する。これにより、推定された目的音のPSD(背景雑音の影響を除去済み)φTSΘi,ω,τが求まる。 First, the PSD of background noise is removed from Φ ^ S, ω, τ calculated by Expression (14). Since the background noise can be assumed to be uncorrelated with the target sound and the interference noise, it can be considered that the background noise can be approximated even if the addability in the power spectrum region is assumed. A sound source group in a local region in the i-th direction Θ i is set as a target sound. At that time, local PSDφ SΘi, ω, the background noise of PSDφ BNTΘi present from τ in it, ω, is subtracted τ. As a result, the PSD of the estimated target sound (having removed the influence of background noise) φ TSΘi, ω, τ is obtained.

もし、目的音のPSDφTSΘi,ω,τが0より小さいときには0にする。また、式(16)の背景雑音のPSDφBNTΘi,ω,τを計算するために背景雑音が時間的な定常性が強い(つまり、時間に応じて劇的に変化しない)ことを仮定し、再帰的な更新アルゴリズムにより、φSΘi,ω,τを時間平滑化処理することで突発性の成分を除去すると、式(17)が得られる。 If the target sound PSDφTSΘi, ω, τ is smaller than 0, it is set to 0. Further, in order to calculate the background noise PSDφ BNTΘi, ω, τ of the equation (16), it is assumed that the background noise has a strong temporal steadiness (that is, it does not change dramatically according to the time), and is recursive. When the sudden component is removed by performing a time smoothing process on φSΘi, ω, τ by a typical update algorithm, Expression (17) is obtained.

ここで、βωは時間平滑化のための定数である。例えば、150ms程度で忘却するように設定すればよい。φ SΘi,ω,τの区間Τにおける最低値を保持することで、目的音領域(i番目の方向Θの局所領域)の背景雑音のPSDφBNTΘi,ω,τを推定することができる。 Here, βω is a constant for time smoothing. For example, it may be set to forget about 150 ms. φ - SΘi, ω, by holding the minimum value in the interval Τ of tau, can be estimated PSDφ BNTΘi of background noise (local area of i-th direction theta i) target sound region, omega, and tau.

同様に、目的音領域(i番目の方向Θの局所領域)以外の領域にある干渉性雑音群のPSDφISΘi,ω,τを推定するために目的音と同様に背景雑音のPSDφBNIΘi,ω,τを減算する。 Similarly, the interference noise group PSDφ ISΘi in the other region (local regions of the i-th direction theta i) target sound region, ω, PSDφ BNIΘi similarly background noise and target sound to estimate the tau, omega , τ is subtracted.

ここで、α1,ωはコンテンツに応じて最適値が変わる重み係数である。また、干渉性雑音群のPSDφISΘi,ω,τについても0より小さいときには0にフロアリングする。式(19)にある背景雑音のPSDφBNIΘi,ω,τは以下のように計算する。 Here, α 1 and ω are weighting factors whose optimum values change according to the content. Also, PSDφ ISΘi, ω, τ of the coherent noise group is floored to 0 when it is smaller than 0. The background noise PSDφ BNIΘi, ω, τ in the equation (19) is calculated as follows.

j番目の局所音源信号ZΘj,ω,τを推定するためのウィーナーフィルタGΘj,ω,τを生成する。 A Wiener filter GΘj, ω, τ for estimating the jth local sound source signal ZΘj, ω, τ is generated.


ここで、α2,ω、α3,ωは重み係数である。

Here, α 2, ω and α 3, ω are weighting factors.

式(22)を用いて計算した後のウィーナーフィルタGΘj,ω,τを以下のように整形する。 The Wiener filter G Θj, ω, τ after calculation using the equation (22) is shaped as follows.

ここで、α4,ωは重み係数である。この後、α5,ω(0≦α5,ω<1)を用いて、α5,ω≦GΘj,ω,τ≦1となるようにGΘj,ω,τのフロアリング処理を行う。局所音源信号ZΘj,ω,τは次式で算出される。 Here, α 4, ω is a weighting coefficient. Thereafter, α 5, ω (0 ≦ α 5, ω <1) with a, α 5, ω ≦ G Θj , ω, τ ≦ 1 become as G .theta.j, omega, performs flooring processing tau . The local sound source signal Z Θj, ω, τ is calculated by the following equation.

プリエンハンスした信号群yω,τをウィーナーフィルタリングすることにより局所音源信号群zω,τを生成する処理が図3における方向別収音処理である。 The process of generating the local sound source signal group z ω, τ by performing Wiener filtering on the pre-enhanced signal group y ω, τ is the direction-specific sound collection process in FIG.

最後に、全天球映像音声視聴システムにおけるバイノーラル音の生成処理を実行するバイノーラル音生成システム900について説明する。図4は、バイノーラル音生成システム900の構成を示すブロック図である。図4に示すようにバイノーラル音生成システム900は、収音装置905と、再合成装置955を含む。収音装置905は、M本のマイクロホン910−1〜910−Mと、M個の周波数領域変換部920−1〜920−Mと、L個のビームフォーミング部930−1〜930−Lと、局所PSD推定部940と、ウィーナーフィルタリング部950を含む。再合成装置955は、HRTF畳み込み部960を含む。   Finally, a binaural sound generation system 900 that executes binaural sound generation processing in the omnidirectional video / audio viewing system will be described. FIG. 4 is a block diagram showing the configuration of the binaural sound generation system 900. As shown in FIG. 4, the binaural sound generation system 900 includes a sound collection device 905 and a resynthesis device 955. The sound collection device 905 includes M microphones 910-1 to 910 -M, M frequency domain conversion units 920-1 to 920 -M, L beam forming units 930-1 to 930 -L, A local PSD estimation unit 940 and a Wiener filtering unit 950 are included. The resynthesis device 955 includes an HRTF convolution unit 960.

時間領域観測信号群から局所音源信号群を生成する処理(音源分離処理)を実行するのが、収音装置905である。マイクロホン910−1〜910−Mは、K個の音源が存在する音場の音声を収音し、時間領域観測信号を生成する。周波数領域変換部920−1〜920−Mは、それぞれ時間領域観測信号を観測信号Xm,ω,τ(1≦m≦M)に変換する。 The sound collection device 905 executes processing (sound source separation processing) for generating a local sound source signal group from the time domain observation signal group. Microphones 910-1 to 910 -M collect sound in a sound field where K sound sources are present, and generate time-domain observation signals. The frequency domain conversion units 920-1 to 920 -M convert the time domain observation signals to observation signals X m, ω, τ (1 ≦ m ≦ M), respectively.

ビームフォーミング部930−1〜930−Lは、M個の観測信号(観測信号群)からプリエンハンスした信号YΘj,ω,τ(j=1,…,L)を生成する。なお、マイクロホン910−1〜910−Mの代わりに、L=Mとして、L個の指向性マイクを用いて収音するのでもよい。この場合、指向性マイクを用いて収音した信号をプリエンハンスした信号YΘj,ω,τ(j=1,…,L)としてよいので、ビームフォーミング部930−1〜930−Lが不要になる。 Beam forming sections 930-1 to 930 -L generate pre-enhanced signals Y Θj, ω, τ (j = 1,..., L) from M observation signals (observation signal group). Instead of the microphones 910-1 to 910 -M, L = M may be used and sound may be collected using L directional microphones. In this case, since the signal Y Θj, ω, τ (j = 1,..., L) obtained by pre- enhancing the signal collected using the directional microphone may be used, the beam forming units 930-1 to 930-L are unnecessary. Become.

局所PSD推定部940は、プリエンハンスした信号YΘj,ω,τ(j=1,…,L)を用いて目的音のPSD、干渉雑音のPSD、背景雑音のPSDを生成する。具体的には、式(14)、式(16)、式(19)、式(18)を用いて、目的音のPSD、干渉雑音のPSD、背景雑音のPSDを生成する。 The local PSD estimation unit 940 generates a target sound PSD, interference noise PSD, and background noise PSD using the pre-enhanced signal Y Θj, ω, τ (j = 1,..., L). Specifically, the target sound PSD, the interference noise PSD, and the background noise PSD are generated using the equations (14), (16), (19), and (18).

ウィーナーフィルタリング部950は、目的音のPSD、干渉雑音のPSD、背景雑音のPSDを用いてL個のウィーナーフィルタを生成し、プリエンハンスした信号YΘj,ω,τ(j=1,…,L)にウィーナーフィルタGΘj,ω,τ(j=1,…,L)を適用し、局所音源信号ZΘj,ω,τ(j=1,…,L)を生成する。具体的には、式(22)、式(23)、式(24)を用いて局所音源信号ZΘj,ω,τを生成する。 The Wiener filtering unit 950 generates L Wiener filters using the target sound PSD, the interference noise PSD, and the background noise PSD, and pre-enhanced signals Y Θj, ω, τ (j = 1,..., L ) To apply the Wiener filter G Θj, ω , τ (j = 1,..., L) to generate the local sound source signal Z Θj, ω, τ (j = 1,..., L). Specifically, the local sound source signal Z Θj, ω, τ is generated using Expression (22), Expression (23), and Expression (24).

局所音源信号群からバイノーラル音を生成する処理(再合成処理)を実行するのが、再合成装置955である。HRTF畳み込み部960は、局所音源信号ZΘj,ω,τ(j=1,…,L)からバイノーラル音bω,τを生成する。具体的には、式(9)、式(10)を用いて受聴用のバイノーラル信号である受聴信号(左)と受聴信号(右)を生成する。 The re-synthesis device 955 executes a process (re-synthesis process) for generating a binaural sound from the local sound source signal group. The HRTF convolution unit 960 generates a binaural sound b ω, τ from the local sound source signal Z Θj, ω, τ (j = 1,..., L). Specifically, the listening signal (left) and the listening signal (right), which are binaural signals for listening, are generated using Equations (9) and (10).

なお、インターネットのようなネットワークに収音装置905と再合成装置955を接続してバイノーラル音生成システム900を構成することもできる。この場合、収音装置905、再合成装置955はネットワークによる通信に必要は手段を具備する必要があるのはいうまでもない。また、伝送に適するよう、局所音源信号群を符号化する符号化部、局所音源信号群を符号化した符号化データを復号する復号部をそれぞれ収音装置905、再合成装置955に備えるようにしてもよい。   Note that the binaural sound generation system 900 can be configured by connecting the sound collection device 905 and the re-synthesis device 955 to a network such as the Internet. In this case, it goes without saying that the sound collection device 905 and the re-synthesis device 955 need to have means necessary for communication via the network. In addition, the sound collection device 905 and the resynthesis device 955 are provided with an encoding unit that encodes a local excitation signal group and a decoding unit that decodes encoded data obtained by encoding the local excitation signal group, respectively, so as to be suitable for transmission. May be.

全天球映像音声視聴システムでは音源分離処理をしたうえでバイノーラル音を生成するため、観測信号を生成するマイクロホンの配置やマイクロホンアレイの形状について特に制限はなかった。一方、観測信号を生成するマイクロホンを特殊な形状のマイクロホンアレイに配置し収音することにより、観測信号からバイノーラル音を直接得るようなバイノーラル録音に関する研究も進められている。通常、バイノーラル録音では、HATSやダミーヘッドのような耳介つきのマイクロホンを用いて録音する。これに対し、非特許文献2では、耳介を精巧にモデル化することなく、固定方向を撮像した映像に対するバイノーラル音を簡易録音する方法を提案している。非特許文献2では、球状のマイクロホンアレイに、半球状の窪みを設け、そこにマイクロホンを設置するという簡素な構成を用いても、音を定位するための手がかりになり得るような周波数−空間特性パターンを得られることを確認している。   In the omnidirectional video / audio viewing system, binaural sound is generated after sound source separation processing, so there is no particular limitation on the arrangement of microphones for generating observation signals and the shape of the microphone array. On the other hand, research on binaural recording that directly obtains binaural sounds from observation signals by arranging microphones that generate observation signals in a microphone array of a special shape and collecting sound is also underway. Usually, in binaural recording, recording is performed using a microphone with an auricle such as HATS or a dummy head. On the other hand, Non-Patent Document 2 proposes a method for simply recording binaural sounds for images captured in a fixed direction without elaborately modeling the pinna. In Non-Patent Document 2, frequency-space characteristics that can serve as a clue to localize sound using a simple configuration in which a spherical microphone array is provided with a hemispherical depression and a microphone is installed there. It is confirmed that the pattern can be obtained.

丹羽健太、小泉悠馬、小林和則、植松尚、“全天球映像に対応したバイノーラル音を生成するための方向別収音に関する検討”、信学技報EA2015-7、電子情報通信学会、2015年7月、vol.115, no.126, pp.33-38.Kenta Niwa, Kuruma Koizumi, Kazunori Kobayashi, Takashi Uematsu, “Study on sound collection according to direction to generate binaural sound corresponding to omnidirectional video”, IEICE Technical Report EA2015-7, IEICE, 2015 July, vol.115, no.126, pp.33-38. 中桐大志、山村俊貴、西野隆典、成瀬央、武田一哉、“くぼみ付き球状マイクロホンバッフルを用いたバイノーラル録音の検討”、日本音響学会2015年春季研究発表会2-P-42、2015年3月、pp.889-890.Nakagiri Taishi, Yamamura Toshiki, Nishino Takanori, Naruse Osamu, Takeda Kazuya, “Study of Binaural Recording Using Spherical Microphone Baffle with Indentation”, Acoustical Society of Japan 2015 Spring Meeting 2-P-42, March 2015, pp.889-890.

バイノーラル音生成システム900では、雑音抑圧量等を調整するために必要となるアレイ信号処理のパラメータ(収音装置905のパラメータ)の最適値がコンテンツごとに異なるため、パラメータの調整作業を行う必要性があった。一方、コンテンツごとに最適なパラメータに調整するのでなく、様々なコンテンツに対して汎用的に使えるようなパラメータに調整することも考えられるが、このようにすると収音性能が劣化するコンテンツが存在するなどの問題があった。   In the binaural sound generation system 900, since the optimum values of the array signal processing parameters (parameters of the sound collection device 905) necessary for adjusting the noise suppression amount and the like are different for each content, it is necessary to perform parameter adjustment work. was there. On the other hand, instead of adjusting to the optimum parameter for each content, it may be possible to adjust to a parameter that can be used universally for various contents, but there is content that deteriorates the sound collection performance by doing so. There were problems such as.

そこで本発明では、アレイ信号処理のパラメータの調整が不要な、観測信号からバイノーラル音を生成するバイノーラル音生成装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a binaural sound generation device that generates a binaural sound from an observation signal, which does not require adjustment of array signal processing parameters.

本発明の一態様は、マイクロホンを設置するM個(Mは3以上の整数)の窪みを備えるマイクロホンアレイを用いて収音した観測信号からバイノーラル音を生成するバイノーラル音生成装置であって、n、kをM=2n+k(n≧1、k=0または1)を満たす整数とし、前記マイクロホンアレイの立体形状を上から見た形状は、対称性を持つ図形であり、前記M個の窪みは、前記立体形状の側面に設けられ、そのうち2n個の窪みは、前記立体形状を上から見て180度間隔でペアになるように設けられるものであり、前記窪みには少なくとも1本のマイクロホンが設置されており、前記観測信号を補間合成することにより前記バイノーラル音を生成する補間合成部とを含む。   One aspect of the present invention is a binaural sound generation device that generates a binaural sound from an observation signal picked up using a microphone array including M depressions (M is an integer of 3 or more) where microphones are installed, and n , K is an integer satisfying M = 2n + k (n ≧ 1, k = 0 or 1), and the shape of the three-dimensional shape of the microphone array viewed from above is a symmetrical figure, and the M depressions are , Provided on the side of the three-dimensional shape, of which 2n dents are provided so as to be paired at intervals of 180 degrees when the three-dimensional shape is viewed from above, and at least one microphone is provided in the dent. And an interpolating and synthesizing unit that generates the binaural sound by interpolating and synthesizing the observation signals.

本発明によれば、上から見た形状が対称性を有する立体形状に上から見て180度間隔でペアになるような位置に設けられた窪みにマイクロホンを設置したマイクロホンアレイを用いて収音した観測信号から補間合成によりバイノーラル音を生成することにより、アレイ信号処理のパラメータの調整作業を行うことなく、観測信号からバイノーラル音を生成することが可能となる。   According to the present invention, sound collection is performed using a microphone array in which microphones are installed in depressions provided at positions that are paired at intervals of 180 degrees when viewed from above into a three-dimensional shape having a symmetrical shape when viewed from above. By generating a binaural sound from the observed signal by interpolation synthesis, it becomes possible to generate a binaural sound from the observed signal without adjusting the parameters of the array signal processing.

音源別収音を用いた頭部方向に応じたバイノーラル音の生成のイメージを示す図。The figure which shows the image of the production | generation of the binaural sound according to the head direction using the sound-collection according to sound source. 方向別収音を用いた頭部方向に応じたバイノーラル音の生成のイメージを示す図。The figure which shows the image of the production | generation of the binaural sound according to the head direction using the sound collection according to direction. 全天球映像音声視聴システムにおけるバイノーラル音の生成処理フローを示す図。The figure which shows the production | generation processing flow of the binaural sound in a omnidirectional video-audio viewing system. バイノーラル音生成システム900の構成を示すブロック図。1 is a block diagram showing a configuration of a binaural sound generation system 900. FIG. バイノーラル音生成装置400の構成を示すブロック図。The block diagram which shows the structure of the binaural sound production | generation apparatus 400. FIG. バイノーラル音生成装置400の動作を示すフローチャート。5 is a flowchart showing the operation of the binaural sound generating apparatus 400. マイクロホンアレイ410の立体形状の一例を示す図。The figure which shows an example of the three-dimensional shape of the microphone array 410. FIG. マイクロホンアレイ410の立体形状の一例を示す図。The figure which shows an example of the three-dimensional shape of the microphone array 410. FIG. マイクロホンアレイ410に全天球映像生成用カメラを内蔵した様子を示す図。The figure which shows a mode that the omnidirectional video production | generation camera was incorporated in the microphone array 410. FIG. マイクロホンアレイ410のマイクロホンの設置位置の一例を示す図。The figure which shows an example of the installation position of the microphone of the microphone array. 水平面におけるマイクロホンの選択の様子を示す図。The figure which shows the mode of selection of the microphone in a horizontal surface. 水平面における各マイクの重み係数のグラフを示す図。The figure which shows the graph of the weighting coefficient of each microphone in a horizontal surface. 水平方向と仰角方向の重みのグラフを示す図。The figure which shows the graph of the weight of a horizontal direction and an elevation angle direction.

以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In addition, the same number is attached | subjected to the structure part which has the same function, and duplication description is abbreviate | omitted.

非特許文献2は、精巧な耳介のモデルの代わりに、球状をしたマイクロホンアレイに設けた半球状の窪みにマイクロホンを設置するだけで音源定位に有用な情報が受音信号に含まれることを実験的に示している。そこで、この簡単な立体形状に設けた窪みにマイクロホンを設置するという簡易な方法を全方位収音に拡張し、当該収音信号から全天球映像に対応したバイノーラル音を仮想的に生成する方法について説明する。   Non-Patent Document 2 shows that instead of an elaborate pinna model, the sound reception signal contains information useful for sound source localization simply by installing a microphone in a hemispherical depression provided in a spherical microphone array. Experimentally shown. Therefore, a simple method of installing a microphone in a hollow provided in this simple three-dimensional shape is extended to omnidirectional sound collection, and a binaural sound corresponding to the omnidirectional image is virtually generated from the sound collection signal Will be described.

以下、図5〜図6を参照してバイノーラル音生成装置400について説明する。図5は、バイノーラル音生成装置400の構成を示すブロック図である。図6は、バイノーラル音生成装置400の動作を示すフローチャートである。図5に示すようにバイノーラル音生成装置400は、マイクロホンアレイ410と、補間合成部420を含む。マイクロホンアレイ410は所定の位置に窪みがある所定の立体形状をしており、その窪みにM本のマイクロホン910−1〜910−Mが設置される。   Hereinafter, the binaural sound generation device 400 will be described with reference to FIGS. FIG. 5 is a block diagram illustrating a configuration of the binaural sound generation device 400. FIG. 6 is a flowchart showing the operation of the binaural sound generator 400. As shown in FIG. 5, the binaural sound generation device 400 includes a microphone array 410 and an interpolation / synthesis unit 420. The microphone array 410 has a predetermined three-dimensional shape with a recess at a predetermined position, and M microphones 910-1 to 910 -M are installed in the recess.

マイクロホンアレイ410は、K個の音源が存在する音場の音声を収音し、M個の時間領域の観測信号を生成する(S410)。マイクロホンアレイ410の立体形状の一例は、球体、円柱である。また、厳密な球体・円柱ではなく、球体・円柱に近い形状であってもよい。全天球映像を視る際首を左右に振り回すことを考えると、一般に立体形状を上から見た形状が典型的には円のように点対称な図形、対称性を持つ図形の方がよい。   The microphone array 410 picks up sound in a sound field in which K sound sources are present, and generates M time domain observation signals (S410). An example of the three-dimensional shape of the microphone array 410 is a sphere or a cylinder. Moreover, the shape close | similar to a sphere and a cylinder may be sufficient instead of a exact sphere and a cylinder. Considering that the head is swung from side to side when viewing the omnidirectional image, the shape of the three-dimensional shape seen from above is typically a point-symmetric figure such as a circle, or a figure with symmetry. .

また、これらの立体形状の側面を90度間隔で窪ませることにより、窪みが構成される。この窪みは耳介を簡易にモデル化したものである。この窪みの形状は半球状といった単純な形状でよい。また、窪みは90度間隔に制限されるものではない。人間の耳の配置が上から見て左右対称であることを考慮して、マイクロホンの左右ペア(180度間隔のペア)を左右対称に側面に設置できるのであれば、例えば、60度、30度といった角度間隔(一般に、nを2以上の整数として、180/n度間隔)のようにどのような角度で窪みをつけてもよい。なお、90度間隔よりも狭めたほうが収音性能はよくなる。また、マイクロホンを左右ペアとして左右対称に設置できるのであれば、窪みを設置する間隔は厳密に180/n度間隔のように均一の間隔でなくてもよい。   Moreover, a hollow is comprised by denting the side surface of these solid shapes at intervals of 90 degrees. This depression is a simple model of the auricle. The shape of the recess may be a simple shape such as a hemisphere. Further, the depressions are not limited to 90 degree intervals. Considering that the arrangement of human ears is symmetric when viewed from above, if left and right microphone pairs (pairs spaced 180 degrees) can be placed symmetrically on the sides, for example, 60 degrees and 30 degrees The depressions may be formed at any angle such as an angular interval (generally, n is an integer of 2 or more and an interval of 180 / n degrees). Note that the sound collection performance is improved when the interval is narrower than 90 degrees. In addition, if the microphones can be installed symmetrically as a left and right pair, the intervals at which the recesses are installed do not have to be exactly uniform intervals such as 180 / n degrees.

首を左右に振る動作と人間の耳の配置を考慮すると、上から見て対称な立体形状に、マイクロホンの左右ペアを左右対称に設置するのが最も収音性能がよくなる。各窪みに1本のマイクロホンを設置することとすると、90度、60度、30度のときそれぞれ、4本、6本、12本のマイクロホンが設置されることになる。ただし、補間合成により受聴用の仮想バイノーラル音を生成することができるので、必ずしも左右ペアとなる2本のマイクロホンを左右対称に設置するのでなくてもよい。例えば、90度間隔で設けた4つの窪みのうち、3つの窪みについて各1本のマイクロホンを設置する構成としてもよい。また、残り1つについては実際には窪みになっていなくてもよい。   Considering the motion of shaking the head left and right and the arrangement of human ears, the best sound collection performance is achieved by placing the left and right pairs of microphones symmetrically in a three-dimensional shape symmetrical from above. If one microphone is installed in each recess, four, six, and twelve microphones are installed at 90 degrees, 60 degrees, and 30 degrees, respectively. However, since a virtual binaural sound for listening can be generated by interpolation synthesis, it is not always necessary to install two microphones that are paired left and right symmetrically. For example, a configuration may be adopted in which one microphone is installed for each of three depressions among four depressions provided at intervals of 90 degrees. Further, the remaining one does not actually have to be a depression.

前後の顔の向き(耳の向き)を考慮して、各窪みに2本のマイクロホンを設置するようにしてもよい(図7(C)参照)。このように設置することにより、より高音質のバイノーラル音が再合成できるようになる。   In consideration of the front and back face orientation (ear orientation), two microphones may be installed in each recess (see FIG. 7C). By installing in this way, binaural sound with higher sound quality can be re-synthesized.

さらに、首を上下に振る動作を考慮すると、立体形状の上面や下面にマイクロホンを設置するのがよい。なお、上面や下面にマイクロホンを設置する場合は、窪みは不要である。耳介をモデル化する必要がないからである。このように仰角方向にもマイクロホンを設置することでも、より高音質のバイノーラル音が再合成できるようになる。   Furthermore, considering the operation of shaking the neck up and down, it is preferable to install microphones on the upper and lower surfaces of the three-dimensional shape. In addition, when a microphone is installed on the upper surface or the lower surface, no depression is necessary. This is because it is not necessary to model the pinna. In this way, even by installing a microphone in the elevation direction, binaural sound with higher sound quality can be re-synthesized.

このような窪みを備えた立体形状の例を図7、図8に示す。図7(A)、図8(A)はマイクロホンアレイの立体形状を上・下から見た図である。図7(B)、図8(B)はマイクロホンアレイの立体形状を正面(背面)・横から見た図である。図7(C)、図8(C)は窪みの形状、マイクロホンを設置する受音位置を示した図である。図7(A)〜(C)、図8(A)〜(C)における破線の半円あるいは実線の円が窪みを、小さい黒点が受音位置を示している。受音位置は、非特許文献2の図1の左図のように水平面上で前後、左右等に30度ずらしてもよい。図8(D)は図8(A)、(B)で示す立体形状の上面・下面の形状がどのように生成されるのか示したものである。図8(D)の実線部が立体形状の上面・下面の形状である。   An example of a three-dimensional shape having such depressions is shown in FIGS. FIGS. 7A and 8A are views of the three-dimensional shape of the microphone array as viewed from above and below. FIGS. 7B and 8B are views of the three-dimensional shape of the microphone array as viewed from the front (back) and the side. FIGS. 7C and 8C are views showing the shape of the depression and the sound receiving position where the microphone is installed. In FIGS. 7A to 7C and FIGS. 8A to 8C, a broken semicircle or a solid circle indicates a depression, and a small black dot indicates a sound receiving position. The sound receiving position may be shifted 30 degrees forward and backward, left and right, etc. on a horizontal plane as shown in the left diagram of FIG. FIG. 8D shows how the three-dimensional top and bottom shapes shown in FIGS. 8A and 8B are generated. The solid line portions in FIG. 8D are the shapes of the three-dimensional upper and lower surfaces.

図7、図8からわかるように上から見ても横から見ても上下、左右に対称性のある図形になっていることがわかる。また、マイクロホンアレイの立体形状は円柱や球体を組み合わせて構成されていることもわかる。図7、図8の立体形状は直径12cmの円柱がベースとなっているが、この立体形状が頭部形状を模擬することを考慮すると、直径16cm程度の球体に近い方がよい。なお、立体形状を上から見た形状の幅(円の場合は直径に相当するもの)の上限は、伝達遅延を考慮すると、25cm程度である。また、下限については、マイクロホンアレイを小型化することを考慮すると、5cm程度となる。つまり、幅は、5cm以上25cm以下にするとよい。   As can be seen from FIGS. 7 and 8, it can be seen that the figure is symmetrical in the vertical and horizontal directions when viewed from above and from the side. It can also be seen that the three-dimensional shape of the microphone array is configured by combining cylinders and spheres. The solid shapes of FIGS. 7 and 8 are based on a cylinder with a diameter of 12 cm, but considering that this solid shape simulates the head shape, it is better to be close to a sphere with a diameter of about 16 cm. Note that the upper limit of the width of the three-dimensional shape as viewed from above (corresponding to the diameter in the case of a circle) is about 25 cm in consideration of transmission delay. The lower limit is about 5 cm in consideration of downsizing the microphone array. That is, the width is preferably 5 cm or more and 25 cm or less.

図7(C)、図8(C)をみればわかるように各窪みには、2本のマイクロホンが設置されている。これは、先述の通り、前後の顔の向きに応じてバイノーラル音を生成するためである。   As can be seen from FIGS. 7C and 8C, two microphones are installed in each recess. This is because a binaural sound is generated according to the direction of the front and back faces as described above.

また、水平方向の定位だけでなく、仰角方向の定位を付与するために立体形状の上面・下面にマイクロホンを設置してもよい。上面あるいは下面に1本のマイクロホンを設置するだけでもよい。もちろん、上面・下面にそれぞれ1本のマイクロホンを設置するのでもよい。図7、図8の立体形状では上面・下面に各3本のマイクロホンが設置されている。耳介を模擬する必要がないため、上面・下面にマイクロホンを設置する場合、窪みは必要ないのは先述の通りである。   Moreover, in order to provide not only horizontal localization but also elevation angle localization, microphones may be installed on the upper and lower surfaces of a three-dimensional shape. Only one microphone may be installed on the upper surface or the lower surface. Of course, one microphone may be provided on each of the upper and lower surfaces. 7 and 8, three microphones are installed on the upper and lower surfaces. Since it is not necessary to simulate the auricle, when the microphones are installed on the upper surface and the lower surface, the depression is not necessary as described above.

なお、全天球映像生成用カメラは例えば図9に示すようにマイクロホンアレイ410に内蔵されていてもいいし、マイクロホンアレイ410とは別の場所に設置してあってもよい。   Note that the omnidirectional video generation camera may be built in the microphone array 410 as shown in FIG. 9, for example, or may be installed at a location different from the microphone array 410.

補間合成部420は、M個の時間領域の観測信号xm,t(1≦m≦M)を補間合成し、受聴用の仮想信号である時間領域のバイノーラル音b (Left)、b (Right)を生成する(S420)。具体的には、式(25)、式(26)を用いて補間合成を行う。 The interpolating / combining unit 420 interpolates and synthesizes M time domain observation signals x m, t (1 ≦ m ≦ M), and binaural sounds b t (Left) and b t in the time domain, which are virtual signals for listening. (Right) is generated (S420). Specifically, interpolation synthesis is performed using Expression (25) and Expression (26).

ここで、wm,Ψτ (Left)、wm,Ψτ (Right)は、 頭部方向Ψτ やマイクインデックスmによって変わる重み係数である。 Here, w m, Ψτ (Left) and w m, Ψτ (Right) are weighting factors that vary depending on the head direction Ψτ and the microphone index m.

以下、図10〜13を参照して補間に用いる重み係数の設計について説明する。ここでは、水平方向に90 度ごとに4箇所の窪みがあり、上面・下面に各1本のマイクロホンが設置されているマイクロホンアレイ410を用いて説明する。マイクロホンアレイ410は計10本のマイクロホンを用いて受音することになる。   Hereinafter, the design of the weighting coefficient used for the interpolation will be described with reference to FIGS. Here, a description will be given using a microphone array 410 having four depressions in the horizontal direction every 90 degrees and one microphone on each of the upper and lower surfaces. The microphone array 410 receives sound using a total of ten microphones.

図10は、マイクロホンの設置位置(受音位置)をマイクインデックスm(以下、Mic(m)と表す)を用いて示した図である。図10に示すように、Mic(1)とMic(2)がある窪み(図中の太線の半円) 方向を本マイクロホンアレイの正面(Azimuth=0°)とする。また、窪み中央を通る水平面を基準水平面(Elevation=0°)とする。なお、上面・下面に設置する各1本のマイクロホンはMic(10)とMic(13)に設置されるものとする。つまり、Mic(9)、Mic(11)、Mic(12)、Mic(14)にはマイクロホンを設置しない。   FIG. 10 is a diagram showing a microphone installation position (sound receiving position) using a microphone index m (hereinafter referred to as Mic (m)). As shown in FIG. 10, the direction (Azimuth = 0 °) of the microphone array is the direction in which the depressions with Mic (1) and Mic (2) (thick semicircles in the figure) are present. Further, a horizontal plane passing through the center of the depression is defined as a reference horizontal plane (Elevation = 0 °). It is assumed that each one microphone installed on the upper surface and the lower surface is installed in Mic (10) and Mic (13). That is, no microphone is installed in Mic (9), Mic (11), Mic (12), and Mic (14).

図11に、水平面におけるマイクロホンの選択の様子を示す。目が向いている方向(矢印で示す方向)が、ユーザの頭部方向に対応する。なお、Mic(1)〜Mic(8)の位置は変わらないものとする。例えば、上段の一番左の図では、目が0°の方向を向いており、このときMic(4)、Mic(7)を用いて観測されることになる。   FIG. 11 shows how a microphone is selected on a horizontal plane. The direction in which the eyes are facing (the direction indicated by the arrow) corresponds to the head direction of the user. Note that the positions of Mic (1) to Mic (8) are not changed. For example, in the leftmost diagram in the upper stage, the eyes are oriented in the direction of 0 °, and at this time, observation is performed using Mic (4) and Mic (7).

図12に、水平面(横の動き)における各マイクの重み係数のグラフを示す。グラフに従い、各マイクロホンの重み係数を設定する。例えば、Mic(1)のグラフ(左上のグラフ)を見ると、−180°〜−90°では重み係数(グラフのWeight)が0から1に単調増大し、−90°〜0°では重み係数が1から0に単調減少、0°〜180°では重み係数がゼロになるように設定されることがわかる。   FIG. 12 shows a graph of the weight coefficient of each microphone on the horizontal plane (lateral movement). According to the graph, the weight coefficient of each microphone is set. For example, when viewing the graph of Mic (1) (upper left graph), the weighting factor (Weight of the graph) monotonically increases from 0 to 1 at -180 ° to -90 °, and the weighting factor at -90 ° to 0 °. Is monotonically decreased from 1 to 0, and the weighting coefficient is set to be zero between 0 ° and 180 °.

図13に、水平方向と仰角方向の重み係数(上下のマイクで受音した信号を重みづけ加算に用いる重み)のグラフを示す。水平方向と同様にグラフに従い、各重み係数を設定する。三つのグラフをあわせてみると、−90°〜90°において水平方向(Horizontal Signal)の重み係数、Mic(10)とMic(13)の仰角方向(Vertical Signal)の重み係数の和が1になるように設定されることがわかる。   FIG. 13 shows a graph of weighting coefficients (weights used for weighted addition of signals received by the upper and lower microphones) in the horizontal direction and the elevation angle direction. Each weighting factor is set according to the graph as in the horizontal direction. When the three graphs are combined, the sum of the weighting coefficient in the horizontal direction (Horizontal Signal) and the weighting coefficient in the elevation direction (Vertical Signal) of Mic (10) and Mic (13) becomes 1 at -90 ° to 90 °. It turns out that it is set up to become.

なお、水平方向の重み係数(図12)、上下の定位感付与のための仰角方向の重み係数(図13)は厳格に設計する必要はない。あくまで頭部方向に応じて対応関係のとれる重み係数に設定されていればよい。   Note that the weighting factor in the horizontal direction (FIG. 12) and the weighting factor in the elevation direction (FIG. 13) for providing a sense of orientation in the vertical direction need not be designed strictly. It is only necessary to set the weighting coefficient so as to have a corresponding relationship according to the head direction.

水平方向の重み係数と仰角方向の重み係数を用いて補間合成する方法について説明する。まず、頭部方向の水平角にある8本のマイクロホンで受音した信号をあらかじめ設定した重み係数に応じて合成する。次に、頭部方向の仰角に応じて先ほど合成した信号と上下方向にある2本のマイクロホンで受音した信号を重みづけ加算し、最終的な仮想バイノーラル音を得る。   A method of performing interpolation synthesis using a horizontal weighting factor and an elevation weighting factor will be described. First, signals received by eight microphones at the horizontal angle in the head direction are synthesized according to a preset weighting factor. Next, the final synthesized binaural sound is obtained by weighting and adding the signal synthesized earlier according to the elevation angle in the head direction and the signal received by the two microphones in the vertical direction.

頭部方向がΨτであるときのm番目のマイクロホンに対する重みwm,Ψτ (Left)、wm,Ψτ (Right)は上述のように計算できるので、音源分離処理を行うことなく、仮想的なバイノーラル音を生成することができる。 Since the weights w m, Ψτ (Left) and w m, Ψτ (Right) for the m-th microphone when the head direction is Ψτ can be calculated as described above, a virtual sound source separation process is not performed. Binaural sounds can be generated.

本実施形態では、マイクロホンアレイ410を用いてMチャネルの信号を観測し、補間合成部420でミックスダウン(補間合成)することで仮想的なバイノーラル音を生成する。これにより、バイノーラル音生成システム900で採用した音源強調法に存在する、収録対象の音の種類に対して最適値が変わるような潜在パラメータ群の調整作業を不要とすることができる。   In the present embodiment, an M channel signal is observed using the microphone array 410 and mixed down (interpolation synthesis) by the interpolation synthesis unit 420 to generate a virtual binaural sound. This eliminates the need for adjustment of the latent parameter group, which is present in the sound source enhancement method employed in the binaural sound generation system 900 and that changes the optimum value for the type of sound to be recorded.

<補記>
本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD−ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
<Supplementary note>
The apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity. Can be connected to a communication unit, a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof , A CPU, a RAM, a ROM, and a bus connected so that data can be exchanged between the external storage devices. If necessary, the hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM. A physical entity having such hardware resources includes a general-purpose computer.

ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。   The external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.

ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。   In the hardware entity, each program stored in an external storage device (or ROM or the like) and data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate. . As a result, the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).

本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。   The present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. In addition, the processing described in the above embodiment may be executed not only in time series according to the order of description but also in parallel or individually as required by the processing capability of the apparatus that executes the processing. .

既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。   As described above, when the processing functions in the hardware entity (the apparatus of the present invention) described in the above embodiments are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD−RAM(Random Access Memory)、CD−ROM(Compact Disc Read Only Memory)、CD−R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP−ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。   The program describing the processing contents can be recorded on a computer-readable recording medium. As the computer-readable recording medium, for example, any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used. Specifically, for example, as a magnetic recording device, a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only). Memory), CD-R (Recordable) / RW (ReWritable), etc., magneto-optical recording medium, MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD−ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   The program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   A computer that executes such a program first stores, for example, a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. When executing the process, the computer reads a program stored in its own recording medium and executes a process according to the read program. As another execution form of the program, the computer may directly read the program from a portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer. Each time, the processing according to the received program may be executed sequentially. Also, the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good. Note that the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   In this embodiment, a hardware entity is configured by executing a predetermined program on a computer. However, at least a part of these processing contents may be realized by hardware.

Claims (8)

マイクロホンを設置するM個(Mは3以上の整数)の窪みを備えるマイクロホンアレイを用いて収音した観測信号から、全天球映像音声視聴システムにおいてユーザが見渡している映像に対応したバイノーラル音を生成するバイノーラル音生成装置であって、
n、kをM=2n+k(n≧1、k=0または1)を満たす整数とし、
前記マイクロホンアレイの立体形状を上から見た形状は、対称性を持つ図形であり、
前記M個の窪みは、前記立体形状の側面に設けられ、そのうち2n個の窪みは、前記立体形状を上から見て180度間隔でペアになるように設けられるものであり、
前記窪みには少なくとも1本のマイクロホンが設置されており、
ユーザの頭部方向に係る耳と対応する窪みが存在する場合は当該窪みに設置されたマイクロホンで収音した観測信号のみに対して0より大きい重み係数を、ユーザの頭部方向に係る耳と対応する窪みが存在しない場合はすべての観測信号に対して0より大きい重み係数を与えて前記観測信号を補間合成することにより前記バイノーラル音を生成する補間合成部と
を含むバイノーラル音生成装置。
The binaural sound corresponding to the video that the user overlooks in the omnidirectional video / audio viewing system from the observation signal collected using the microphone array having M depressions (M is an integer of 3 or more) where the microphone is installed. A binaural sound generating device for generating,
n and k are integers satisfying M = 2n + k (n ≧ 1, k = 0 or 1),
The shape of the three-dimensional shape of the microphone array viewed from above is a figure having symmetry,
The M depressions are provided on the side surfaces of the three-dimensional shape, of which 2n depressions are provided so as to be paired at intervals of 180 degrees when the three-dimensional shape is viewed from above.
At least one microphone is installed in the depression,
When there is a dent corresponding to the ear in the user's head direction, a weighting factor greater than 0 is applied only to the observation signal collected by the microphone installed in the dent and the ear in the user's head direction. A binaural sound generating device including: an interpolating / synthesizing unit that generates the binaural sound by interpolating and synthesizing the observation signals by giving a weighting coefficient larger than 0 to all the observation signals when there is no corresponding depression .
全天球映像音声視聴システムにおいてユーザが見渡している映像に対応したバイノーラル音を生成するために用いる観測信号を収音するマイクロホンを設置するM個(Mは3以上の整数)の窪みを備えるマイクロホンアレイであって、
n、kをM=2n+k(n≧1、k=0または1)を満たす整数とし、
前記マイクロホンアレイの立体形状を上から見た形状は、対称性を持つ図形であり、
前記M個の窪みは、前記立体形状の側面に設けられ、そのうち2n個の窪みは、前記立体形状を上から見て180度間隔でペアになるように設けられるものであり、
前記窪みには少なくとも1本のマイクロホンが設置されており、
前記バイノーラル音は、ユーザの頭部方向に係る耳と対応する窪みが存在する場合は当該窪みに設置されたマイクロホンで収音した観測信号のみに対して0より大きい重み係数を、ユーザの頭部方向に係る耳と対応する窪みが存在しない場合はすべての観測信号に対して0より大きい重み係数を与えて前記観測信号を補間合成することにより、生成される
マイクロホンアレイ。
Microphone provided with M (M is an integer of 3 or more) depressions for installing microphones that collect observation signals used to generate binaural sounds corresponding to images overlooked by the user in the omnidirectional video / audio viewing system An array,
n and k are integers satisfying M = 2n + k (n ≧ 1, k = 0 or 1),
The shape of the three-dimensional shape of the microphone array viewed from above is a figure having symmetry,
The M depressions are provided on the side surfaces of the three-dimensional shape, of which 2n depressions are provided so as to be paired at intervals of 180 degrees when the three-dimensional shape is viewed from above.
At least one microphone is installed in the depression ,
The binaural sound has a weight coefficient greater than 0 for only the observation signal collected by the microphone installed in the depression when there is a depression corresponding to the ear in the head direction of the user. A microphone array generated by interpolating and synthesizing the observation signals by giving a weighting coefficient larger than 0 to all the observation signals when there is no depression corresponding to the ear in the direction .
請求項2に記載のマイクロホンアレイであって、  The microphone array according to claim 2,
  x m,tm, t (1≦m≦M)を前記観測信号、b(1 ≦ m ≦ M) is the observed signal, b t (Left)(Left) 、b, B t (Right)(Right) を前記バイノーラル音とし、Is the binaural sound,
前記バイノーラル音は、次式により補間合成することにより生成される  The binaural sound is generated by interpolating with the following equation.
(ただし、w(However, w m,Ψτm, Ψτ (Left)(Left) 、w, W m,Ψτm, Ψτ (Right)(Right) は、フレーム時間τにおけるユーザの頭部方向Ψτやマイクインデックスmによって変わる重み係数である)Is a weighting coefficient that varies depending on the user's head direction Ψτ and the microphone index m at the frame time τ)
ことを特徴とするマイクロホンアレイ。  A microphone array characterized by that.
請求項に記載のマイクロホンアレイであって、
前記上から見た形状は円であることを特徴とするマイクロホンアレイ。
The microphone array according to claim 3 ,
The microphone array, wherein the shape viewed from above is a circle.
請求項3または4に記載のマイクロホンアレイであって、
前記kはk=0を満たし、
前記2n個の各窪みには2個のマイクロホンが設置されることを特徴とするマイクロホンアレイ。
The microphone array according to claim 3 or 4 ,
K satisfies k = 0,
A microphone array, wherein two microphones are installed in each of the 2n depressions.
請求項3ないし5のいずれか1項に記載のマイクロホンアレイであって、
前記立体形状の上面または下面または上面・下面の各面に少なくとも1本のマイクロホンを設置することを特徴とするマイクロホンアレイ。
A microphone array according to any one of claims 3 to 5 ,
A microphone array, wherein at least one microphone is provided on each of the upper surface or the lower surface or the upper and lower surfaces of the three-dimensional shape.
マイクロホンを設置するM個(Mは3以上の整数)の窪みを備えるマイクロホンアレイを用いて収音した観測信号から、全天球映像音声視聴システムにおいてユーザが見渡している映像に対応したバイノーラル音を生成するバイノーラル音生成装置におけるバイノーラル音生成方法であって、
n、kをM=2n+k(n≧1、k=0または1)を満たす整数とし、
前記マイクロホンアレイの立体形状を上から見た形状は、対称性を持つ図形であり、
前記M個の窪みは、前記立体形状の側面に設けられ、そのうち2n個の窪みは、前記立体形状を上から見て180度間隔でペアになるように設けられるものであり、
前記窪みには少なくとも1本のマイクロホンが設置されており、
ユーザの頭部方向に係る耳と対応する窪みが存在する場合は当該窪みに設置されたマイクロホンで収音した観測信号のみに対して0より大きい重み係数を、ユーザの頭部方向に係る耳と対応する窪みが存在しない場合はすべての観測信号に対して0より大きい重み係数を与えて前記観測信号を補間合成することにより前記バイノーラル音を生成する補間合成ステップと
を実行するバイノーラル音生成方法。
The binaural sound corresponding to the video that the user overlooks in the omnidirectional video / audio viewing system from the observation signal collected using the microphone array having M depressions (M is an integer of 3 or more) where the microphone is installed. A binaural sound generating method in a binaural sound generating device for generating,
n and k are integers satisfying M = 2n + k (n ≧ 1, k = 0 or 1),
The shape of the three-dimensional shape of the microphone array viewed from above is a figure having symmetry,
The M depressions are provided on the side surfaces of the three-dimensional shape, of which 2n depressions are provided so as to be paired at intervals of 180 degrees when the three-dimensional shape is viewed from above.
At least one microphone is installed in the depression,
When there is a dent corresponding to the ear in the user's head direction, a weighting factor greater than 0 is applied only to the observation signal collected by the microphone installed in the dent and the ear in the user's head direction. An interpolating and synthesizing step of generating the binaural sound by interpolating and synthesizing the observed signal by giving a weighting coefficient greater than 0 to all the observed signals when there is no corresponding depression .
請求項1に記載のバイノーラル音生成装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the binaural sound generating device according to claim 1.
JP2016023347A 2016-02-10 2016-02-10 Binaural sound generator, microphone array, binaural sound generation method, program Active JP6569945B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016023347A JP6569945B2 (en) 2016-02-10 2016-02-10 Binaural sound generator, microphone array, binaural sound generation method, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016023347A JP6569945B2 (en) 2016-02-10 2016-02-10 Binaural sound generator, microphone array, binaural sound generation method, program

Publications (2)

Publication Number Publication Date
JP2017143406A JP2017143406A (en) 2017-08-17
JP6569945B2 true JP6569945B2 (en) 2019-09-04

Family

ID=59628674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016023347A Active JP6569945B2 (en) 2016-02-10 2016-02-10 Binaural sound generator, microphone array, binaural sound generation method, program

Country Status (1)

Country Link
JP (1) JP6569945B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7205192B2 (en) * 2018-11-22 2023-01-17 日本電信電話株式会社 sound pickup device
US10812929B1 (en) * 2019-08-28 2020-10-20 Facebook Technologies, Llc Inferring pinnae information via beam forming to produce individualized spatial audio

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5739114B2 (en) * 1974-11-06 1982-08-19
JPS588637B2 (en) * 1975-09-10 1983-02-16 ソニー株式会社 stereo microphone couch
JP4193041B2 (en) * 2002-01-31 2008-12-10 学校法人 芝浦工業大学 Three-dimensional intensity probe, three-dimensional sound source direction detection device and three-dimensional sound source direction facing control device using the probe
US7333622B2 (en) * 2002-10-18 2008-02-19 The Regents Of The University Of California Dynamic binaural sound capture and reproduction
JP2007312181A (en) * 2006-05-19 2007-11-29 Victor Co Of Japan Ltd Imaging sound pickup signal reproduction system
JP2011232238A (en) * 2010-04-28 2011-11-17 Nidec Copal Corp Sound source direction estimation device
EP2448289A1 (en) * 2010-10-28 2012-05-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for deriving a directional information and computer program product
JP5867799B2 (en) * 2011-06-23 2016-02-24 国立研究開発法人産業技術総合研究所 Sound collecting / reproducing apparatus, program, and sound collecting / reproducing method
JP5678942B2 (en) * 2012-10-31 2015-03-04 株式会社デンソー Driving support device
JP2016046699A (en) * 2014-08-25 2016-04-04 株式会社 ゼネテック Image voice input/output system

Also Published As

Publication number Publication date
JP2017143406A (en) 2017-08-17

Similar Documents

Publication Publication Date Title
US10939225B2 (en) Calibrating listening devices
CN106664501B (en) The systems, devices and methods of consistent acoustics scene reproduction based on the space filtering notified
EP2719200B1 (en) Reducing head-related transfer function data volume
CN105323684A (en) Method for approximating synthesis of sound field, monopole contribution determination device, and sound rendering system
KR20050083928A (en) Method for processing audio data and sound acquisition device therefor
Sakamoto et al. Sound-space recording and binaural presentation system based on a 252-channel microphone array
Salvador et al. Design theory for binaural synthesis: Combining microphone array recordings and head-related transfer function datasets
JP2017046322A (en) Signal processor and control method of the same
US20220232342A1 (en) Audio system for artificial reality applications
JP6569945B2 (en) Binaural sound generator, microphone array, binaural sound generation method, program
Sakamoto et al. 3d sound-space sensing method based on numerous symmetrically arranged microphones
JP6834985B2 (en) Speech processing equipment and methods, and programs
WO2017119321A1 (en) Audio processing device and method, and program
CN113766396A (en) Loudspeaker control
WO2017119320A1 (en) Audio processing device and method, and program
Geronazzo et al. Superhuman hearing-virtual prototyping of artificial hearing: a case study on interactions and acoustic beamforming
KR102284811B1 (en) Incoherent idempotent ambisonics rendering
CN111246345B (en) Method and device for real-time virtual reproduction of remote sound field
CN116671132A (en) Audio rendering using spatial metadata interpolation and source location information
JP2019075616A (en) Sound field recording apparatus and sound field recording method
JP6993433B2 (en) Sound collection method, device and medium
WO2019174442A1 (en) Adapterization equipment, voice output method, device, storage medium and electronic device
Koyama Boundary integral approach to sound field transform and reproduction
Chen et al. Real Acoustic Fields: An Audio-Visual Room Acoustics Dataset and Benchmark
JP6526582B2 (en) Re-synthesis device, re-synthesis method, program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190725

R150 Certificate of patent or registration of utility model

Ref document number: 6569945

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350