WO2019235193A1 - 音場信号推定装置、音場信号推定方法、プログラム - Google Patents

音場信号推定装置、音場信号推定方法、プログラム Download PDF

Info

Publication number
WO2019235193A1
WO2019235193A1 PCT/JP2019/019832 JP2019019832W WO2019235193A1 WO 2019235193 A1 WO2019235193 A1 WO 2019235193A1 JP 2019019832 W JP2019019832 W JP 2019019832W WO 2019235193 A1 WO2019235193 A1 WO 2019235193A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
signal
sound field
wavefront
vector
Prior art date
Application number
PCT/JP2019/019832
Other languages
English (en)
French (fr)
Inventor
江村 暁
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Publication of WO2019235193A1 publication Critical patent/WO2019235193A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones

Definitions

  • the present invention relates to a sound field estimation technique, and more particularly, to a sound field signal estimation device, a sound field signal estimation method, and a program for estimating a sound field signal for a playback device from a collected sound signal collected using a spherical microphone array.
  • Non-patent Document 1 Non-patent Document 1
  • Non-Patent Document 2 a method using a spherical microphone array is shown (Non-Patent Document 2).
  • a spherical microphone array is placed in a sound field, and sound is picked up by a plurality of microphones on the array.
  • the multi-channel sound pickup signal is converted into an ambisonic signal.
  • the ambisonic signal is decoded by an ambisonic decoder and reproduced from a plurality of speakers.
  • the sound field is composed of sound waves emitted from a plurality of sound sources.
  • sound waves from any sound source are treated equally to generate an ambisonic signal.
  • the importance of each sound source to the listener is not equal. For example, when video is combined with audio, an object focused on the video is important as a sound source, but sounds from other sound sources may be less important.
  • an object of the present invention is to provide a sound field signal estimation device, a sound field signal estimation method, and a program capable of generating an ambisonic signal focused in a designated direction.
  • the sound field signal estimation device of the present invention includes a sparse wavefront decomposition unit, a target wavefront extraction unit, a virtual microphone signal generation unit, and an ambisonic signal generation unit.
  • the sparse wavefront decomposition unit assumes that S is an arbitrary natural number, and the amplitude and phase of each wavefront of the plane wave when it is assumed that the collected sound signal of the spherical microphone array is decomposed into S plane waves coming from the previously assumed S direction. Compute an S-dimensional sparse complex vector representing.
  • the target wavefront extraction unit extracts a target vector representing the amplitude and phase of each wavefront of a plane wave as a target determined based on a predetermined focus direction from the complex vector.
  • the virtual microphone signal generation unit generates output signals of the four virtual microphones based on the target vector and the virtual three-dimensional position of the four virtual microphones.
  • the ambisonic signal generation unit generates four ambisonic signals based on the output signal.
  • an ambisonic signal focused in a designated direction can be generated.
  • the block diagram which shows the structure of Example 1 and the sound field signal estimation apparatus of the modification The flowchart which shows operation
  • the sound field signal estimation apparatus 100 of the present embodiment includes a short-time Fourier transform unit 110, a decomposition / extraction conversion unit 120, and a short-time inverse Fourier transform unit 190. , A sparse wavefront decomposition unit 121, a target wavefront extraction unit 123, a virtual microphone signal generation unit 126, and an ambisonic signal generation unit 128.
  • the sound field signal estimation device 100 according to the present embodiment is a device that estimates an ambisonic signal for reproduction from the collected sound signal of the spherical microphone array 901. Normally, a hard sphere type is used for the spherical microphone array 901.
  • FIG. 1 the operation of each component will be described with reference to FIG.
  • the short-time Fourier transform unit 110 transforms the collected sound signal collected by the spherical microphone array 901 into the frequency domain (S110).
  • ⁇ Decomposition extraction conversion unit 120 The decomposition extraction conversion unit 120 performs signal processing of the collected sound signal converted into the frequency domain (S120). Details of step S120 will be described below.
  • a specific process executed by the sparse wavefront decomposition unit 121 will be described.
  • ⁇ s is the elevation angle
  • ⁇ s is the azimuth angle.
  • j l () is a spherical Bessel function of order l
  • j ′ l () means differentiation of the function j l ().
  • h l (1) (kr) is a first-class sphere Hankel function of order l.
  • P l (cos ⁇ ⁇ s , ⁇ ′ ) is an l-order Legendre polynomial
  • ⁇ ⁇ s , ⁇ ′ is an angle formed by the direction ⁇ s and the direction ⁇ ′.
  • a (k) on the right-hand side is an S-dimensional complex vector, consisting of information on the amplitude and phase of each wavefront of S plane waves.
  • this complex vector is sparse, that is, only a small component takes a value other than 0, a vector a (k consisting of the amplitude and phase of each wavefront can be obtained from several tens of microphone signals. ).
  • the sparse wavefront decomposition unit 121 calculates the sparse complex vector a (k) by solving the following optimization problem (S121).
  • D (k) is called a dictionary matrix. This type of problem is called square-root LASSO.
  • the parameter ⁇ in the equation can be determined from D (k) by the method of Reference Non-Patent Document 1 (Reference Non-Patent Document 1: Florentina Bunea; Johannes Lederer; Yiyuan She, The Group Square-Root Lasso: Theoretical Properties and Fast Algorithms, IEEE Transactions on Information Theory Year: 2014, Volume: 60, Issue: 2, Pages: 1313-1325.).
  • the target wavefront extraction unit 123 extracts a target vector representing the amplitude and phase of each wavefront of a plane wave that is a target determined based on a predetermined focus direction from the complex vector (S123).
  • the target wavefront extraction unit 123 extracts a plane wave as a target based on a predetermined focusing direction ⁇ ′′ (focus direction). Specifically, a target vector representing the amplitude and phase of each wavefront of the plane wave that is the target is extracted from the complex vector a (k) described above. For example, the target wavefront extraction unit 123 extracts all the directions in which the difference from the focus direction ⁇ ′′ is ⁇ or less from S directions assumed in advance. For example, a value such as 1 to 30 ° may be set as ⁇ .
  • the number of extracted indexes is S ′, and each index is b (1) to b (S ′).
  • the microphone signal consisting of plane waves in the extracted direction is
  • p ( ⁇ b (s ′) ) is a response of M microphones to a target plane wave
  • a b (s ′) (k) is a target vector.
  • the virtual microphone signal generation unit 126 generates output signals of the four virtual microphones based on the target vector and the virtual three-dimensional positions of the four virtual microphones (S126).
  • the virtual microphone signal generation unit 126 uses the result of plane wave decomposition a (k) and the above-described index b (s ′), that is, the target vector a b (s ′) (k) to collect the sound signal (output signal) of the virtual microphone.
  • a (k) the result of plane wave decomposition a (k) and the above-described index b (s ′), that is, the target vector a b (s ′) (k) to collect the sound signal (output signal) of the virtual microphone.
  • the virtual microphone signal generation unit 126 uses the output signals p o (k), p x (k), p y (k), and p z (k) of each virtual microphone as the target vector a b (s ′). Based on (k) and the virtual three-dimensional positions r o , r x , r y , r z of the four virtual microphones, the following equation is generated.
  • the ambisonic signal generation unit 128 generates four ambisonic signals based on the output signal (S128).
  • the ambisonic signal generator 128 obtains 0th-order and 1st-order ambisonic signals from the output signals p o (k), p x (k), p y (k), and p z (k) of each virtual microphone.
  • the short-time inverse Fourier transform unit 190 transforms the processed frequency domain signal into the time domain (S190).
  • the sound field signal estimation apparatus 100 extracts a plane wave in the focus direction and removes plane waves in other directions.
  • the sound field signal estimation device 100A of the present modification causes the target direction component to be emphasized by remaining in place of removing plane waves in other directions.
  • the sound field signal estimation device 100A of the present modification has a configuration in which the virtual microphone signal generation unit 126 in the first embodiment is replaced with a virtual microphone signal generation unit 126A.
  • the virtual microphone signal generation unit 126A includes a first term that is generated based on the target vector and the virtual three-dimensional position of the four virtual microphones, and a non-target vector that is a vector that has not been extracted as a target vector among complex vectors.
  • the output signals of the four virtual microphones are generated by the second term generated based on the virtual three-dimensional positions of the four virtual microphones and the weighting coefficient smaller than 1 (S126A).
  • the number of indexes not extracted in step S123 is S ′′
  • each index is b n (1) to b n (S ′′)
  • the non-target vector is a bn (s ′′) ( k).
  • the virtual microphone signal generator 126A uses the weighting coefficient ⁇ ⁇ 1 and outputs the output signals p o (k), p x (k), p y (k), and p z (k) of each virtual microphone as Generate as follows.
  • the first term of the above equation is a term based on the target vector a b (s ′) (k) and the virtual three-dimensional positions r o , r x , r y , r z of the four virtual microphones.
  • the second term of is a non-target vector a bn (s ′′) (k) and virtual three-dimensional positions r o , r x , r y , r z of four virtual microphones and a weighting factor ⁇ smaller than 1. It is a term based on.
  • the collected sound signal of each microphone of the spherical microphone array 901 is a single vector focused on a certain time.
  • plane wave decomposition of the sound field can be obtained more accurately.
  • the sound field signal estimation device 100B of this modification has a configuration in which the sparse wavefront decomposition unit 121 in the first embodiment is replaced with a sparse wavefront decomposition unit 121B.
  • the sparse wavefront decomposition unit 121B calculates an S-dimensional sparse complex vector of a plurality of times so that all the collected signals of the spherical microphone array of a plurality of times are reproduced based on an optimization problem including a time parameter. (S121B).
  • the sound pickup signal vector of the spherical microphone array 901 at time t is
  • a (k) [a (k, 1)... a (k, T)] Is obtained in the sparse wavefront decomposition unit 121B.
  • This problem can be expressed in the form of an optimization problem including the parameters of the next time when a plurality of vectors are grouped together.
  • a (k) argmin
  • F means taking the Frobenius norm of matrix A.
  • 1,2 is the mixed norm of matrix A,
  • the sound field signal estimation device 100B executes steps S123, S126, and S128 at each time based on A (k) obtained by solving the above optimization problem expressed in a matrix including a time parameter. Thus, an ambisonic signal at each time is obtained.
  • the sound field signal estimation apparatus 200 of the present embodiment includes a short-time Fourier transform unit 110, a decomposition / extraction conversion unit 220, and a short-time inverse Fourier transform unit 190.
  • a sparse wavefront decomposition unit 121 A sparse wavefront decomposition unit 121, a target wavefront extraction unit 123, a virtual spherical microphone signal generation unit 127, and a higher-order ambisonic signal generation unit 129.
  • the virtual microphone signal generator 126 in the first embodiment is replaced with the virtual spherical microphone signal generator 127 in the present embodiment
  • the ambisonic signal generator 128 in the first embodiment is replaced with the higher-order ambisonic signal generator 129 in the present embodiment.
  • the virtual spherical microphone signal generation unit 127 generates an output signal of the virtual spherical microphone array based on the target vector (S127). Alternatively, the virtual spherical microphone signal generation unit 127 sets the first term to be generated based on the target vector, the non-target vector that is not extracted as the target vector among the complex vector, and the weighting coefficient smaller than 1. The output signal of the virtual spherical microphone array is generated by the second term generated based on the second term (S127).
  • step S123 the index b (1) to b (S ′) (ie, the target vector a b (s ′) (k)) included in the focus direction among the plane wave decomposition results a (k). Then, indexes b n (1) to b n (S ′′) (that is, non-target vectors a bn (s ′′) (k)) not included in the focus direction are extracted.
  • the virtual spherical microphone signal generation unit 127 converts a spherical microphone signal composed of a plane wave component in the focus direction
  • the virtual spherical microphone signal generator 127 converts a spherical microphone signal composed of a plane wave component out of focus.
  • the virtual spherical microphone signal generator 127 outputs the output signal of the virtual spherical microphone array.
  • step S129 (Where ⁇ ⁇ 1).
  • ⁇ Higher order ambisonic signal generator 129> The high-order ambisonic signal generator 129 converts the output signal of the virtual spherical microphone array into the spherical harmonic function region, and generates a high-order ambisonic signal (S129).
  • Non-Patent Document 2 proposes a method of generating a higher-order ambisonic signal by converting a collected signal of a spherical microphone array in a frequency domain into a spherical harmonic function domain and processing it.
  • the apparatus of the present invention includes, for example, a single hardware entity as an input unit to which a keyboard or the like can be connected, an output unit to which a liquid crystal display or the like can be connected, and a communication device (for example, a communication cable) capable of communicating outside the hardware entity.
  • a communication unit a CPU (Central Processing Unit, may include a cache memory or a register), a RAM or ROM that is a memory, an external storage device that is a hard disk, and an input unit, an output unit, or a communication unit thereof ,
  • the hardware entity may be provided with a device (drive) that can read and write a recording medium such as a CD-ROM.
  • a physical entity having such hardware resources includes a general-purpose computer.
  • the external storage device of the hardware entity stores a program necessary for realizing the above functions and data necessary for processing the program (not limited to the external storage device, for example, reading a program) It may be stored in a ROM that is a dedicated storage device). Data obtained by the processing of these programs is appropriately stored in a RAM or an external storage device.
  • each program stored in an external storage device or ROM or the like
  • data necessary for processing each program are read into a memory as necessary, and are interpreted and executed by a CPU as appropriate.
  • the CPU realizes a predetermined function (respective component requirements expressed as the above-described unit, unit, etc.).
  • the processing functions in the hardware entity (the device of the present invention) described in the above embodiment are realized by a computer, the processing contents of the functions that the hardware entity should have are described by a program. Then, by executing this program on a computer, the processing functions in the hardware entity are realized on the computer.
  • the program describing the processing contents can be recorded on a computer-readable recording medium.
  • a computer-readable recording medium any recording medium such as a magnetic recording device, an optical disk, a magneto-optical recording medium, and a semiconductor memory may be used.
  • a magnetic recording device a hard disk device, a flexible disk, a magnetic tape or the like, and as an optical disk, a DVD (Digital Versatile Disc), a DVD-RAM (Random Access Memory), a CD-ROM (Compact Disc Read Only) Memory), CD-R (Recordable) / RW (ReWritable), etc.
  • magneto-optical recording medium MO (Magneto-Optical disc), etc., semiconductor memory, EEP-ROM (Electronically Erasable and Programmable-Read Only Memory), etc. Can be used.
  • this program is distributed by selling, transferring, or lending a portable recording medium such as a DVD or CD-ROM in which the program is recorded. Furthermore, the program may be distributed by storing the program in a storage device of the server computer and transferring the program from the server computer to another computer via a network.
  • a computer that executes such a program first stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device.
  • the computer reads the program stored in its own recording medium and executes the process according to the read program.
  • the computer may directly read the program from the portable recording medium and execute processing according to the program, and the program is transferred from the server computer to the computer.
  • the processing according to the received program may be executed sequentially.
  • the program is not transferred from the server computer to the computer, and the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes the processing function only by the execution instruction and result acquisition. It is good.
  • ASP Application Service Provider
  • the program in this embodiment includes information that is used for processing by an electronic computer and that conforms to the program (data that is not a direct command to the computer but has a property that defines the processing of the computer).
  • the hardware entity is configured by executing a predetermined program on the computer.
  • a predetermined program on the computer.
  • at least a part of these processing contents may be realized in hardware.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

指定された方向にフォーカスしたアンビソニック信号を生成することができる音場信号推定装置を提供する。Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算するスパース波面分解部と、予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを複素数ベクトルから抽出するターゲット波面抽出部と、ターゲットベクトルと、4つの仮想マイクロホンの仮想の3次元位置に基づいて、4つの仮想マイクロホンの出力信号を生成する仮想マイク信号生成部と、出力信号に基づいて、4つのアンビソニック信号を生成するアンビソニック信号生成部を含む。

Description

音場信号推定装置、音場信号推定方法、プログラム
 本発明は、音場推定技術に関し、特に球面マイクロホンアレーを用いて収音した収音信号から再生装置向けの音場信号を推定する音場信号推定装置、音場信号推定方法、プログラムに関する。
 近年、オーディオ再生に使われるチャネル数およびスピーカ数は、臨場感をより高めるために、2から、5.1へ、さらには22.1へと増加している。このような多チャネル再生システムに共通に使用する信号フォーマットとして、アンビソニックがよく使われる(非特許文献1)。
 アンビソニック信号を実際の収音信号から求める方法として、球面マイクロホンアレーを用いる方法が示されている(非特許文献2)。この方法では、球面マイクロホンアレーを音場に配置し、アレー上の複数マイクロホンで収音する。そしてこのマルチチャネル収音信号をアンビソニック信号に変換する。アンビソニック信号はアンビソニックデコーダによりデコードされて、複数スピーカから再生される。
西村竜一、「特集:立体音響技術 5章 アンビソニックス」、映像情報メディア学会誌、vol.68、No.8、pp.616-620、(2014) S. Moreau, J. Daniel, and S. Bertet, "3D Sound Field Recording with Higher Order Ambisonics - Objective Measurements and Validation of a 4th Order Spherical Microphone Array," 120th AES convention, May, 2006.
 通常、音場は複数の音源から放射された音波で構成される。従来のアンビソニック信号生成方法では、どの音源からの音波も均等に扱ってアンビソニック信号を生成する。しかし実際には、受聴者にとっての各音源の重要性は均等ではない。たとえば、音声に映像が組み合わされる場合、映像でフォーカスしている対象物は音源として重要だが、それ以外の音源からの音は、重要性が低い場合がある。
 そこで本発明は、指定された方向にフォーカスしたアンビソニック信号を生成することができる音場信号推定装置、音場信号推定方法、プログラムを提供することを目的とする。
 本発明の音場信号推定装置は、スパース波面分解部と、ターゲット波面抽出部と、仮想マイク信号生成部と、アンビソニック信号生成部を含む。
 スパース波面分解部は、Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算する。ターゲット波面抽出部は、予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを複素数ベクトルから抽出する。仮想マイク信号生成部は、ターゲットベクトルと、4つの仮想マイクロホンの仮想の3次元位置に基づいて、4つの仮想マイクロホンの出力信号を生成する。アンビソニック信号生成部は、出力信号に基づいて、4つのアンビソニック信号を生成する。
 本発明の音場信号推定装置によれば、指定された方向にフォーカスしたアンビソニック信号を生成することができる。
実施例1およびその変形例の音場信号推定装置の構成を示すブロック図。 実施例1およびその変形例の音場信号推定装置の動作を示すフローチャート。 4つの仮想マイクロホンの仮想の3次元位置を示す図。 実施例2およびその変形例の音場信号推定装置の構成を示すブロック図。 実施例2およびその変形例の音場信号推定装置の動作を示すフローチャート。
 以下、本発明の実施の形態について、詳細に説明する。なお、同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
 以下、図1を参照して本実施例の音場信号推定装置の構成を説明する。同図に示すように、本実施例の音場信号推定装置100は、短時間フーリエ変換部110と、分解抽出変換部120と、短時間逆フーリエ変換部190を含み、分解抽出変換部120は、スパース波面分解部121と、ターゲット波面抽出部123と、仮想マイク信号生成部126と、アンビソニック信号生成部128を含む。本実施例の音場信号推定装置100は、球面マイクロホンアレー901の収音信号から再生用のアンビソニック信号を推定する装置である。通常、球面マイクロホンアレー901には剛球型が用いられる。以下、図2を参照して各構成要件の動作を説明する。
≪短時間フーリエ変換部110≫
 短時間フーリエ変換部110は、球面マイクロホンアレー901が収音した収音信号を周波数領域に変換する(S110)。
≪分解抽出変換部120≫
 分解抽出変換部120は、周波数領域に変換された収音信号の信号処理を実行する(S120)。以下、ステップS120の詳細について説明する。
<スパース波面分解部121>
 スパース波面分解部121は、Sを任意の自然数とし、球面マイクロホンアレー901の収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算する(S121)。
 スパース波面分解部121が実行する具体的な処理を説明する。はじめに、剛球型球面マイクロホンアレー901の半径をrとして、この球面マイクロホンアレー901に、波数kの平面波が方向Ωs=(θs φs)から入射する状況を考える。波数kは、周波数=音速×kである。θsはelevation angleであり、φsはazimuth angleである。
 半径rの球上のΩ'の音圧は
Figure JPOXMLDOC01-appb-M000001
で与えられる。ただし
Figure JPOXMLDOC01-appb-M000002
である。ここでjl( )はオーダーlの球ベッセル関数であり、j'l( )は関数jl( )の微分を意味する。hl (1)(kr)はオーダーlの第1種球ハンケル関数である。またPl(cosΘΩs,Ω')は、l次のルジャンドル多項式であり、ΘΩs,Ω'は方向Ωsと方向Ω'のなす角度である。
 球面上のM個のマイクロホンの各位置がΩ'm(1≦m≦M)で与えられる場合に、方向Ωsからの入射波に対するM個のマイクロホンの応答はベクトル形式で
Figure JPOXMLDOC01-appb-M000003
とかける。
 ここで、入射波は予め想定したS方向(Sは数百から数千)から到来するS個の平面波であると仮定した場合、波数kにおけるM個のマイクロホン信号p^1(k)~p^M(k)と各平面波との関係は次の式で記述される。
Figure JPOXMLDOC01-appb-M000004
 ここで右辺のa(k)はS次元の複素数ベクトルであり、S個の平面波の各波面の振幅と位相の情報からなる。この複素数ベクトルが疎(スパース)、すなわちごく一部の成分だけが0以外の値をとる、と仮定できるとき、数十個のマイクロホン信号からでも、各波面の振幅と位相からなるベクトルa(k)を求めることができる。
 スパース波面分解部121は、以下の最適化問題を解いて、スパースな複素数ベクトルa(k)を計算する(S121)。
Figure JPOXMLDOC01-appb-M000005
 ただし||a||1はベクトルaのL1ノルムを取ることを意味し、
Figure JPOXMLDOC01-appb-M000006
である。D(k)を辞書行列と呼ぶ。この形式の問題はsquare-root LASSOと呼ばれる。式中のパラメータλは参考非特許文献1の方法によりD(k)から決定できる(参考非特許文献1:Florentina Bunea; Johannes Lederer; Yiyuan She, The Group Square-Root Lasso: Theoretical Properties and Fast Algorithms, IEEE Transactions on Information Theory
Year: 2014, Volume: 60, Issue: 2, Pages: 1313 - 1325.)。
<ターゲット波面抽出部123>
 ターゲット波面抽出部123は、予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを複素数ベクトルから抽出する(S123)。
 ターゲット波面抽出部123が実行する具体的な処理を説明する。ターゲット波面抽出部123は、予め定めたフォーカスする方向Ω''(フォーカス方向)に基づき、ターゲットとなる平面波を抽出する。具体的には、ターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを前述した複素数ベクトルa(k)から抽出する。例えばターゲット波面抽出部123は、予め想定したS個の方向から、フォーカス方向Ω''との差がδ以下になる方向を全て抽出する。δとしては例えば1~30°等の値を設定することが考えられる。抽出されたインデックスの個数をS'、各インデックスをb(1)~b(S')とする。
 このとき、抽出された方向の平面波からなるマイクロホン信号は、
Figure JPOXMLDOC01-appb-M000007
と推定できる。なお、p(Ωb(s'))はターゲットとなる平面波に対するM個のマイクロホンの応答、ab(s')(k)はターゲットベクトルである。
<仮想マイク信号生成部126>
 仮想マイク信号生成部126は、ターゲットベクトルと、4つの仮想マイクロホンの仮想の3次元位置に基づいて、4つの仮想マイクロホンの出力信号を生成する(S126)。
 仮想マイク信号生成部126が実行する具体的な処理を説明する。仮想マイク信号生成部126は、平面波分解の結果a(k)と上記のインデックスb(s')、すなわちターゲットベクトルab(s')(k)から、仮想マイクロホンの収音信号(出力信号)を求める。図3に示すように、アンビソニック収音用に4つの仮想マイクロホン(o,x,y,z)を使用し、各仮想マイクロホンの仮想の3次元位置がベクトルro、rx、ry、rzで与えられるとする。このとき、仮想マイク信号生成部126は、各仮想マイクロホンの出力信号po(k)、px(k)、py(k)、pz(k)を、ターゲットベクトルab(s')(k)と、4つの仮想マイクロホンの仮想の3次元位置ro、rx、ry、rzに基づいて、下式のように生成する。
Figure JPOXMLDOC01-appb-M000008
ただし、
Figure JPOXMLDOC01-appb-M000009

である。
<アンビソニック信号生成部128>
 アンビソニック信号生成部128は、出力信号に基づいて、4つのアンビソニック信号を生成する(S128)。
 アンビソニック信号生成部128が実行する具体的な処理を説明する。アンビソニック信号生成部128は、各仮想マイクロホンの出力信号po(k)、px(k)、py(k)、pz(k)から0次および1次のアンビソニック信号を求める。具体的には4つのアンビソニック信号qo(k)、qx(k)、qy(k)、qz(k)を
qo(k)=po(k)
qx(k)=px(k)-po(k)
qy(k)=py(k)-po(k)
qz(k)=pz(k)-po(k)
で求める。
≪短時間逆フーリエ変換部190≫
 短時間逆フーリエ変換部190は、処理済みの周波数領域の信号を時間領域に変換する(S190)。
[変形例1]
 以下、実施例1を変形した変形例1の音場信号推定装置100Aについて説明する。実施例1の音場信号推定装置100は、フォーカス方向の平面波を取り出し、その他の方向の平面波を除去する。一方、本変形例の音場信号推定装置100Aは、その他の方向の平面波を除去する代わりに残存させ、ターゲット方向成分を強調する。本変形例の音場信号推定装置100Aは、実施例1における仮想マイク信号生成部126を仮想マイク信号生成部126Aに代替した構成となっている。
 仮想マイク信号生成部126Aは、ターゲットベクトルと4つの仮想マイクロホンの仮想の3次元位置に基づいて生成する第1の項と、複素数ベクトルのうちターゲットベクトルとして抽出されなかったベクトルであるターゲット外ベクトルと4つの仮想マイクロホンの仮想の3次元位置と1よりも小さい重み係数に基づいて生成する第2の項により、4つの仮想マイクロホンの出力信号を生成する(S126A)。
 具体的には、ステップS123で抽出されなかったインデックスの個数をS''、各インデックスをbn(1)~bn(S'')とし、ターゲット外ベクトルをabn(s'')(k)とする。仮想マイク信号生成部126Aは、重み係数α<1をもちいて、各仮想マイクロホンの出力信号po(k)、px(k)、py(k)、pz(k)を下式のように生成する。
Figure JPOXMLDOC01-appb-M000010
上式の第1項は、ターゲットベクトルab(s')(k)と、4つの仮想マイクロホンの仮想の3次元位置ro、rx、ry、rzに基づく項であり、上式の第2項は、ターゲット外ベクトルabn(s'')(k)と4つの仮想マイクロホンの仮想の3次元位置ro、rx、ry、rzと1よりも小さい重み係数αに基づく項である。この4チャネル信号にステップS128を実行することにより、その他方向の成分がα(<1)倍されたアンビソニック信号が得られる。
<変形例2>
 以下、実施例1を変形した変形例2の音場信号推定装置100Bについて説明する。実施例1では、球面マイクロホンアレー901の各マイクロホンの収音信号をある時刻に注目した単一のベクトルとした。一方、本変形例では、各収音信号を複数の時刻についての複数本のベクトル、すなわち複数時刻の各収音信号を使用する場合をあつかう。複数時刻の各収音信号を入力とすることで、音場の平面波分解をより精度よく求めることが可能となる。本変形例の音場信号推定装置100Bは、実施例1におけるスパース波面分解部121をスパース波面分解部121Bに代替した構成となっている。
 スパース波面分解部121Bは、時間のパラメータを含む最適化問題に基づき、複数時刻の球面マイクロホンアレーの収音信号の全てが再現されるように、複数時刻のS次元のスパースな複素数ベクトルを計算する(S121B)。
 具体的には、時刻tにおける球面マイクロホンアレー901の収音信号ベクトルを
Figure JPOXMLDOC01-appb-M000011
として、T本の収音信号ベクトルp^(k,1)…p^(k,T)が与えられたとする。このとき時刻tにおける複素数ベクトルを
Figure JPOXMLDOC01-appb-M000012
として、
A(k)=[a(k,1)…a(k,T)]
を、スパース波面分解部121Bにおいて求めることを考える。この問題は複数本のベクトルをまとめて行列化すると、次の時間のパラメータを含む最適化問題の形で表現できる。
A(k)=argmin||[p^(k,1)…p^(k,T)]-D(k)A(k)||F+λ||A(k)||1,2
 ただし||A||Fは行列Aのフロベニウスノルムをとることを意味する。また||A(k)||1,2は行列Aの混合ノルム、
||A(k)||1,2S s=1||[as(k,1)…as(k,T)]||1
を意味する。このノルムは、行列A(k)の各横ベクトルのL1ノルムの総和になる。
 音場信号推定装置100Bは、時間のパラメータを含み、行列で表現された上述の最適化問題を解いて得られたA(k)に基づき、各時刻においてステップS123、S126、S128を実行することにより、各時刻におけるアンビソニック信号を求める。
 実施例1では、球面マイクロホンアレーの出力信号から、0次と1次のアンビソニック信号を求める方法を示した。実施例2では、球面マイクロホンアレーの出力信号から、2次以上の高次アンビソニック信号を求める。以下、図4を参照して本実施例の音場信号推定装置の構成を説明する。同図に示すように、本実施例の音場信号推定装置200は、短時間フーリエ変換部110と、分解抽出変換部220と、短時間逆フーリエ変換部190を含み、分解抽出変換部220は、スパース波面分解部121と、ターゲット波面抽出部123と、仮想球面マイク信号生成部127と、高次アンビソニック信号生成部129を含む。実施例1における仮想マイク信号生成部126が、本実施例において仮想球面マイク信号生成部127に、実施例1におけるアンビソニック信号生成部128が、本実施例において高次アンビソニック信号生成部129に、それぞれ置き換わっている。
 以下、図5を参照して、実施例1と異なる構成要件である仮想球面マイク信号生成部127、高次アンビソニック信号生成部129の動作を説明する。
<仮想球面マイク信号生成部127>
 仮想球面マイク信号生成部127は、ターゲットベクトルに基づいて仮想の球面マイクロホンアレーの出力信号を生成する(S127)。あるいは、仮想球面マイク信号生成部127は、ターゲットベクトルに基づいて生成する第1の項と、複素数ベクトルのうち、ターゲットベクトルとして抽出されなかったベクトルであるターゲット外ベクトルと1よりも小さい重み係数に基づいて生成する第2の項により、仮想の球面マイクロホンアレーの出力信号を生成する(S127)。
 前述したように、ステップS123では、平面波分解の結果a(k)のうち、フォーカス方向に含まれるインデックスb(1)~b(S')(すなわちターゲットベクトルab(s')(k))と、フォーカス方向に含まれないインデックスbn(1)~bn(S'')(すなわちターゲット外ベクトルabn(s'')(k))が抽出される。仮想球面マイク信号生成部127は、フォーカス方向の平面波成分からなる球面マイクロホン信号を、
Figure JPOXMLDOC01-appb-M000013
と推定する。仮想球面マイク信号生成部127は、フォーカス外の平面波成分からなる球面マイクロホン信号を
Figure JPOXMLDOC01-appb-M000014
と推定する。
 仮想球面マイク信号生成部127は、仮想の球面マイクロホンアレーの出力信号を
Figure JPOXMLDOC01-appb-M000015
として出力する(ただしα<1)。出力された仮想の球面マイクロホンアレーの出力信号に後述するステップS129を実行することで、非フォーカス成分が一部残留する高次アンビソニック信号を得ることができる。上の式でα=0にしてステップS129を実行すれば、特定方向にフォーカスされた高次アンビソニック信号が得られる。
<高次アンビソニック信号生成部129>
 高次アンビソニック信号生成部129は、仮想の球面マイクロホンアレーの出力信号を球調和関数領域へ変換し、高次アンビソニック信号を生成する(S129)。
 高次アンビソニック信号生成部129は、非特許文献2の方法をそのまま用いる。非特許文献2では、周波数領域の球面マイクロホンアレーの収音信号を球調和関数領域へ変換し、処理することで、高次アンビソニック信号を生成する手法が提案されている。
 なお実施例2についても、実施例1の変形例2と同様に、複数時刻の各収音信号を使用することが可能である。
<補記>
 本発明の装置は、例えば単一のハードウェアエンティティとして、キーボードなどが接続可能な入力部、液晶ディスプレイなどが接続可能な出力部、ハードウェアエンティティの外部に通信可能な通信装置(例えば通信ケーブル)が接続可能な通信部、CPU(Central Processing Unit、キャッシュメモリやレジスタなどを備えていてもよい)、メモリであるRAMやROM、ハードディスクである外部記憶装置並びにこれらの入力部、出力部、通信部、CPU、RAM、ROM、外部記憶装置の間のデータのやり取りが可能なように接続するバスを有している。また必要に応じて、ハードウェアエンティティに、CD-ROMなどの記録媒体を読み書きできる装置(ドライブ)などを設けることとしてもよい。このようなハードウェア資源を備えた物理的実体としては、汎用コンピュータなどがある。
 ハードウェアエンティティの外部記憶装置には、上述の機能を実現するために必要となるプログラムおよびこのプログラムの処理において必要となるデータなどが記憶されている(外部記憶装置に限らず、例えばプログラムを読み出し専用記憶装置であるROMに記憶させておくこととしてもよい)。また、これらのプログラムの処理によって得られるデータなどは、RAMや外部記憶装置などに適宜に記憶される。
 ハードウェアエンティティでは、外部記憶装置(あるいはROMなど)に記憶された各プログラムとこの各プログラムの処理に必要なデータが必要に応じてメモリに読み込まれて、適宜にCPUで解釈実行・処理される。その結果、CPUが所定の機能(上記、…部、…手段などと表した各構成要件)を実現する。
 本発明は上述の実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。また、上記実施形態において説明した処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されるとしてもよい。
 既述のように、上記実施形態において説明したハードウェアエンティティ(本発明の装置)における処理機能をコンピュータによって実現する場合、ハードウェアエンティティが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記ハードウェアエンティティにおける処理機能がコンピュータ上で実現される。
 この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。具体的には、例えば、磁気記録装置として、ハードディスク装置、フレキシブルディスク、磁気テープ等を、光ディスクとして、DVD(Digital Versatile Disc)、DVD-RAM(Random Access Memory)、CD-ROM(Compact Disc Read Only Memory)、CD-R(Recordable)/RW(ReWritable)等を、光磁気記録媒体として、MO(Magneto-Optical disc)等を、半導体メモリとしてEEP-ROM(Electronically Erasable and Programmable-Read Only Memory)等を用いることができる。
 また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
 このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
 また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、ハードウェアエンティティを構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (8)

  1.  Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の前記平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算するスパース波面分解部と、
     予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを前記複素数ベクトルから抽出するターゲット波面抽出部と、
     前記ターゲットベクトルと、4つの仮想マイクロホンの仮想の3次元位置に基づいて、4つの前記仮想マイクロホンの出力信号を生成する仮想マイク信号生成部と、
     前記出力信号に基づいて、4つのアンビソニック信号を生成するアンビソニック信号生成部を含む
     音場信号推定装置。
  2.  請求項1に記載の音場信号推定装置であって、
     前記仮想マイク信号生成部は、
     前記ターゲットベクトルと4つの仮想マイクロホンの仮想の3次元位置に基づいて生成する第1の項と、前記複素数ベクトルのうち前記ターゲットベクトルとして抽出されなかったベクトルであるターゲット外ベクトルと4つの仮想マイクロホンの仮想の3次元位置と1よりも小さい重み係数に基づいて生成する第2の項により、4つの前記仮想マイクロホンの出力信号を生成する
     音場信号推定装置。
  3.  Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の前記平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算するスパース波面分解部と、
     予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを前記複素数ベクトルから抽出するターゲット波面抽出部と、
     前記ターゲットベクトルに基づいて仮想の球面マイクロホンアレーの出力信号を生成する仮想球面マイク信号生成部と、
     前記仮想の球面マイクロホンアレーの出力信号を球調和関数領域へ変換し、高次アンビソニック信号を生成する高次アンビソニック信号生成部を含む
     音場信号推定装置。
  4.  請求項3に記載の音場信号推定装置であって、
     前記仮想球面マイク信号生成部は、
     前記ターゲットベクトルに基づいて生成する第1の項と、前記複素数ベクトルのうち、前記ターゲットベクトルとして抽出されなかったベクトルであるターゲット外ベクトルと1よりも小さい重み係数に基づいて生成する第2の項により、仮想の球面マイクロホンアレーの出力信号を生成する
     音場信号推定装置。
  5.  請求項1から4の何れかに記載の音場信号推定装置であって、
     前記スパース波面分解部は、
     時間のパラメータを含む最適化問題に基づき、複数時刻の球面マイクロホンアレーの収音信号の全てが再現されるように、複数時刻のS次元のスパースな複素数ベクトルを計算する
     音場信号推定装置。
  6.  音場信号推定装置が実行する音場信号推定方法であって、
     Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の前記平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算するステップと、
     予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを前記複素数ベクトルから抽出するステップと、
     前記ターゲットベクトルと、4つの仮想マイクロホンの仮想の3次元位置に基づいて、4つの前記仮想マイクロホンの出力信号を生成するステップと、
     前記出力信号に基づいて、4つのアンビソニック信号を生成するステップを含む
     音場信号推定方法。
  7.  音場信号推定装置が実行する音場信号推定方法であって、
     Sを任意の自然数とし、球面マイクロホンアレーの収音信号が予め想定したS方向から到来するS個の平面波に分解されると仮定した場合の前記平面波の各波面の振幅と位相を表すS次元のスパースな複素数ベクトルを計算するステップと、
     予め定めたフォーカス方向に基づいて定まるターゲットとなる平面波の各波面の振幅と位相を表すターゲットベクトルを前記複素数ベクトルから抽出するステップと、
     前記ターゲットベクトルに基づいて仮想の球面マイクロホンアレーの出力信号を生成するステップと、
     前記仮想の球面マイクロホンアレーの出力信号を球調和関数領域へ変換し、高次アンビソニック信号を生成するステップを含む
     音場信号推定方法。
  8.  コンピュータを請求項1から5の何れかに記載の音場信号推定装置として機能させるプログラム。
PCT/JP2019/019832 2018-06-07 2019-05-20 音場信号推定装置、音場信号推定方法、プログラム WO2019235193A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018109188A JP2019213109A (ja) 2018-06-07 2018-06-07 音場信号推定装置、音場信号推定方法、プログラム
JP2018-109188 2018-06-07

Publications (1)

Publication Number Publication Date
WO2019235193A1 true WO2019235193A1 (ja) 2019-12-12

Family

ID=68769368

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019832 WO2019235193A1 (ja) 2018-06-07 2019-05-20 音場信号推定装置、音場信号推定方法、プログラム

Country Status (2)

Country Link
JP (1) JP2019213109A (ja)
WO (1) WO2019235193A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015537256A (ja) * 2012-12-12 2015-12-24 トムソン ライセンシングThomson Licensing 音場のための高次アンビソニックス表現を圧縮および圧縮解除する方法および装置
JP2017523454A (ja) * 2014-07-02 2017-08-17 ドルビー・インターナショナル・アーベー Hoa信号表現のサブバンド内の優勢な方向性信号の方向のエンコード/デコードのための方法および装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015537256A (ja) * 2012-12-12 2015-12-24 トムソン ライセンシングThomson Licensing 音場のための高次アンビソニックス表現を圧縮および圧縮解除する方法および装置
JP2017523454A (ja) * 2014-07-02 2017-08-17 ドルビー・インターナショナル・アーベー Hoa信号表現のサブバンド内の優勢な方向性信号の方向のエンコード/デコードのための方法および装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHOICHI KOYAMA: "Sparse sound field representation for super-resolution in recording and reproduction", THE JOURNAL OF THE ACOUSTICAL SOCIETY OF JAPAN, vol. 71, no. 11, 1 November 2015 (2015-11-01), pages 632 - 638, XP055663005 *

Also Published As

Publication number Publication date
JP2019213109A (ja) 2019-12-12

Similar Documents

Publication Publication Date Title
US10075799B2 (en) Method and device for rendering an audio soundfield representation
US10382849B2 (en) Spatial audio processing apparatus
US20190069118A1 (en) Sound processing apparatus and method, and program
US11218807B2 (en) Audio signal processor and generator
JP6815956B2 (ja) フィルタ係数算出装置、その方法、及びプログラム
JP2018077139A (ja) 音場推定装置、音場推定方法、プログラム
WO2019235193A1 (ja) 音場信号推定装置、音場信号推定方法、プログラム
JP6087856B2 (ja) 音場収音再生装置、システム、方法及びプログラム
JP2022500710A (ja) 音響源用の結合音源定位及び分離方法
CN111147655B (zh) 模型生成方法和装置
JP2017055156A (ja) 音場測定装置、音場測定方法、プログラム
WO2022176045A1 (ja) モデル学習装置、到来方向推定装置、モデル学習方法、到来方向推定方法、プログラム
JP2018120129A (ja) 音場推定装置、方法及びプログラム
CN113518299B (zh) 一种改进的源分量及环境分量提取方法、设备及计算机可读存储介质
JP7072163B2 (ja) ステレオ信号生成装置、電子楽器、ステレオ信号生成方法、プログラム
JP6445407B2 (ja) 音生成装置、音生成方法、プログラム
JP2017118189A (ja) 収音信号推定装置、収音信号推定方法、プログラム
JP6585544B2 (ja) アンビエント信号生成装置、アンビエント信号生成方法、プログラム
AU2016204408B2 (en) Method and device for decoding an audio soundfield representation for audio playback
Perez-Lopez et al. Analysis of spherical isotropic noise fields with an A-Format tetrahedral microphone
JP2013243465A (ja) 音場類似度推定装置とその方法とプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19816058

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19816058

Country of ref document: EP

Kind code of ref document: A1