JPH08182100A - Method and device for sound image localization - Google Patents

Method and device for sound image localization

Info

Publication number
JPH08182100A
JPH08182100A JP7052573A JP5257395A JPH08182100A JP H08182100 A JPH08182100 A JP H08182100A JP 7052573 A JP7052573 A JP 7052573A JP 5257395 A JP5257395 A JP 5257395A JP H08182100 A JPH08182100 A JP H08182100A
Authority
JP
Japan
Prior art keywords
transfer function
sound
output
sound image
image localization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7052573A
Other languages
Japanese (ja)
Inventor
Yoshinori Kumamoto
義則 熊本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP7052573A priority Critical patent/JPH08182100A/en
Publication of JPH08182100A publication Critical patent/JPH08182100A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To obtain a stable sound image localization output by regarding a microphone output for one ear as an output of an unknown system, identifying the unknown system and calculating sound image localization of a sound signal divided into plural frequency bands through the use of an identification system and synthesizing outputs by bands. CONSTITUTION: Let a signal series of a left ear by yL1 , let a signal series of a right ear be yR1 , and let an original white noise series be (e), then let a spatial transfer function from a virtual sound source to the left ear microphone be TM and let a spatial transfer function from a virtual sound source to the right ear microphone be TC and let a space ratio transfer function FS be TC/TM, then the relation of yR1 =(TC/TM)×yL1 =FS.yL1 is obtained. Then a speaker is located to an actual speaker position and the same white noise (e) outputted from the speaker is used. In this case, let a signal series of a left ear be yL2 , let a signal series of a right ear be yR2 , let a spatial transfer function from a sound source to the left ear microphone be SM and let a spatial transfer function from a virtual sound source to the right ear microphone be SC then identification is made to the system of yR2 =(SC/SM)×yL2 =FS.yL2 , then a space ratio transfer function FC=SC/SM is obtained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、任意の位置に音像を定
位させる音像定位方法および音像定位装置に関するもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound image localization method and a sound image localization apparatus for locating a sound image at an arbitrary position.

【0002】[0002]

【従来の技術】従来、音像を定位させる方法として、2
スピーカやヘッドホンによる一般的なステレオ方法があ
った。一般的な2チャンネルステレオ方法では、左右2
つのスピーカの間にのみしか音像を定位することができ
ず、2つのスピーカの間以外、すなわち受聴者の周囲に
定位させることはできなかった。また、ヘッドホンにお
いては頭内定位と呼ばれる、頭の中に音像が定位する現
象が生じていた。このため、実際の音場と較べてその印
象はかけ離れたものとなっていた。
2. Description of the Related Art Conventionally, there have been two methods for localizing a sound image.
There was a general stereo method using speakers and headphones. In the general 2-channel stereo method, left and right 2
The sound image can be localized only between the two speakers, and cannot be localized except between the two speakers, that is, around the listener. In addition, in headphones, there is a phenomenon called sound localization in the head, in which a sound image is localized in the head. Therefore, the impression was far different from the actual sound field.

【0003】そこで、通常の音源信号に処理を施して、
2スピーカでも受聴者の周囲に音像を定位させたり(以
下、立体音場処理と呼ぶ)、ヘッドホンで頭外定位を実
現させる(以下、頭外定位処理と呼ぶ)方法が提案され
ている。まず本発明の説明の前に、立体音場処理や頭外
定位処理の基本となる原理を以下に説明する。
Therefore, by processing the normal sound source signal,
A method has been proposed in which a sound image is localized around the listener even with two speakers (hereinafter referred to as stereoscopic sound field processing), and out-of-head localization is realized with headphones (hereinafter referred to as out-of-head localization processing). First, before explaining the present invention, the basic principle of the stereoscopic sound field processing and the out-of-head localization processing will be described below.

【0004】まず立体音場処理の原理を、図2を用いて
説明する。仮想音源位置Oにおいて音源信号uが放射さ
れ、それが空間を伝わって左耳ELと右耳ERに到達す
るものとする。このとき、左耳ELでの音響信号を
L1、右耳ERでの音響信号をy R1とする。この状態に
おいて、仮想音源位置Oから左耳EL、右耳ERへの伝
搬を伝達関数で表すことができる。この伝達関数を今後
空間伝達関数と呼ぶことにする(文献によれば頭部伝達
関数と呼ばれることもあるが、厳密に言えば頭部伝達関
数以外の場合もあるため、ここではこのように呼ぶこと
にする)。仮想音源位置Oから左耳ELへの空間伝達関
数をTL、右耳ERへの空間伝達関数をTRと定義する。
ここで、仮想音源位置OからEL、ERのうち経路が短
い方をメインパス、長い方をクロストークパスと呼ぶこ
とにし、それぞれTM、TCとする。これからの説明で
は、受聴者から見て左側に仮想音源があるものと限定し
て話を進めることにする。仮想音源が右側にある場合で
も、大筋には変わりがない。
First, the principle of three-dimensional sound field processing will be described with reference to FIG.
explain. The sound source signal u is emitted at the virtual sound source position O.
And it reaches the left and right ears EL and ER through the space.
Shall be. At this time, the acoustic signal from the left ear EL
yL1, Y the acoustic signal at the right ear ER R1And In this state
In addition, the transmission from the virtual sound source position O to the left ear EL and the right ear ER
The transfer function can be represented by a transfer function. This transfer function will be
We will call it the spatial transfer function.
Sometimes called a function, but strictly speaking
Since it may be something other than a number, we call it here.
To). The spatial transmission function from the virtual sound source position O to the left ear EL
Number TL, T to the spatial transfer function to the right ear ERRIs defined.
Here, the path from the virtual sound source position O to EL or ER is short.
The longer one is called the main path and the longer one is called the crosstalk path.
And then TM, TCAnd From now on
Limits the virtual sound source to the left of the listener.
I will proceed with the story. When the virtual sound source is on the right
However, the outline is the same.

【0005】音源位置での音響信号と耳での音響信号と
の関係は、 yL1=TL・u=TM・u (1-1) yR1=TR・u=TC・u (1-2) で表される。次に、実際に設置される左スピーカSLと
右スピーカSRでの音響信号をそれぞれxL、xRとす
る。ここで仮定として、この2つのスピーカは受聴者に
対し左右対称に置かれているものとする。これら2つの
スピーカから放射された音が、受聴者の左耳ELで
L2、右耳ERでyR2なる音響信号として到達する。こ
のとき、SLからEL、SRからERへの伝達経路がメ
インパスで、この空間伝達関数をSMとする。また、S
LからER、SRからELへの伝達経路がクロストーク
パスで、この空間伝達関数をSCとする。このときの関
係は、 yL2=SM・xL+SC・xR (2-1) yR2=SC・xL+SM・xR (2-2) となる。ここで、実際には2つのスピーカSLとSRか
ら音を放射するが、あたかも点Oから聞こえるようにす
るためには、 yL1=yL2 (3-1) yR1=yR2 (3-2) となるようにすればよい。したがって、 SM・xL+SC・xR=TL・u (4-1) SC・xL+SM・xR=TR・u (4-2) となり、xLとxRについて解けば、 xL=(1−FC 2-1(FL−FC・FR)u (5-1) xR=(1−FC 2-1(FR−FC・FL)u (5-2) となる。ただし、 FC=SC/SM ,FL=TL/SM ,FR=TR/SM (5-3) である。更に書き直して、 xL=(1−FC 2-1(1−FC・FS)FM・u (6-1) xR=(1−FC 2-1(FS−FC)FM・u (6-2) と表すことができる。ただし、 FS=TC/TM ,FM=TM/SM (6-3) である。すなわち、音響信号uに式上式で表される信号
処理を施せば、2つのスピーカSL、SRで、あたかも
点Oに音像があるように聞こえる。ここで、フィルタF
C 2のゲインが1に比べて十分に小さいときは、この部分
を省いて、 xL=(FL−FC・FR)u (7-1) =(1−FC・FS)FM・u (8-1) xR=(FR−FC・FL)u (7-2) =(FS−FC)FM・u (8-2) とすることができる。
The relationship between the acoustic signal at the sound source position and the acoustic signal at the ear is as follows: y L1 = T L · u = T M · u (1-1) y R1 = T R · u = T C · u ( It is represented by 1-2). Next, acoustic signals at the left speaker SL and the right speaker SR that are actually installed are respectively set as x L and x R. Here, it is assumed that the two speakers are placed symmetrically with respect to the listener. The sound radiated from these two speakers arrives as an acoustic signal of y L2 at the listener's left ear EL and y R2 at the right ear ER. At this time, the transfer path from SL to EL and SR to ER is the main path, and this spatial transfer function is S M. Also, S
The transmission path from L to ER and SR to EL is a crosstalk path, and this spatial transfer function is S C. The relationship at this time is y L2 = S M · x L + S C · x R (2-1) y R2 = S C · x L + S M · x R (2-2) Here, although the sound is actually emitted from the two speakers SL and SR, in order to make it heard from the point O, y L1 = y L2 (3-1) y R1 = y R2 (3-2 ). Therefore, S M · x L + S C · x R = T L · u (4-1) S C · x L + S M · x R = T R · u (4-2), and x L and x R solving, x L = (1-F C 2) -1 (F L -F C · F R) u (5-1) x R = (1-F C 2) -1 (F R -F C · FL ) u (5-2). However, F C = S C / S M , F L = T L / S M , F R = T R / S M (5-3). Furthermore rewrite, x L = (1-F C 2) -1 (1-F C · F S) F M · u (6-1) x R = (1-F C 2) -1 (F S - It can be expressed as F C ) F M · u (6-2). However, F S = T C / T M and F M = T M / S M (6-3). That is, if the signal processing represented by the above equation is applied to the acoustic signal u, the two speakers SL and SR sound as if there is a sound image at the point O. Where filter F
When the gain of C 2 is sufficiently smaller than 1, this part is omitted and x L = (F L −F C · F R ) u (7-1) = (1−F C · F S ). F M · u (8-1) x R = (F R −F C · F L ) u (7-2) = (F S −F C ) F M · u (8-2) .

【0006】この処理を回路で表したものが図3(a)
である。ここでは、入力チャンネルを複数に拡張してい
る。ここで、方向定位手段は図4(a)または(b)で
表され、クロストーク・キャンセル手段は図4(c)で
表される。
A circuit representing this process is shown in FIG.
Is. Here, the input channel is expanded to a plurality. Here, the direction localization means is shown in FIG. 4 (a) or (b), and the crosstalk canceling means is shown in FIG. 4 (c).

【0007】以上は2スピーカによる立体音場処理の原
理であったが、2つのスピーカをヘッドホンに置き換え
れば、頭外定位処理にも使える。この場合、ヘッドホン
でのクロストークパスはメインパスに比べてゲインが十
分小さいと仮定できるので、FCに関する項は0とみな
すことができる。ヘッドホンから耳までの伝達関数をH
Mとすれば、 FL=TL/HM ,FR=TR/HM ,FM=TM/HM (9) と置き換えれば、頭外定位を実現できる。この回路は図
3(b)で表される。
The above is the principle of stereophonic sound field processing by two speakers, but if two speakers are replaced by headphones, it can be used for out-of-head localization processing. In this case, since it can be assumed that the gain of the crosstalk path through the headphones is sufficiently smaller than that of the main path, the term regarding F C can be regarded as 0. Transfer function from headphone to ear is H
If M, F L = T L / H M, F R = T R / H M, is replaced with F M = T M / H M (9), it can be realized out-of-head localization. This circuit is shown in FIG.

【0008】これまでに述べた原理は、1960年代に既に
発表されており、多くの文献(代表例として、鹿島出版
会から発行されているブラウエルト・森本・後藤編著の
「空間音響」を挙げる)から公知の事実となっている。
The principle described so far has already been announced in the 1960s, and many documents (as a representative example, "Spatial sound" by Brauert, Morimoto, and Goto, published by Kashima Press) are listed. Has become a known fact.

【0009】[0009]

【発明が解決しようとする課題】以上に記した立体音場
処理や頭外定位処理の原理の説明から、空間伝達関数
(TM、TC、SM、SC、HM)の同定が重要な鍵を握っ
ていることがわかる。この同定には、様々な手法が発表
されているが、この多くが高速フーリエ変換等を用い
て、単体の空間伝達関数を求めている。
From the above description of the principles of the three-dimensional sound field processing and the out-of-head localization processing, it is possible to identify the spatial transfer functions (T M , T C , S M , S C , H M ). It turns out that you have an important key. Various methods have been published for this identification, but most of them use a fast Fourier transform or the like to obtain a single spatial transfer function.

【0010】この原理によると、立体音場処理や頭外定
位処理の基本単位はFM、FS、FCであり、ある空間伝
達関数と、もう1つの空間伝達関数の逆関数との畳み込
み演算された伝達関数とみなすことができる。今後、こ
のような2つの空間伝達関数の演算形式で表せる伝達関
数を便宜上、空間比伝達関数と呼ぶことにする。
According to this principle, the basic units of three-dimensional sound field processing and out-of-head localization processing are F M , F S , and F C , and convolution of one spatial transfer function with the inverse of another spatial transfer function. It can be regarded as a calculated transfer function. Hereinafter, such a transfer function that can be represented by a calculation form of two spatial transfer functions will be referred to as a spatial ratio transfer function for convenience.

【0011】ここで、空間伝達関数を通常のFIRフィ
ルタやIIRフィルタで求めると、一般に零点は全て単
位円内に入るとは限らない。むしろ単位円外に零点が存
在することの方が多い。そのため、その空間伝達関数の
逆関数をとると単位円外の極が生じ、空間比伝達関数は
不安定となる。この対策のため、単位円外に生じた極を
単位円に対して折り返して再配置する等の安定化処理を
行う必要があった。
Here, when the spatial transfer function is obtained by an ordinary FIR filter or IIR filter, in general, all zeros do not always fall within the unit circle. Rather, there are more zeros outside the unit circle. Therefore, when the inverse function of the spatial transfer function is taken, a pole outside the unit circle is generated, and the spatial ratio transfer function becomes unstable. As a countermeasure for this, it is necessary to perform a stabilizing process such as folding back the poles generated outside the unit circle to the unit circle and rearranging them.

【0012】また、空間比伝達関数FM、FS、FCで、
低音から高音までの広い周波数をカバーするためには、
フィルタの次数をかなり大きくしなくてはならない。し
かし次数の増加に伴い、パラメータ数の増加や、極が単
位円の近傍に集中し、発振しやすい等安定性の問題を生
じた。したがって、音質・音像定位の効果と安定性がト
レードオフの関係となっていた。
Further, the spatial ratio transfer functions F M , F S , and F C are
To cover a wide range of frequencies from bass to treble,
The filter order has to be quite large. However, as the order increases, the number of parameters increases and the poles are concentrated near the unit circle, causing stability problems such as easy oscillation. Therefore, there is a trade-off relationship between the effect of sound quality and sound image localization and stability.

【0013】本発明は上記の問題を鑑みてなされたもの
で、空間比伝達関数を安定にかつ簡単、高精度に求める
ことができる音像定位方法と、音質・音像定位の効果と
安定性を両立させた音像定位装置を提供することを目的
とするものである。
The present invention has been made in view of the above problems, and achieves both a sound image localization method capable of stably, easily and highly accurately obtaining a spatial ratio transfer function, and an effect and stability of sound quality / sound image localization. It is an object of the present invention to provide a sound image localization device.

【0014】[0014]

【課題を解決するための手段】これらの課題を解決する
手段として、本発明は、実音場中の音源位置から受聴者
あるいは疑似頭の左耳の特定箇所までの第1の空間伝達
関数と、右耳の特定箇所までの第2の空間伝達関数と、
仮想音源位置から左耳の前記特定箇所までの第3の空間
伝達関数と、右耳の前記特定箇所までの第4の空間伝達
関数との演算を含み、演算結果より音像を任意の位置に
定位させる音像定位装置における音像定位方法におい
て、左右の耳の前記特定箇所にマイクロホンを備え、音
源位置あるいは仮想音源位置から持続的励振条件を満た
す音響信号を発生させ、マイクロホン出力信号を記録
し、第1から第4のいずれかの空間伝達関数の逆関数
と、残りのいずれかの空間伝達関数との積で表される未
知の伝達関数を、前記マイクロホン出力信号を前記未知
の伝達関数の入出力とみなしたシステム同定手段を用い
て求めたことを特徴とする。
As means for solving these problems, the present invention relates to a first spatial transfer function from a sound source position in an actual sound field to a specific position of a listener or the left ear of a pseudo-head, A second spatial transfer function to a specific location on the right ear,
It includes a calculation of a third spatial transfer function from the virtual sound source position to the specific location of the left ear and a fourth spatial transfer function to the specific location of the right ear, and the sound image is localized at an arbitrary position from the calculation result. In a sound image localization method for a sound image localization apparatus, a microphone is provided at the specific location of the left and right ears, an acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, and a microphone output signal is recorded. To the fourth inverse spatial transfer function of any of the above and the remaining spatial transfer function of the unknown transfer function, the microphone output signal as the input and output of the unknown transfer function. It is characterized in that it is obtained by using the considered system identification means.

【0015】また、本発明は、未知の伝達関数の入出力
で、相対的に出力のデータを遅延させ、現在の出力が相
対的に、過去の出力と現在と過去と未来の入力の線形演
算で表したモデルを用いて、前記未知の伝達関数を求め
たことを特徴とする。
Further, according to the present invention, the output data is relatively delayed by the input / output of the unknown transfer function, and the present output is relatively performed, and the linear operation of the past output and the present and past / future inputs is performed. The unknown transfer function is obtained by using the model represented by.

【0016】また、本発明は、両耳間の音の到達時間差
を測定し、求められた前記到達時間差の分だけ到達時刻
の早い方のデータをシフトさせて、未知の伝達関数のう
ち、前記到達時間差と前記到達時間差以外の要素とを分
離して求めることを特徴とする。
Further, according to the present invention, the arrival time difference of the sound between the two ears is measured, and the data of the earlier arrival time is shifted by the obtained arrival time difference, so that among the unknown transfer functions, It is characterized in that the arrival time difference and the element other than the arrival time difference are obtained separately.

【0017】また、本発明は、左右の耳の前記特定箇所
にマイクロホンを備え、音源位置あるいは仮想音源位置
から持続的励振条件を満たす第1の音響信号を発生さ
せ、マイクロホン出力信号を記録し、音源位置あるいは
仮想音源位置から左耳の前記特定箇所までの音の伝搬時
間と右耳の前記特定箇所までの伝搬時間との差を推定
し、前記第1から第4のいずれかの空間伝達関数を自己
回帰モデルの形で推定し、前記空間伝達関数の逆関数を
前記持続的励振条件を満たす信号に畳み込み演算を施
し、再び前記音源位置あるいは仮想音源位置からその第
2の音響出力し、このときのマイクロホン出力信号を記
録し、第1から第4のいずれかの空間伝達関数の逆関数
と、残りのいずれかの空間伝達関数との積で表される未
知の伝達関数を、前記マイクロホン出力信号より、ある
いは前記第1の音響信号を含め、前記未知の伝達関数の
入出力とみなしたシステム同定手段を用いて求めること
を特徴とする。
Further, according to the present invention, a microphone is provided at the specific places of the left and right ears, a first acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, and a microphone output signal is recorded, The difference between the propagation time of the sound from the sound source position or the virtual sound source position to the specific location of the left ear and the propagation time of the sound to the specific location of the right ear is estimated, and the spatial transfer function of any one of the first to fourth Is estimated in the form of an autoregressive model, a convolution operation of the inverse function of the spatial transfer function is performed on a signal satisfying the continuous excitation condition, and the second sound output is again performed from the sound source position or the virtual sound source position. The microphone output signal at this time is recorded, and the unknown transfer function represented by the product of the inverse function of any of the first to fourth spatial transfer functions and the remaining spatial transfer function From Kurohon output signal, or including the first acoustic signal, and obtains using the system identification means regarded as input and output of the unknown transfer function.

【0018】また、本発明は、左右の耳の前記特定箇所
にマイクロホンを備え、音源位置あるいは仮想音源位置
から持続的励振条件を満たす音響信号を発生させ、マイ
クロホン信号を記録し、音源位置あるいは仮想音源位置
から左耳の前記特定箇所までの音の伝搬時間と右耳の前
記特定箇所までの伝搬時間との差を推定し、前記第1か
ら第4の空間伝達関数を自己回帰モデルの形で推定し、
前記第1から第4のいずれかの空間伝達関数の逆関数
と、残りのいずれかの空間伝達関数との積で表される未
知の伝達関数を、2つ自己回帰モデルの除算で表せるI
IRフィルタの形で求めることを特徴とする。
Further, according to the present invention, a microphone is provided at the specific location of the left and right ears, an acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, the microphone signal is recorded, and the sound source position or the virtual sound source position is recorded. The difference between the propagation time of the sound from the sound source position to the specific location of the left ear and the propagation time of the sound to the specific location of the right ear is estimated, and the first to fourth spatial transfer functions are formed in the form of an autoregressive model. Estimate,
An unknown transfer function represented by the product of the inverse function of any one of the first to fourth spatial transfer functions and any of the remaining spatial transfer functions can be expressed by division of two autoregressive models I
It is characterized in that it is obtained in the form of an IR filter.

【0019】また、本発明は、求められた伝達関数に持
続的励振条件を満たす信号系列を入力し、その出力系列
と前記入力信号系列から、前記伝達関数よりも低次数で
再び同定し、低次数の伝達関数を求めたことを特徴とす
る。
Further, according to the present invention, a signal sequence satisfying a continuous excitation condition is input to the obtained transfer function, and the output sequence and the input signal sequence are identified again with a lower order than the transfer function, It is characterized in that the transfer function of order is obtained.

【0020】また、本発明は、記録されたマイクロホン
信号にフィルタ処理を行った信号を、前記マイクロホン
信号に置き換えてシステム同定手段の入出力として用い
ることを特徴とする。
Further, the present invention is characterized in that a signal obtained by filtering a recorded microphone signal is replaced with the microphone signal and used as an input / output of the system identification means.

【0021】また、本発明は、記録した音響信号を帯域
分割手段により複数の周波数帯域に分割し、各帯域ごと
に帯域分割された音響信号を未知の伝達関数の入出力と
みなして前記未知の伝達関数を求めることを特徴とす
る。
Further, according to the present invention, the recorded acoustic signal is divided into a plurality of frequency bands by the band dividing means, and the acoustic signal band-divided for each band is regarded as an input / output of an unknown transfer function, and the unknown It is characterized by obtaining a transfer function.

【0022】また、本発明は、音響信号を複数の周波数
帯域に分割する帯域分割手段と、分割された各周波数帯
域の音響信号を合成する帯域合成手段と、各音像定位位
置に関するフィルタのパラメータを持ち、音響信号との
フィルタ演算を行う音像定位手段と、1チャンネル以上
の音響信号入力部と、2チャンネルの音響信号出力部を
備え、前記音響信号入力部は前記帯域分割手段の入力部
に接続され、前記帯域分割手段の出力部は各周波数帯域
に対応する前記音像定位手段の入力部に接続され、前記
音像定位手段の出力部は対応する前記帯域合成手段の入
力部に接続され、前記帯域合成手段の出力部が前記音響
信号出力部に接続されていることを特徴とする。
Further, according to the present invention, a band dividing means for dividing an acoustic signal into a plurality of frequency bands, a band synthesizing means for synthesizing the divided acoustic signals of respective frequency bands, and a parameter of a filter relating to each sound image localization position are set. And a sound image localization means for performing a filter calculation with an acoustic signal, an acoustic signal input section for one or more channels, and an acoustic signal output section for two channels, the acoustic signal input section being connected to the input section of the band dividing means. The output unit of the band dividing unit is connected to the input unit of the sound image localization unit corresponding to each frequency band, the output unit of the sound image localization unit is connected to the input unit of the corresponding band synthesis unit, the band An output section of the synthesizing means is connected to the acoustic signal output section.

【0023】また、本発明は、音像定位手段が方向定位
手段とクロストーク・キャンセル手段で構成され、前記
音像定位手段の入力部が前記方向定位手段の入力部とな
り、前記音像定位手段の出力部が前記クロストーク・キ
ャンセル手段の出力部となり、前記方向定位手段は2つ
の出力部を持ち、前記方向定位手段の全ての第1の出力
部が加算器を経てクロストーク・キャンセル手段の第1
の入力部に接続され、前記方向定位手段の全ての第2の
出力部が加算器を経てクロストーク・キャンセル手段の
第2の入力部に接続されていることを特徴とする。
Further, in the present invention, the sound image localization means is composed of a direction localization means and a crosstalk canceling means, the input part of the sound image localization means serves as an input part of the direction localization means, and the output part of the sound image localization means. Is the output section of the crosstalk canceling means, the direction locating means has two output sections, and all the first output sections of the direction locating means pass through the adders and the first of the crosstalk canceling means.
Is connected to the second input part of the crosstalk canceling means via an adder.

【0024】また、本発明は、クロストーク・キャンセ
ル手段が取り除かれ、方向定位手段の全ての第1の出力
部が加算器を経て音像定位手段の第1の出力部となり、
前記方向定位手段の全ての第2の出力部が加算器を経て
音像定位手段の第2の出力部になることを特徴とする。
Further, in the present invention, the crosstalk canceling means is removed, and all the first output parts of the direction locating means become the first output parts of the sound image locating means via the adder,
All the second output parts of the direction localization means become the second output parts of the sound image localization means via an adder.

【0025】また、本発明は、方向定位手段の出力部と
帯域合成手段の入力部との間に、反射音生成手段を設け
たことを特徴とする。
Further, the present invention is characterized in that a reflected sound generating means is provided between the output portion of the direction localization means and the input portion of the band synthesizing means.

【0026】また、本発明は、方向定位手段と並列に反
射音生成手段を設けたことを特徴とする。
Further, the present invention is characterized in that a reflected sound generating means is provided in parallel with the direction localization means.

【0027】また、本発明は、帯域合成手段の出力部と
音響信号出力部の間に反射音生成手段を設けたことを特
徴とする。
Further, the present invention is characterized in that a reflected sound generating means is provided between the output section of the band synthesizing means and the acoustic signal output section.

【0028】また、本発明は、音響入力部と音響出力部
の間に反射音生成手段を設けたことを特徴とする。
Further, the present invention is characterized in that a reflected sound generating means is provided between the sound input section and the sound output section.

【0029】[0029]

【作用】図5に示すようなシステムを考え、入力が共通
な2つの伝達関数をそれぞれA、Bとする。時刻tにお
けるその共通な入力系列をin(t)とし、伝達関数A
を介した出力系列をouta(t)、伝達関数Bを介し
た出力系列をoutb(t)とすると、 outa(t)=A×in(t) outb(t)=B×in(t) と表すことができ、 in(t)=A-1×outa(t) と変形できることから、 outb(t)=(B/A)×outa(t) とすることができる。すなわち、伝達関数A,Bを単独
で求めることをせずに、outa(t)とoutb
(t)のデータのみからB/Aを最小2乗法等より直接
求めることができる。
Considering the system as shown in FIG. 5, two transfer functions having common inputs are A and B, respectively. Let the common input sequence at time t be in (t), and transfer function A
Let outa (t) be the output sequence via and outb (t) be the output sequence via the transfer function B: outa (t) = A × in (t) outb (t) = B × in (t) Since it can be expressed and can be transformed into in (t) = A -1 × outa (t), it can be expressed as outb (t) = (B / A) × outa (t). That is, outa (t) and outb can be obtained without individually obtaining the transfer functions A and B.
B / A can be directly obtained from the data of (t) only by the method of least squares or the like.

【0030】従って、伝達関数の逆演算を行う必要がな
いため、安定にかつ簡便に伝達関数を求めることができ
る。
Therefore, since it is not necessary to perform the inverse calculation of the transfer function, the transfer function can be obtained stably and easily.

【0031】また上式で入力in(t)を白色雑音とす
れば、伝達関数Aは自己回帰モデル(ARモデル)で同
定することができる。ARモデルとは、
If the input in (t) is white noise in the above equation, the transfer function A can be identified by an autoregressive model (AR model). What is AR model?

【0032】[0032]

【数1】 [Equation 1]

【0033】で表されるモデルである。このようにして
求められた伝達関数は極のみで零点がないため、その逆
関数は零点のみとなり、従って安定な逆関数A-1が得ら
れる。このようにして得られた逆関数A-1に白色雑音を
入力し、その出力を伝達関数Bに入力し、その伝達関数
Bの出力は outb(t)=B×{A-1×in(t)}=(B/
A)×in(t) となる。従って、自己回帰移動平均モデル(ARMAモ
デル)等でモデル化を行い、最小2乗法等で同定すれ
ば、伝達関数(B/A)を求めることができる。
It is a model represented by Since the transfer function obtained in this manner has only poles and no zeros, its inverse function is only zeros, and thus a stable inverse function A -1 is obtained. White noise is input to the inverse function A -1 thus obtained, and its output is input to the transfer function B. The output of the transfer function B is outb (t) = B × {A −1 × in ( t)} = (B /
A) × in (t). Therefore, the transfer function (B / A) can be obtained by modeling with an autoregressive moving average model (ARMA model) or the like and identifying by the least square method or the like.

【0034】また、伝達関数BもARモデルの形で同定
して、前述のようにして求められた逆関数A-1とを合わ
せて伝達関数(B/A)を求めることもできる。
The transfer function B can also be identified in the form of an AR model, and the transfer function (B / A) can be obtained by combining it with the inverse function A -1 obtained as described above.

【0035】また、音像定位手段に用いられるフィルタ
は、同じ次数であれば周波数の分解能はサンプリング周
波数に比例する。次数にもよるが、IIRフィルタで次
数30程度であれば、経験的にサンプリング周波数の1
/50〜1/20以下の周波数成分の精度はあまりよく
ない。また当然ながら、ナイキストの原理より、サンプ
リング周波数の1/2以上の周波数成分は表現できな
い。したがって、低い周波数の音響信号は低いサンプリ
ング周波数で、高い周波数の音響信号は高いサンプリン
グ周波数を用いれば良い。
Further, in the filter used in the sound image localization means, if the order is the same, the frequency resolution is proportional to the sampling frequency. Although it depends on the order, if the order is about 30 with the IIR filter, empirically the sampling frequency is 1
The accuracy of frequency components of / 50 to 1/20 or less is not very good. Also, of course, due to the Nyquist principle, it is not possible to represent frequency components that are 1/2 or more of the sampling frequency. Therefore, a low frequency acoustic signal may use a low sampling frequency, and a high frequency acoustic signal may use a high sampling frequency.

【0036】そこで、最初は高い周波数でサンプリング
し、周波数の高い成分はそのままのサンプリング周波数
で伝達関数を求め、低い周波数はデシメーション処理に
よってサンプリング周波数を落として伝達関数を求める
といった帯域分割処理を行う。
Therefore, band division processing is performed in which sampling is first performed at a high frequency, a high frequency component is used to obtain a transfer function at the same sampling frequency, and low frequencies are subjected to decimation processing to reduce the sampling frequency to obtain a transfer function.

【0037】音像定位装置についても同様に、各周波数
帯域別に上記で求められた伝達関数で表されるフィルタ
で構成された音像定位手段を用意する。元の音響信号を
帯域分割し、各周波数帯域について音像定位処理演算を
施し、その後に帯域合成手段によって各周波数帯域の音
像定位処理された音響信号が合成され、通常の帯域を持
つ音響信号となって出力されるようにする。
Similarly, for the sound image localization apparatus, a sound image localization means composed of a filter represented by the transfer function obtained above is prepared for each frequency band. The original acoustic signal is divided into bands, the sound image localization processing operation is performed for each frequency band, and then the sound image localization processing acoustic signals of each frequency band are combined by the band synthesizing means, resulting in an acoustic signal having a normal band. Output.

【0038】このように、周波数帯域を分割すること
で、低次数で高精度の音像定位演算を行うことができ
る。低次数であるために、高次数の場合に比較して極が
単位円周付近から離れ、安定性も向上する。また、各帯
域ごとにフィルタの次数、演算語長、演算のためのスケ
ーリングを定めることができるため、人間の耳で敏感な
帯域は高精度に、比較的鈍い帯域では簡略化して、音質
・音像定位の精度と演算処理の軽減との両立が図ること
ができる。また、個人差の小さい帯域では、音像定位手
段のフィルタのパラメータを標準化されたパラメータを
用いることで、フィルタの個人別パラメータの数を削減
することができる。
As described above, by dividing the frequency band, it is possible to perform a highly accurate sound image localization calculation with a low order. Because of the low order, the poles are separated from the vicinity of the unit circle and the stability is improved as compared with the case of the high order. Also, since the filter order, operation word length, and scaling for operation can be set for each band, the band sensitive to the human ear can be highly accurate, and the band that is relatively dull can be simplified to improve the sound quality and sound image. It is possible to achieve both localization accuracy and reduction of arithmetic processing. Further, in the band where the individual difference is small, the number of individual parameters of the filter can be reduced by using the standardized parameter of the filter of the sound image localization means.

【0039】[0039]

【実施例】【Example】

(実施例1)本発明の第1の実施例を図6と図7を参照
しながら説明する。まず所望の反射音の条件を満たす部
屋(反射音が不要な場合には無響室、反射音の効果が欲
しい場合にはその条件を持つ部屋)において仮想音源位
置にスピーカを置き、そのスピーカから白色雑音を発生
させる。白色雑音は、ナイキスト周波数までの全ての周
波数成分を含んでおり、持続的励振条件を満たしてい
る。その音が空間を伝搬し、受聴者または疑似頭の左右
の外耳道に取り付けられたマイクロホンの信号および元
信号をデータ記録器(例えばDAT)に記録する。左耳
での信号系列をy L1、右耳での信号系列をyR1、元の白
色雑音信号系列をeとする。ここで仮想音源位置は受聴
者から見て左側にあるものと仮定する。仮想音源から左
耳のマイクまでの空間伝達関数をTM、右耳のマイクま
での空間伝達関数をTCとしたとき、 yL1=TM・e yR1=TC・e となるため、前述の2つの式からeを消去し、空間比伝
達関数FS=TC/TMとすると yR1=(TC/TM)×yL1=FS・yL1 と表すことができるので、入力系列をyL1、出力系列を
R1としたシステムを考え、最小2乗法や最尤法などの
システム同定手法を用いてFSを求めることができる。
図6では、逐次的に求める手法の場合を示しているが、
これがオフラインのバッチ処理の方法でも効果は同様で
ある。
 (Embodiment 1) Refer to FIG. 6 and FIG. 7 for the first embodiment of the present invention.
While explaining. First, the part that satisfies the desired reflected sound condition
Shop (If you don't need reflected sound
Virtual sound source position in a room with that condition if
Place a speaker in the room and generate white noise from the speaker
Let White noise is generated at all frequencies up to the Nyquist frequency.
It contains the wave number component, and the continuous excitation condition is satisfied.
It The sound propagates through the space and is left or right of the listener or the simulated head
Signal and source of microphone attached to the ear canal of
The signal is recorded on a data recorder (eg DAT). Left ear
The signal sequence at y L1, The signal sequence at the right ear is yR1, Original white
Let the color noise signal sequence be e. Listen to the virtual sound source position here
It is assumed that it is on the left side when viewed from the person. Left from virtual sound source
The spatial transfer function to the ear microphone is TM, Right ear microphone
The spatial transfer function atCAnd then yL1= TM・ E yR1= TC・ Because it becomes e, the e is eliminated from the above two equations, and the space ratio transmission is
Reaching function FS= TC/ TMThen yR1= (TC/ TM) × yL1= FS・ YL1 Can be expressed asL1, Output series
yR1, The least squares method, the maximum likelihood method, etc.
F using the system identification methodSCan be asked.
Although FIG. 6 shows the case of the method of obtaining sequentially,
Even if this is an offline batch processing method, the effect is the same.
is there.

【0040】次に、実際のスピーカ位置にスピーカを置
き、前と同様の操作を繰り返す。こちらの方は、無響室
で測定することが望ましい。スピーカから出力する白色
雑音eは全く同じものを用いる。この場合、実際のスピ
ーカが左右対称に置かれているならば、スピーカは左右
のうちどちらか一方を使えばよいが、ここでは左側のス
ピーカを用いることにする。このとき、左耳での信号系
列をyL2、右耳での信号系列をyR2、音源から左耳のマ
イクまでの空間伝達関数をSM、右耳のマイクまでの空
間伝達関数をSCとすると、 yR2=(SC/SM)×yL2=FC・yL2 なるシステムにおいて同定すれば空間比伝達関数FC
C/SMが求められる。すなわち、未知システムを考
え、その入力系列をyL2、出力系列をyR2とみなしてそ
の未知システムを同定すればよい。
Next, the speaker is placed at the actual speaker position, and the same operation as before is repeated. It is desirable for this person to measure in an anechoic room. The same white noise e output from the speaker is used. In this case, if the actual speakers are placed symmetrically, either one of the left and right speakers may be used, but here the left speaker is used. At this time, the signal sequence in the left ear is y L2 , the signal sequence in the right ear is y R2 , the spatial transfer function from the sound source to the left ear microphone is S M , and the spatial transfer function from the right ear microphone is S C Then, if the system is identified as y R2 = (S C / S M ) × y L2 = F C · y L2, the spatial ratio transfer function F C =
S C / S M is required. That is, considering an unknown system, the unknown system may be identified by regarding the input sequence as y L2 and the output sequence as y R2 .

【0041】また、最初に記録したyL1と次に記録した
L2を用いて、 yL1=(TM/SM)×yL2=FM・yL2 なるシステムで同定すれば空間比伝達関数FM=TM/S
Mが求められる。このとき、元の信号系列eを用いれ
ば、この2つのデータyL1、yL2の同期合わせが楽にで
きる。このような手続きによって、図4(a)〜(c)
に示す立体音場処理回路のフィルタを全て求めることが
できる。
Also, using the first recorded y L1 and the next recorded y L2 , the spatial ratio transfer can be obtained by identifying with a system of y L1 = (T M / S M ) × y L2 = F M · y L2 Function F M = T M / S
M is required. At this time, if the original signal sequence e is used, the two data y L1 and y L2 can be easily synchronized. By such a procedure, FIG. 4 (a)-(c)
All the filters of the three-dimensional sound field processing circuit shown in can be obtained.

【0042】この手続きによると、伝達関数の逆演算は
必要ない。したがって、直接安定な空間比伝達関数を求
めることができる。もし、従来のように単独の空間伝達
関数を同定すれば、音の到来方向に関する特性の他にス
ピーカやマイクロホン、音の到来方向には依存しない耳
の特性が加わり、その分だけ次数を上げて同定しない
と、音の到来方向に関する特性の抽出が精度良くできな
い。当発明の方法では、スピーカやマイクロホン、音の
到来方向には依存しない耳の特性が当初からキャンセル
されており、その分低次数で同定できる。
According to this procedure, the inverse calculation of the transfer function is not necessary. Therefore, it is possible to directly obtain a stable spatial ratio transfer function. If a single spatial transfer function is identified as in the conventional case, the characteristics of the speaker, microphone, and ear that do not depend on the direction of sound arrival are added in addition to the characteristics of the direction of sound arrival, and the order is increased accordingly. Without identification, it is not possible to accurately extract the characteristics of the sound arrival direction. According to the method of the present invention, the characteristics of the ear that do not depend on the direction of arrival of the speaker, the microphone, and the sound are canceled from the beginning, and thus the identification can be performed at a low order.

【0043】なお、ここでは元信号eを記録したが、特
に記録しなくても、元信号が既知であれば同様の効果を
有することができる。これは、以下の実施例においても
同様である。
Although the original signal e is recorded here, the same effect can be obtained even if the original signal e is not recorded if the original signal is known. This also applies to the following examples.

【0044】また、マイクロホン信号にフィルタ処理を
施し、そのデータ信号を用いて同定すれば、空間比伝達
関数の周波数特性等の修整ができるといった効果も表れ
る。
If the microphone signal is filtered and the data signal is used for identification, the frequency characteristic of the spatial ratio transfer function can be modified.

【0045】また、空間比伝達関数のモデルとして、通
常の
As a model of the spatial ratio transfer function,

【0046】[0046]

【数2】 [Equation 2]

【0047】で表されるIIRフィルタ形の伝達関数モ
デルや
IIR filter type transfer function model represented by

【0048】[0048]

【数3】 (Equation 3)

【0049】で表されるFIRフィルタの形の伝達関数
モデルを用いても良いが、現在の出力が、過去の出力と
過去から未来の入力の線形結合で表せるモデルを用いる
こともできる。これは
A transfer function model in the form of an FIR filter represented by the following may be used, but a model in which the present output can be represented by a linear combination of past output and past to future input can also be used. this is

【0050】[0050]

【数4】 [Equation 4]

【0051】や、時系列をシフトさせてBy shifting the time series,

【0052】[0052]

【数5】 (Equation 5)

【0053】のように表せる。このモデルを用いると、
非最小位相系のシステムで、インパルス応答の立ち上が
り時間が比較的長いものでも精度良く、安定性も良く同
定できるといった効果も生まれる。
It can be expressed as Using this model,
This is a non-minimum phase system, and even if the impulse response has a relatively long rise time, it has the effect of enabling accurate identification and stability.

【0054】(実施例2)本発明の第2の実施例を図6
および図8、図9を参照しながら説明する。実施例1と
同様に仮想音源位置にスピーカを置く。そのスピーカか
ら、インパルス信号あるいはステップ信号を出力して、
左耳と右耳に備え付けられたマイクロホンの出力より、
両耳間の音の到達時間差を測定する。図8にインパルス
信号の場合の例を示す。
(Embodiment 2) A second embodiment of the present invention is shown in FIG.
A description will be given with reference to FIGS. 8 and 9. Similar to the first embodiment, the speaker is placed at the virtual sound source position. Output impulse signal or step signal from the speaker,
From the output of the microphones installed in the left and right ears,
The difference in sound arrival time between the ears is measured. FIG. 8 shows an example of an impulse signal.

【0055】あるいは、スピーカから白色雑音を出力
し、両耳のマイクロホン出力信号の相互相関係数を求
め、その最大値の点を見つけることで、両耳間の到達時
間差が求められる。すなわち、時刻tでの左耳での信号
系列をyL1(t)、右耳での信号系列をyR1(t)とし
たとき、 R(d)=E[yL1(t+d)・yR1(t)] ただし、E[・]は平均を表す。なる相互相関係数R
(d)を求め、そのR(d)が最大となるdを両耳間の
到達時間差とみなすものである。
Alternatively, the white noise is output from the speaker, the cross-correlation coefficient of the microphone output signals of both ears is obtained, and the maximum value point is found to find the arrival time difference between both ears. That is, when the signal sequence in the left ear at time t is y L1 (t) and the signal sequence in the right ear is y R1 (t), R (d) = E [y L1 (t + d) · y R1 (T)] Here, E [•] represents an average. Cross correlation coefficient R
(D) is obtained, and d having the maximum R (d) is regarded as the arrival time difference between both ears.

【0056】このようにして求められた時間差を、離散
時間系で遅延演算子を用いてz-dと表す。スピーカから
持続的励振条件を満たす信号を出力し、左耳での信号系
列をyL1、右耳での信号系列をyR1とする。ここで、左
耳への経路をメインパスと仮定すると、音の右耳への到
達時刻が左耳よりも遅いため、その分左耳でのデータを
シフトする。すなわち、 yR1=(TC/TM)×z-dL1 となり、空間比伝達関数の到達時間差成分と音色変化成
分とを分離して求めたことになる。以下、実スピーカ位
置の場合でも同様の操作を繰り返す。以上の手続きを図
9に示す。
The time difference thus obtained is expressed as z- d using a delay operator in a discrete time system. A signal that satisfies the continuous excitation condition is output from the speaker, and the signal sequence for the left ear is y L1 and the signal sequence for the right ear is y R1 . Here, assuming that the route to the left ear is the main path, the arrival time of the sound to the right ear is later than that of the left ear, so the data in the left ear is shifted accordingly. That is, y R1 = (T C / T M ) × z −d y L1 , which means that the arrival time difference component and the timbre change component of the spatial ratio transfer function are obtained separately. Hereinafter, the same operation is repeated even in the case of the actual speaker position. The above procedure is shown in FIG.

【0057】本実施例の方法は、実施例1に比べて、到
達時間差を分離して求めたことで、その分だけ空間比伝
達関数のパラメータ数を更に削減することが可能であ
る。
The method of the present embodiment is capable of further reducing the number of parameters of the spatial ratio transfer function by obtaining the arrival time difference separately as compared with the first embodiment.

【0058】なお、実際に求められたdよりも若干小さ
い値を到着時間差成分とみなして空間比伝達関数を求め
ることもできる。
The spatial ratio transfer function can be obtained by regarding a value slightly smaller than the actually obtained d as the arrival time difference component.

【0059】(実施例3)本発明の第3の実施例を図1
0を参照しながら説明する。まず実際のスピーカ位置で
左側のみにスピーカを置き、そのスピーカから白色雑音
を発生させる。その音が空間を伝搬し、受聴者または疑
似頭の左右の外耳道に取り付けられたマイクロホンの信
号および元信号をデータ記録器に記録する。左耳での信
号系列をy L3、右耳での信号系列をyR3とする。まず、
実施例2と同様の手法でyL3とyR3との間の空間比伝達
関数の時間遅れ要素を求める。次に信号系列yL3より、
空間伝達関数SMをレビンソン・ダービン法、バーグ
法、最小2乗法等を用いてARモデルの形で同定する。
ARモデルは高速かつ安定に同定できる長所を持ってお
り、極のみで零点を持たないため、逆関数も容易かつ安
定に求めることができる。求められた空間伝達関数の逆
関数SM -1に白色雑音を畳み込み、その出力信号系列を
pとする。その信号系列pをもう1度前述のスピーカか
ら出力し、そのときの右耳での信号系列yR4を記録す
る。このyR4より、レビンソン・ダービン法、最小2乗
法等で、ARMAモデル等のモデルの形で同定し、その
結果に前に求めた時間遅れ要素を加えることで、空間比
伝達関数FC=SC/SMが求められる。
(Embodiment 3) A third embodiment of the present invention is shown in FIG.
A description will be given with reference to 0. First, at the actual speaker position
Place the speaker only on the left side, and the white noise from that speaker
Generate. The sound propagates through space and is
Microphones attached to the left and right external ear canals
The signal and the original signal are recorded in the data recorder. Belief in the left ear
Y series L3, The signal sequence at the right ear is yR3And First,
In the same manner as in Example 2, yL3And yR3Spatial ratio transmission between
Find the time delay element of the function. Next, the signal sequence yL3Than,
Space transfer function SMThe Levinson-Durbin method, Berg
Method, least squares method, etc. to identify in the form of an AR model.
The AR model has the advantage that it can be identified quickly and stably.
Therefore, the inverse function is easy and cheap because it has only zero poles and no zeros.
You can always ask. Inverse of the obtained spatial transfer function
Function SM -1Convolve white noise into the output signal sequence
p. Is the signal series p again the above-mentioned speaker?
Signal sequence y in the right ear at that timeR4Record
It This yR4Levinson-Durbin method, least squares
Method in the form of a model such as ARMA model,
By adding the previously obtained time delay factor to the result, the spatial ratio
Transfer function FC= SC/ SMIs required.

【0060】次に仮想音源位置にスピーカを置き、前と
同様に両耳間の到達時間差を求める。次に前述の信号系
列pを出力し、左耳での信号系列yL5、右耳での信号系
列y R5を記録する。これも、上と同様にyL5とyR5をレ
ビンソン・ダービン法、最小2乗法等で、ARMAモデ
ル等の形で同定すれば、空間比伝達関数FL=TL
M、FR=TR/SMの音色変化成分が求められ、これら
に時間遅れ要素をクロストークパスの方の空間比伝達関
数に付加すれば良い。このようにすれば、図4(b)に
示す立体音場処理回路のフィルタを求めることができ
る。
Next, a speaker is placed at the virtual sound source position and
Similarly, the arrival time difference between both ears is obtained. Next, the signal system described above
Output the column p and the signal sequence y at the left earL5, Signal system in the right ear
Row y R5To record. This is also yL5And yR5The
The ARMA model with the Binson-Durbin method, the least squares method, etc.
Space ratio transfer function FL= TL/
S M, FR= TR/ SMThe tone change component of
In addition, a time delay element is added to the spatial ratio transfer function of the crosstalk path.
Just add it to the number. By doing this, in FIG.
It is possible to obtain the filter of the three-dimensional sound field processing circuit shown.
It

【0061】(実施例4)本発明の第4の実施例を図1
1を参照しながら説明する。まず実際のスピーカ位置で
左側のみにスピーカを置き、そのスピーカから白色雑音
を発生させる。その音が空間を伝搬し、受聴者または疑
似頭の左右の外耳道に取り付けられたマイクロホンの信
号および元信号をデータ記録器に記録する。左耳での信
号系列をy L3、右耳での信号系列をyR3とする。まず、
実施例2と同様の手法でyL3とyR3との間の空間比伝達
関数の時間遅れ要素を求める。次に信号系列yL3、yR3
より、空間伝達関数SM、SCをレビンソン・ダービン
法、バーグ法、最小2乗法等を用いてARモデルで同定
する。
(Embodiment 4) A fourth embodiment of the present invention is shown in FIG.
This will be described with reference to 1. First, at the actual speaker position
Place the speaker only on the left side, and the white noise from that speaker
Generate. The sound propagates through space and is
Microphones attached to the left and right external ear canals
The signal and the original signal are recorded in the data recorder. Belief in the left ear
Y series L3, The signal sequence at the right ear is yR3And First,
In the same manner as in Example 2, yL3And yR3Spatial ratio transmission between
Find the time delay element of the function. Next, the signal sequence yL3, YR3
Therefore, the spatial transfer function SM, SCLevinson Durbin
Method, Berg method, least square method, etc.
I do.

【0062】次に仮想音源位置にスピーカを置き、同様
にして左耳での信号系列yL4、右耳での信号系列yR4
り左右の耳への音の到達時間差、ARモデル型の空間伝
達関数TL、TRを求める。
Next, a speaker is placed at the position of the virtual sound source, and similarly, the arrival time difference of the sound to the left and right ears from the signal sequence y L4 in the left ear and the signal sequence y R4 in the right ear, the AR model type spatial transmission. Find the functions T L and T R.

【0063】そして、求められたARモデル型の空間伝
達関数TL、TR、SCを、SMの逆関数SM -1と掛け合わ
せて、IIRフィルタ型の空間比伝達関数を求める(図
12参照)。これに、前に求めた時間遅れ要素を加え
る。
[0063] Then, the obtained AR modeling of spatial transfer function T L, T R, the S C, is multiplied by the inverse function S M -1 of the S M, obtaining the space ratio transfer function of the IIR filter type ( (See FIG. 12). To this, add the time delay factor obtained previously.

【0064】この手法では、同定がARモデルのみなの
で、高速かつ簡便である利点がある。但し、出来上がり
のIIRフィルタの次数が大きくなるデメリットも生じ
る。
This method has the advantage of being fast and simple because the identification is only for the AR model. However, there is a demerit that the order of the completed IIR filter becomes large.

【0065】なお、上記の欠点を克服するために、求め
られたIIRフィルタの極と零点を求め、ほぼ重なりキ
ャンセルされるものを取り除くことで、次数を減らすこ
とが可能である。
In order to overcome the above-mentioned drawbacks, it is possible to reduce the order by obtaining the poles and zeros of the IIR filter thus found and removing those which are almost overlapped and canceled.

【0066】また、このIIRフィルタに持続的励振条
件を満たす信号(例えば白色雑音)を入力し、その出力
系列と入力系列を用いて再び最小2乗法等で同定し直す
ことにより、低次数のIIRフィルタに直すことも可能
である。
Further, a signal (for example, white noise) satisfying the condition of continuous excitation is input to this IIR filter, and the output sequence and the input sequence are used to perform identification again by the least-square method or the like, whereby the low-order IIR filter is identified. It is also possible to convert it to a filter.

【0067】(実施例5)本発明の第5の実施例を図1
と図13〜図15を参照しながら説明する。実施例1に
おいて、帯域分割手段を設け、データ記録器からの音響
信号を帯域分割して、それぞれの周波数帯域において空
間比伝達関数を求めるものである。
(Embodiment 5) A fifth embodiment of the present invention is shown in FIG.
The description will be made with reference to FIGS. In the first embodiment, the band dividing means is provided, the acoustic signal from the data recorder is band-divided, and the spatial ratio transfer function is obtained in each frequency band.

【0068】まず、図1(a)において、空間比伝達関
数FS=TC/TMを求める過程で、データ記録器からの
出力yL1とyR1が帯域分割手段に入力され、複数の周波
数帯域に分割される。ここでは4つの帯域に分割する例
を考えてみる。ここで、帯域分割手段として図14(a
1)を用い、図13に示すような周波数特性になるよう
に各フィルタの係数を設定する。高域通過フィルタ19a
はFHH、帯域通過フィルタ20aはFHL、20bはFLH、低域
通過フィルタはFLLの特性を持つ。これらのフィルタ
は、後のデシメーション処理によるサンプリング周波数
を落とす際、折り返し歪(エイリアジング)を防ぐ役割
もある。そして間引き手段によってサンプリング周波数
を落とす。例えば、間引き手段22aではデシメーション
次数2、間引き手段22bではデシメーション次数4、間
引き手段22cではデシメーション次数8とする。
First, in FIG. 1A, in the process of obtaining the spatial ratio transfer function F S = T C / T M , the outputs y L1 and y R1 from the data recorder are input to the band dividing means, and a plurality of outputs are obtained. It is divided into frequency bands. Here, consider an example of division into four bands. Here, as a band dividing means, FIG.
Using 1), the coefficient of each filter is set so that the frequency characteristic shown in FIG. 13 is obtained. High pass filter 19a
Has a characteristic of F HH , the bandpass filter 20a has a characteristic of F HL , 20b has a characteristic of F LH , and the low pass filter has a characteristic of F LL . These filters also have a role of preventing aliasing when lowering the sampling frequency by the subsequent decimation process. Then, the sampling frequency is reduced by the thinning means. For example, the decimation order is 2 in the thinning means 22a, the decimation order is 4 in the thinning means 22b, and the decimation order is 8 in the thinning means 22c.

【0069】図15にデータの概略を示しているが、元
信号(a)がフィルタにより帯域外の成分が除去されて
(b)の波形が得られた後、間引き手段によりデータの
デシメーション処理(図ではデシメーション次数4)が
行われ、4回に1回のペースでデータが取られる。した
がって、サンプリング周波数が1/4に落とされる。
FIG. 15 shows the outline of the data. After the original signal (a) is filtered to remove the out-of-band components and the waveform (b) is obtained, the decimation process ( In the figure, the decimation order 4) is performed, and data is taken once every four times. Therefore, the sampling frequency is reduced to 1/4.

【0070】このように帯域分割され、サンプリング周
波数も落とされた信号が帯域別に用意されたシステム同
定手段に入力され、空間比伝達関数が求められる。
The signal thus band-divided and the sampling frequency dropped is input to the system identification means prepared for each band, and the spatial ratio transfer function is obtained.

【0071】以下同様の手続きで、他の未知の空間比伝
達関数FC、FMも求めることができる。
Other unknown spatial ratio transfer functions F C and F M can be obtained by the same procedure.

【0072】なお、高域通過フィルタを省略し、帯域通
過フィルタは低域通過フィルタに置き換えることも可能
である。また、間引き手段でのデシメーション次数は、
(22aの次数)<(22bの次数)<(22cの次数)であれ
ば、他の値でも良い。
The high-pass filter may be omitted and the band-pass filter may be replaced with a low-pass filter. In addition, the decimation order by the thinning means is
Other values may be used as long as (degree of 22a) <(degree of 22b) <(degree of 22c).

【0073】また、帯域分割手段として、図14(a
2)〜(a5)を用いても同様である。ここで、(a
4)と(a5)のように間引き手段を省略した場合に
は、d(本来のデシメーション次数)個ごとのデータを
用いる必要がある。この場合、間引き手段によるデータ
個数の減少がないため、元のデータ個数が少ない場合で
も同定することが可能となる。
As a band dividing means, FIG.
The same applies when 2) to (a5) are used. Where (a
When the thinning means is omitted as in 4) and (a5), it is necessary to use data for each d (original decimation order). In this case, since the number of data is not reduced by the thinning means, it is possible to identify even if the original number of data is small.

【0074】(実施例6)本発明の第6の実施例を図
1、図13〜図17を参照しながら説明する。図1
(b)に、実施例5で求められた空間比伝達関数を用い
た立体音場処理装置の例を示している。本装置は、入力
部1チャンネル、出力部2チャンネル、帯域分割数は4
である。方向定位手段は図4(a)または(b)で表さ
れ、クロストーク・キャンセル手段は図4(c)で表さ
れる。帯域分割数は4で、帯域分割手段は図14(a
1)で表され、帯域合成手段は図14(b1)で表され
る。
(Embodiment 6) A sixth embodiment of the present invention will be described with reference to FIGS. 1 and 13 to 17. FIG.
An example of a three-dimensional sound field processing device using the spatial ratio transfer function obtained in the fifth embodiment is shown in (b). This device has 1 input channel, 2 output channels, and 4 band divisions.
Is. The direction localization means is shown in FIG. 4 (a) or (b), and the crosstalk canceling means is shown in FIG. 4 (c). The number of band divisions is 4, and the band dividing means is shown in FIG.
1) and the band synthesizing means is shown in FIG. 14 (b1).

【0075】まず、CD等によるディジタル信号や、A
/D変換器でディジタルに変換された信号が入力部に入
力され、帯域分割手段に送られる。帯域分割のために、
最も低い周波数帯域には低域通過フィルタ(LPF)
が、最も高い周波数帯域には高域通過フィルタ(HP
F)が、その他の帯域には帯域通過フィルタ(BPF)
が並列に接続されており、あらかじめ設定した周波数帯
域に分割する。帯域分割手段の動作は、実施例5と同じ
である。帯域分割された信号は、音像定位手段に入力さ
れる。
First, a digital signal such as a CD or A
The signal converted to digital by the / D converter is input to the input section and sent to the band dividing means. Due to the band division,
Low pass filter (LPF) in the lowest frequency band
However, in the highest frequency band, a high-pass filter (HP
F), but band pass filter (BPF) for other bands
Are connected in parallel and are divided into preset frequency bands. The operation of the band dividing means is the same as that of the fifth embodiment. The band-divided signal is input to the sound image localization means.

【0076】音像定位手段では、最初に方向定位手段に
よって仮想音像定位演算がなされる。その2チャンネル
の出力がクロストーク・キャンセル手段に入力され、実
際のスピーカ配置で予想されるクロストーク成分を取り
除き、2チャンネルの出力を得る。その信号は帯域合成
手段に入力される。
In the sound image localization means, first, the virtual sound image localization calculation is performed by the direction localization means. The output of the two channels is input to the crosstalk canceling means, the crosstalk component expected in the actual speaker arrangement is removed, and the output of the two channels is obtained. The signal is input to the band synthesizing means.

【0077】帯域合成手段では、まずサンプリング周波
数を上げるために、音像定位処理後の波形図15(d)
に補間データを挿入する。図15(e)ではゼロを挿入
しているが、前時刻のデータのホールドや前後のデータ
の内分値でもよい。その後に帯域通過フィルタ(あるい
は低域通過フィルタ)をかけて平滑化され、元のサンプ
リング周波数のデータ(f)に変換される。最高域での
動作も、帯域分割・合成に高域通過フィルタを用い、間
引き手段と補間手段を用いないという点以外は同様であ
る。
In the band synthesizing means, first, in order to increase the sampling frequency, the waveform diagram after sound image localization processing is shown in FIG.
Insert interpolation data into. Although zero is inserted in FIG. 15 (e), it may be a hold of the data at the previous time or an internally divided value of the data before and after. After that, a band pass filter (or a low pass filter) is applied and smoothed, and converted into the original sampling frequency data (f). The operation in the highest band is the same except that a high-pass filter is used for band division / synthesis and no thinning means and interpolation means are used.

【0078】これらの各帯域の音像定位処理後の信号を
加算し合成した後、出力部に送られる。出力部からの信
号は、D/A変換器でアナログ信号に変換された後に、
アンプで増幅されて、スピーカで出力される。
The signals after the sound image localization processing in each of these bands are added and combined, and then sent to the output section. The signal from the output section is converted into an analog signal by the D / A converter,
It is amplified by the amplifier and output by the speaker.

【0079】帯域分割手段を図14(a2)〜(a
3)、帯域合成手段を図14(b2)〜(b3)にした
場合も同様である。この場合、帯域をpオクターブ(p
は正の実数)ごとに分割すると、低域通過フィルタや高
域通過フィルタのパラメータは、全て同じものを用いる
ことができ、パラメータを格納するメモリの削減を図る
ことができる。
The band dividing means is shown in FIGS.
3), the same applies when the band synthesizing means is shown in FIGS. 14B2 to 14B3. In this case, the band is p octave (p
Is a positive real number), the same parameters can be used for the low-pass filter and the high-pass filter, and the memory for storing the parameters can be reduced.

【0080】図14の(a4)と(a5)は間引き手段
を、(b4)と(b5)は補間手段を省いたもの示して
いる。図16(a)で伝達関数T(z-1)が
In FIG. 14, (a4) and (a5) show the thinning means, and (b4) and (b5) show the interpolating means omitted. In FIG. 16A, the transfer function T (z −1 ) is

【0081】[0081]

【数6】 (Equation 6)

【0082】のように表せるシステムでは、図14
(b)で伝達関数T(z-D)が
In the system that can be represented as shown in FIG.
In (b), the transfer function T (z -D ) is

【0083】[0083]

【数7】 (Equation 7)

【0084】で表されるシステム、すなわち、図16
(b)で表せるシステムに変換することができる。した
がって、図17のように、Dごとのデータを用いて音像
定位処理を行えばよい。この場合、帯域合成手段のフィ
ルタを省いて、演算回数を削減することも可能である。
The system represented by, that is, FIG.
It can be converted into a system represented by (b). Therefore, as shown in FIG. 17, the sound image localization processing may be performed using the data for each D. In this case, the number of calculations can be reduced by omitting the filter of the band synthesizing means.

【0085】なお、図18のように、入力チャンネルを
k個にし、帯域分割手段もk個、1つの音像定位手段に
設けられる方向定位手段もk個にし、各方向定位手段の
出力が加算されて、クロストーク・キャンセル手段に入
力させるようにして、入力チャンネルを複数個に拡張す
ることができる。
As shown in FIG. 18, the number of input channels is k, the number of band dividing means is k, and the number of direction localization means provided in one sound image localization means is also k. The outputs of the respective direction localization means are added. Then, the input channel can be expanded to a plurality by inputting it to the crosstalk canceling means.

【0086】また、本実施例では帯域分割数は4とした
が、3以下や5以上でも同様の効果を有する。
Although the number of band divisions is 4 in this embodiment, the same effect can be obtained when the number of band divisions is 3 or less or 5 or more.

【0087】(実施例7)本発明の第7の実施例を図1
9を参照しながら説明する。図1(b)の装置で、周波
数の高い帯域の音像定位手段10aで、クロストーク・キ
ャンセル手段を省いたものである。高域になると受聴位
置のずれによる位相のずれが大きくなり、クロストーク
のキャンセルがうまくいかなくなる。例えば、周波数1
0kHzでは波長が約3.4cmとなり、左右の耳への
音の伝搬経路が半波長の1.7cmずれると逆位相とな
り、クロストークのキャンセルではなく逆にクロストー
クを強めあう結果となる。通常、全ての周波数成分に対
する高域のエネルギーの比率はあまり大きくないので、
高域のクロストーク・キャンセル手段をはずしても特に
問題はなく、パラメータおよび演算回数の削減と受聴範
囲の拡大を図ることが出来る。
(Embodiment 7) A seventh embodiment of the present invention is shown in FIG.
This will be described with reference to FIG. In the apparatus of FIG. 1B, the sound image localization means 10a in the high frequency band does not include the crosstalk canceling means. In the high frequency range, the phase shift due to the shift in the listening position becomes large, and it becomes difficult to cancel the crosstalk. For example, frequency 1
At 0 kHz, the wavelength is about 3.4 cm, and if the propagation paths of the sound to the left and right ears deviate by half a wavelength of 1.7 cm, the phases are opposite to each other, and crosstalk is strengthened instead of canceling crosstalk. Normally, the ratio of high frequency energy to all frequency components is not so large, so
There is no particular problem even if the high-frequency crosstalk canceling means is removed, and it is possible to reduce the parameters and the number of calculations and expand the listening range.

【0088】(実施例8)本発明の第8の実施例を図2
0を参照しながら説明する。これは2チャンネル入力で
のヘッドホンの頭外定位処理装置を示している。帯域分
割数は3である。この場合、ヘッドホンの片方のスピー
カから他方の耳への音の伝搬はかなり小さいので、クロ
ストーク・キャンセル手段を省くことができる。また、
本音像定位装置に反射音生成手段を付加することもでき
る。これは、図20(a)のように省いたクロストーク
・キャンセル手段の所や、図20(b)のように方向定
位手段と並列、図20(c)のように帯域合成手段の
後、図20(d)のように本音像定位装置と並列、等の
ように接続すればよい。このように反射音生成手段を付
加することにより、より臨場感があり、個人差が少な
く、多くの人が音像が頭外に定位するといった効果が得
られる。
(Embodiment 8) FIG. 2 shows the eighth embodiment of the present invention.
Description will be given with reference to 0. This shows an out-of-head localization processing device for headphones with 2-channel input. The number of band divisions is three. In this case, since the propagation of sound from one speaker of the headphones to the other ear is quite small, the crosstalk canceling means can be omitted. Also,
Reflected sound generating means may be added to the present sound image localization device. This is because the crosstalk canceling means omitted as shown in FIG. 20 (a), the direction localizing means as shown in FIG. 20 (b) and the band synthesizing means as shown in FIG. It may be connected in parallel with the real sound image localization apparatus as shown in FIG. By adding the reflected sound generating means in this way, it is possible to obtain an effect that there is more realism, there are few individual differences, and that many people localize the sound image outside the head.

【0089】特に(a)や(b)のように帯域分割され
た音像定位手段に反射音生成手段を含めると、残響時間
が短い高域と残響時間が長い低域とで個別に処理できる
ため、反射音生成手段のフィルタの次数を圧縮すること
もできる。
In particular, when the reflected sound generating means is included in the sound image localization means divided into bands as shown in (a) and (b), it is possible to separately process the high range where the reverberation time is short and the low range where the reverberation time is long. It is also possible to compress the order of the filter of the reflected sound generating means.

【0090】[0090]

【発明の効果】以上のように、本発明は、音像定位方法
におけるフィルタの設計過程において、不安定な極の発
生がなく、また安定化のための面倒な操作も不必要で、
簡便に空間比伝達関数を求めることができ、その効果は
大きいものである。また、本発明の音像定位装置は、周
波数帯域を分割して音像定位処理を行うことで、音質・
音像定位と安定性とが両立し、その効果は大きいもので
ある。
As described above, according to the present invention, in the process of designing a filter in the sound image localization method, an unstable pole is not generated, and a troublesome operation for stabilization is unnecessary.
The spatial ratio transfer function can be easily obtained, and its effect is great. In addition, the sound image localization apparatus of the present invention divides the frequency band and performs sound image localization processing, thereby
Both sound image localization and stability are compatible, and the effect is great.

【図面の簡単な説明】[Brief description of drawings]

【図1】空間比伝達関数の測定系を示す概念図と立体音
場処理装置のブロック線図
FIG. 1 is a conceptual diagram showing a measurement system of a spatial ratio transfer function and a block diagram of a three-dimensional sound field processing device.

【図2】空間伝達関数を用いた立体音場処理や頭外定位
処理を行うための原理図
FIG. 2 is a principle diagram for performing stereoscopic sound field processing and spatial localization processing using a spatial transfer function.

【図3】立体音場処理を行う回路のブロック線図FIG. 3 is a block diagram of a circuit that performs three-dimensional sound field processing.

【図4】方向定位手段とクロストーク・キャンセル手段
の回路のブロック線図
FIG. 4 is a block diagram of a circuit of a direction localization unit and a crosstalk cancellation unit.

【図5】空間比伝達関数の同定のためのブロック線図FIG. 5: Block diagram for identification of spatial ratio transfer function.

【図6】空間比伝達関数の測定系を示す概念図FIG. 6 is a conceptual diagram showing a measurement system of a spatial ratio transfer function.

【図7】実施例1の手順を示すブロック線図FIG. 7 is a block diagram showing the procedure of the first embodiment.

【図8】インパルス信号を用いた両耳間到達時間差を測
定するための概念図
FIG. 8 is a conceptual diagram for measuring an inter-aural arrival time difference using an impulse signal.

【図9】実施例2の手順を示すブロック線図FIG. 9 is a block diagram showing the procedure of the second embodiment.

【図10】実施例3の手順を示すブロック線図FIG. 10 is a block diagram showing the procedure of the third embodiment.

【図11】実施例4の手順を示すブロック線図FIG. 11 is a block diagram showing the procedure of the fourth embodiment.

【図12】2つの空間伝達関数から空間比伝達関数を求
める概念図
FIG. 12 is a conceptual diagram for obtaining a spatial ratio transfer function from two spatial transfer functions.

【図13】帯域分割の概念図FIG. 13 is a conceptual diagram of band division.

【図14】帯域分割手段と帯域合成手段を示すブロック
線図
FIG. 14 is a block diagram showing a band dividing unit and a band synthesizing unit.

【図15】帯域分割手段と帯域合成手段の動作を示す図FIG. 15 is a diagram showing operations of a band dividing unit and a band synthesizing unit.

【図16】帯域分割処理を示すブロック線図FIG. 16 is a block diagram showing band division processing.

【図17】補間手段と間引き手段を用いない帯域分割手
段と帯域合成手段のフィルタで用いるデータを示す図
FIG. 17 is a diagram showing data used by filters of a band dividing unit and a band synthesizing unit that do not use an interpolating unit and a thinning unit.

【図18】複数の入力の立体音場処理装置の回路を示す
ブロック線図
FIG. 18 is a block diagram showing a circuit of a stereophonic sound field processing apparatus having a plurality of inputs.

【図19】実施例7の回路を示すブロック線図FIG. 19 is a block diagram showing a circuit of Example 7.

【図20】実施例8の回路を示すブロック線図FIG. 20 is a block diagram showing a circuit of Example 8.

【符号の説明】[Explanation of symbols]

1a、1b 音響信号発生器 2a、2b スピーカ 2c、2d ヘッドホンスピーカ 3a〜3d マイクロホン 4A〜4D システム同定手段 4E ARモデル同定手段 4F 線形モデル同定手段 4a 未知システム入力信号入力部 4b 未知システム出力信号入力部 4c 移動平均部パラメータ 4d 自己回帰部パラメータ 4e パラメータ逐次修正手段 5a、5b データ記録器 6a、6b 帯域分割手段 7a、7b 入力部 7c、7d 出力部 8a〜8d 音像定位手段 9a〜9h 方向定位手段 10a、10b、10c クロストーク・キャンセル手段 11a、11b 帯域合成手段 12a〜12g 加算器 13a 音色補正フィルタ 13b 両耳間差フィルタ 13c、13d 方向定位フィルタ 13e、13f クロストーク生成フィルタ 14A、14B、14C 到達時間差推定手段 15 逆フィルタ演算手段 16A、16B 空間伝達関数 17 逆演算手段 18 空間比伝達関数 19a〜19g 高域通過フィルタ 20a、20b 帯域通過フィルタ 21a〜21g 低域通過フィルタ 22a〜22i 間引き手段 23a〜23i 補間手段 24a〜24d 低域通過フィルタ、または帯域通過フィルタ 25a、25b ディジタルフィルタ 26a〜26d ディジタルフィルタ 27a〜27e 反射音生成手段 1a, 1b Acoustic signal generator 2a, 2b Speaker 2c, 2d Headphone speaker 3a-3d Microphone 4A-4D System identification means 4E AR model identification means 4F Linear model identification means 4a Unknown system input signal input section 4b Unknown system output signal input section 4c Moving average section parameter 4d Auto-regression section parameter 4e Parameter successive correction means 5a, 5b Data recorder 6a, 6b Band division means 7a, 7b Input section 7c, 7d Output section 8a-8d Sound image localization means 9a-9h Directional localization means 10a , 10b, 10c Crosstalk canceling means 11a, 11b Band synthesizing means 12a to 12g Adder 13a Tone correction filter 13b Interaural difference filter 13c, 13d Directional localization filter 13e, 13f Crosstalk generation filter 14A, 14B, 14C Arrival time difference Estimator 15 Inverse filter calculator 16A, 16B Spatial transfer function 17 Inverse calculator 18 Spatial ratio transfer function 19a-19g High pass filter 20a, 20b Band pass filter Filters 21a to 21g Low pass filter 22a to 22i Decimation means 23a to 23i Interpolation means 24a to 24d Low pass filter or band pass filter 25a, 25b Digital filter 26a to 26d Digital filter 27a to 27e Reflected sound generation means

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】実音場中の音源位置から受聴者あるいは疑
似頭の左耳の特定箇所までの第1の空間伝達関数と、右
耳の特定箇所までの第2の空間伝達関数と、仮想音源位
置から左耳の前記特定箇所までの第3の空間伝達関数
と、右耳の前記特定箇所までの第4の空間伝達関数との
演算を含み、演算結果より音像を任意の位置に定位させ
る音像定位方法であって、 音源位置あるいは仮想音源位置から持続的励振条件を満
たす音響信号を発生させ、左右の耳の前記特定箇所で前
記音響信号を記録し、前記第1から第4のいずれかの空
間伝達関数の逆関数と、残りのいずれかの空間伝達関数
との積で表される未知の伝達関数を、前記記録した音響
信号を前記未知の伝達関数の入出力とみなして求めるこ
とを特徴とする音像定位方法。
1. A first spatial transfer function from a sound source position in an actual sound field to a specific location of a listener or a left ear of a pseudo head, a second spatial transfer function to a specific location of the right ear, and a virtual sound source. A sound image including a calculation of a third spatial transfer function from the position to the specific location of the left ear and a fourth spatial transfer function of the specific location of the right ear, and localizing the sound image to an arbitrary position based on the calculation result. A localization method, wherein an acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, the acoustic signal is recorded at the specific places of the left and right ears, and any one of the first to fourth An unknown transfer function represented by a product of an inverse function of the spatial transfer function and any one of the remaining spatial transfer functions is obtained by regarding the recorded acoustic signal as an input / output of the unknown transfer function. Sound image localization method.
【請求項2】未知の伝達関数の入出力で、相対的に出力
のデータを遅延させ、現在の出力が相対的に、過去の出
力と現在と過去と未来の入力の線形演算で表したモデル
を用いて、前記未知の伝達関数を求めることを特徴とす
る請求項1記載の音像定位方法。
2. A model in which the output data is relatively delayed by the input / output of an unknown transfer function, and the present output is relatively expressed by a linear operation of the past output and the present and past and future inputs. The sound image localization method according to claim 1, wherein the unknown transfer function is obtained by using.
【請求項3】両耳間の音の到達時間差を測定し、求めら
れた前記到達時間差の分だけ到達時刻の早い方のデータ
をシフトさせて、未知の伝達関数のうち、前記到達時間
差と前記到達時間差以外の要素とを分離して求めること
を特徴とする請求項1および請求項2記載の音像定位方
法。
3. The arrival time difference of the sound between both ears is measured, and the data of the earliest arrival time is shifted by the obtained arrival time difference to shift the arrival time difference and the above-mentioned arrival time difference among unknown transfer functions. 3. The sound image localization method according to claim 1, wherein the sound image localization method is obtained by separating from elements other than the arrival time difference.
【請求項4】実音場中の音源位置から受聴者あるいは疑
似頭の左耳の特定箇所までの第1の空間伝達関数と、右
耳の特定箇所までの第2の空間伝達関数と、仮想音源位
置から左耳の前記特定箇所までの第3の空間伝達関数
と、右耳の前記特定箇所までの第4の空間伝達関数との
演算を含み、演算結果より音像を任意の位置に定位させ
る音像定位方法であって、 音源位置あるいは仮想音源位置から持続的励振条件を満
たす第1の音響信号を発生させ、左右の耳の前記特定箇
所で前記第1の音響信号を記録し、前記音源位置あるい
は仮想音源位置から左耳の前記特定箇所までの音の伝搬
時間と右耳の前記特定箇所までの伝搬時間との差を推定
し、前記第1から第4のいずれかの空間伝達関数を自己
回帰モデルの形で推定し、前記空間伝達関数の逆関数を
前記持続的励振条件を満たす信号に畳み込み演算を施し
て第2の音響信号を求め、再び前記音源位置あるいは仮
想音源位置から前記第2の音響信号を出力し、前記左右
の耳の特定箇所で前記第2の音響信号を記録し、前記第
1から第4のいずれかの空間伝達関数の逆関数と、残り
のいずれかの空間伝達関数との積で表される未知の伝達
関数を、前記第2の音響信号より、あるいは前記第1の
音響信号を含め、前記未知の伝達関数の入出力とみなし
て求めることを特徴とする音像定位方法。
4. A first spatial transfer function from a sound source position in a real sound field to a specific location of a listener or the left ear of a pseudo head, a second spatial transfer function to a specific location of the right ear, and a virtual sound source. A sound image including a calculation of a third spatial transfer function from the position to the specific location of the left ear and a fourth spatial transfer function of the specific location of the right ear, and localizing the sound image to an arbitrary position based on the calculation result. A localization method, wherein a first acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, the first acoustic signal is recorded at the specific places of the left and right ears, and the sound source position or Estimating the difference between the propagation time of the sound from the virtual sound source position to the specific location of the left ear and the propagation time of the sound to the specific location of the right ear, and autoregressing the spatial transfer function of any one of the first to fourth Estimated in the form of a model, the inverse of the spatial transfer function A function is subjected to a convolution operation on a signal satisfying the continuous excitation condition to obtain a second acoustic signal, and the second acoustic signal is output again from the sound source position or the virtual sound source position, and the specific portions of the left and right ears are output. And recording the second acoustic signal with an unknown transfer function represented by the product of the inverse function of any of the first to fourth spatial transfer functions and any of the remaining spatial transfer functions, A sound image localization method, wherein the sound image localization method is performed by using the second acoustic signal or including the first acoustic signal as the input / output of the unknown transfer function.
【請求項5】実音場中の音源位置から受聴者あるいは疑
似頭の左耳の特定箇所までの第1の空間伝達関数と、右
耳の特定箇所までの第2の空間伝達関数と、仮想音源位
置から左耳の前記特定箇所までの第3の空間伝達関数
と、右耳の前記特定箇所までの第4の空間伝達関数との
演算を含み、演算結果より音像を任意の位置に定位させ
る音像定位方法であって、 音源位置あるいは仮想音源位置から持続的励振条件を満
たす音響信号を発生させ、前記左右の耳の特定箇所で前
記音響信号を記録し、音源位置あるいは仮想音源位置か
ら左耳の前記特定箇所までの音の伝搬時間と右耳の前記
特定箇所までの伝搬時間との差を推定し、前記第1から
第4の空間伝達関数を自己回帰モデルの形でシステム同
定手段により推定し、前記第1から第4のいずれかの空
間伝達関数の逆関数と、残りのいずれかの空間伝達関数
との積で表される未知の伝達関数を、2つ自己回帰モデ
ルの除算で表せるIIRフィルタの形で求めることを特
徴とする音像定位方法。
5. A first spatial transfer function from a sound source position in a real sound field to a specific location of a listener or a left head of the pseudo head, a second spatial transfer function to a specific location of the right ear, and a virtual sound source. A sound image including a calculation of a third spatial transfer function from the position to the specific location of the left ear and a fourth spatial transfer function of the specific location of the right ear, and localizing the sound image to an arbitrary position based on the calculation result. A localization method, in which an acoustic signal satisfying a continuous excitation condition is generated from a sound source position or a virtual sound source position, the acoustic signal is recorded at a specific position of the left and right ears, and the sound source position or the virtual sound source position of the left ear is recorded. The difference between the propagation time of the sound to the specific location and the propagation time of the right ear to the specific location is estimated, and the first to fourth spatial transfer functions are estimated by the system identification means in the form of an autoregressive model. , Any of the first to fourth The unknown transfer function represented by the product of the inverse function of the spatial transfer function and any one of the remaining spatial transfer functions is obtained in the form of an IIR filter that can be expressed by division of two autoregressive models. Sound image localization method.
【請求項6】求められた伝達関数に持続的励振条件を満
たす信号系列を入力し、その出力系列と前記入力信号系
列から、前記伝達関数よりも低次数で再び同定し、低次
数の伝達関数を求めることを特徴とする請求項1〜5何
れかに記載の音像定位方法。
6. A transfer function having a lower order than that of the transfer function is re-identified by inputting a signal series satisfying a continuous excitation condition to the obtained transfer function and re-identifying from the output series and the input signal series. The sound image localization method according to claim 1, wherein
【請求項7】記録された音響信号にフィルタ処理を行っ
た信号を、前記記録された音響信号に置き換えて未知の
伝達関数の入出力として用いることを特徴とする請求項
1〜5何れかに記載の音像定位方法。
7. The recorded acoustic signal is replaced with the recorded acoustic signal for use as an input / output of an unknown transfer function, according to any one of claims 1 to 5. Sound image localization method described.
【請求項8】記録した音響信号を帯域分割手段により複
数の周波数帯域に分割し、各帯域ごとに帯域分割された
音響信号を未知の伝達関数の入出力とみなして前記未知
の伝達関数を求めることを特徴とする請求項1〜5何れ
かに記載の音像定位方法。
8. The recorded acoustic signal is divided into a plurality of frequency bands by band dividing means, and the unknown transfer function is obtained by regarding the band-divided acoustic signal as the input / output of an unknown transfer function. The sound image localization method according to any one of claims 1 to 5, wherein
【請求項9】実音場中の音源位置から受聴者あるいは疑
似頭の左耳の特定箇所までの第1の空間伝達関数と、右
耳の特定箇所までの第2の空間伝達関数と、仮想音源位
置から左耳の前記特定箇所までの第3の空間伝達関数
と、右耳の前記特定箇所までの第4の空間伝達関数との
演算を含み、演算結果より音像を任意の位置に定位させ
る音像定位装置において、 音響信号を複数の周波数帯域に分割する帯域分割手段
と、分割された各周波数帯域の音響信号を合成する帯域
合成手段と、各音像定位位置に関するフィルタのパラメ
ータを持ち、音響信号とのフィルタ演算を行う音像定位
手段と、1チャンネル以上の音響信号入力部と、2チャ
ンネルの音響信号出力部を具備し、 前記音響信号入力部は前記帯域分割手段の入力部に接続
され、前記帯域分割手段の出力部は各周波数帯域に対応
する前記音像定位手段の入力部に接続され、前記音像定
位手段の出力部は対応する前記帯域合成手段の入力部に
接続され、前記帯域合成手段の出力部が前記音響信号出
力部に接続されていることを特徴とする音像定位装置。
9. A first spatial transfer function from a sound source position in an actual sound field to a specific location of a listener or a left ear of a pseudo head, a second spatial transfer function to a specific location of the right ear, and a virtual sound source. A sound image including a calculation of a third spatial transfer function from the position to the specific location of the left ear and a fourth spatial transfer function of the specific location of the right ear, and localizing the sound image to an arbitrary position based on the calculation result. In the localization device, a band dividing unit that divides an acoustic signal into a plurality of frequency bands, a band synthesizing unit that synthesizes the divided acoustic signals of each frequency band, and a filter parameter for each sound image localization position are provided. The sound image localization means for performing the filter calculation of 1, the acoustic signal input section of one or more channels, and the acoustic signal output section of two channels, the acoustic signal input section is connected to the input section of the band dividing means, The output unit of the dividing unit is connected to the input unit of the sound image localization unit corresponding to each frequency band, the output unit of the sound image localization unit is connected to the input unit of the corresponding band synthesizing unit, and the output of the band synthesizing unit. A sound image localization apparatus in which a section is connected to the acoustic signal output section.
【請求項10】音像定位手段が方向定位手段とクロスト
ーク・キャンセル手段で構成され、前記音像定位手段の
入力部が前記方向定位手段の入力部となり、前記音像定
位手段の出力部が前記クロストーク・キャンセル手段の
出力部となり、前記方向定位手段は2つの出力部を持
ち、前記方向定位手段の全ての第1の出力部が加算器を
経てクロストーク・キャンセル手段の第1の入力部に接
続され、前記方向定位手段の全ての第2の出力部が加算
器を経てクロストーク・キャンセル手段の第2の入力部
に接続されていることを特徴とする請求項9記載の音像
定位装置。
10. The sound image localization means comprises a direction localization means and a crosstalk canceling means, an input section of the sound image localization section serves as an input section of the direction localization section, and an output section of the sound image localization section is the crosstalk. The output part of the canceling means, the direction locating means has two output parts, and all the first output parts of the direction locating means are connected to the first input part of the crosstalk canceling means via the adder. 10. The sound image localization apparatus according to claim 9, wherein all the second output sections of the direction localization means are connected to the second input section of the crosstalk cancellation means via an adder.
【請求項11】クロストーク・キャンセル手段が取り除
かれ、方向定位手段の全ての第1の出力部が加算器を経
て音像定位手段の第1の出力部となり、前記方向定位手
段の全ての第2の出力部が加算器を経て音像定位手段の
第2の出力部になることを特徴とする請求項10記載の
音像定位装置。
11. The crosstalk canceling means is removed, and all the first output parts of the direction localization means become the first output parts of the sound image localization means via the adder, and all the second output parts of the direction localization means. 11. The sound image localization apparatus according to claim 10, wherein the output unit of the above-mentioned becomes the second output unit of the sound image localization means through the adder.
【請求項12】方向定位手段の出力部と帯域合成手段の
入力部との間に、反射音生成手段を設けたことを特徴と
した請求項10記載の音像定位装置。
12. The sound image localization apparatus according to claim 10, wherein reflected sound generating means is provided between the output portion of the direction localization means and the input portion of the band synthesizing means.
【請求項13】方向定位手段と並列に反射音生成手段を
設けたことを特徴とした請求項10記載の音像定位装
置。
13. The sound image localization apparatus according to claim 10, further comprising reflection sound generation means provided in parallel with the direction localization means.
【請求項14】帯域合成手段の出力部と音響信号出力部
の間に反射音生成手段を設けたことを特徴とする請求項
9記載の音像定位装置。
14. The sound image localization apparatus according to claim 9, wherein reflected sound generating means is provided between the output portion of the band synthesizing means and the acoustic signal output portion.
【請求項15】音響入力部と音響出力部の間に反射音生
成手段を設けたことを特徴とした請求項9記載の音像定
位装置。
15. The sound image localization apparatus according to claim 9, further comprising reflection sound generating means provided between the sound input section and the sound output section.
JP7052573A 1994-10-28 1995-03-13 Method and device for sound image localization Pending JPH08182100A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7052573A JPH08182100A (en) 1994-10-28 1995-03-13 Method and device for sound image localization

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP6-265317 1994-10-28
JP26531794 1994-10-28
JP7052573A JPH08182100A (en) 1994-10-28 1995-03-13 Method and device for sound image localization

Publications (1)

Publication Number Publication Date
JPH08182100A true JPH08182100A (en) 1996-07-12

Family

ID=26393192

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7052573A Pending JPH08182100A (en) 1994-10-28 1995-03-13 Method and device for sound image localization

Country Status (1)

Country Link
JP (1) JPH08182100A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271596A (en) * 1996-12-04 1998-10-09 Bose Corp Electroacoustic transducing system
JPH1188994A (en) * 1997-09-04 1999-03-30 Matsushita Electric Ind Co Ltd Sound image presence device and sound image control method
JP2003111197A (en) * 2001-09-28 2003-04-11 Sony Corp Voice signal processing method and voice reproducing system
WO2006009058A1 (en) * 2004-07-16 2006-01-26 Matsushita Electric Industrial Co., Ltd. Sound image localization device
WO2006095824A1 (en) * 2005-03-10 2006-09-14 Mitsubishi Denki Kabushiki Kaisha Sound image localizer
JP2008512015A (en) * 2004-09-01 2008-04-17 スミス リサーチ エルエルシー Personalized headphone virtualization process
WO2008047833A1 (en) * 2006-10-19 2008-04-24 Panasonic Corporation Sound image positioning device, sound image positioning system, sound image positioning method, program, and integrated circuit
JP2009194682A (en) * 2008-02-15 2009-08-27 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
US8027476B2 (en) 2004-02-06 2011-09-27 Sony Corporation Sound reproduction apparatus and sound reproduction method
US8107632B2 (en) 2003-11-28 2012-01-31 Sony Corporation Digital signal processing apparatus, method thereof and headphone apparatus
US8503682B2 (en) 2008-02-27 2013-08-06 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
JP2014517596A (en) * 2011-05-09 2014-07-17 ディーティーエス・インコーポレイテッド Room characterization and correction for multi-channel audio
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US8873761B2 (en) 2009-06-23 2014-10-28 Sony Corporation Audio signal processing device and audio signal processing method
WO2015029205A1 (en) * 2013-08-30 2015-03-05 共栄エンジニアリング株式会社 Sound processing apparatus, sound processing method, and sound processing program
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
WO2017183462A1 (en) 2016-04-21 2017-10-26 株式会社ソシオネクスト Signal processor
JP2018506937A (en) * 2015-02-16 2018-03-08 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Audio signal processing apparatus and method for reducing crosstalk of audio signals
JP2019050445A (en) * 2017-09-07 2019-03-28 日本放送協会 Coefficient matrix-calculating device for binaural reproduction and program
WO2019106742A1 (en) * 2017-11-29 2019-06-06 株式会社ソシオネクスト Signal processing device
JP2021513261A (en) * 2018-02-06 2021-05-20 株式会社ソニー・インタラクティブエンタテインメント How to improve surround sound localization

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10271596A (en) * 1996-12-04 1998-10-09 Bose Corp Electroacoustic transducing system
JP2011244471A (en) * 1996-12-04 2011-12-01 Bose Corp Electroacoustical transducing system
JPH1188994A (en) * 1997-09-04 1999-03-30 Matsushita Electric Ind Co Ltd Sound image presence device and sound image control method
JP2003111197A (en) * 2001-09-28 2003-04-11 Sony Corp Voice signal processing method and voice reproducing system
US8107632B2 (en) 2003-11-28 2012-01-31 Sony Corporation Digital signal processing apparatus, method thereof and headphone apparatus
US8027476B2 (en) 2004-02-06 2011-09-27 Sony Corporation Sound reproduction apparatus and sound reproduction method
WO2006009058A1 (en) * 2004-07-16 2006-01-26 Matsushita Electric Industrial Co., Ltd. Sound image localization device
JPWO2006009058A1 (en) * 2004-07-16 2008-05-01 松下電器産業株式会社 Sound image localization device
US7936887B2 (en) 2004-09-01 2011-05-03 Smyth Research Llc Personalized headphone virtualization
JP2008512015A (en) * 2004-09-01 2008-04-17 スミス リサーチ エルエルシー Personalized headphone virtualization process
WO2006095824A1 (en) * 2005-03-10 2006-09-14 Mitsubishi Denki Kabushiki Kaisha Sound image localizer
JP5448451B2 (en) * 2006-10-19 2014-03-19 パナソニック株式会社 Sound image localization apparatus, sound image localization system, sound image localization method, program, and integrated circuit
WO2008047833A1 (en) * 2006-10-19 2008-04-24 Panasonic Corporation Sound image positioning device, sound image positioning system, sound image positioning method, program, and integrated circuit
US8116458B2 (en) 2006-10-19 2012-02-14 Panasonic Corporation Acoustic image localization apparatus, acoustic image localization system, and acoustic image localization method, program and integrated circuit
JP2009194682A (en) * 2008-02-15 2009-08-27 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
US8520857B2 (en) 2008-02-15 2013-08-27 Sony Corporation Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device
US9432793B2 (en) 2008-02-27 2016-08-30 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
US8503682B2 (en) 2008-02-27 2013-08-06 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
US8873761B2 (en) 2009-06-23 2014-10-28 Sony Corporation Audio signal processing device and audio signal processing method
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
JP2014517596A (en) * 2011-05-09 2014-07-17 ディーティーエス・インコーポレイテッド Room characterization and correction for multi-channel audio
JPWO2015029205A1 (en) * 2013-08-30 2017-03-02 共栄エンジニアリング株式会社 Sound processing apparatus, sound processing method, and sound processing program
WO2015029205A1 (en) * 2013-08-30 2015-03-05 共栄エンジニアリング株式会社 Sound processing apparatus, sound processing method, and sound processing program
US10524081B2 (en) 2013-08-30 2019-12-31 Cear, Inc. Sound processing device, sound processing method, and sound processing program
JP2018506937A (en) * 2015-02-16 2018-03-08 ホアウェイ・テクノロジーズ・カンパニー・リミテッド Audio signal processing apparatus and method for reducing crosstalk of audio signals
US10194258B2 (en) 2015-02-16 2019-01-29 Huawei Technologies Co., Ltd. Audio signal processing apparatus and method for crosstalk reduction of an audio signal
WO2017183462A1 (en) 2016-04-21 2017-10-26 株式会社ソシオネクスト Signal processor
US10560782B2 (en) 2016-04-21 2020-02-11 Socionext Inc Signal processor
JP2019050445A (en) * 2017-09-07 2019-03-28 日本放送協会 Coefficient matrix-calculating device for binaural reproduction and program
WO2019106742A1 (en) * 2017-11-29 2019-06-06 株式会社ソシオネクスト Signal processing device
JP2021513261A (en) * 2018-02-06 2021-05-20 株式会社ソニー・インタラクティブエンタテインメント How to improve surround sound localization

Similar Documents

Publication Publication Date Title
JPH08182100A (en) Method and device for sound image localization
KR100739798B1 (en) Method and apparatus for reproducing a virtual sound of two channels based on the position of listener
KR100677119B1 (en) Apparatus and method for reproducing wide stereo sound
KR100739776B1 (en) Method and apparatus for reproducing a virtual sound of two channel
JP6454027B2 (en) Audio signal processing apparatus and method for binaural rendering
JP4780119B2 (en) Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device
CA2866309C (en) Method and system for head-related transfer function generation by linear mixing of head-related transfer functions
US6611603B1 (en) Steering of monaural sources of sound using head related transfer functions
TW201727623A (en) Apparatus and method for sound stage enhancement
JPH10509565A (en) Recording and playback system
KR20010001993A (en) Multi-channel audio reproduction apparatus and method for loud-speaker reproduction
KR100647338B1 (en) Method of and apparatus for enlarging listening sweet spot
US20210058731A1 (en) Acoustic program, acoustic device, and acoustic system
JP2008502200A (en) Wide stereo playback method and apparatus
JP3618159B2 (en) Sound image localization apparatus and parameter calculation method thereof
JPH10136497A (en) Sound image localizing device
KR101170445B1 (en) Digital signal processing apparatus, method thereof and headphones apparatus
US6563869B1 (en) Digital signal processing circuit and audio reproducing device using it
JP4951985B2 (en) Audio signal processing apparatus, audio signal processing system, program
CN108966110B (en) Sound signal processing method, device and system, terminal and storage medium
JP4306815B2 (en) Stereophonic sound processor using linear prediction coefficients
JP3739438B2 (en) Sound image localization method and apparatus
JP6920144B2 (en) Coefficient matrix calculation device and program for binaural reproduction
JP5163685B2 (en) Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device
JPH08191225A (en) Sound field reproducing device