JP2001285998A - Out-of-head sound image localization device - Google Patents

Out-of-head sound image localization device

Info

Publication number
JP2001285998A
JP2001285998A JP2000090793A JP2000090793A JP2001285998A JP 2001285998 A JP2001285998 A JP 2001285998A JP 2000090793 A JP2000090793 A JP 2000090793A JP 2000090793 A JP2000090793 A JP 2000090793A JP 2001285998 A JP2001285998 A JP 2001285998A
Authority
JP
Japan
Prior art keywords
transfer function
filter
impulse response
value
inverse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000090793A
Other languages
Japanese (ja)
Inventor
Shinichi Kawada
眞一 川田
Masaharu Shimada
正治 島田
Haruhide Hokari
治英 穂刈
Toshiharu Horiuchi
俊治 堀内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000090793A priority Critical patent/JP2001285998A/en
Publication of JP2001285998A publication Critical patent/JP2001285998A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereophonic Arrangements (AREA)
  • Stereophonic System (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device generally usable by unspecified many listeners without the need of complicated constitution. SOLUTION: An earphone 3 is mounted on the ear of the listener and a microphone 4 gathers sound waves generated from the earphone 3 inside an external auditory canal. An adaptive filter 2 for obtaining the inverse transmission function of an external auditory canal transmission function which is a transmission function from the earphone 3 to the output of the microphone 4 is provided and sound source signals are supplied through a digital filter 1 to the adaptive filter 2. A band filter 5 is constituted so as to turn the product of the external auditory canal transmission function and the inverse transmission function of the adaptive filter 2 to be filter characteristics and the output of the digital filter 1 is inputted. The band filter 5 and the output of the microphone 4 are subtracted in a subtractor 6 and a convergence operation circuit 8 converges the inverse transmission function of the adaptive filter 2 on the basis of the result.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ステレオヘッドホ
ンや両耳イヤホンといった両耳に接する音響機器を用い
て、音源として知覚する位置(音像)を、頭の外に知覚
させる頭外音像定位装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an out-of-head sound image localization apparatus for perceiving a position (sound image) perceived as a sound source outside the head using an audio device in contact with both ears such as stereo headphones and binaural earphones. Things.

【0002】[0002]

【従来の技術】従来より、頭外音像定位装置として種々
の技術が考えられている。このような技術としては、例
えば、次に示すようなものがあった。
2. Description of the Related Art Conventionally, various techniques have been considered as an out-of-head sound image localization apparatus. As such a technique, for example, there has been the following technique.

【0003】図2は、頭外音像定位を実現する原理説明
図である。図2中、(a)はスピーカによる受聴、
(b)は両耳イヤホンによる受聴を表している。図にお
いて、100は音源信号、101はスピーカ、102は
受聴者、103はディジタルフィルタ、104はイヤホ
ン、105は受聴者の外耳道内に設置されたマイクであ
る。尚、SSTFやSSTF等の、添え字L、R
は、左側、右側を示している。
FIG. 2 is a diagram for explaining the principle of realizing out-of-head sound image localization. In FIG. 2, (a) is listening by a speaker,
(B) shows the listening with the binaural earphone. In the figure, 100 is a sound source signal, 101 is a speaker, 102 is a listener, 103 is a digital filter, 104 is an earphone, and 105 is a microphone installed in the ear canal of the listener. The subscripts L and R such as SSTF L and SSTF R
Indicates the left and right sides.

【0004】頭外音像定位の原理を図2に沿って以下説
明する。空間にある音源(図2(a)ではスピーカ10
1)から鼓膜までの音刺激と同じ刺激を、イヤホン10
4から鼓膜に与えることにより、音源が外にあるように
知覚することができる。しかしながら、音波による鼓膜
上の振動刺激信号を生体から電気信号で捉えることは極
めて危険であるので、図2(a)中の、音源信号100
から鼓膜までの電気信号の伝達関数を厳密に測定するこ
とはできない。
The principle of localization of an out-of-head sound image will be described below with reference to FIG. The sound source in the space (the speaker 10 in FIG.
The same stimulus as the sound stimulus from 1) to the eardrum is applied to the earphone 10
By giving to the eardrum from 4, the sound source can be perceived as being outside. However, it is extremely dangerous to capture a vibration stimulus signal on the eardrum due to a sound wave from a living body as an electric signal. Therefore, the sound source signal 100 in FIG.
The transfer function of the electrical signal from the ear to the eardrum cannot be measured exactly.

【0005】そこで、超小型のマイク105を両耳の外
耳道に装着し、スピーカ101から放射される音源信号
100からマイク105の出力までの伝達関数、即ち、
左右両耳における空間音響伝達関数(SSTF:Spacia
l Sound Transfer Function)を測定する。
Therefore, a very small microphone 105 is attached to the external auditory canal of both ears, and a transfer function from the sound source signal 100 radiated from the speaker 101 to the output of the microphone 105, that is,
Spatial acoustic transfer function (SSTF: Spacia)
l Measure Sound Transfer Function).

【0006】ここで、文献:イエンス・ブラウエルト、
森本政之、後藤敏幸“空間音響”鹿島出版のp.20〜
p.28の2.4節の外耳道内の音波伝搬にも記述され
ているように、外耳道内の音波は1次元モデルで表され
るので、マイク105の設置位置を固定していれば、鼓
膜上での振動による電気信号は図2において左右等価に
なることは自明である。従って、外耳道に超小型のマイ
ク105を固定して、伝達関数、即ち、時間領域でのイ
ンパルス応答を測定してもその結果は同等となる。
Here, literature: Jens Brauelt,
Masayuki Morimoto, Toshiyuki Goto “Spatial Sound” Kashima Publishing p. 20 ~
p. As described in the sound wave propagation in the ear canal as described in Section 2.4 of Section 28, the sound wave in the ear canal is represented by a one-dimensional model. It is self-evident that the electric signal due to the vibration of FIG. Therefore, even if the ultra-small microphone 105 is fixed to the ear canal and the transfer function, that is, the impulse response in the time domain is measured, the result is equivalent.

【0007】しかしながら、上記文献でも指摘されてい
るように、スピーカ101は周波数特性を有しているの
で、スピーカ101の入力からマイク105の出力まで
の電気信号の真の伝達関数は、スピーカ101の伝達関
数をLSTF(Loud SpeakerTransfer Function)とす
れば、SSTF/LSTFである。ちょうど、この値は
頭部音響伝達関数HRTF(Head Related Transfer Fu
nction)とほぼ等価となる。尚、LSTFはスピーカ1
01の周波数特性を補正するためのスピーカ伝達関数で
ある。
However, as pointed out in the above document, since the speaker 101 has frequency characteristics, the true transfer function of the electric signal from the input of the speaker 101 to the output of the microphone 105 is If the transfer function is LSTF (Loud Speaker Transfer Function), it is SSTF / LSTF. Just this value is the head related transfer function HRTF (Head Related Transfer Fu
nction). LSTF is the speaker 1
This is a speaker transfer function for correcting the frequency characteristic of No. 01.

【0008】HRTFは、上記文献で定義されているよ
うに、頭部が存在する時の伝達関数と存在しない時の伝
達関数の比であり、更に頭部が存在しない時の関数は空
間伝搬の関数とLSTFの積であって、空間伝搬は遅延
量だけであるので、HRTF≒SSTF/LSTFとな
る。
HRTF is the ratio of the transfer function when the head is present to the transfer function when the head is not present, as defined in the above document. Since this is the product of the function and the LSTF, and the spatial propagation is only the amount of delay, HRTF ≒ SSTF / LSTF.

【0009】一方、図2(b)において、両耳イヤホン
(またはステレオヘッドホン)104を用いて、これと
等価な伝達関数を作成するには、両耳イヤホン104の
入力から外耳道に装着されたマイク105の出力までの
伝達関数、即ち、外耳道伝達関数(ECTF:Ear Cana
l Transfer Function)を測定し、このECTFと、デ
ィジタルフィルタ103の伝達関数との積の伝達関数が
伝達関数SSTF/LSTFと合致すれば、外耳道に設
置したマイク105の場所にスピーカ受聴と同じ受聴信
号を再生できる。
On the other hand, in FIG. 2B, in order to create a transfer function equivalent to the binaural earphone (or stereo headphone) 104 using the binaural earphone 104, a microphone attached to the external auditory canal from the input of the binaural earphone 104 The transfer function up to the output of 105, that is, the ear canal transfer function (ECTF: Ear Cana)
l Transfer Function), and if the transfer function of the product of the ECTF and the transfer function of the digital filter 103 matches the transfer function SSTF / LSTF, the same listening signal as the speaker listening is placed at the location of the microphone 105 installed in the ear canal. Can be played.

【0010】以上説明したように、ディジタルフィルタ
103の伝達関数は計算機によって求めることができ
る。即ち、この伝達関数(頭外音像定位伝達関数)をS
LTF(Soundimage Localization Transfer Functio
n)とすると、
As described above, the transfer function of the digital filter 103 can be obtained by a computer. That is, this transfer function (out-of-head sound image localization transfer function) is represented by S
LTF (Soundimage Localization Transfer Functio
n)

【0011】SLTF={SSTF/(ECTF・LS
TF)}≒HRTF/ECTF となり、この式の右辺の各項は全て測定によって求めら
れ、後は数学的な演算を実施すればSLTFを求めるこ
とができる。
[0011] SLTF = {SSTF / (ECTF · LS
TF)} ≒ HRTF / ECTF, and all the terms on the right side of this equation can be obtained by measurement. After that, the mathematical operation is performed to obtain the SLTF.

【0012】[0012]

【発明が解決しようとする課題】しかしながら、上記の
SLTFを求めることができたとしても、伝達関数EC
TFとHRTFは、受聴者の外耳道の大きさ、耳の大き
さ、更に顔の大きさによって、それぞれ異なる。即ち、
個人の顔形状に合致した伝達関数でないと、頭の外に正
確な音像が定位せず、最悪の場合には音像の前後判定が
できなくなったり、頭外定位しなくなることもある。
However, even if the above-mentioned SLTF can be obtained, the transfer function EC
The TF and the HRTF differ depending on the size of the ear canal, the size of the ear, and the size of the face of the listener. That is,
If the transfer function does not match the shape of the person's face, an accurate sound image cannot be localized outside the head, and in the worst case, it may not be possible to determine the front and back of the sound image, or it may not be localized outside the head.

【0013】このため、伝達関数の個人差によって頭外
定位しないのでは不特定多数の受聴者に対して汎用的に
利用できないので、前もって測定した数種の伝達関数を
選択させるようなハード的な解決手法、または個人毎に
伝達関数を測定できるシステムが必要となる。しかし、
前述したハード的な解決手法ではハード量の増加を生
み、また個人毎に伝達関数を測定するシステムを用いる
手法では、このような測定システムが非常に高価である
という問題があった。
[0013] For this reason, if the head is not located outside the head due to individual differences in the transfer function, it cannot be used universally for an unspecified number of listeners, so that it is difficult to select several kinds of transfer functions measured in advance. There is a need for a solution or a system that can measure the transfer function for each individual. But,
The above-mentioned hardware-based solution has a problem that the amount of hardware is increased, and the method using a system for measuring a transfer function for each individual has a problem that such a measurement system is very expensive.

【0014】[0014]

【課題を解決するための手段】本発明は、前述の課題を
解決するため次の構成を採用する。 〈構成1〉両耳に接するよう設けられ、音源信号に基づ
き音波を発生するスピーカと、スピーカから発生した音
波を外耳道内で収音するマイクと、(空間音響伝達関数
/空間に位置する音源の伝達関数)の値を予め記憶した
ディジタルフィルタと、ディジタルフィルタを介して音
源信号を入力してスピーカに出力する機能を有し、スピ
ーカからマイクの出力までの伝達関数である外耳道伝達
関数の逆インパルス応答値を求めるための適応フィルタ
と、適応フィルタにおける逆インパルス応答値を求める
場合の初期値を格納するメモリと、外耳道伝達関数のイ
ンパルス応答値と、適応フィルタで求めた外耳道伝達関
数の逆インパルス応答値との積が、帯域フィルタ特性と
なるようなフィルタ特性を有し、ディジタルフィルタを
介して音源信号を入力する帯域フィルタと、帯域フィル
タの出力と、マイクの出力とを減算する減算器と、ディ
ジタルフィルタを介して音源信号を入力し、予め決めら
れた近似伝達関数の値を格納する近似ディジタルフィル
タと、近似ディジタルフィルタの近似伝達関数の値を用
い、減算器の減算結果に基づいて、適応フィルタの逆イ
ンパルス応答値が収束するまで逆インパルス応答値を更
新する収束演算回路とを備えたことを特徴とする頭外音
像定位装置。
The present invention employs the following structure to solve the above-mentioned problems. <Configuration 1> A speaker that is provided in contact with both ears and generates a sound wave based on a sound source signal, a microphone that collects sound waves generated from the speaker in the ear canal, and a (sound transfer function / sound source located in space) Transfer function), and a function of inputting a sound source signal through the digital filter and outputting the signal to a speaker, and an inverse impulse of an ear canal transfer function which is a transfer function from the speaker to the output of the microphone. An adaptive filter for obtaining a response value, a memory for storing initial values for obtaining an inverse impulse response value in the adaptive filter, an impulse response value of an ear canal transfer function, and an inverse impulse response of an ear canal transfer function obtained by the adaptive filter Has a filter characteristic such that the product of the value and the value becomes a band-pass filter characteristic. A bandpass filter to be applied, a subtractor for subtracting the output of the bandpass filter and the output of the microphone, and an approximate digital filter for inputting a sound source signal through a digital filter and storing a value of a predetermined approximate transfer function. A convergence calculation circuit that updates the inverse impulse response value of the adaptive filter based on the result of the subtraction using the value of the approximate transfer function of the approximate digital filter until the inverse impulse response value of the adaptive filter converges. Out-of-head sound image localization device.

【0015】〈構成2〉構成1に記載の頭外音像定位装
置において、メモリには、複数の受聴者の外耳道伝達関
数の逆インパルス応答のユークリッド距離の重心点に相
当する逆インパルス応答値を格納し、近似ディジタルフ
ィルタには、複数の受聴者の外耳道伝達関数のインパル
ス応答のユークリッド距離の重心点に相当するインパル
ス応答値を格納したことを特徴とする頭外音像定位装
置。
<Structure 2> In the out-of-head sound image localization apparatus according to Structure 1, the memory stores an inverse impulse response value corresponding to the center of gravity of the Euclidean distance of the inverse impulse response of the ear canal transfer function of a plurality of listeners. An out-of-head sound image localization apparatus, wherein an approximate digital filter stores impulse response values corresponding to the center of gravity of the Euclidean distance of impulse responses of a plurality of listeners' ear canal transfer functions.

【0016】〈構成3〉構成1に記載の頭外音像定位装
置において、メモリには、複数の受聴者の外耳道伝達関
数の逆インパルス応答のユークリッド距離の重心点に最
も近い受聴者の逆インパルス応答値を格納し、近似ディ
ジタルフィルタには、複数の受聴者の外耳道伝達関数の
インパルス応答のユークリッド距離の重心点に最も近い
受聴者のインパルス応答値を格納したことを特徴とする
頭外音像定位装置。
<Structure 3> In the out-of-head sound image localization apparatus according to Structure 1, the memory stores the inverse impulse response of the listener closest to the center of gravity of the Euclidean distance of the inverse impulse response of the ear canal transfer function of the plurality of listeners. An external head sound localization apparatus characterized in that a value is stored, and an approximate digital filter stores impulse response values of listeners closest to a center of gravity of a Euclidean distance of impulse responses of external auditory canal transfer functions of a plurality of listeners. .

【0017】〈構成4〉構成1〜3のいずれかに記載の
頭外音像定位装置において、前回の適応動作で用いた外
耳道伝達関数の逆インパルス応答値の初期値を前回収束
した適応フィルタの逆インパルス応答値を用いて更新し
た値を新たな初期値としてメモリに格納する初期値算出
・設定更新回路を備えたことを特徴とする頭外音像定位
装置。
<Structure 4> In the out-of-head sound image localization apparatus according to any one of Structures 1 to 3, the initial value of the inverse impulse response value of the ear canal transfer function used in the previous adaptive operation is calculated by the inverse of the adaptive filter previously converged. An out-of-head sound image localization apparatus, comprising: an initial value calculation / setting update circuit for storing a value updated using an impulse response value as a new initial value in a memory.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を詳細
に説明する。
Embodiments of the present invention will be described below in detail.

【0019】《本発明の原理》最初に本発明の原理を説
明する。頭外音像定位における伝達関数ECTFとSS
TFについての個人性に関する検討については以下の文
献がある。S.Yano,H.Hokari,andS.Simada:"A Study on
Personal Difference in the Transfer Functions of S
ound Localization",AES the 106th Convention,NO.492
2May8-11(1999)
<< Principle of the Present Invention >> First, the principle of the present invention will be described. Transfer functions ECTF and SS in sound localization outside the head
There are the following documents regarding the study on the personality of TF. S.Yano, H.Hokari, andS.Simada: "A Study on
Personal Difference in the Transfer Functions of S
sound Localization ", AES the 106th Convention, NO.492
2May8-11 (1999)

【0020】上記文献によれば、伝達関数ECTFの方
が伝達関数SSTFより個人性が大きいと結論されてい
る。
According to the above document, it has been concluded that the transfer function ECTF has greater individuality than the transfer function SSTF.

【0021】そこで、適応信号処理技術を導入すること
によって、個人毎のECTFの伝達関数を測定すること
なく、楽音や音声を聞きながら、自分に合致したECT
Fの伝達関数を求める方法を考える。
Therefore, by introducing an adaptive signal processing technique, an ECT that matches one's own while listening to musical sounds and voices without measuring the transfer function of the ECTF for each individual.
Consider a method for determining the transfer function of F.

【0022】図3は、本発明の原理を説明するための機
能ブロック図である。図示のシステムは、図2(b)の
機能を実現するための片耳側だけのブロックを示してお
り、ディジタルフィルタ1、適応フィルタ2、イヤホン
(スピーカ)3、マイク4、帯域フィルタ5、減算器6
からなる。
FIG. 3 is a functional block diagram for explaining the principle of the present invention. The illustrated system shows a block for only one ear for realizing the function of FIG. 2B, and includes a digital filter 1, an adaptive filter 2, an earphone (speaker) 3, a microphone 4, a bandpass filter 5, and a subtractor. 6
Consists of

【0023】図4は、図3のシステムを実現するための
構成を示す機能ブロック図である。即ち、図4におい
て、適応フィルタ2の逆外耳道伝達関数(1/ECT
F)を求めるために、近似ディジタルフィルタ7と収束
演算回路8を設け、これら適応フィルタ2、近似ディジ
タルフィルタ7および収束演算回路8で外耳道伝達関数
適応動作回路9を構成している。
FIG. 4 is a functional block diagram showing a configuration for realizing the system of FIG. That is, in FIG. 4, the inverse ear canal transfer function of the adaptive filter 2 (1 / ECT
To obtain F), an approximate digital filter 7 and a convergence operation circuit 8 are provided, and the adaptive filter 2, the approximate digital filter 7 and the convergence operation circuit 8 constitute an external auditory canal transfer function adaptive operation circuit 9.

【0024】これらの図において、伝達関数LSTFと
SSTFは、個人差の影響は少ないので、ディジタルフ
ィルタ1には予めSSTF/LSTFを演算しておいた
数値を入力しておく。この出力信号をx(n)とする。
In these figures, since the transfer functions LSTF and SSTF are less affected by individual differences, numerical values for which SSTF / LSTF has been calculated in advance are input to the digital filter 1. Let this output signal be x (n).

【0025】次に、信号x(n)以降の動作について
は、Filtered-X LMSアルゴリズムとして知られている基
本構成である。但し、アクティブノイズコントロール
(ANC)と異なるところは、固定の伝達関数を持った
帯域フィルタ5が未知の伝達関数であってプライマリパ
スとして知られている。ここで、適応フィルタ2と、未
知の伝達関数であるECTFとは直列に接続されている
ので、入力信号をx(n)、出力信号をz(n)とした
時の伝達関数の時間領域の波形が遅延を持ったインパル
ス波形であるならば、適応フィルタ2の伝達関数はEC
TFの逆伝達関数となる。
Next, the operation after the signal x (n) is a basic configuration known as a Filtered-X LMS algorithm. However, what differs from the active noise control (ANC) is that the bandpass filter 5 having a fixed transfer function is an unknown transfer function and is known as a primary path. Since the adaptive filter 2 and the unknown transfer function ECTF are connected in series, the time domain of the transfer function when the input signal is x (n) and the output signal is z (n) is If the waveform is an impulse waveform with a delay, the transfer function of adaptive filter 2 is EC
It becomes the inverse transfer function of TF.

【0026】しかしながら、ECTFはイヤホン3とマ
イク4を含んでいるので、帯域外では減衰を生じてい
る。このため、適応フィルタ2とECTFの各インパル
ス応答の畳み込み演算結果が帯域フィルタ5のインパル
ス応答とすれば、適応フィルタ2のタップ係数値、ある
いはインパルス応答値を安定に求めることができる。こ
の理由として、既に、S.Yano,H.Hokari,S.Shimada,and
H.Irisawa:"A Study onthe Derivation of Transfer Fu
nctions for Sound Image Localization UsingStereo E
arphones",J.A.E.S,Vol.47,No.6,p.469〜p.478,(1999)
で明らかにされている。
However, since the ECTF includes the earphone 3 and the microphone 4, attenuation occurs outside the band. Therefore, if the convolution operation result of the impulse responses of the adaptive filter 2 and the ECTF is the impulse response of the bandpass filter 5, the tap coefficient value or the impulse response value of the adaptive filter 2 can be obtained stably. For this reason, S.Yano, H.Hokari, S.Shimada, and
H. Irisawa: "A Study on the Derivation of Transfer Fu
nctions for Sound Image Localization UsingStereo E
arphones ", JAES, Vol. 47, No. 6, p. 469-p. 478, (1999)
It is revealed in.

【0027】即ち、帯域フィルタ5の帯域を、適応フィ
ルタ2の帯域よりも狭い帯域を通過させるようにすれ
ば、減算器6によって、適応フィルタ2からの伝達関数
の帯域外の部分は相殺され、安定した解を求めることが
できる。
That is, if the band of the bandpass filter 5 is made to pass through a band narrower than the band of the adaptive filter 2, the out-of-band portion of the transfer function from the adaptive filter 2 is canceled by the subtractor 6, and A stable solution can be obtained.

【0028】尚、適応フィルタ2、近似ディジタルフィ
ルタ7および収束演算回路8で構成される外耳道伝達関
数適応動作回路9としての機能は、減算器6からの出力
e(n)に基づき外耳道伝達関数の逆伝達関数ECTF
-1を求める機能である。
The function of the external auditory canal transfer function adaptive operation circuit 9 composed of the adaptive filter 2, the approximation digital filter 7 and the convergence operation circuit 8 is based on the output e (n) of the subtractor 6 and the function of the external auditory canal transfer function. Inverse transfer function ECTF
This is a function that calculates -1 .

【0029】ここで、更に、適応フィルタ2の基本原理
と、ここで使用しているブロック直交射影アルゴリズム
(以下、BOPアルゴリズムと呼ぶ)を、図4を参照して
説明する。
Here, the basic principle of the adaptive filter 2 and the block orthogonal projection algorithm (hereinafter referred to as BOP algorithm) used here will be described with reference to FIG.

【0030】BOPアルゴリズムは、一般にLMSアルゴ
リズムと比べて高速で収束することが知られており、こ
のアルゴリズムの詳細な内容は、辻井重男:“適応信号
処理”昭晃堂、p.70〜p.97に記載されている。
It is generally known that the BOP algorithm converges at a higher speed than the LMS algorithm. The details of this algorithm are described in Shigeo Tsujii: "Adaptive Signal Processing", Shokodo, p. 70 to p. 97.

【0031】図5は、本発明の原理の動作を説明するた
めの演算説明図である。ディジタルフィルタ1の出力x
(n)は、先ず、ECTFの逆特性を適応的に同定する
ための適応フィルタ2に入力される。この1/ECTF
の特性を同定するには、FIRフィルタ構成がよく用い
られる。このFIRフィルタ特性は、外部からのタップ
係数hを与えることによって、容易に目的の特性を安
定な動作で得ることができる。この出力をy(n)とす
ると、y(n)は図5の式(1)で表される。ここで、
Tは行列の転置を示し、
FIG. 5 is an explanatory diagram for explaining the operation of the principle of the present invention. Output x of digital filter 1
(N) is first input to an adaptive filter 2 for adaptively identifying the inverse characteristic of ECTF. This 1 / ECTF
In order to identify the characteristics of the FIR filter, an FIR filter configuration is often used. The FIR filter characteristic, by giving tap coefficient h M from the outside, it is possible to obtain easily the desired characteristics in a stable operation. Assuming that this output is y (n), y (n) is represented by equation (1) in FIG. here,
T denotes the transpose of the matrix,

【0032】x(n)=[x(n),x(n−1),
…,x(n−M+1)]、h(n)=[h(n),
(n),…,hM-1(n)]である。
X M (n) = [x (n), x (n−1),
.., X (n−M + 1)] T , h (n) = [h 0 (n),
h 1 (n),..., h M−1 (n)] T.

【0033】また、ここで、x(n)はベクトルx
(n)の要素、hはベクトルh(n)の要素、iは
FIRフィルタ構成のタップ位置を、Mは適応フィルタ
2のタップ数、nは時刻を表す。
Here, x (n) is a vector x
Elements of M (n), h i is the element of the vector h (n), i and the tap position of the FIR filter structure, M is the number of taps of the adaptive filter 2, n represents the time.

【0034】この適応フィルタ2の出力y(n)は片側
のイヤホン3に入力される。マイク4で出力された信号
z(n)は、伝達関数ECTFのインパルス応答を未知
の伝達関数とし、そのインパルス応答をcとすれば、
z(n)は図5の式(2)で表される。但し、y
[y(n),y(n−1),…,y(n−N+
1)]、c=[c,c,…,cN-1として
表される。尚、y(n)は式(1)で表されたy
(n)の現在から過去N個の要素の適応フィルタ2の出
力ベクトルである。
The output y (n) of the adaptive filter 2 is input to one earphone 3. The signal z (n) output from the microphone 4 is obtained by setting the impulse response of the transfer function ECTF to an unknown transfer function and setting the impulse response to c N.
z (n) is represented by equation (2) in FIG. Where y N =
[Y (n), y (n-1), ..., y (n-N +
1)] T , c N = [c 0 , c 1 ,..., C N−1 ] T Note that y N (n) is the y represented by the equation (1).
(N) is an output vector of the adaptive filter 2 of N elements from the present to the past.

【0035】ここで、図4中の近似ディジタルフィルタ
7の値(図中、cのハット(∧)で表す)はFiltered
-X入力信号ベクトル(u(n)のハット(∧))を得る
ために用いるもので、未知伝達関数ECTFのインパル
ス応答ベクトルcとある程度の相関性を持っている。
およびcのハット(∧)のタップ長をNとし、適
応フィルタh(n)のタップ長をM(≧2N)とし、誤
差信号e(n)、cのハット(∧)の出力信号u
(n)のハット(∧)はそれぞれ図5中の式(3)、式
(4)のように表すことができる。
[0035] Here, (in the figure, represented by Hat c N (∧)) value of the approximate digital filter 7 in Fig. 4 Filtered
Those used to obtain the (hat the u (n) (∧)) -X input signal vector has a correlation of certain degree of impulse response vector c N of unknown transfer function ECTF.
Let the tap length of the hat (∧) of c N and c N be N , the tap length of the adaptive filter h (n) be M (≧ 2N), and output the error signal e (n) and the hat (∧) of c N. Signal u
The hat (∧) in (n) can be expressed as in equations (3) and (4) in FIG. 5, respectively.

【0036】また、図4において、適応逆フィルタ推定
のためのBOPアルゴリズムは図5中の式(5)のように
与えられる。但し、μは緩和係数、jはブロック番号、
Lはブロック長でL=N+r−1で与えられる。尚、r
は係数修正に用いるFiltered-X入力信号ベクトルの数を
表す。このとき、式(5)におけるU(j)(w−h
(j))はr次の誤差信号ベクトルe(j)を用いて、
図5中の式(6)で与えられる。但し、e(j)=(e
(jL−1),e(jL−2),…,e(jL−r))
である。
In FIG. 4, the BOP algorithm for adaptive inverse filter estimation is given as in equation (5) in FIG. Where μ is the relaxation coefficient, j is the block number,
L is a block length and is given by L = N + r-1. Note that r
Represents the number of Filtered-X input signal vectors used for coefficient correction. At this time, U (j) (wh
(J)) uses the r-th order error signal vector e (j),
This is given by equation (6) in FIG. Where e (j) = (e
(JL-1), e (jL-2), ..., e (jL-r))
T.

【0037】また、Filtered-X入力信号行列(U(j)
のハット(∧)で表す)は、行列U(j)のハット
(∧)のMoore-Penrose型の一般逆行列を表し、行列U
(j)のハット(∧)は、各要素はu(n)のハット
(∧)を持つ行列で、図5中の式(7)のように表され
る。
Also, a Filtered-X input signal matrix (U (j)
+ (Represented by a hat (∧)) represents a general inverse matrix of the Moore-Penrose type of the hat (∧) of the matrix U (j), and the matrix U
The hat (∧) in (j) is a matrix in which each element has a hat (∧) in u (n), and is represented as in equation (7) in FIG.

【0038】更に、帯域フィルタ5におけるwは未知イ
ンパルス応答cの逆フィルタであり、cとwの直線
畳み込みの結果が帯域フィルタ5の目標インパルス応答
bとなるように適応逆フィルタが修正される。即ち、図
5中の式(8)に示すように、c・w=bまたはw=
-1・bである。
[0038] Further, w of the bandpass filter 5 is an inverted filter of unknown impulse response c N, adaptive inverse filter as a result of the linear convolution of c N and w is the target impulse response b bandpass filter 5 is fixed You. That is, as shown in Expression (8) in FIG. 5, c N · w = b or w =
c N −1 · b.

【0039】bの長さはN+M−1である。更に、式
(2)におけるcの代わりに図5中の式(9)で定義
される直線畳み込み行列Cを用いると、式(8)は、式
(10)で示すように、Cw=bとなり、式(6)にお
ける行列U(j)は、図5中の式(11)に示すよう
に、U(j)=X(j)Cと表される。但し、各要素c
(i=0,1,…,N-1)はベクトルcの成分に対応して
いる。
The length of b is N + M-1. Furthermore, the use of linear convolution matrix C is defined by the equation in FIG. 5 (9) instead of c N in equation (2), Equation (8), as shown in equation (10), Cw = b And the matrix U (j) in equation (6) is expressed as U (j) = X (j) C, as shown in equation (11) in FIG. However, each element c
i (i = 0, 1,..., N−1) corresponds to the components of the vector c N.

【0040】図6は、式(5)で求めたBOPアルゴリズ
ムによる収束特性を示す説明図である。図示例では、受
聴者数59名の両耳で118個の収束特性であって、横
軸は時間、縦軸は図5中の式(12)に示す定義での推
定誤差ε(j)を表す。式(12)に示すように、推定
誤差は帯域フィルタ5と同様の周波数帯域内での正規化
した二乗誤差である。但し、B(f)、C(f),H
(f,j)はそれぞれ、b,c、適応フィルタh
(j)を2M点でDFTしたものであり、総和の範囲は
bに用いた帯域フィルタ5の帯域に対応している。
FIG. 6 is an explanatory diagram showing the convergence characteristics by the BOP algorithm obtained by the equation (5). In the illustrated example, the convergence characteristics are 118 for both ears of 59 listeners, the horizontal axis represents time, and the vertical axis represents the estimation error ε (j) defined by the equation (12) in FIG. Represent. As shown in Expression (12), the estimation error is a normalized square error in the same frequency band as that of the bandpass filter 5. Where B (f), C (f), H
(F, j) are b and c N , respectively, and the adaptive filter h
(J) is DFT at 2M points, and the range of the sum corresponds to the band of the bandpass filter 5 used for b.

【0041】ところで、適応フィルタ2がECTFの逆
特性に合致する特性を得るまでの収束時間は短ければ短
いほど良い。前述した文献(頭外音像定位における伝達
関数ECTFとSSTFについての個人性に関する検討
についての文献)に記されているように、収束するまで
の時間は誤差の値や個人差によっても異なる。
By the way, the shorter the convergence time for the adaptive filter 2 to obtain the characteristic matching the inverse characteristic of the ECTF, the better. As described in the above-mentioned document (document on individuality of transfer functions ECTF and SSTF in out-of-head sound localization), the time until convergence varies depending on the error value and individual difference.

【0042】そこで、所要誤差について検討した内容
が、稲田孝、矢野昌平、穂刈治英、島田正治:“頭外音
像定位における逆フィルタの所要推定精度に関する検
討”、平成11年度電子情報通信学会信越支部大会(19
99.10.2)に記載されている。これによれば、誤差が−
10dB以下であるならば、80%以上の人が頭外音像
定位感を得ると報告されている。
Therefore, the contents of the examination of the required error are described in Takashi Inada, Shohei Yano, Haruhide Hokari, and Masaharu Shimada: "Study on Required Estimation Accuracy of Inverse Filter in Out-of-head Sound Image Localization", 1999 IEICE Shin-etsu Branch Meeting (19
99.10.2). According to this, the error is −
It is reported that if it is less than 10 dB, more than 80% of people will get a feeling of localization of an out-of-head sound image.

【0043】図6に示したように、各受聴者によって収
束特性が異なる。従って、誤差が−10dB以下となる
収束時間は、0.3秒から0.5秒程度まで必要とな
る。しかもこの収束にあたっては、入力に白色雑音を用
いた場合である。通常の楽音、音声ではもっと収束に時
間を要する。従って、適応フィルタ2を適用させるとき
には、短い時間で収束できるアルゴリズムを考える必要
があり、本発明は、このような短い時間で収束できるシ
ステムを実現したものである。以下、このような頭外音
像定位装置の具体例を説明する。
As shown in FIG. 6, each listener has different convergence characteristics. Therefore, the convergence time during which the error becomes −10 dB or less is required from about 0.3 seconds to about 0.5 seconds. Moreover, this convergence is the case where white noise is used for input. It takes more time to converge with normal music and voice. Therefore, when applying the adaptive filter 2, it is necessary to consider an algorithm that can converge in a short time, and the present invention has realized a system that can converge in such a short time. Hereinafter, a specific example of such an out-of-head sound image localization device will be described.

【0044】《具体例1》本発明の具体例を説明する前
に、Filtered-XにBOPアルゴリズムを適用した場合の適
応フィルタ2の収束特性を理論的に説明する。
<< Specific Example 1 >> Before describing a specific example of the present invention, the convergence characteristics of the adaptive filter 2 when the BOP algorithm is applied to Filtered-X will be theoretically described.

【0045】図7は、具体例の動作を説明するための演
算説明図である。一般に収束特性は、適応フィルタ2の
タップ係数ベクトルh(j)と目標のタップ係数ベクト
ルwまでの差で表現される。即ち、係数誤差ベクトルを
E(j)とすれば、図7中の式(13)に示す通りとな
り、このとき、上述した図5中の式(5)は、図7中の
式(14)と表すことができる。
FIG. 7 is an explanatory diagram for explaining the operation of the specific example. Generally, the convergence characteristic is represented by a difference between the tap coefficient vector h (j) of the adaptive filter 2 and a target tap coefficient vector w. That is, assuming that the coefficient error vector is E (j), the equation (13) in FIG. 7 is obtained. At this time, the equation (5) in FIG. 5 is replaced by the equation (14) in FIG. It can be expressed as.

【0046】入力信号x(n)が白色雑音であり、式
(11)より、式(14)のU(k) のハット(∧)
・U(k)は白色雑音の性質から、ほぼ単位ベクトルl
で、更に係数誤差ノルムはスカラー量として評価するこ
とができる。これを図7の式(15)で示す。
When the input signal x (n) is white noise,
From (11), U (k) in equation (14) +Hat (∧)
U (k) is almost unit vector l because of the nature of white noise
Furthermore, the coefficient error norm should be evaluated as a scalar quantity.
Can be. This is shown by equation (15) in FIG.

【0047】この結果、式(14)の[]内は一定のス
カラー量となり、今、各受聴者毎のECTF-1をw
初期値をh(0)、j回の更新後のフィルタ係数をh
(j)とすると、図7中の式(16)となる。但し、α
<1で、wは受聴者i毎の伝達関数ECTFのインパ
ルス応答である。式(16)は離散値系であるので、簡
単にするために連続系の時間関数tに変換すると、初期
値h(0)を与えたときの時間tでの係数誤差ノルム
は、式(17)となる。同様に係数誤差ノルムがある一
定値pに達するまでの時間をtjとおくと、式(18)
となる。初期値h(0)が与えられて、ある一定の所要
推定誤差に達するまでの時間Tを求めると、式(1
9)となる。
As a result, the value in [] of the equation (14) is a constant scalar amount, and the ECTF -1 for each listener is now represented by w i ,
The initial value is h (0), and the filter coefficient after j times of updating is h
Assuming (j), equation (16) in FIG. 7 is obtained. Where α
<1, w i is the impulse response of the transfer function ECTF for each listener i. Since equation (16) is a discrete value system, if it is converted to a continuous time function t for simplicity, the coefficient error norm at time t 0 when the initial value h (0) is given is expressed by equation (16) 17). Similarly, if the time required for the coefficient error norm to reach a certain value p is defined as t j , Expression (18)
Becomes Given an initial value h (0), when determining the time T i to reach a certain predetermined estimation error in equation (1
9).

【0048】ところで、式(19)から、各受聴者でも
所望係数誤差までに達する時間を最小とする初期値を求
めるには、解析的な方法では求めにくい。そこで、シミ
ュレーションで確認する。即ち、N人の受聴者の平均収
束時間Taveは、図7中の式(20)と表すことがで
きる。Σ以降の値をパラメータとし、その総和時間の最
小値を求める。
From Equation (19), it is difficult for each listener to find an initial value that minimizes the time to reach the desired coefficient error by an analytical method. Then, it confirms by simulation. That is, the average convergence time T ave of the N listeners can be expressed by Expression (20) in FIG. Σ Using the values after as parameters, find the minimum value of the total time.

【0049】式(20)のΣの中は、ある受聴者のEC
TF-1のインパルス応答を初期値h(0)として、N人
の受聴者のECTF-1のインパルス応答wの差の成分
のノルム(ユークリッド距離)の自然対数を求めてか
ら、N人の受聴者の総和平均(係数誤差の自然対数の総
和平均値)を求め、その値を横軸に、また一方、前記の
初期値からN人受聴者毎の平均収束時間Taveを縦軸
に表す。その中で一番平均収束時間Taveが小さい値
のある受聴者のECTF-1のインパルス応答の値を求め
る。
In equation (20), the EC of a certain listener is
With the impulse response of TF -1 as an initial value h (0), the natural log of the norm (Euclidean distance) of the difference component of the impulse response w i of ECTF -1 of N listeners is obtained, The sum total average of the listeners (sum total value of the natural logarithm of the coefficient error) is obtained, and the value is shown on the horizontal axis, while the average convergence time T ave for each of the N listeners from the above initial value is shown on the vertical axis . The value of the ECTF -1 impulse response of the listener having the smallest average convergence time T ave is obtained.

【0050】図8は、その結果を示す説明図である。ま
た、この図8にはユークリッド距離の重心点を初期値h
(0)としたときの値も示してある。
FIG. 8 is an explanatory diagram showing the result. FIG. 8 shows the center of gravity of the Euclidean distance as an initial value h.
The value when (0) is set is also shown.

【0051】図8に示すように、重心点を初期値とした
ときの平均収束時間Taveが短いことが分かる。この
ことを明らかにするために、タップ係数値の初期値を変
化させたときの評価誤差が-10dBに達するまでの収束
時間と、受聴者毎の累積数の百分率との関係を測定し
た。
As shown in FIG. 8, it can be seen that the average convergence time T ave when the center of gravity is set to the initial value is short. To clarify this, the relationship between the convergence time until the evaluation error when changing the initial value of the tap coefficient value reaches -10 dB and the percentage of the cumulative number for each listener was measured.

【0052】図9は、この収束時間と受聴者毎の累積数
の百分率との関係を示す図である。図9は、タップ係数
値の初期値を変化させたときの評価誤差が-10dBに達
するまでの収束時間を横軸に取り、縦軸に受聴者毎の累
積数の百分率で示したものである。
FIG. 9 is a diagram showing the relationship between the convergence time and the percentage of the cumulative number for each listener. FIG. 9 shows the convergence time until the evaluation error when the initial value of the tap coefficient value is changed reaches −10 dB on the horizontal axis, and the vertical axis shows the percentage of the cumulative number for each listener. .

【0053】図9において、(a)は重心点に最も近い
受聴者のインパルス応答を初期値とした場合、(b)は
重心点を初期値とした場合、(c)は初期値h(0)=
0もしくは初期値がない場合である。これより、ユーク
リッド距離の重心点付近に初期値を設置すると受聴者の
50%以上が瞬時に収束し、0.2秒後には受聴者の8
0%以上が収束することが分かる。
In FIG. 9, (a) shows a case where the impulse response of the listener closest to the center of gravity is set as an initial value, (b) shows a case where the center of gravity is set as an initial value, and (c) shows an initial value h (0). ) =
0 or no initial value. Thus, when the initial value is set near the center of gravity of the Euclidean distance, 50% or more of the listeners instantly converge, and after 0.2 seconds, 8% of the listeners
It can be seen that 0% or more converges.

【0054】従って、頭外音像定位においては、各受聴
者毎に異なる伝達関数ECTFがあったとしても、ユー
クリッド距離の重心点に相当するインパルス応答あるい
は重心点に近いある受聴者のECTF-1のインパルス応
答を初期値として与えることにより収束時間は4〜5分
の1に短くなることが分かる。このような基本的な考え
方から、以下に示すような具体例を説明する。
Therefore, in the out-of-head sound image localization, even if there is a different transfer function ECTF for each listener, the impulse response corresponding to the center of gravity of the Euclidean distance or the ECTF -1 of a certain listener close to the center of gravity is obtained. It can be seen that by giving the impulse response as an initial value, the convergence time is shortened to 4 to 5 times. From such a basic idea, a specific example as described below will be described.

【0055】〈具体例1の構成〉図1は、本発明の頭外
音像定位装置の具体例1を示す機能ブロック図である。
図の装置は、ディジタルフィルタ1、適応フィルタ2、
イヤホン(スピーカ)3、マイク4、帯域フィルタ5、
減算器6、近似ディジタルフィルタ7、収束演算回路
8、メモリ10からなり、適応フィルタ2、近似ディジ
タルフィルタ7、収束演算回路8、メモリ10によっ
て、外耳道伝達関数適応動作回路9が構成されている。
<Structure of Embodiment 1> FIG. 1 is a functional block diagram showing Embodiment 1 of the out-of-head sound image localization apparatus of the present invention.
The device shown in the figure has a digital filter 1, an adaptive filter 2,
Earphone (speaker) 3, microphone 4, bandpass filter 5,
The adaptive filter 2, the approximate digital filter 7, the convergence calculation circuit 8 and the memory 10 constitute an external ear canal transfer function adaptive operation circuit 9.

【0056】ディジタルフィルタ1は、図3、4にも示
したように、(空間音響伝達関数SSTF/空間に位置
する音源の伝達関数LSTF)の値(≒頭部音響伝達関
数HRTF)を予め記憶したフィルタであり、音源信号
を入力して出力x(n)を送出するよう構成されてい
る。
As shown in FIGS. 3 and 4, the digital filter 1 previously stores the value of (spatial acoustic transfer function SSTF / transfer function LSTF of a sound source located in space) (≒ head acoustic transfer function HRTF). The filter is configured to input a sound source signal and transmit an output x (n).

【0057】適応フィルタ2は、外耳道伝達関数(EC
TF)の逆伝達関数(1/ECTF)を求めるためのフ
ィルタであり、ディジタルフィルタ1を介して音源信号
を入力し、出力y(n)をイヤホン3に対して送出す
る。
The adaptive filter 2 has an external auditory canal transfer function (EC
This is a filter for calculating an inverse transfer function (1 / ECTF) of the TF), receives a sound source signal via the digital filter 1, and sends out an output y (n) to the earphone 3.

【0058】イヤホン3は、受聴者の耳に接するよう配
置されたスピーカである。また、マイク4は、イヤホン
3から送出された音響信号を受聴者の外耳道内で収音す
るためのマイクであり、出力z(n)を減算器6に対し
て送出する。
The earphone 3 is a speaker arranged to be in contact with the listener's ear. The microphone 4 is a microphone for collecting the acoustic signal transmitted from the earphone 3 in the external auditory canal of the listener, and outputs the output z (n) to the subtractor 6.

【0059】帯域フィルタ5は、外耳道伝達関数ECT
Fと、適応フィルタ2で求めた外耳道伝達関数の逆伝達
関数(1/ECTF)との積が、帯域フィルタ特性とな
るようなフィルタ特性を有し、ディジタルフィルタ1を
介して音源信号を入力するフィルタである。
The bandpass filter 5 has an ear canal transfer function ECT
The product of F and the inverse transfer function (1 / ECTF) of the ear canal transfer function obtained by the adaptive filter 2 has a filter characteristic such that it becomes a bandpass filter characteristic. Filter.

【0060】減算器6は、帯域フィルタ5の出力d
(n)とマイク4からの出力z(n)とを減算し、誤算
信号として出力e(n)を送出する減算器である。
The subtracter 6 outputs the output d of the bandpass filter 5.
The subtracter subtracts (n) from the output z (n) from the microphone 4 and sends out the output e (n) as an error signal.

【0061】近似ディジタルフィルタ7は、それまでに
求めた複数の受聴者の外耳道伝達関数ECTFの重心点
の値、または、重心点に最も近い受聴者の外耳道伝達関
数ECTFの値を予め決められた近似伝達関数cのハ
ット(∧)の値として格納するフィルタであり、ディジ
タルフィルタ1を介して音源信号を入力し、出力u
(n)のハット(∧)を送出するよう構成されている。
The approximate digital filter 7 determines the value of the center of gravity of the ear canal transfer function ECTF of a plurality of listeners obtained up to that time or the value of the ear canal transfer function ECTF of the listener closest to the center of gravity. This is a filter that stores a value of a hat (∧) of the approximate transfer function c N , receives a sound source signal via the digital filter 1, and outputs
It is configured to send the hat (∧) of (n).

【0062】収束演算回路8は、近似ディジタルフィル
タ7からの出力u(n)のハット(∧)を用いて、減算
器6からの誤差信号e(n)に基づき、適応フィルタ2
のタップ係数hの値を更新する機能を有している。
The convergence calculation circuit 8 uses the hat (∧) of the output u (n) from the approximate digital filter 7 and the adaptive filter 2 based on the error signal e (n) from the subtractor 6.
Has a function of updating the value of the tap coefficient h.

【0063】メモリ10は、外耳道伝達関数の逆インパ
ルス応答の値wのハット(∧)を適応フィルタ2の初期
値として格納するメモリである。
The memory 10 is a memory for storing the hat (∧) of the value w of the inverse impulse response of the ear canal transfer function as the initial value of the adaptive filter 2.

【0064】これらのディジタルフィルタ1、適応フィ
ルタ2、帯域フィルタ5〜収束演算回路8は、例えばパ
ーソナルコンピュータ上に設けられ、それぞれの機能に
対応したソフトウェアとこれを実行するプロセッサやメ
モリ等で構成されるか、あるいは専用のハードウェアで
各機能が実現されている。
The digital filter 1, the adaptive filter 2, the bandpass filters 5 and the convergence operation circuit 8 are provided, for example, on a personal computer, and are constituted by software corresponding to each function and a processor and a memory for executing the software. Each function is realized by dedicated hardware or dedicated hardware.

【0065】〈具体例1の動作〉先ず、予め複数の受聴
者から測定したECTFのインパルス応答のユークリッ
ド距離の重心点に相当するインパルス応答を求め、近似
ディジタルフィルタ7にそのインパルス応答の係数(c
のハット(∧))を格納する。また、このECTFの
逆インパルス応答のユークリッド距離の重心点に相当す
る逆インパルス応答を求め、その値をメモリ10に格納
しておく。尚、ここで、インパルス応答は、その重心点
に近い特定の受聴者のインパルス応答を利用してもよい
ことは先に述べた通りである。
<Operation of Specific Example 1> First, an impulse response corresponding to the center of gravity of the Euclidean distance of the impulse response of ECTF measured from a plurality of listeners in advance is obtained, and the coefficient (c
N (ッ ト)) is stored. Further, an inverse impulse response corresponding to the center of gravity of the Euclidean distance of the inverse impulse response of the ECTF is obtained, and the value is stored in the memory 10. Here, as described above, the impulse response may be the impulse response of a specific listener close to the center of gravity.

【0066】次に、この回路を動作させるには、電源が
投入され次第、メモリ10の値を適応フィルタ2の係数
値に入力する。前述したように、受聴者がイヤホン3を
耳介に装着し、音源信号が入力されると、音源方向を予
め指定しているディジタルフィルタ1を介して信号x
(n)が生成される。信号x(n)は、帯域フィルタ5
を介して信号の目標帯域と時間遅延を伴って減算器6に
入力される。
Next, in order to operate this circuit, the value of the memory 10 is input to the coefficient value of the adaptive filter 2 as soon as the power is turned on. As described above, when the listener wears the earphone 3 on the auricle and a sound source signal is input, the signal x passes through the digital filter 1 which specifies the sound source direction in advance.
(N) is generated. The signal x (n) is supplied to the bandpass filter 5
Is input to the subtractor 6 with the target band of the signal and the time delay.

【0067】一方、信号x(n)は適応フィルタ2に入
力されると同時に、イヤホン3から放射された音が外耳
道を介してマイク4で受音され、減算器6に入力され
る。減算器6の出力信号は誤差信号e(n)となって、
収束演算回路8でBOPアルゴリズムによって、適応フィ
ルタ2の係数更新が行われ、受聴者のECTFのインパ
ルス応答のほぼ逆インパルス応答が生成される。
On the other hand, at the same time as the signal x (n) is input to the adaptive filter 2, the sound radiated from the earphone 3 is received by the microphone 4 via the external auditory canal and input to the subtracter 6. The output signal of the subtractor 6 becomes an error signal e (n).
The convergence calculation circuit 8 updates the coefficient of the adaptive filter 2 by the BOP algorithm, and generates an impulse response substantially reverse to the impulse response of the ECTF of the listener.

【0068】このように、適応フィルタ2の初期値に、
多数の受聴者の外耳道伝達関数ECTFのインパルス応
答、この具体例では逆インパルス応答を入力することに
よって、高速な収束時間が得られ、また、外部雑音が混
入して適応動作が不安定な場合でも、その不安定な状態
を検出できれば、再度、メモリ10から初期値の情報を
入力することで、この制御系は安定な動作を行うことが
できる。
As described above, the initial value of the adaptive filter 2 is
By inputting the impulse response of the ear canal transfer function ECTF of a large number of listeners, in this example, the inverse impulse response, a fast convergence time can be obtained, and even if the external noise is mixed in, the adaptive operation is unstable. If the unstable state can be detected, the control system can perform a stable operation by inputting the information of the initial value from the memory 10 again.

【0069】〈具体例1の効果〉以上のように具体例1
によれば、外耳道伝達関数ECTFの適応動作によっ
て、受聴者に合致した伝達関数を求めると共に、適応動
作時の初期値として、複数の受聴者のECTF-1の重心
点の値を用いるようにしたので、不特定多数の受聴者に
対して汎用的に利用することが可能になると共に、短時
間で適応動作を行うことができる。
<Effects of Specific Example 1> Specific Example 1 as described above
According to the above, a transfer function that matches the listener is obtained by the adaptive operation of the ear canal transfer function ECTF, and the value of the center of gravity of the ECTF- 1 of a plurality of listeners is used as an initial value during the adaptive operation. Therefore, general-purpose use can be performed for an unspecified number of listeners, and an adaptive operation can be performed in a short time.

【0070】《具体例2》具体例2は、適応動作を行う
度に初期値を更新していくようにしたものである。例え
ば、ある受聴者に対して適応フィルタ2の適応動作を行
い、収束した適応フィルタ2の係数は、その時の受聴者
のECTF-1に相当する。従って、この収束した適応フ
ィルタ2の係数を用いて、次回の適応フィルタ2の適応
動作を行うようにすることが考えられる。
<< Example 2 >> In Example 2, the initial value is updated each time the adaptive operation is performed. For example, the adaptive operation of the adaptive filter 2 is performed on a certain listener, and the converged coefficient of the adaptive filter 2 corresponds to ECTF -1 of the listener at that time. Therefore, it is conceivable to perform the next adaptive operation of the adaptive filter 2 using the converged coefficient of the adaptive filter 2.

【0071】例えば、今回の適応動作に用いた適応フィ
ルタ2の係数の初期値をh(m)とし、この時収束し
た適応フィルタ2の係数をh(m)とすると、次に適
応動作を行うときの適応フィルタ2の係数の初期値h
(m+1)を、
For example, if the initial value of the coefficient of the adaptive filter 2 used in the current adaptive operation is h 0 (m) and the coefficient of the adaptive filter 2 converged at this time is h (m), then the adaptive operation Initial value h 0 of the coefficient of the adaptive filter 2 when performing
(M + 1)

【0072】h(m+1)=αh(m)+(1−
α)h(m)と収束する。
H 0 (m + 1) = αh 0 (m) + (1−
α) h (m).

【0073】このように適応フィルタ2の初期値を収束
することにより、ECTF-1の平均をとる受聴者の人数
を増やすことになる。また、一人の受聴者だけがこの装
置を使用し、装置を立ち上げる度に適応フィルタ2を再
度適応させるような使い方をする場合を想定すると、そ
の受聴者のECTF-1により合致した初期値が与えられ
る。以下、このような機能を実現する頭外音像定位装置
を具体例2として説明する。
By converging the initial value of adaptive filter 2 in this manner, the number of listeners who take the average of ECTF- 1 is increased. Also, assuming that only one listener uses this device and uses the adaptive filter 2 again every time the device is started up, the initial value that is more consistent with the ECTF -1 of that listener is Given. Hereinafter, an out-of-head sound image localization apparatus that realizes such a function will be described as a specific example 2.

【0074】〈具体例2の構成〉図10は、具体例2の
頭外音像定位装置の構成図である。図示の頭外音像定位
装置は、具体例1と同様に、ディジタルフィルタ1〜メ
モリ10を備えると共に、初期値算出・設定更新回路1
1を備えている。
<Structure of Specific Example 2> FIG. 10 is a structural diagram of an out-of-head sound image localization apparatus of Specific Example 2. The illustrated out-of-head sound image localization apparatus includes a digital filter 1 to a memory 10 and an initial value calculation / setting update circuit 1 as in the first embodiment.
1 is provided.

【0075】初期値算出・設定更新回路11は、前回の
適応フィルタ2の適応動作の時に用いた適応フィルタ2
の係数値をメモリ10に格納する機能を有している。
The initial value calculating / setting updating circuit 11 uses the adaptive filter 2 used at the time of the previous adaptive operation of the adaptive filter 2.
Is stored in the memory 10.

【0076】〈具体例2の動作〉先ず、予め複数の受聴
者から測定したECTFのインパルス応答のユークリッ
ド距離の重心点に相当するインパルス応答を求め、近似
ディジタルフィルタ7にそのインパルス応答の係数(c
のハット(∧))を格納する。この動作は具体例1と
同様である。
<Operation of Specific Example 2> First, an impulse response corresponding to the center of gravity of the Euclidean distance of the ECTF impulse response measured from a plurality of listeners in advance is obtained, and the approximate impulse response coefficient (c
N (ッ ト)) is stored. This operation is the same as in the first embodiment.

【0077】また、初期値算出・設定更新回路11は、
初期値として、例えば具体例1と同様の値であるECT
Fの逆インパルス応答のユークリッド距離の重心点に相
当する逆インパルス応答の値をメモリ10に格納する。
あるいは、初回は前回までの受聴者がいないという観点
から、初期値を0としてメモリ10に格納してもよい。
The initial value calculation / setting updating circuit 11
As the initial value, for example, ECT which is the same value as in the first example
The value of the inverse impulse response corresponding to the center of gravity of the Euclidean distance of the inverse impulse response of F is stored in the memory 10.
Alternatively, the initial value may be stored in the memory 10 as an initial value of 0 from the viewpoint that there is no listener up to the previous time.

【0078】その後は具体例1と同様に適応フィルタ2
の適応動作を行い、適応フィルタ2にはその受聴者のE
CTF-1が設定される。これにより初期値算出・設定更
新回路11は、収束したECTF-1の値に基づいて初期
値を更新し、この更新した値をメモリ10に格納する。
Thereafter, as in the first embodiment, the adaptive filter 2
And the adaptive filter 2 has the listener's E
CTF -1 is set. Thereby, the initial value calculating / setting updating circuit 11 updates the initial value based on the converged value of ECTF- 1 , and stores the updated value in the memory 10.

【0079】このような動作を適応フィルタ2の係数が
収束した度に行い、メモリ10に格納する初期値を更新
していく。従って、異なる受聴者で適応フィルタ2の適
応動作を行っていくことにより、多くの受聴者のECT
-1の重心点が求められ、より多くの受聴者に適用でき
る装置を実現することができる。このため、最初にメモ
リ10に格納する値としては、必ずしも多くの受聴者の
値から求めたECTF -1の値を必要とはしない効果があ
る。
The above operation is performed when the coefficient of the adaptive filter 2 is
Perform each time convergence and update the initial value stored in memory 10
I will do it. Therefore, the adaptation of the adaptive filter 2 is performed for different listeners.
ECT of many listeners
F-1Center of gravity is required and can be applied to more listeners.
Device can be realized. For this reason, note first
The value stored in the file 10 is not necessarily the value of many listeners.
ECTF calculated from the value -1Has the effect of not requiring the value of
You.

【0080】尚、近似ディジタルフィルタ7に設定する
値は固定であり、メモリ10の初期値のように更新はし
ない。これは近似ディジタルフィルタ7の値は適応フィ
ルタ2における係数の収束時間にさほど影響を与えない
からであり、また、初期値算出・設定更新回路11にて
更新した値に対応したECTFの値の複雑な演算処理を
避けるためである。
The value set in the approximate digital filter 7 is fixed, and is not updated like the initial value of the memory 10. This is because the value of the approximate digital filter 7 does not significantly affect the convergence time of the coefficient in the adaptive filter 2, and the ECTF value corresponding to the value updated by the initial value calculation / setting update circuit 11 is complicated. This is to avoid complicated arithmetic processing.

【0081】〈具体例2の効果〉以上のように具体例2
によれば、具体例1の構成に加えて、メモリ10の初期
値を前回までの適応フィルタ2の収束値に基づき更新す
る初期値算出・設定更新回路11を備えたので、メモリ
10に格納する最初に初期値としてはさほど多くの受聴
者に基づく値を必要としない効果がある。また、本装置
を、一人の受聴者で使用し、装置を立ち上げる度に適応
フィルタ2を再度適応させるような使い方をする場合を
想定すると、その受聴者のECTF-1により合致した初
期値が与えられるという効果がある。
<Effect of Specific Example 2> Specific Example 2 as described above
According to the first embodiment, in addition to the configuration of the first embodiment, an initial value calculation / setting update circuit 11 that updates the initial value of the memory 10 based on the convergence value of the adaptive filter 2 up to the previous time is provided, and is stored in the memory 10. First, there is an effect that a value based on a large number of listeners is not required as an initial value. Further, assuming a case where the present apparatus is used by one listener and the adaptive filter 2 is adapted again each time the apparatus is started up, an initial value that is more consistent with the ECTF- 1 of the listener becomes It has the effect of being given.

【0082】《利用形態》本発明の頭外音像定位装置
は、ディジタルオーディオテープレコーダ(DAT)
や、コンパクトディスク(CD)などの臨場感溢れる受
聴機器あるいは仮想現実感システムにも利用が可能にな
るばかりか、通信回線を用いた理想的な音声通信にも適
用が可能である。
<< Usage Mode >> The out-of-head sound image localization apparatus of the present invention is a digital audio tape recorder (DAT).
In addition, the present invention can be used not only for a listening device such as a compact disk (CD) or a virtual reality system but also for ideal voice communication using a communication line.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の頭外音像定位装置の具体例1を示す構
成図である。
FIG. 1 is a configuration diagram showing a specific example 1 of an out-of-head sound image localization apparatus of the present invention.

【図2】頭外音像定位を実現する原理説明図である。FIG. 2 is a diagram illustrating the principle of realizing out-of-head sound image localization.

【図3】本発明の原理を説明するための機能ブロック図
である。
FIG. 3 is a functional block diagram for explaining the principle of the present invention.

【図4】図3のシステムを実現するための構成を示す機
能ブロック図である。
FIG. 4 is a functional block diagram showing a configuration for realizing the system of FIG. 3;

【図5】本発明の原理の動作を説明するための演算説明
図である。
FIG. 5 is an explanatory diagram for explaining the operation of the principle of the present invention.

【図6】BOPアルゴリズムによる収束特性を示す説明図
である。
FIG. 6 is an explanatory diagram showing convergence characteristics by a BOP algorithm.

【図7】具体例の動作を説明するための演算説明図であ
る。
FIG. 7 is an operation explanatory diagram for explaining an operation of a specific example.

【図8】平均収束時間の説明図である。FIG. 8 is an explanatory diagram of an average convergence time.

【図9】収束時間と受聴者毎の累積数の百分率との関係
を示す図である。
FIG. 9 is a diagram showing the relationship between the convergence time and the percentage of the cumulative number for each listener.

【図10】具体例2の頭外音像定位装置の構成図であ
る。
FIG. 10 is a configuration diagram of an out-of-head sound image localization device of a specific example 2.

【符号の説明】[Explanation of symbols]

1 ディジタルフィルタ 2 適応フィルタ 3 イヤホン(スピーカ) 4 マイク 5 帯域フィルタ 6 減算器 7 近似ディジタルフィルタ 8 収束演算回路 9 外耳道伝達関数適応動作回路 10 メモリ 11 初期値算出・設定更新回路 DESCRIPTION OF SYMBOLS 1 Digital filter 2 Adaptive filter 3 Earphone (speaker) 4 Microphone 5 Band filter 6 Subtractor 7 Approximate digital filter 8 Convergence operation circuit 9 External ear canal transfer function adaptive operation circuit 10 Memory 11 Initial value calculation / setting update circuit

───────────────────────────────────────────────────── フロントページの続き (71)出願人 500139822 堀内 俊治 新潟県長岡市上富岡町1603−1 長岡技術 科学大学内 (72)発明者 川田 眞一 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 (72)発明者 島田 正治 新潟県長岡市上富岡町1603−1 長岡技術 科学大学内 (72)発明者 穂刈 治英 新潟県長岡市上富岡町1603−1 長岡技術 科学大学内 (72)発明者 堀内 俊治 新潟県長岡市上富岡町1603−1 長岡技術 科学大学内 Fターム(参考) 5D011 AB11 5D062 AA71 AA74 5J023 DA05 DB03 DB05 DC00 DC01 DD05  ──────────────────────────────────────────────────続 き Continuation of the front page (71) Applicant 500139822 Shunji Horiuchi 1603-1 Kamitomiokacho, Nagaoka City, Niigata Prefecture Nagaoka University of Technology (72) Inventor Shinichi Kawada 1-7-12 Toranomon, Minato-ku, Tokyo Oki Electric Within Industrial Co., Ltd. (72) Inventor: Masaharu Shimada 1603-1, Kamitomioka-cho, Nagaoka, Niigata Prefecture Within Nagaoka University of Technology (72) 72) Inventor Shunji Horiuchi 1603-1 Kamitomiokacho, Nagaoka City, Niigata Prefecture F-term in Nagaoka University of Technology 5D011 AB11 5D062 AA71 AA74 5J023 DA05 DB03 DB05 DC00 DC01 DD05

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 両耳に接するよう設けられ、音源信号に
基づき音波を発生するスピーカと、 前記スピーカから発生した音波を外耳道内で収音するマ
イクと、 (空間音響伝達関数/空間に位置する音源の伝達関数)
の値を予め記憶したディジタルフィルタと、 前記ディジタルフィルタを介して音源信号を入力して前
記スピーカに出力する機能を有し、前記スピーカから前
記マイクの出力までの伝達関数である外耳道伝達関数の
逆インパルス応答値を求めるための適応フィルタと、 前記適応フィルタにおける逆インパルス応答値を求める
場合の初期値を格納するメモリと、 前記外耳道伝達関数のインパルス応答値と、前記適応フ
ィルタで求めた外耳道伝達関数の逆インパルス応答値と
の積が、帯域フィルタ特性となるようなフィルタ特性を
有し、前記ディジタルフィルタを介して音源信号を入力
する帯域フィルタと、 前記帯域フィルタの出力と、前記マイクの出力とを減算
する減算器と、 前記ディジタルフィルタを介して音源信号を入力し、予
め決められた近似伝達関数の値を格納する近似ディジタ
ルフィルタと、 前記近似ディジタルフィルタの近似伝達関数の値を用
い、前記減算器の減算結果に基づいて、前記適応フィル
タの逆インパルス応答値が収束するまで当該逆インパル
ス応答値を更新する収束演算回路とを備えたことを特徴
とする頭外音像定位装置。
1. A speaker provided in contact with both ears and generating a sound wave based on a sound source signal; a microphone collecting sound waves generated from the speaker in an external auditory canal; Transfer function of sound source)
And a function of inputting a sound source signal through the digital filter and outputting the signal to the speaker, the inverse of the ear canal transfer function being a transfer function from the speaker to the output of the microphone. An adaptive filter for obtaining an impulse response value; a memory for storing an initial value for obtaining an inverse impulse response value in the adaptive filter; an impulse response value of the ear canal transfer function; and an ear canal transfer function obtained by the adaptive filter A product of the inverse impulse response value of the filter has a filter characteristic to be a band filter characteristic, a band filter that inputs a sound source signal through the digital filter, an output of the band filter, and an output of the microphone A sound source signal via the digital filter, and a predetermined value. An approximate digital filter for storing the value of the approximate transfer function, and using the value of the approximate transfer function of the approximate digital filter, based on the subtraction result of the subtractor, until the inverse impulse response value of the adaptive filter converges. An out-of-head sound image localization device, comprising: a convergence calculation circuit for updating an inverse impulse response value.
【請求項2】 請求項1に記載の頭外音像定位装置にお
いて、 メモリには、複数の受聴者の外耳道伝達関数の逆インパ
ルス応答のユークリッド距離の重心点に相当する逆イン
パルス応答値を格納し、 近似ディジタルフィルタには、複数の受聴者の外耳道伝
達関数のインパルス応答のユークリッド距離の重心点に
相当するインパルス応答値を格納したことを特徴とする
頭外音像定位装置。
2. The out-of-head sound image localization apparatus according to claim 1, wherein the memory stores an inverse impulse response value corresponding to a center of gravity of a Euclidean distance of an inverse impulse response of an ear canal transfer function of a plurality of listeners. An external sound image localization apparatus characterized in that an approximate digital filter stores impulse response values corresponding to the center of gravity of the Euclidean distance of impulse responses of a plurality of listeners' ear canal transfer functions.
【請求項3】 請求項1に記載の頭外音像定位装置にお
いて、 メモリには、複数の受聴者の外耳道伝達関数の逆インパ
ルス応答のユークリッド距離の重心点に最も近い受聴者
の逆インパルス応答値を格納し、 近似ディジタルフィルタには、複数の受聴者の外耳道伝
達関数のインパルス応答のユークリッド距離の重心点に
最も近い受聴者のインパルス応答値を格納したことを特
徴とする頭外音像定位装置。
3. The out-of-head sound image localization apparatus according to claim 1, wherein the memory stores the inverse impulse response value of the listener closest to the center of gravity of the Euclidean distance of the inverse impulse response of the ear canal transfer function of the plurality of listeners. And an approximate digital filter storing an impulse response value of the listener closest to the center of gravity of the Euclidean distance of the impulse response of the external auditory canal transfer function of a plurality of listeners.
【請求項4】 請求項1〜3のいずれかに記載の頭外音
像定位装置において、 前回の適応動作で用いた外耳道伝達関数の逆インパルス
応答値の初期値を前回収束した適応フィルタの逆インパ
ルス応答値を用いて更新した値を新たな初期値としてメ
モリに格納する初期値算出・設定更新回路を備えたこと
を特徴とする頭外音像定位装置。
4. The out-of-head sound image localization apparatus according to claim 1, wherein the initial value of the inverse impulse response value of the ear canal transfer function used in the previous adaptive operation is the inverse impulse of the adaptive filter previously converged. An out-of-head sound image localization apparatus comprising: an initial value calculation / setting update circuit for storing a value updated using a response value as a new initial value in a memory.
JP2000090793A 2000-03-29 2000-03-29 Out-of-head sound image localization device Pending JP2001285998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000090793A JP2001285998A (en) 2000-03-29 2000-03-29 Out-of-head sound image localization device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000090793A JP2001285998A (en) 2000-03-29 2000-03-29 Out-of-head sound image localization device

Publications (1)

Publication Number Publication Date
JP2001285998A true JP2001285998A (en) 2001-10-12

Family

ID=18606345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000090793A Pending JP2001285998A (en) 2000-03-29 2000-03-29 Out-of-head sound image localization device

Country Status (1)

Country Link
JP (1) JP2001285998A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003009643A1 (en) * 2001-07-19 2003-01-30 Matsushita Electric Industrial Co., Ltd. Sound image localizer
JP2004128854A (en) * 2002-10-02 2004-04-22 Matsushita Electric Ind Co Ltd Acoustic reproduction system
WO2005025270A1 (en) * 2003-09-08 2005-03-17 Matsushita Electric Industrial Co., Ltd. Audio image control device design tool and audio image control device
WO2005091677A1 (en) * 2004-03-22 2005-09-29 Toa Corporation Multi-channel system identification device
JP2009194682A (en) * 2008-02-15 2009-08-27 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
JP2009206691A (en) * 2008-02-27 2009-09-10 Sony Corp Head-related transfer function convolution method and head-related transfer function convolution device
US7715568B2 (en) 2004-04-27 2010-05-11 Sony Corporation Binaural sound reproduction apparatus and method, and recording medium
JP2010178373A (en) * 2010-04-08 2010-08-12 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
JP2010187401A (en) * 2010-04-26 2010-08-26 Sony Corp Head-related transfer function convolution method and head-related transfer function convolution apparatus
JP2011009842A (en) * 2009-06-23 2011-01-13 Sony Corp Audio signal processing device, and audio signal processing method
US8081769B2 (en) 2008-02-15 2011-12-20 Kabushiki Kaisha Toshiba Apparatus for rectifying resonance in the outer-ear canals and method of rectifying
US8280062B2 (en) 2008-12-26 2012-10-02 Kabushiki Kaisha Toshiba Sound corrector, sound measurement device, sound reproducer, sound correction method, and sound measurement method
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
JP2019169835A (en) * 2018-03-23 2019-10-03 株式会社Jvcケンウッド Out-of-head localization processing apparatus, out-of-head localization processing method, and program
JP2022024154A (en) * 2018-09-28 2022-02-08 株式会社Jvcケンウッド Out-of-head localization processing system and out-of-head localization processing method
US11438721B2 (en) * 2018-09-28 2022-09-06 Jvckenwood Corporation Out-of-head localization system, filter generation device, method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003009643A1 (en) * 2001-07-19 2003-01-30 Matsushita Electric Industrial Co., Ltd. Sound image localizer
JP2004128854A (en) * 2002-10-02 2004-04-22 Matsushita Electric Ind Co Ltd Acoustic reproduction system
CN1778143B (en) * 2003-09-08 2010-11-24 松下电器产业株式会社 Audio image control device design tool and audio image control device
WO2005025270A1 (en) * 2003-09-08 2005-03-17 Matsushita Electric Industrial Co., Ltd. Audio image control device design tool and audio image control device
JPWO2005025270A1 (en) * 2003-09-08 2006-11-16 松下電器産業株式会社 Design tool for sound image control device and sound image control device
US7664272B2 (en) 2003-09-08 2010-02-16 Panasonic Corporation Sound image control device and design tool therefor
WO2005091677A1 (en) * 2004-03-22 2005-09-29 Toa Corporation Multi-channel system identification device
US7715568B2 (en) 2004-04-27 2010-05-11 Sony Corporation Binaural sound reproduction apparatus and method, and recording medium
JP2009194682A (en) * 2008-02-15 2009-08-27 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
US8081769B2 (en) 2008-02-15 2011-12-20 Kabushiki Kaisha Toshiba Apparatus for rectifying resonance in the outer-ear canals and method of rectifying
US8520857B2 (en) 2008-02-15 2013-08-27 Sony Corporation Head-related transfer function measurement method, head-related transfer function convolution method, and head-related transfer function convolution device
JP2009206691A (en) * 2008-02-27 2009-09-10 Sony Corp Head-related transfer function convolution method and head-related transfer function convolution device
US9432793B2 (en) 2008-02-27 2016-08-30 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
US8503682B2 (en) 2008-02-27 2013-08-06 Sony Corporation Head-related transfer function convolution method and head-related transfer function convolution device
US8280062B2 (en) 2008-12-26 2012-10-02 Kabushiki Kaisha Toshiba Sound corrector, sound measurement device, sound reproducer, sound correction method, and sound measurement method
JP2011009842A (en) * 2009-06-23 2011-01-13 Sony Corp Audio signal processing device, and audio signal processing method
US8873761B2 (en) 2009-06-23 2014-10-28 Sony Corporation Audio signal processing device and audio signal processing method
JP2010178373A (en) * 2010-04-08 2010-08-12 Sony Corp Head transfer function measuring method, and head transfer function convolution method and apparatus
JP2010187401A (en) * 2010-04-26 2010-08-26 Sony Corp Head-related transfer function convolution method and head-related transfer function convolution apparatus
US8831231B2 (en) 2010-05-20 2014-09-09 Sony Corporation Audio signal processing device and audio signal processing method
US9232336B2 (en) 2010-06-14 2016-01-05 Sony Corporation Head related transfer function generation apparatus, head related transfer function generation method, and sound signal processing apparatus
JP2019169835A (en) * 2018-03-23 2019-10-03 株式会社Jvcケンウッド Out-of-head localization processing apparatus, out-of-head localization processing method, and program
JP2022024154A (en) * 2018-09-28 2022-02-08 株式会社Jvcケンウッド Out-of-head localization processing system and out-of-head localization processing method
US11438721B2 (en) * 2018-09-28 2022-09-06 Jvckenwood Corporation Out-of-head localization system, filter generation device, method, and program
JP7188545B2 (en) 2018-09-28 2022-12-13 株式会社Jvcケンウッド Out-of-head localization system and out-of-head localization method

Similar Documents

Publication Publication Date Title
KR101333031B1 (en) Method of and device for generating and processing parameters representing HRTFs
CN106664473B (en) Information processing apparatus, information processing method, and program
JP2001285998A (en) Out-of-head sound image localization device
US7215782B2 (en) Apparatus and method for producing virtual acoustic sound
US8081769B2 (en) Apparatus for rectifying resonance in the outer-ear canals and method of rectifying
Denk et al. An individualised acoustically transparent earpiece for hearing devices
JP2004526364A (en) Method and system for simulating a three-dimensional acoustic environment
JPH1070796A (en) Stereophonic sound processor
JP4786701B2 (en) Acoustic correction device, acoustic measurement device, acoustic reproduction device, acoustic correction method, and acoustic measurement method
CN112956210B (en) Audio signal processing method and device based on equalization filter
JPH09322299A (en) Sound image localization controller
US5604809A (en) Sound field control system
JP2004506396A (en) Audio frequency response processing system
JP2000092589A (en) Earphone and overhead sound image localizing device
Riikonen et al. An augmented reality audio mixer and equalizer
CN113727232A (en) Automatic calibration in-ear earphone
Rämö Equalization techniques for headphone listening
JP4427915B2 (en) Virtual sound image localization processor
JP3090416B2 (en) Sound image control device and sound image control method
JP3374731B2 (en) Binaural playback device, binaural playback headphones, and sound source evaluation method
JP2002095097A (en) Adaptive signal processing system
JP7319687B2 (en) 3D sound processing device, 3D sound processing method and 3D sound processing program
JP2909521B2 (en) Out-of-head sound localization stereo listening method
Karjalainen et al. An augmented reality audio mixer and equalizer
JP2873982B2 (en) Out-of-head sound localization stereo listening method