JPH06178398A - Method for controlling sound image localization - Google Patents

Method for controlling sound image localization

Info

Publication number
JPH06178398A
JPH06178398A JP4343460A JP34346092A JPH06178398A JP H06178398 A JPH06178398 A JP H06178398A JP 4343460 A JP4343460 A JP 4343460A JP 34346092 A JP34346092 A JP 34346092A JP H06178398 A JPH06178398 A JP H06178398A
Authority
JP
Japan
Prior art keywords
sound
sound image
image localization
cfrx
response
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4343460A
Other languages
Japanese (ja)
Other versions
JP2755081B2 (en
Inventor
Norihiko Fuchigami
徳彦 渕上
Masahiro Nakayama
雅博 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP4343460A priority Critical patent/JP2755081B2/en
Priority to US08/159,254 priority patent/US5404406A/en
Publication of JPH06178398A publication Critical patent/JPH06178398A/en
Application granted granted Critical
Publication of JP2755081B2 publication Critical patent/JP2755081B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)

Abstract

PURPOSE:To make the calculation of a transmission characteristic of a signal converting circuit excelelnt with a small circuit scale and to improve sound quality by obtaining the transmission characteristic of the signal converting circuit based on a measured transfer function and taking average of width corresponding to critical band width. CONSTITUTION:A pair of microphones ML and MR are arranged at the both ears of a dummy head DM, measurement sound from a speaker SP is received and lease sound refL, refR and sound to be measured L, R are synchronized and recorded in a recorder DAT. A prescribed processing is executed on a workstation through the use of the recording and the frequency response IR(S) of a measurement position HRTF is obtained. Then, average moving processing is performed by optimum band width in accordance with a frequency band and it is defined as the transmission characteristic of the signal converting circuit. The moving averaged discrete frequency response is reverse FET- converted and defined as the time response of a cancel filter. Then, a moving average is executed so that the convergence of time response is quickened, the transfer characteristic of the signal converting circuit is made well calculate with a small scale, a cost is reduced and sound quality is improved.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、離間して配設された複
数のトランスジューサから、同一の音源が供給された複
数の信号変換回路で処理した信号を再生して、実際のト
ランスジューサ(スピーカ)とは異なる所望の任意の位
置に音像が定位しているように感じさせる音像定位制御
に係り、特に、音像定位制御用のデータ(信号変換回路
の伝達特性)の算出の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention reproduces a signal processed by a plurality of signal conversion circuits to which the same sound source is supplied from a plurality of transducers arranged apart from each other, and an actual transducer (speaker). The present invention relates to a sound image localization control that makes a user feel that a sound image is localized at a desired arbitrary position different from the above, and particularly to an improvement in calculation of data for sound image localization control (transfer characteristics of a signal conversion circuit).

【0002】[0002]

【従来の技術】従来より、両耳における信号のレベル差
と位相差(時間差)によって特定な位置(方向)に音源
を感じさせる、バイノーラル技術を利用した音像定位方
法がある。アナログ回路を用いた音像定位方法として
は、例えば本出願人に係る特開昭53-140001 号(特公昭
58-3638号)公報記載の音像定位方式などがある。これ
は、アナログフィルタにより特定の周波数帯域のレベル
を強調・減衰させて(振幅制御して)音源の前後感を出
し、アナログディレイにより左右の音に時間差を生じさ
せて(位相制御して)音源の左右感を出すようにしたも
のであった。しかし、このようにアナログ回路を用いた
音像定位方法では、各音像定位におけるHRTF(頭部
伝達関数)を、周波数毎の位相及び振幅について正確に
実現することは技術的・コスト的に容易ではなく、一般
的に180度の範囲を越える広範囲な空間の、任意の位
置に音源を定位させることは困難であった。
2. Description of the Related Art Conventionally, there is a sound image localization method using a binaural technique in which a sound source is felt at a specific position (direction) by the level difference and phase difference (time difference) of signals in both ears. As a sound image localization method using an analog circuit, for example, Japanese Patent Application Laid-Open No. 53-140001 (Japanese Patent Publication No.
58-3638) There is a sound image localization method described in the official gazette. This is because the analog filter emphasizes / attenuates the level of a specific frequency band (amplitude control) to give a sense of front and back of the sound source, and the analog delay causes a time difference between the left and right sounds (phase control). It was intended to give a sense of left and right. However, in such a sound image localization method using an analog circuit, it is not easy technically and costly to accurately realize the HRTF (head related transfer function) in each sound image localization for each phase and amplitude for each frequency. Generally, it has been difficult to localize a sound source at an arbitrary position in a wide space exceeding 180 degrees.

【0003】さらに、最近のデジタル処理技術の進展に
伴って、デジタル回路により実現した音像定位方法があ
り、例えば、特開平2-298200号公報記載の「音像形成方
法及びその装置」がある。このデジタル回路を用いた音
像定位方法は、音源からの信号をFFT(Fast Fourier
Transform)変換して、周波数軸上で処理して、左右の
両チャンネル信号に周波数に依存したレベル差と位相差
とを与えて、音像の定位をデジタル的に制御するもので
ある。この方法の各音像定位位置における、周波数に依
存したレベル差と位相差とは、実際の聴取者を利用した
実験的なデータとして収集されたものである。しかし、
このようにデジタル回路を用いた音像定位方法では、正
確・精密に音像を定位させようとすると、回路規模が極
めて大きくなるという難点があり、特殊な業務用のレコ
ーディングシステムとして利用されるにすぎなかった。
レコーディングの段階で音像定位の処理(例えば飛行音
の移動)をして、その処理した結果の音(音楽)信号を
レコード化していた。処理された信号は、通常のステレ
オ再生装置で再生することにより、音像の移動効果が生
じる。
Further, with the recent development of digital processing technology, there is a sound image localization method realized by a digital circuit, for example, there is a "sound image forming method and its device" described in Japanese Patent Laid-Open No. 2-298200. In the sound image localization method using this digital circuit, the signal from the sound source is processed by FFT (Fast Fourier Transform).
Transform) is processed and processed on the frequency axis to give a level difference and a phase difference depending on the frequency to the left and right channel signals to digitally control the localization of the sound image. The frequency-dependent level difference and phase difference at each sound image localization position of this method are collected as experimental data using an actual listener. But,
In this way, the sound image localization method using a digital circuit has the drawback that the circuit scale becomes extremely large when attempting to localize the sound image accurately and precisely, and it is only used as a special professional recording system. It was
At the recording stage, sound image localization processing (for example, flight sound movement) was performed, and the resulting sound (music) signal was recorded. The processed signal is reproduced by a normal stereo reproducing device, so that a moving effect of a sound image is generated.

【0004】ところで、最近では、バーチャルリアリテ
ィ(仮想現実感)を利用したアミューズメントゲーム機
やコンピュータ端末機が出現している。これらゲーム機
や端末機においても、画面に応じた現実感のある音像定
位が要求され始めている。例えばゲーム機において、画
面上の飛行機の動きにマッチした飛行音の動きが必要と
され始めている。この場合、飛行機の飛ぶコースが決っ
ていれば、予めその動きに合わせて音像の移動処理をし
た音(音楽)を入れておき、ゲーム機側ではその音(音
楽)を単純に再生すれば、足りる。
By the way, recently, amusement game machines and computer terminals utilizing virtual reality have appeared. Also in these game machines and terminals, there is a demand for realistic sound image localization corresponding to the screen. For example, in game consoles, the movement of flight sounds that matches the movement of an airplane on the screen is beginning to be required. In this case, if the flight course of the airplane has been decided, the sound (music) that has been subjected to the movement processing of the sound image according to the movement is inserted in advance, and the sound (music) is simply reproduced on the game machine side, Is enough.

【0005】しかし、ゲーム機(や端末機)において
は、操作者の操作に応じて、飛行機の飛ぶコース(位
置)が異なることになり、操作に応じてリアルタイムで
操作者の操作に合わせて音像の移動処理をして、それを
再生する必要が生じる。この点が、前述したレコード用
の音像定位処理と大幅に異なる。このため、個々のゲー
ム機に音像定位処理装置が必要となるが、上述した従来
の方法では、音源からの信号をFFT変換して、周波数
軸上で処理して再び逆FFT変換して再生する必要があ
るので、回路規模が非常に大きくなり、現実的な解決策
となり得なかった。また、上述した従来の方法では、周
波数軸上のデータ(周波数に依存したレベル差と位相差
のデータ)にもとずく音像定位であったので、回路規模
を小さくするために近似処理しようとすると、HRTF
の近似が正確に実施し得ず、その結果 180度の範囲を越
える広範囲な空間に定位させることが難しいこともあっ
た。
However, in the game machine (or terminal device), the flight course (position) of the airplane varies depending on the operation of the operator, and the sound image is adjusted in real time according to the operation of the operator. It becomes necessary to perform the moving process of and reproduce it. This point is significantly different from the sound image localization processing for records described above. For this reason, a sound image localization processing device is required for each game machine, but in the above-described conventional method, the signal from the sound source is FFT-converted, processed on the frequency axis, and inverse FFT-converted again for reproduction. Since it was necessary, the circuit scale became very large and could not be a practical solution. Further, in the above-described conventional method, since the sound image localization is based on the data on the frequency axis (data of the level difference and the phase difference depending on the frequency), if an approximation process is performed in order to reduce the circuit scale, , HRTF
The approximation of could not be performed accurately, and as a result, it was difficult to localize in a wide space beyond the range of 180 degrees.

【0006】そこで、本出願人は、かかる従来の方法に
代わる音像定位制御方法をすでに発案した。これは、回
路規模が小さくコスト的に優れるとともに、 180度の範
囲を越える広範囲な空間に定位させることが可能な音像
定位制御の方法であり、その特徴は、第1に、一対のコ
ンボルバにより音源からの信号を時間軸上で処理して音
像を定位させて、回路規模が非常に小さくし、さらに、
第2に、前記コンボルバの音像定位処理のデータを、最
終的に時間軸上のIR(インパルス応答)のデータとし
て供給して、音像定位感を損なうことなくHRTFを正
確に近似処理して、回路規模(コンボルバの係数の数)
を一層小さくしたものである。
Therefore, the present applicant has already devised a sound image localization control method as an alternative to the conventional method. This is a sound image localization control method that enables localization in a wide space exceeding the range of 180 degrees, while the circuit scale is small and cost effective. The first feature is that the sound source is generated by a pair of convolvers. The signal from is processed on the time axis to localize the sound image, and the circuit scale is made very small.
Secondly, the sound image localization processing data of the convolver is finally supplied as IR (impulse response) data on the time axis to accurately approximate the HRTF without impairing the sound image localization feeling, Scale (number of convolver coefficients)
Is made smaller.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、上記し
た新たな音像定位制御方法においては、HRTFの測定
結果からコンボルバの時間応答(伝達特性)を求めてい
るが、これを周波数応答として見ると、鋭いピークやデ
ィップを持った特性であった。これをそのままコンボル
バの伝達特性(時間応答)として用いた場合、不必要な
周波数特性上のピークやディップを再現しているため、
音像定位を実現する際に、不自然な音質になるという問
題点が残っていた。これは、実測にも限界があることを
示すものである。また、コンボルバの時間応答(インパ
ルス応答)自体も、鋭いピークやディップを再現してい
るために収束が必ずしも良くなく、コンボルバの規模
(係数)があまり小さくならないという問題点も残って
いた。
However, in the above-mentioned new sound image localization control method, the time response (transfer characteristic) of the convolver is obtained from the measurement result of the HRTF, but when viewed as a frequency response, it is sharp. It was a characteristic with peaks and dips. When this is used as it is as the transfer characteristic (time response) of the convolver, since unnecessary peaks and dips on the frequency characteristic are reproduced,
When implementing sound image localization, the problem of unnatural sound quality remained. This indicates that there is a limit to actual measurement. Further, the time response (impulse response) of the convolver itself does not always converge well because it reproduces sharp peaks and dips, and the problem remains that the scale (coefficient) of the convolver does not become so small.

【0008】[0008]

【課題を解決するための手段】本発明は上記課題を解決
するために、図1,図2及び図9に示すように、離間し
て配設された複数のトランスジューサ(スピーカsp
1,sp2)から、同一の音源(X)が供給された複数
の信号変換回路(コンボルバ;係数がcfLx,cfR
xであるキャンセルフィルタからなる畳み込み演算処理
回路)で処理した信号を再生して、聴取者に前記トラン
スジューサとは異なる任意の位置(x)に音像が定位し
ているように感じさせる音像定位制御方法において、各
音像定位位置において測定した伝達関数(HRTF;頭
部伝達関数)をもとに前記信号変換回路(コンボルバ)
の伝達特性(インパルス応答)を求める(ステップ10
1〜104)と共に、(この求めた伝達特性をFFT変
換して離散周波数応答にし、)臨界帯域幅に応じた幅の
移動平均化処理をして、(この移動平均化したものを逆
FFT変換して、)これを前記信号変換回路の伝達特性
(インパルス応答)とした(ステップ105)ことを特
徴とする音像定位制御方法を提供するものである。
In order to solve the above-mentioned problems, the present invention provides a plurality of transducers (speakers sp) which are spaced apart from each other as shown in FIGS. 1, 2 and 9.
, Sp2), a plurality of signal conversion circuits (convolvers; coefficients cfLx, cfR) supplied with the same sound source (X)
A sound image localization control method for reproducing a signal processed by a convolutional arithmetic processing circuit composed of a cancel filter, which is x, and making a listener feel that a sound image is localized at an arbitrary position (x) different from the transducer. In the above, the signal conversion circuit (convolver) is based on the transfer function (HRTF; head related transfer function) measured at each sound image localization position.
The transfer characteristic (impulse response) of (step 10
1 to 104), (the obtained transfer characteristic is FFT-transformed into a discrete frequency response, and the moving average processing of the width according to the critical bandwidth is performed, and the moving-averaged value is subjected to the inverse FFT transformation. Then, there is provided a sound image localization control method characterized by using this as a transfer characteristic (impulse response) of the signal conversion circuit (step 105).

【0009】[0009]

【作用】上記のような音像定位制御方法によれば、臨界
帯域幅で最適化された帯域幅で移動平均化され、図9の
(C)及び(D)から明らかなように、音像定位に必要
な周波数応答の特徴を残しつつ、不必要なピークやディ
ップが取り除かれ、これをもとに、信号変換回路の伝達
特性(コンボルバのインパルス応答;係数)が決定され
る。
According to the sound image localization control method as described above, the moving average is performed in the bandwidth optimized in the critical bandwidth, and as is clear from FIGS. 9C and 9D, the sound image localization is performed. Unnecessary peaks and dips are removed while leaving the necessary frequency response characteristics, and the transfer characteristic (convolver impulse response; coefficient) of the signal conversion circuit is determined based on this.

【0010】[0010]

【実施例】本発明になる音像定位制御方法の一実施例に
ついて、以下図面と共に説明する。 最初に、音像定位
制御方法の基本原理について説明する。これは、離間し
て配設された一対のトランスジューサ(以下、スピーカ
を例として説明する)を使用し、空間の任意の位置に音
像を定位させる技術である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a sound image localization control method according to the present invention will be described below with reference to the drawings. First, the basic principle of the sound image localization control method will be described. This is a technique for localizing a sound image at an arbitrary position in space by using a pair of transducers (which will be described below by taking a speaker as an example) arranged apart from each other.

【0011】図3は音像定位の原理図である。sp1,
sp2は受聴者(実施例の中では、聴取者と称すること
もある)の前方左右に配置されるスピーカであり、sp
1から聴取者左耳までの頭部伝達特性(インパルス応
答)をh1L、右耳までの頭部伝達特性をh1R、sp
2から左右耳までの頭部伝達特性をh2L,h2Rとす
る。また、目的とする定位位置xに実際のスピーカを配
置したときの受聴者左右耳までの頭部伝達特性をpL
x,pRxとする。ここで各伝達特性は音響空間にスピ
ーカと、ダミーヘッド(または人頭)の両耳位置にマイ
クを配置して実際に測定したものに、適切な波形処理な
どを施したものである。
FIG. 3 is a principle diagram of sound image localization. sp1,
sp2 is a speaker arranged in front of and on the left and right of a listener (sometimes referred to as a listener in the embodiment), sp2
1 to h1L the head-related transfer characteristic (impulse response) from the listener's left ear to h1R, sp
The head-related transfer characteristics from 2 to the left and right ears are h2L and h2R. In addition, the head-related transfer characteristics to the left and right ears of the listener when the actual speaker is placed at the target localization position x are pL.
x, pRx. Here, each transfer characteristic is obtained by actually measuring with a speaker in a sound space and a microphone at both ears of a dummy head (or human head), and subjected to appropriate waveform processing.

【0012】次に、定位させたい音源ソースXを信号変
換装置cfLx,cfRx(コンボルバなどによる伝達
特性)に通して得られる信号を、それぞれsp1,sp
2で再生することを考える。このとき受聴者左右耳に得
られる信号をeL,eRとすると、 eL=h1L・cfLx・X+h2L・cfRx・X (式1) eR=h1R・cfLx・X+h2R・cfRx・X (〃 ) 一方、ソースXを目的の定位位置から再生したときに受
聴者左右耳に得られる信号をdL,dRとすると、 dL=pLx・X (式2) dR=pRx・X (〃 )
Next, signals obtained by passing the sound source X to be localized through signal converters cfLx and cfRx (transfer characteristics by a convolver) are sp1 and sp, respectively.
Consider playing in 2. At this time, if the signals obtained in the left and right ears of the listener are eL and eR, then eL = h1L.cfLx.X + h2L.cfRx.X (Equation 1) eR = h1R.cfLx.X + h2R.cfRx.X (〃) Meanwhile, the source X Let dL and dR be the signals obtained in the left and right ears of the listener when is reproduced from the target localization position: dL = pLx · X (Equation 2) dR = pRx · X (〃)

【0013】ここで、sp1,sp2の再生により受聴
者左右耳に得られる信号が、目的位置からソースを再生
したときの信号に一致すれば、受聴者はあたかも目的位
置にスピーカが存在するように音像を認識することとな
る。この条件eL=dL,eR=dRと(式1),(式
2)より、Xを消去して h1L・cfLx+h2L・cfRx=pLx (式3) h1R・cfRx+h2R・cfRx=pRx (〃 ) (式3)からcfLx,cfRxを求めると cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H (〃 ) ただし、 H=h1L・h2R−h2L・h1R (式4b) したがって、(式4a),(式4b)により算出した伝
達特性cfLx,cfRxを用いてコンボルバ(畳み込
み演算処理回路)等により定位させたい信号を処理すれ
ば、目的の位置xに音像を定位させることができる。
Here, if the signals obtained in the left and right ears of the listener by reproduction of sp1 and sp2 match the signal when the source is reproduced from the target position, the listener is as if the speaker exists at the target position. The sound image will be recognized. From these conditions eL = dL, eR = dR, and (Equation 1) and (Equation 2), X is deleted and h1L · cfLx + h2L · cfRx = pLx (Equation 3) h1R · cfRx + h2R · cfRx = pRx (Equation 3) CfLx, cfRx is calculated from cfLx = (h2R · pLx−h2L · pRx) / H (equation 4a) cfRx = (− h1R · pLx + h1L · pRx) / H (〃) where H = h1L · h2R-h2L · h1R (Equation 4b) Therefore, if the signal to be localized by the convolver (convolution operation processing circuit) is processed using the transfer characteristics cfLx and cfRx calculated by (Equation 4a) and (Equation 4b), the target position x can be obtained. The sound image can be localized.

【0014】具体的な信号変換装置の実現方法は様々考
えられるが、非対称なFIRデジタルフィルタ(コンボ
ルバ)を用いて実現すれば良い。なお、FIRデジタル
フィルタで用いる場合の最終の伝達特性は、時間応答関
数である。つまり、必要な定位位置xにおける伝達特性
cfLx,cfRxとして、(式4a),(式4b)で
求めたものを、1回のFIRフィルタ処理により実現す
るための係数として、cfLx,cfRxの係数をあら
かじめ作成し、ROMのデータとして準備しておく。R
OMから必要な音像定位位置の係数をFIRデジタルフ
ィルタに転送し、音源からの信号を畳み込み演算処理し
て一対のスピーカから再生すれば、所望の任意の位置に
音像が定位されることになる。
Although various concrete methods of realizing the signal conversion apparatus are conceivable, it may be realized by using an asymmetric FIR digital filter (convolver). The final transfer characteristic when used in the FIR digital filter is a time response function. That is, as the transfer characteristics cfLx and cfRx at the required localization position x, the coefficients of cfLx and cfRx are used as the coefficients for realizing the one obtained by (Expression 4a) and (Expression 4b) by one FIR filter processing. Create in advance and prepare as ROM data. R
If the coefficient of the required sound image localization position is transferred from the OM to the FIR digital filter and the signal from the sound source is subjected to the convolution calculation processing and reproduced from the pair of speakers, the sound image is localized at a desired arbitrary position.

【0015】以上のような原理に基づく本音像定位制御
方法について図1を参照して詳述する。図1は音像定位
制御の方法のステップを示すものである。
The sound image localization control method based on the above principle will be described in detail with reference to FIG. FIG. 1 shows steps of a method for controlling a sound image localization.

【0016】頭部伝達関数(Head Related Transfer
Function;以下、HRTFと称する)の測定(ステップ
101) これを図4,図5をもって説明する。図4は、HRTF
の測定システムを示すものである。ダミーヘッド(また
は人頭)DMの両耳に一対マイクロホンML,MRを設
置し、スピーカSPからの測定音を受け、録音器DAT
にソース音(リファレンスデータ)refL,refR
と被測定音(測定データ)L,Rを同期して記録する。
Head related transfer
Function; hereinafter referred to as HRTF) measurement (step 101) This will be described with reference to FIGS. 4 and 5. Figure 4 shows HRTF
The measurement system of FIG. A pair of microphones ML and MR are installed on both ears of the dummy head (or human head) DM, and the sound recorded by the speaker SP is received, and the recorder DAT is received.
Source sound (reference data) refL, refR
And the sound to be measured (measurement data) L and R are synchronously recorded.

【0017】ソース音XHとしては、インパルス音,ホ
ワイトノイズ,その他のノイズ等を用いることができ
る。特に、統計処理の観点からは、ホワイトノイズは、
連続音でかつオーディオ帯域にわたってエネルギー分布
が一定なので、ホワイトノイズを用いることによりSN
比が向上する。上記スピーカSPの位置を正面を0度
(°)として取決めた空間内の複数の角度θ(例えば、
図5に示すように、30度ごとに12ポイント)に設置
し、それぞれ所定の時間だけ、連続的に記録する。
As the source sound XH, impulse sound, white noise, and other noises can be used. In particular, from the viewpoint of statistical processing, white noise is
Since it is a continuous sound and the energy distribution is constant over the audio band, it is possible to use SN by using white noise.
The ratio is improved. A plurality of angles θ in the space where the position of the speaker SP is 0 ° (°) on the front side (for example,
As shown in FIG. 5, it is installed at 12 points every 30 degrees, and continuously recorded for each predetermined time.

【0018】HRTFのインパルス応答(Impulse Re
sponse;以下、IRと称する)の算出(ステップ10
2) ステップ101で、同期して記録されたソース音(リフ
ァレンスデータ)refL,refRと被測定音(測定
データ)L,Rとを、ワークステーション(図示せず)
上で処理する。ソース音(リファレンスデータ)の周波
数応答をX(S)、被測定音(測定データ)の周波数応
答をY(S)、測定位置におけるHRTFの周波数応答
をIR(S)とすると、(式5)に示す、入出力の関係
がある。 Y(S)=IR(S)・X(S) (式5) したがって、HRTFの周波数応答をIR(S)は、 IR(S)=Y(S)/X(S) (式6) である。
HRTF impulse response (Impulse Re
sponse; hereinafter referred to as IR) (step 10)
2) In step 101, the source sounds (reference data) refL and refR and the to-be-measured sounds (measurement data) L and R, which are synchronously recorded, are stored in a workstation (not shown).
Process above. Letting X (S) be the frequency response of the source sound (reference data), Y (S) be the frequency response of the sound to be measured (measurement data), and IR (S) be the frequency response of the HRTF at the measurement position (Equation 5). There is an input / output relationship as shown in. Y (S) = IR (S) · X (S) (Equation 5) Therefore, the frequency response of the HRTF is IR (S) = Y (S) / X (S) (Equation 6) is there.

【0019】よって、リファレンスの周波数応答X
(S)、測定データの周波数応答Y(S)は、前記ステ
ップ101で求めたデータを時間同期した窓で切り出
し、それぞれFFT変換により、有限のフーリエ級数展
開して離散周波数として計算し、(式6)より、HRT
Fの周波数応答IR(S)が、周知の計算方法で求めら
れる。 この場合、IR(S)の精度をあげる(SN比
の向上)ために時間的に異なる数百個の窓に対してそれ
ぞれIR(S)を計算し、それらを平均化すると良い。
そして、計算したHRTFの周波数応答IR(S)を逆
FFT変換して、HRTFの時間軸応答(インパルス応
答)IR(第1のIR)とする。
Therefore, the frequency response X of the reference
(S), the frequency response Y (S) of the measurement data is obtained by cutting out the data obtained in step 101 with a window that is time-synchronized, and performing a finite Fourier series expansion by FFT conversion to calculate a discrete frequency, From 6), HRT
The frequency response IR (S) of F is obtained by a known calculation method. In this case, in order to improve the accuracy of IR (S) (improvement of SN ratio), it is preferable to calculate IR (S) for several hundred windows that are temporally different and average them.
Then, the frequency response IR (S) of the calculated HRTF is subjected to inverse FFT conversion to obtain a time-axis response (impulse response) IR (first IR) of the HRTF.

【0020】IR(インパルス応答)の整形処理(ス
テップ103) ここで、ステップ102で求めたIRを整形する。まず
例えばFFT変換により、ステップ102で求めた第1
のIRをオーディオスペクトラムにわたる離散周波数で
展開し、不要な帯域(高域には大きなディップが生じる
が、これは音像定位にあまり影響しない不要なものであ
る)を、BPF(バンドパスフィルタ)で除去する。こ
のように帯域制限すると、周波数軸上での不要なピーク
やディップが除去されて、キャンセルフィルタに不要な
係数が生じなくなるので、収束性がよくなり、係数を短
くすることができる。
IR (impulse response) shaping processing (step 103) Here, the IR obtained in step 102 is shaped. First, for example, by the FFT transform, the first obtained in step 102
The IR of the is expanded at discrete frequencies over the audio spectrum, and unnecessary band (a large dip occurs in the high range, but this is unnecessary that does not affect sound image localization) is removed by a BPF (bandpass filter). To do. By limiting the band in this way, unnecessary peaks and dips on the frequency axis are removed and unnecessary coefficients do not occur in the cancel filter, so that the convergence is improved and the coefficients can be shortened.

【0021】そして、帯域制限されたIR(S)を逆F
FT変換して、IR(インパルス応答)を時間軸上で切
り出し窓(例えば、コサイン関数の窓)を掛けて、ウィ
ンド処理する(第2のIRとなる)。ウィンド処理する
ことにより、IRの有効長が長くなくなり、キャンセル
フィルタの収束性が向上して、音質の劣化が生じないよ
うになる。図7にHRTFのIR(インパルス応答)の
具体的な例を示す。横軸は時間(サンプルクロックが 4
8kHzであるクロック単位の時間)、縦軸は振幅のレベル
である。2点鎖線はウィンド窓を示す。
Then, the band-limited IR (S) is inverted F
FT conversion is performed, and IR (impulse response) is cut out on the time axis by a window (for example, a cosine function window) and subjected to window processing (second IR). By performing the window processing, the effective length of the IR is not long, the convergence of the cancel filter is improved, and the sound quality is not deteriorated. FIG. 7 shows a specific example of IR (impulse response) of HRTF. The horizontal axis is time (sample clock is 4
The clock unit is 8 kHz), and the vertical axis is the amplitude level. The chain double-dashed line shows the window.

【0022】キャンセルフィルタcfLx、cfRx
の算出(ステップ104) コンボルバ(たたみ込み積分回路)であるキャンセルフ
ィルタcfLx、cfRxは、前述した(式4a)及び
(式4b)に示したように、 cfLx=(h2R・pLx−h2L・pRx)/H (式4a) cfRx=(−h1R・pLx+h1L・pRx)/H (〃 ) ただし、H=h1L・h2R−h2L・h1R (式4b) である。
Cancellation filters cfLx, cfRx
(Step 104) The cancel filters cfLx and cfRx, which are convolvers (convolutional integration circuits), are cfLx = (h2R · pLx−h2L · pRx), as shown in the above (Equation 4a) and (Equation 4b). / H (Formula 4a) cfRx = (-h1R.pLx + h1L.pRx) / H (〃) However, it is H = h1L.h2R-h2L.h1R (Formula 4b).

【0023】ここで、配置されるスピーカsp1,sp
2による頭部伝達特性h1L,h1R,h2L,h2R
及び、目的とする定位位置xに実際のスピーカを配置し
たときの頭部伝達特性pLx,pRxとして、上記ステ
ップ101〜103によって求められた、各角度θごと
の整形処理された第2のIR(インパルス応答)を代入
する。頭部伝達特性h1L,h1Rは、図6のLチャン
ネルスピーカの位置に対応するもので、正面から左に例
えば30度(θ=330度)に設置されるとすれば、θ
=330度のIRを用いる。頭部伝達特性h2R,h2
Lは、同図のRチャンネルスピーカの位置に対応するも
ので、正面から右に例えば30度(θ=30度)に設置
されるとすれば、θ=30度のIRを用いる(すなわ
ち、実際の音像再生時のシステム(例えば図2に示す)
に近いものを選ぶ)。そして、頭部伝達特性pLx、p
Rxとしては、目的とする音源定位位置である正面から
左右90度の180度の範囲はもちろんのこと、それを
越える広範囲な空間(全空間)における、30度ごとの
IRを代入することにより、それに対応した全空間のc
fLx、cfRx、すなわち30度ごとに12組のキャ
ンセルフィルタcfLx、cfRx群が求められる(図
6では、240度の位置を例としている)。キャンセル
フィルタcfLx、cfRx群は、最終的には、時間軸
上の応答であるIR(インパルス応答)として求められ
る。
Here, the speakers sp1 and sp to be arranged are
Head related transfer characteristics h1L, h1R, h2L, h2R
And, as the head-related transfer characteristics pLx and pRx when the actual speaker is arranged at the target localization position x, the shaped second IR (obtained for each angle θ obtained in steps 101 to 103 above). Impulse response). The head-related transfer characteristics h1L and h1R correspond to the position of the L-channel speaker in FIG. 6, and if they are installed at 30 degrees (θ = 330 degrees) from the front to the left, θ
= Use IR of 330 degrees. Head-related transfer characteristics h2R, h2
L corresponds to the position of the R channel speaker in the same figure, and if it is installed at 30 degrees (θ = 30 degrees) from the front to the right, an IR of θ = 30 degrees is used (that is, System for sound image reproduction (for example, shown in Fig. 2)
Choose one close to). Then, the head-related transfer characteristics pLx, p
As Rx, by substituting the IR for every 30 degrees in a wide space (entire space) beyond the range of 180 degrees 90 degrees to the left and right from the front which is the target sound source localization position, C of the whole space corresponding to it
fLx, cfRx, that is, 12 sets of cancellation filters cfLx, cfRx are obtained for every 30 degrees (in FIG. 6, a position of 240 degrees is taken as an example). The cancel filters cfLx and cfRx group are finally obtained as IR (impulse response) which is a response on the time axis.

【0024】なお、(式4a)によるキャンセルフィル
タcfLx、cfRxの計算は、次のようである。まず
(式4b)のHに対する一種の逆フィルタであるH-1
最小2乗法により求め、これを逆FFT変換して時間関
数h(t) とする。また(式4a)の各項h1L,h1
R,h2L,pRx,pLx,h2Rをそれぞれ時間関
数で表すことにより、次式が成り立つ。 cfLx(t) =(h2R・pLx−h2L・pRx)・h(t) (式7) cfRx(t) =(−h1R・pLx+h1L・pRx)・h(t) (〃 ) したがって、これらの(式7)からキャンセルフィルタ
cfLx、cfRxの係数が求められることになる。
(式7)から明らかなように、キャンセルフィルタcf
Lx、cfRxの係数を短くするには、各頭部伝達特性
h1L,h1R,h2L,pRx,pLx,h2Rをそ
れぞれ短くすることが極めて大切である。このため、前
述したように、ステップ101〜103でウィンド処
理,整形処理などの各種の処理をして、各頭部伝達特性
h1L,h1R,h2L,pRx,pLx,h2Rを短
くしている。図8にキャンセルフィルタ係数cfLx、
cfRxの具体的な係数列を示す。横軸は時間(サンプ
ルクロックが 48kHzであるクロック単位の時間)、縦軸
は振幅のレベルである。2点鎖線はウィンド窓を示す。
しかし、これらのキャンセルフィルタの係数(群)cf
Lx、cfRxは、周波数応答でみると、不必要なピー
クやディップを持ったままのものである。
The calculation of the cancel filters cfLx and cfRx according to (Equation 4a) is as follows. First, H -1 , which is a kind of inverse filter for H in (Equation 4b), is obtained by the least squares method, and this is subjected to inverse FFT conversion to obtain a time function h (t). Also, the terms h1L and h1 of (Equation 4a)
By expressing R, h2L, pRx, pLx, and h2R by a time function, respectively, the following equation holds. cfLx (t) = (h2R.pLx-h2L.pRx) .h (t) (Formula 7) cfRx (t) = (-h1R.pLx + h1L.pRx) .h (t) (〃) Therefore, these (Formula 7) The coefficients of the cancellation filters cfLx and cfRx are obtained from 7).
As is clear from (Equation 7), the cancellation filter cf
In order to shorten the coefficients of Lx and cfRx, it is extremely important to shorten each head-related transfer characteristic h1L, h1R, h2L, pRx, pLx, h2R. Therefore, as described above, various processes such as the window process and the shaping process are performed in steps 101 to 103 to shorten the head-related transfer characteristics h1L, h1R, h2L, pRx, pLx, h2R. The cancellation filter coefficient cfLx,
The concrete coefficient sequence of cfRx is shown. The horizontal axis is time (time in clock units where the sample clock is 48kHz), and the vertical axis is the amplitude level. The chain double-dashed line shows the window.
However, the coefficient (group) cf of these cancellation filters
In terms of frequency response, Lx and cfRx have unnecessary peaks and dips.

【0025】キャンセルフィルタ(コンボルバ;な
お、本実施例では、後述するスケーリング処理された最
終的なキャンセルフィルタをコンコルバと称している)
の係数cfLx、cfRxの移動平均化処理(ステップ
105) そこで、キャンセルフィルタ(コンボルバ)の係数cf
Lx、cfRxをFFT変換して周波数応答を求めこれ
を臨界帯域幅に応じた幅で移動平均化する。これが、本
願発明の要部であり、以下、図9(A)〜(D)を参照
して説明する。上記の不必要なピークやディップを取り
除く技術として、前記した(式4a)及び(式4b)に
より求めたcFLx、cFRxを、FFT変換してCF
Lx(S)とCFRx(S)を求め、この離散周波数応
答として求まったCFLx(S)、CFRx(S)を移
動平均化し,移動平均化した離散周波数応答を逆FFT
変換してキャンセルフィルタの時間応答とすることが考
えられる。
Cancel filter (convolver; in this embodiment, a final cancel filter that has undergone scaling processing, which will be described later, is called a convolver).
Moving average processing of coefficients cfLx and cfRx (step 105) Then, the coefficient cf of the cancel filter (convolver)
Lx and cfRx are FFT-transformed to obtain a frequency response, which is subjected to moving averaging in a width corresponding to the critical bandwidth. This is the main part of the present invention, and will be described below with reference to FIGS. As a technique for removing the above-mentioned unnecessary peaks and dips, cFLx and cFRx obtained by the above-mentioned (Equation 4a) and (Equation 4b) are FFT-transformed to CF.
Lx (S) and CFRx (S) are obtained, CFLx (S) and CFRx (S) obtained as the discrete frequency responses are subjected to moving averaging, and the moving averaged discrete frequency responses are subjected to inverse FFT.
It is conceivable to convert and use it as the time response of the cancellation filter.

【0026】通常、移動平均化を行う場合、ある帯域幅
を設定し各周波数帯域を同じ帯域幅で移動平均化するの
が一般的である。しかし人間の聴覚は臨界帯域と呼ばれ
る、「可聴周波数帯域全体に並ぶ帯域通過特性により音
の弁別や周波数分析を行っており、通過帯域幅は低域ほ
ど狭く高域ほど広い」という特性を持っている。本願
は、この臨界帯域に着目し、周波数帯域によって移動平
均化する帯域幅を臨界帯域に応じて最適化する方法をと
っている。なお、臨界帯域幅CBc(Hz)は、中心周波数
f(Hz)で記すと、下記式のように表現される。
Generally, when performing moving averaging, it is general that a certain bandwidth is set and each frequency band is moving averaged with the same bandwidth. However, human hearing has a characteristic called "critical band", which is that "the sound is discriminated and the frequency is analyzed based on the bandpass characteristics that are arranged in the entire audible frequency band, and the passband width is narrower in the lower range and wider in the higher range". There is. The present application focuses on this critical band, and adopts a method of optimizing the bandwidth for moving and averaging depending on the frequency band according to the critical band. The critical bandwidth CBc (Hz) is expressed by the following equation when expressed by the center frequency f (Hz).

【0027】[0027]

【数1】 [Equation 1]

【0028】以上の処理内容の具体例を図9に示す。図
9の(A)は、測定により求めた頭部伝達関数をもとに
前記した(式4a)及び(式4b)により求めたキャン
セルフィルタの時間応答である(図8と同じ段階のもの
である)。同図(B)は同図(A)をFFT変換して求
めた離散周波数応答と臨界帯域幅CBcを表示したもの
である。同図(C)は同図(B)を臨界帯域幅で移動平
均化した離散周波数応答を表示したものである。同図
(D)は同図(C)を逆FFT変換して求めたキャンセ
ルフィルタの時間応答である。
FIG. 9 shows a specific example of the above processing contents. FIG. 9A shows the time response of the cancellation filter obtained by the above-mentioned (Equation 4a) and (Equation 4b) based on the head-related transfer function obtained by measurement (at the same stage as FIG. 8). is there). The figure (B) displays the discrete frequency response and the critical bandwidth CBc obtained by the FFT transformation of the figure (A). The figure (C) shows the discrete frequency response obtained by moving and averaging the figure (B) with the critical bandwidth. FIG. 7D is the time response of the cancellation filter obtained by performing the inverse FFT conversion on FIG.

【0029】このようにすると、図9(C)及び(D)
からも明らかなように、音像定位に必要な低域における
周波数応答の特徴を残しつつ、高域などにおける不必要
なピークやディップを取り除くことができる。以上の処
理により良好な音像定位を保ちながら不必要なピークや
ディップによる音質の劣化を抑え、同時にキャンセルフ
ィルタ(コンボルバ)の規模が縮小される。
By doing so, FIGS. 9C and 9D are obtained.
As is clear from the above, it is possible to remove unnecessary peaks and dips in the high range while keeping the characteristics of the frequency response in the low range necessary for sound image localization. By the above process, deterioration of the sound quality due to unnecessary peaks and dips is suppressed while maintaining good sound image localization, and at the same time, the scale of the cancel filter (convolver) is reduced.

【0030】各定位ポイントxのキャンセルフィルタ
のスケーリング(ステップ106) また、実際にコンボルバ(キャンセルフィルタ)で音像
処理される音源(ソース音)のスペクトラム分布は、統
計的にみるとピンクノイズのように分布するもの、ある
いは高域でなだらかに下がるものなどがあり、いずれに
しても音源は単一音とは異なるために、畳み込み演算
(積分)を行ったときオーバーフローして、歪が発生す
る危険がある。
Scaling of the cancellation filter at each localization point x (step 106) Further, the spectrum distribution of the sound source (source sound) actually processed by the convolver (cancellation filter) is like pink noise statistically. There are things that are distributed or that drop gently in the high range.In any case, since the sound source is different from a single sound, there is a risk that overflow will occur when convolution calculation (integration) is performed and distortion will occur. is there.

【0031】そこで、オーバーフローを防止するため、
キャンセルフィルタcfLx、cfRxの係数の中で最
大のゲイン(例えば、キャンセルフィルタcfLx、c
fRxの各サンプル値の2乗和)のものを見つけ、その
係数と0dbのホワイトノイズを畳込んだときに、オー
バーフローが生じないように、全係数をスケーリングす
る。実際的には、絶対値の最大値が、許容レベル(振
幅)1に対して0.1〜0.4位(例えば0.2)とな
るように減衰させると良い。
Therefore, in order to prevent overflow,
Of the coefficients of the cancel filters cfLx, cfRx, the maximum gain (for example, the cancel filters cfLx, c
Find the square sum of each sampled value of fRx) and scale all the coefficients so that overflow does not occur when the coefficient and the white noise of 0 db are convoluted. In practice, it is advisable to attenuate the maximum absolute value to be about 0.1 to 0.4 (for example, 0.2) with respect to the allowable level (amplitude) 1.

【0032】そして、図8に示したウィンド窓(コサイ
ン窓)により、実際のコンボルバの係数の数にあわせ
て、両端が0となるように、ウィンド処理し、係数の有
効長を短くする。このようにしてスケーリング処理され
て、最終的にコンボルバに係数として供給されるデータ
群(この例では、30度ごとに音像定位が可能な12組
のコンボルバの係数群)cfLx、cfRxが求まる。
Then, by using the window (cosine window) shown in FIG. 8, window processing is performed so that both ends become 0 according to the number of actual convolver coefficients, and the effective length of the coefficients is shortened. In this way, the data group (in this example, 12 sets of convolver coefficient groups capable of sound localization for every 30 degrees) cfLx and cfRx that are subjected to scaling processing and finally supplied to the convolver as coefficients are obtained.

【0033】音源からの信号を畳み込み演算して再生
(ステップ107) 例えば、ゲーム機の音響再生装置として、図2に示すよ
うに、ゲーム操作者(聴取者)Mを中心として左右30
度づづ離間して一対のスピーカsp1,sp2を配設
し、これら一対のスピーカsp1,sp2には、一対の
コンボルバ(畳み込み演算処理回路)で処理された音響
信号が再生されるように構成する。一対のコンボルバに
は、同一の音源X(例えば、ゲーム用シンセサイザから
の飛行音など)からの信号が供給されると共に、前記ス
テップ105で作成されたIRの係数cfLx、cfR
x(例えば、飛行音を左後方120度(θ=240度)
の位置に音像定位させたい時は、θ=240度の係数)
が、選択されてコンボルバに設定される。例えば、ゲー
ム機などのメインCPU(中央演算装置)からの音像定
位命令にもとづいてコントロール用サブCPUにより係
数ROMから、所望の定位位置の係数が一対のコンボル
バに転送される。
A signal from a sound source is convolved and reproduced (step 107) For example, as a sound reproducing device of a game machine, as shown in FIG.
A pair of loudspeakers sp1 and sp2 are arranged at intervals, and an acoustic signal processed by a pair of convolvers (convolution operation processing circuits) is reproduced on the pair of loudspeakers sp1 and sp2. A signal from the same sound source X (for example, a flight sound from a game synthesizer) is supplied to the pair of convolvers, and the IR coefficients cfLx and cfR created in step 105 are supplied.
x (for example, flight sound 120 degrees to the left rear (θ = 240 degrees)
When you want to localize the sound image at the position of, the coefficient of θ = 240 degrees)
Is selected and set as the convolver. For example, based on a sound image localization command from a main CPU (central processing unit) of a game machine or the like, the control sub CPU transfers the coefficient of a desired localization position from the coefficient ROM to the pair of convolvers.

【0034】このようにして、一対のコンボルバにより
音源Xからの信号は時間軸上で畳み込み演算処理がなさ
れて、離間して配設された一対のスピーカsp1,sp
2から再生される。一対のスピーカsp1,sp2から
再生された音は、両耳へのクロストークがキャンセルさ
れて、所望の位置に音源があるように音像定位して、ゲ
ーム操作者(聴取者)に聞かれ、極めて現実感に満ちた
音として再生される。コンボルバの係数は、操作者の操
作に応じた飛行機の動きの推移と共に、最適な音像位置
が順次選択され、切換えられる。また、飛行音から、例
えばミサイル音に変更する時は、音源Xからのソース音
が飛行音からミサイル音に変更される。このようにし
て、任意の位置を音像を自由に定位させることができ
る。
In this way, the signal from the sound source X is subjected to convolution calculation processing on the time axis by the pair of convolvers, and the pair of speakers sp1 and sp1 arranged apart from each other.
Played from 2. The sound reproduced from the pair of speakers sp1 and sp2 has its sound image localized so that the crosstalk to both ears is canceled and the sound source is located at a desired position, and is heard by the game operator (listener), and extremely. Played as a sound with a sense of reality. As for the coefficient of the convolver, the optimum sound image position is sequentially selected and switched with the transition of the movement of the airplane according to the operation of the operator. Further, when the flight sound is changed to, for example, a missile sound, the source sound from the sound source X is changed from the flight sound to the missile sound. In this way, the sound image can be freely localized at any position.

【0035】なお、以上の説明では、臨界帯域幅を式を
もって定義されるものとして、具体的に述べたが、これ
に限定されるものではない。この定義式に類似するも
の、あるいは対数式により近似したものなど、その幅が
低域になるほど狭く高域なるほど広くなるものであれば
良い。また、再生のためのトランスジューサとしてはー
対のスピーカsp1,sp2のかわりにヘッドホーンを
用いることもできる。この場合は、HRTFの測定条件
が異なるので、係数を別に準備して再生状況に応じて切
換えると良い。また、ステップ103に示したIR(イ
ンパルス応答)の整形処理は必ずしも必要ではなく、省
略しても音像定位の制御は可能である。また、実施例で
説明した、離間して配設された一対のトランスジューサ
から同一の音源が供給された一対のコンボルバで処理し
た信号を再生する構成は、本願の効果を得るための最小
限の構成を示すものである。よって、必要に応じては、
一対、すなわち、2つ以上のトランスジューサ及びコン
ボルバで追加構成しても良いことはもちろんであり、さ
らに、コンボルバの係数が長い場合には、係数を分割し
て複数個のコンボルバで構成しても良い。
In the above description, the critical bandwidth is specifically defined as being defined by an equation, but the critical bandwidth is not limited to this. What is similar to this definitional expression, or approximated by a logarithmic expression, may be any as long as its width is narrower in the lower range and wider in the higher range. Further, as a transducer for reproduction, a headphone can be used instead of the pair of speakers sp1 and sp2. In this case, since the HRTF measurement conditions are different, it is advisable to prepare the coefficient separately and switch it according to the reproduction situation. Further, the IR (impulse response) shaping process shown in step 103 is not always necessary, and the sound image localization control is possible even if omitted. Further, the configuration described in the embodiment, in which the signal processed by the pair of convolvers to which the same sound source is supplied from the pair of transducers arranged apart from each other is reproduced, is the minimum configuration for obtaining the effect of the present application. Is shown. Therefore, if necessary,
Of course, a pair, that is, two or more transducers and convolvers may be additionally configured. Further, when the convolver coefficient is long, the coefficient may be divided into a plurality of convolvers. .

【0036】[0036]

【発明の効果】以上詳述したように、本発明になる音像
定位制御方法は、離間して配設された複数のトランスジ
ューサから、同一の音源が供給された複数の信号変換回
路で処理した信号を再生して、聴取者に前記トランスジ
ューサとは異なる任意の位置に音像が定位しているよう
に感じさせる音像定位制御方法において、各音像定位位
置において測定した伝達関数をもとに前記信号変換回路
の伝達特性を求めると共に、求めた伝達特性に対して臨
界帯域幅に応じた幅の移動平均化処理をして、これを前
記信号変換回路の伝達特性としたものであるから、臨界
帯域幅で最適化された帯域幅で移動平均化されて、音像
定位に必要な周波数応答の特徴を残しつつ、不必要なピ
ークやディップを取り除かれた伝達関数が求められて、
自然な音質が得られる。また上記の移動平均化の結果、
実現すべき時間応答の収束を早めることができるので、
信号変換回路の規模を小さく抑えることができて、コス
ト上も有利になる。したがって、民生用のゲーム機,コ
ンピュータ端末機などにも容易に搭載して、音像定位制
御をすることが可能となる。
As described above in detail, in the sound image localization control method according to the present invention, a signal processed by a plurality of signal conversion circuits to which the same sound source is supplied from a plurality of transducers arranged at a distance. In the sound image localization control method for reproducing a sound image to the listener as if the sound image is localized at an arbitrary position different from the transducer, the signal conversion circuit based on the transfer function measured at each sound image localization position. In addition to obtaining the transfer characteristic of, the moving average processing of the width corresponding to the critical bandwidth is performed on the obtained transfer characteristic, and this is used as the transfer characteristic of the signal conversion circuit. The transfer function is obtained by removing the unnecessary peaks and dips while moving averaged with the optimized bandwidth and leaving the characteristics of the frequency response necessary for sound localization.
Natural sound quality can be obtained. Also, as a result of the above moving average,
Since the convergence of the time response to be realized can be accelerated,
The size of the signal conversion circuit can be reduced, which is advantageous in terms of cost. Therefore, the sound image localization control can be easily performed by mounting on a consumer game machine, a computer terminal, or the like.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明になる音像定位制御方法のステップを示
すチャートである。
FIG. 1 is a chart showing steps of a sound image localization control method according to the present invention.

【図2】本発明になる音像定位制御方法にもとづく音像
定位装置の構成図である。
FIG. 2 is a configuration diagram of a sound image localization apparatus based on a sound image localization control method according to the present invention.

【図3】本発明になる音像定位制御方法の基本原理を示
す構成図である。
FIG. 3 is a configuration diagram showing a basic principle of a sound image localization control method according to the present invention.

【図4】HRTF(頭部伝達関数)の測定システムを示
す構成図である。
FIG. 4 is a configuration diagram showing an HRTF (head related transfer function) measurement system.

【図5】HRTF測定のポイントを説明する図である。FIG. 5 is a diagram illustrating the points of HRTF measurement.

【図6】キャンセルフィルタの算出例を説明する図であ
る。
FIG. 6 is a diagram illustrating an example of calculating a cancel filter.

【図7】HRTFのIR(インパルス応答)の具体的な
例を示す図である。
FIG. 7 is a diagram showing a specific example of IR (impulse response) of HRTF.

【図8】キャンセルフィルタの係数の具体的な例を示す
図である。
FIG. 8 is a diagram showing a specific example of coefficients of a cancel filter.

【図9】本発明になる音像定位制御方法を説明する図
で、同図(A)は測定により求めた頭部伝達関数をもと
に求めた信号処理回路(コンボルバ)の時間応答であ
り、同図(B)は同図(A)をFFT変換して求めた離
散周波数応答と臨界帯域幅を表示したものであり、同図
(C)は同図(B)を臨界帯域幅で移動平均化した離散
周波数応答を表示したものであり、同図(D)は同図
(C)を逆FFT変換して求めた信号処理回路(コンボ
ルバ)の時間応答である。
FIG. 9 is a diagram illustrating a sound image localization control method according to the present invention, in which FIG. 9A is a time response of a signal processing circuit (convolver) obtained based on a head related transfer function obtained by measurement; The figure (B) shows the discrete frequency response and the critical bandwidth obtained by the FFT transformation of the figure (A), and the figure (C) shows the moving average of the figure (B) with the critical bandwidth. The converted discrete frequency response is displayed, and FIG. 6D is the time response of the signal processing circuit (convolver) obtained by performing the inverse FFT conversion on FIG.

【符号の説明】[Explanation of symbols]

101 頭部伝達関数(HRTF)を測定するステップ 102 HRTFのインパルス応答を算出するステップ 103 IR(インパルス応答)を整形処理するステッ
プ 104 キャンセルフィルタcfLx、cfRxを算出
するステップ 105 キャンセルフィルタcfLx、cfRxの移動
平均化処理ステップ 106 キャンセルフィルタのスケーリングをするステ
ップ 107 音源からの信号を畳み込み演算して再生するス
テップ sp1,sp2 スピーカ h1L,h1R スピーカsp1から受聴者左右耳まで
の頭部伝達特性 h2L,h2R スピーカsp2から受聴者左右耳まで
の頭部伝達特性 pLx,pRx 目的とする定位位置xに実際のスピー
カを配置したときの受聴者左右耳までの頭部伝達特性 cfLx,cfRx キャンセルフィルタ(コンボル
バ)及びその係数 DM ダミーヘッド(または人頭) M 聴取者(ゲーム操作者、受聴者) X 音源 x 目的とする音像定位位置 CBc 臨界帯域幅 f 中心周波数
101 Step of measuring head related transfer function (HRTF) 102 Step of calculating impulse response of HRTF 103 Step of shaping IR (impulse response) 104 Step of calculating cancel filters cfLx, cfRx 105 Movement of cancel filters cfLx, cfRx Averaging process step 106 Step of scaling the cancellation filter 107 Step of convoluting and reproducing a signal from a sound source sp1, sp2 Speakers h1L, h1R Speaker transfer from the speaker sp1 to the left and right ears of a listener h2L, h2R Speaker sp2 To the listener's left and right ears pLx, pRx Head to head listener's left and right ears when an actual speaker is placed at the intended localization position x cfLx, cfRx Cancellation Filter (convolver) and its coefficient DM dummy head (or human head) M listener (game operator, listener) X sound x purpose to sound image localization position CBc critical bandwidth f center frequency

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】離間して配設された複数のトランスジュー
サから、同一の音源が供給された複数の信号変換回路で
処理した信号を再生して、聴取者に前記トランスジュー
サとは異なる任意の位置に音像が定位しているように感
じさせる音像定位制御方法おいて、 各音像定位位置において測定した伝達関数をもとに前記
信号変換回路の伝達特性を求めると共に、求めた伝達特
性に対して臨界帯域幅に応じた幅の移動平均化処理をし
て、これを前記信号変換回路の伝達特性としたことを特
徴とする音像定位制御方法。
1. A signal processed by a plurality of signal conversion circuits to which the same sound source is supplied is reproduced from a plurality of transducers arranged apart from each other, and a signal is reproduced by a listener at an arbitrary position different from that of the transducer. In the sound image localization control method that makes the user feel that the sound image is localized, the transfer characteristic of the signal conversion circuit is obtained based on the transfer function measured at each sound image localization position, and the critical band for the obtained transfer characteristic is determined. A sound image localization control method characterized in that a moving average processing of a width according to a width is performed, and this is used as a transfer characteristic of the signal conversion circuit.
JP4343460A 1992-11-30 1992-11-30 Sound image localization control method Expired - Lifetime JP2755081B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4343460A JP2755081B2 (en) 1992-11-30 1992-11-30 Sound image localization control method
US08/159,254 US5404406A (en) 1992-11-30 1993-11-30 Method for controlling localization of sound image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4343460A JP2755081B2 (en) 1992-11-30 1992-11-30 Sound image localization control method

Publications (2)

Publication Number Publication Date
JPH06178398A true JPH06178398A (en) 1994-06-24
JP2755081B2 JP2755081B2 (en) 1998-05-20

Family

ID=18361700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4343460A Expired - Lifetime JP2755081B2 (en) 1992-11-30 1992-11-30 Sound image localization control method

Country Status (1)

Country Link
JP (1) JP2755081B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279862A (en) * 2005-03-30 2006-10-12 Clarion Co Ltd Method of generating reference filter
JP2009531905A (en) * 2006-03-28 2009-09-03 フランス テレコム Method and device for efficient binaural sound spatialization within the transform domain
US8121297B2 (en) 2005-10-11 2012-02-21 Yamaha Corporation Signal processing device and sound image orientation apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5514050B2 (en) * 2010-09-07 2014-06-04 日本放送協会 Transfer function adjusting device, transfer function adjusting program, and transfer function adjusting method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006279862A (en) * 2005-03-30 2006-10-12 Clarion Co Ltd Method of generating reference filter
US8121297B2 (en) 2005-10-11 2012-02-21 Yamaha Corporation Signal processing device and sound image orientation apparatus
JP2009531905A (en) * 2006-03-28 2009-09-03 フランス テレコム Method and device for efficient binaural sound spatialization within the transform domain

Also Published As

Publication number Publication date
JP2755081B2 (en) 1998-05-20

Similar Documents

Publication Publication Date Title
US5404406A (en) Method for controlling localization of sound image
US5598478A (en) Sound image localization control apparatus
US7162047B2 (en) Audio reproducing apparatus
US11611828B2 (en) Systems and methods for improving audio virtualization
US11405723B2 (en) Method and apparatus for processing an audio signal based on equalization filter
JPH09322299A (en) Sound image localization controller
JP4904461B2 (en) Voice frequency response processing system
JPH06245300A (en) Sound image localization controller
JP2827777B2 (en) Method for calculating intermediate transfer characteristics in sound image localization control and sound image localization control method and apparatus using the same
JPH09135499A (en) Sound image localization control method
JP2755081B2 (en) Sound image localization control method
JP3367625B2 (en) Sound image localization control device
JP2924539B2 (en) Sound image localization control method
JP2870562B2 (en) Method of sound image localization control
JP4306815B2 (en) Stereophonic sound processor using linear prediction coefficients
JPH06198074A (en) Video game machine
JP2985919B2 (en) Sound image localization control device
JP2985557B2 (en) Surround signal processing device
JPH06233869A (en) Sound image orientation control device for television game
JPH08102999A (en) Stereophonic sound reproducing device
JPH0937400A (en) Sound image localization controller
JPH06246064A (en) Additional equipment for tv game machine
JPH06210069A (en) Television game authoring system
JPH06253400A (en) Sound image localization controller
JPH08154294A (en) Transmission controller for audio signal

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090306

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090306

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100306

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110306

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120306

Year of fee payment: 14

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 15

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130306

Year of fee payment: 15