JPH0984199A - Stereoscopic acoustic processor using linear prediction coefficient - Google Patents

Stereoscopic acoustic processor using linear prediction coefficient

Info

Publication number
JPH0984199A
JPH0984199A JP7231705A JP23170595A JPH0984199A JP H0984199 A JPH0984199 A JP H0984199A JP 7231705 A JP7231705 A JP 7231705A JP 23170595 A JP23170595 A JP 23170595A JP H0984199 A JPH0984199 A JP H0984199A
Authority
JP
Japan
Prior art keywords
filter
acoustic
sound
acoustic characteristic
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7231705A
Other languages
Japanese (ja)
Other versions
JP3810110B2 (en
Inventor
Naoji Matsuo
直司 松尾
Kaori Suzuki
香緒里 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP23170595A priority Critical patent/JP3810110B2/en
Priority to DE69637736T priority patent/DE69637736D1/en
Priority to EP07010496A priority patent/EP1816895B1/en
Priority to EP96113318A priority patent/EP0762804B1/en
Priority to US08/697,247 priority patent/US6023512A/en
Publication of JPH0984199A publication Critical patent/JPH0984199A/en
Priority to US09/330,017 priority patent/US6269166B1/en
Priority to US09/449,570 priority patent/US6553121B1/en
Application granted granted Critical
Publication of JP3810110B2 publication Critical patent/JP3810110B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereophonic System (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the tap coefficient of a filter, to miniaturize the filter, to reduce cost and to speed up an arithmetic processing by adding a desired acoustic characteristic to an original signal by using the linear synthetic filter in which the linear prediction coefficient obtained by the linear prediction analysis of the impulse response showing an acoustic characteristic is made a filter coefficient. SOLUTION: An acoustic adder 28 for performing a sound image localization by the acoustic filter using a linear prediction coefficient is composed of acoustic characteristic addition filters 35 and 37 and filters 36 and 38, etc., eliminating the acoustic characteristics of the headphones of left and right channels. The acoustic characteristic addition filters 35 and 37 are composed of IIR filters 54 and 55 to which frequency characteristics are added by using the linear prediction coefficients, delay parts 56 and 57 imparting pitch and the time difference, etc., till the characteristics are attained to and left and right ears by the inut means, and amplifiers 58 and 59 individually controlling gain at an output stage. The filters 36 and 38 are composed of the FIR filters using the linear prediction coefficients. A filter coefficient selection means 39 performs the selection settings of the filter coefficients within each filter parameter, pitch/delay time and gains, etc.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は音響処理技術に関
し、特にヘッドホン等を通した再生音場において聴取者
に立体的な音響効果を提供する立体音響処理装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a sound processing technique, and more particularly to a stereophonic sound processing device for providing a stereoscopic sound effect to a listener in a sound field reproduced through headphones or the like.

【0002】[0002]

【従来の技術】一般に、音像を正確に再現し若しくは定
位させるには、音源から聴取者までの原音場の音響特性
と、スピーカ又はヘッドホン等の音響出力機器から聴取
者までの再生音場の音響特性とを得ることが必要とな
る。実際の再生音場は、音源に前者の音響特性を付加
し、且つその音源から後者の音響特性を除去することに
よって、スピーカ又はヘッドホンを用いた場合でも原音
場の音像を聴取者に正確に再現することができ、また原
音像の位置も正確に定位させることができる。
2. Description of the Related Art Generally, in order to accurately reproduce or localize a sound image, acoustic characteristics of an original sound field from a sound source to a listener and sound of a reproduced sound field from an acoustic output device such as a speaker or headphones to a listener. It is necessary to obtain the characteristics and. In the actual playback sound field, by adding the former acoustic characteristic to the sound source and removing the latter acoustic characteristic from the sound source, the sound image of the original sound field is accurately reproduced to the listener even when using a speaker or headphones. The position of the original sound image can be accurately localized.

【0003】図1は、従来の2チャンネルステレオ装置
から音像を聴取する場合を示している。図2は、ヘッド
ホンにより図1と等価な音響空間を実現するための基本
的な回路ブロック構成を示している。図1では、左右の
スピーカ(L,R)1,2から聴取者3の左右の耳
(l,r)までの各音響空間経路の伝達特性を、Ll,
Lr,Rr,及びRlと表している。図2では、さらに
図1に示す各音響空間経路の伝達特性11〜14に加え
て左右のヘッドホン(HL,HR)5,6から左右の耳
に至る各伝達特性の逆特性(Hl-1,Hr-1)15,1
6を付加している。
FIG. 1 shows the case of listening to a sound image from a conventional 2-channel stereo device. FIG. 2 shows a basic circuit block configuration for realizing an acoustic space equivalent to that of FIG. 1 with headphones. In FIG. 1, the transfer characteristics of each acoustic space path from the left and right speakers (L, R) 1 and 2 to the left and right ears (1, r) of the listener 3 are represented by Ll,
It is represented as Lr, Rr, and Rl. 2, in addition to the transfer characteristics 11 to 14 of the acoustic space paths shown in FIG. 1, the transfer characteristics (Hl -1 , Hr -1 ) 15,1
6 is added.

【0004】図2に示すように原信号(L信号、R信
号)に上記伝達特性11〜16を付加することによって
ヘッドホン5,6からの出力は、スピーカ1,2からの
信号を正確に再現することができ、聴取者にはあたかも
スピーカ1,2からの信号を聞いているかのような錯覚
を起こさせ得る。
As shown in FIG. 2, by adding the transfer characteristics 11 to 16 to the original signals (L signal and R signal), the outputs from the headphones 5 and 6 accurately reproduce the signals from the speakers 1 and 2. Therefore, the listener can have an illusion that he or she is listening to the signals from the speakers 1 and 2.

【0005】図3は、上述した各伝達特性を実現するた
めの従来のFIRフィルタ(非巡回型フィルタ)の一回
路構成例を示したものである。一般に、図2に示す各音
響空間経路の伝達特性11〜14及びヘッドホンから耳
までの伝達特性の逆特性15,16を模擬するフィルタ
には、下式(1)に示す各音響空間経路のインパルスレ
スポンスを係数とするFIRフィルタ(非巡回型フィル
タ)が用いられる。
FIG. 3 shows a circuit configuration example of a conventional FIR filter (non-recursive filter) for realizing the above-mentioned transfer characteristics. In general, a filter simulating the transfer characteristics 11 to 14 of each acoustic space path and the inverse characteristics 15 and 16 of the transfer characteristics from the headphones to the ears shown in FIG. 2 includes an impulse of each acoustic space path shown in the following formula (1). An FIR filter (non-recursive filter) having a response as a coefficient is used.

【数1】 [Equation 1]

【0006】音響空間経路の伝達特性11〜14を表す
フィルタ係数(a0,a1,a2,・・・,an)に
は、各経路毎の音響測定又は音響シュミレーション等に
よって得られたインパルスレスポンスによるフィルタ係
数が用いられる。原信号に所望の音響特性を付加するた
めには、これらのフィルタを通じて各経路毎の音響特性
を示すインパルスレスポンスが畳み込まれる。
The filter coefficients (a0, a1, a2, ..., An) representing the transfer characteristics 11 to 14 of the acoustic space path are the filters based on the impulse response obtained by acoustic measurement or acoustic simulation for each path. The coefficient is used. In order to add a desired acoustic characteristic to the original signal, the impulse response indicating the acoustic characteristic of each path is convoluted through these filters.

【0007】図2に示すヘッドホンの逆特性(Hl-1
Hr-1)15,16のフィルタ係数(a0,a1,a
2,...,an)については、周波数領域で求められ
る。まず、ヘッドホンの周波数特性を測定してその逆特
性を求め、次にその結果を時間領域に戻して得られるイ
ンパルスレスポンスがフィルタの係数として用いられ
る。
The inverse characteristics (Hl -1 ,
Hr −1 ) 15 and 16 filter coefficients (a0, a1, a
2,. . . , An) is obtained in the frequency domain. First, the frequency characteristic of the headphones is measured to obtain the inverse characteristic, and then the impulse response obtained by returning the result to the time domain is used as the coefficient of the filter.

【0008】次に、図4は、コンピュータグラフィクス
(CG)の画像に合わせて音像を動かす場合の一般的な
システム構成例を示したものである。図4において、ユ
ーザ/ソフトウェアによる操作によってCG表示装置2
4の制御器26は画像表示を行うCGアクセラレータ2
5を駆動し、そして立体音響装置27の制御器29に対
して画像に同期した音像の位置情報を与える。
Next, FIG. 4 shows an example of a general system configuration in the case of moving a sound image in accordance with a computer graphics (CG) image. In FIG. 4, the CG display device 2 is operated by the user / software.
The controller 26 of 4 is a CG accelerator 2 for displaying an image.
5 and provides the controller 29 of the stereophonic device 27 with position information of the sound image synchronized with the image.

【0009】音響特性付加器28は、前記位置情報に基
づく制御器29からの制御によってディスプレイ21の
表示画面内の画像表示位置に、又は表示画面外部の仮想
位置に音像が定位されるよう各チャネルのスピーカ22
及び23(又はヘッドホン)のオーディオ出力信号レベ
ルを制御する。
The acoustic characteristic adder 28 controls each channel so that the sound image is localized at an image display position within the display screen of the display 21 or at a virtual position outside the display screen under the control of the controller 29 based on the position information. Speaker 22
And 23 (or headphones) audio output signal levels.

【0010】図5は、図4の音響特性付加器28の基本
構成を示している。音響特性付加器28は、図3のFI
Rフィルタを用いて音源Sから左右の耳に対する各音響
空間経路Sl,Srの伝達特性を与える音響特性付加フ
ィルタ35,37、及びヘッドホンL,Rチャネルの音
響特性除去フィルタ36,38、さらには上記位置情報
に基づいて各音響特性付加フィルタ35,37のフィル
タ係数を選択的に与えるフィルタ係数選択部39から構
成される。
FIG. 5 shows the basic structure of the acoustic characteristic adder 28 shown in FIG. The acoustic characteristic adder 28 is the FI of FIG.
Acoustic characteristic adding filters 35 and 37 that give transfer characteristics of the acoustic spatial paths Sl and Sr from the sound source S to the left and right ears using the R filter, and acoustic characteristic removing filters 36 and 38 of the headphones L and R channels, and further, the above It is composed of a filter coefficient selecting section 39 which selectively gives the filter coefficients of the acoustic characteristic adding filters 35 and 37 based on the position information.

【0011】図6〜8は、図4の音響特性付加器28で
用いられる従来の音像定位技術を説明するためのもので
ある。図6は、音源と聴取者との関係を一般的に示して
いる。音源30と聴取者31との間の音響空間の伝達特
性Sl,Srは、先に説明した図1と同様のものであ
る。
FIGS. 6 to 8 are for explaining a conventional sound image localization technique used in the acoustic characteristic adder 28 of FIG. FIG. 6 generally shows the relationship between the sound source and the listener. The transfer characteristics Sl and Sr of the acoustic space between the sound source 30 and the listener 31 are the same as those in FIG. 1 described above.

【0012】図7の(a)は、図4の音響特性付加器2
8において、1つの音源を定位させる場合の音源(S)
30と聴取者31との間の音響空間経路の音響特性付加
フィルタ(S→l)35,(S→r)37、及びヘッド
ホン33,34の伝達特性の逆特性(h-1)36,38
の例を示したものである。図7の(b)は、さらに音像
30をP〜Qの複数の音像位置に定位させる場合の音響
特性付加フィルタ35,37の構成を示している。
FIG. 7A shows the acoustic characteristic adder 2 of FIG.
Sound source for localizing one sound source in S8 (S)
30 (S → l) 35, (S → r) 37, and inverse characteristics (h −1 ) 36, 38 of the transfer characteristics of the headphones 33, 34 of the acoustic space path between the listener 30 and the listener 31.
This is an example. FIG. 7B shows the configuration of the acoustic characteristic addition filters 35 and 37 when the sound image 30 is further localized at a plurality of sound image positions P to Q.

【0013】図8の(a)及び(b)は、図7の(b)
の音響特性付加フィルタ35,37のさらに具体的な回
路ブロック構成例を示したものである。図8の(a)
は、聴取者31の左耳に対する音響特性付加フィルタ3
5の構成を示しており、図7の(b)に示す複数の音像
位置P〜Qと聴取者31との間の各音響空間の伝達特性
を示すフィルタ(P→l),・・・,(Q→l)、それ
らの各出力ゲインを個別に制御する複数の増幅器gPl
・・・,gQl、及び各増幅器の出力を加算出力するため
の加算器から成る。
8 (a) and 8 (b) are shown in FIG. 7 (b).
3 shows a more specific circuit block configuration example of the acoustic characteristic adding filters 35 and 37 of FIG. (A) of FIG.
Is the acoustic characteristic addition filter 3 for the left ear of the listener 31.
5 shows the configuration of FIG. 5 and shows the transfer characteristics of each acoustic space between the plurality of sound image positions P to Q shown in FIG. 7B and the listener 31 (P → l), ..., (Q → l), a plurality of amplifiers g Pl , which individually control their respective output gains,
, G Ql , and an adder for adding and outputting the outputs of the respective amplifiers.

【0014】図8の(b)は、聴取者31の右耳に対す
る音響特性付加フィルタ37の構成を示している点を除
いては図8の(a)と同様である。音響特性付加フィル
タ35,37の各増幅器のゲインは、いずれかの音像位
置P〜Qを指示する位置情報によって制御され、それに
よって音像30は指示されたいずれかの音像位置P〜Q
に定位する。
8B is the same as FIG. 8A except that the configuration of the acoustic characteristic addition filter 37 for the right ear of the listener 31 is shown. The gains of the respective amplifiers of the acoustic characteristic adding filters 35 and 37 are controlled by the position information indicating any one of the sound image positions P to Q, whereby the sound image 30 becomes one of the instructed sound image positions P to Q.
Localize.

【0015】図9は、サラウンドタイプの音像定位の一
例を示したものである。図9では、聴取者31の回りに
5個のスピーカ(L,C,R,SR,SL)を配置した
サラウンドシステムの例を示している。本例では、5個
の音源からの出力レベルを相対的に制御することによっ
て音像を聴取者31の周囲に定位させることができる。
FIG. 9 shows an example of a surround type sound image localization. FIG. 9 shows an example of a surround system in which five speakers (L, C, R, SR, SL) are arranged around the listener 31. In this example, the sound image can be localized around the listener 31 by relatively controlling the output levels from the five sound sources.

【0016】例えば、図9に示すスピーカLとスピーカ
SLとの間のそれぞれの出力レベルを相対的に変化させ
ることによってその間に音像を定位させることができ
る。従って、このような音像定位の場合にも上述した従
来技術がそのまま適用できることが分かる。
For example, the sound image can be localized during the relative change between the output levels of the speaker L and the speaker SL shown in FIG. Therefore, it is understood that the above-described conventional technique can be applied as it is to the case of such sound image localization.

【0017】[0017]

【発明が解決しようとする課題】しかしながら、従来に
おいて図3のFIRフィルタの係数用に、通常の部屋で
インパルスレスポンスを測定する場合、各伝達特性L
l,Lr,Rr,及びRlを表すFIRフィルタのタッ
プ数は、オーディオ信号用のサンプリング周波数44.
1KHzを用いた場合に、数千タップ又はそれ以上必要
となる。また、ヘッドホンの伝達特性の逆特性HL-1
HR-1の場合にも数百タップ以上必要となる。
However, when the impulse response is conventionally measured in a normal room for the coefficient of the FIR filter of FIG. 3, each transfer characteristic L
The number of taps of the FIR filter representing l, Lr, Rr, and Rl is 44.
Thousands of taps or more are required when 1 KHz is used. In addition, the inverse characteristic HL −1 of the transfer characteristic of the headphones,
Even in the case of HR -1 , several hundred taps or more are required.

【0018】従って、図3のFIRフィルタを用いた場
合にはタップ数やその演算量が膨大なものとなり、現実
に回路を構成すると複数の汎用DSPや専用の畳み込み
演算プロセッサが必要になるなど低価格化や小型化等の
面で問題があった。さらに、音像を定位させる場合には
各音像位置分の複数のチャネルフィルタを並列に演算処
理しなけばならず、上記問題点の解決がさらに困難にな
るという問題があった。
Therefore, when the FIR filter shown in FIG. 3 is used, the number of taps and the amount of calculation thereof become enormous, and when a circuit is actually constructed, a plurality of general-purpose DSPs and a dedicated convolution calculation processor are required, which is low. There were problems in terms of price reduction and miniaturization. Further, when the sound image is localized, a plurality of channel filters for each sound image position must be processed in parallel, which makes it more difficult to solve the above problems.

【0019】また、一般に実時間によるCG等の画像処
理量は非常に大きく、画像処理装置の能力が小さかった
り同時に多くの画像を表示するような場合には、その処
理能力不足によって例えばコマ落としの映像のように連
続した画像を表示できない場合が生じ得る。このような
場合、音像の動きは画像の動きに同期して制御されるた
め音像の動きが不連続になるという問題があった。さら
に、ユーザの視聴位置等の視聴環境が予め予定していた
環境と異なるような場合には画像の見かけ上の動きと音
像の動きとが一致しなくなるという問題もあった。
Further, in general, the amount of image processing such as CG in real time is very large, and when the image processing apparatus has a small capacity or a large number of images are displayed at the same time, for example, a frame drop occurs due to insufficient processing capacity. There may be a case where continuous images cannot be displayed like a video. In such a case, since the motion of the sound image is controlled in synchronization with the motion of the image, there is a problem that the motion of the sound image becomes discontinuous. Furthermore, when the viewing environment such as the viewing position of the user is different from the previously planned environment, there is a problem that the apparent movement of the image does not match the movement of the sound image.

【0020】そこで本発明の目的は、上記種々の問題点
に鑑み、音響特性を付加するために原信号に付加する音
響特性を表すインパルスレスポンスの線形予測解析を行
い、その線形予測係数を用いて合成フィルタを構成する
ことでフィルタのタップ係数を大幅に削減し、ハードウ
ェアの小型化、低コスト化そして演算処理の高速化等を
達成することにある。
Therefore, in view of the above various problems, an object of the present invention is to perform linear prediction analysis of an impulse response representing an acoustic characteristic to be added to an original signal in order to add an acoustic characteristic, and use the linear prediction coefficient. By constructing a synthesizing filter, the tap coefficients of the filter can be significantly reduced, and hardware miniaturization, cost reduction, and high-speed arithmetic processing can be achieved.

【0021】また本発明の目的は、音像を定位させる複
数の位置から聴取者までの音響特性を各位置に共通な特
性とそこに固有な特性とに分け、それらを付加するフィ
ルタを直列に配列して音像の位置を制御することによっ
て演算処理量の削減することにある。
Another object of the present invention is to divide the acoustic characteristics from a plurality of positions for localizing a sound image to a listener into a characteristic common to each position and a characteristic peculiar thereto and arrange filters in series to add them. By controlling the position of the sound image, the amount of calculation processing is reduced.

【0022】さらに本発明によれば、音像を移動させる
場合に、再生音場において1つの音像を複数の位置に定
位させ、各位置の間における音響出力のレベル差を制御
することによって音像をその間で滑らかに移動させ、ま
た不連続な動きを行う画像の位置を補間することによっ
てその補間した位置に合わせた音像の動きを実現するこ
とにある。
Further, according to the present invention, when the sound image is moved, one sound image is localized at a plurality of positions in the reproduced sound field, and the sound image level between the positions is controlled by controlling the level difference of the sound output between the positions. It is to realize the movement of the sound image in accordance with the interpolated position by interpolating the position of the image which is discontinuously moved and is interpolated.

【0023】[0023]

【課題を解決するための手段】本発明によれば、仮想音
源を用いて音像を定位させる立体音響処理装置であっ
て、原信号に付加する所望の音響特性を、その音響特性
を表すインパスルレスポンスの線形予測解析によって得
られる線形予測係数をフィルタ係数とする線形合成フィ
ルタによって形成し、前記線形合成フィルタを通して前
記原信号に所望の音響特性を付加する立体音響処理装置
が提供される。
According to the present invention, there is provided a stereophonic processing apparatus for localizing a sound image by using a virtual sound source, wherein a desired acoustic characteristic to be added to an original signal is represented by an impulse response representing the acoustic characteristic. There is provided a stereophonic processing apparatus which is formed by a linear synthesis filter having a linear prediction coefficient obtained by a linear prediction analysis of a response as a filter coefficient and adds desired acoustic characteristics to the original signal through the linear synthesis filter.

【0024】前記線形合成フィルタは、前記線形予測係
数を用いたIIRフィルタ構成を有して前記原信号に所
望の音響特性の周波数特性を付加する短期合成フィル
タ、そして同じく線形予測係数を用いたIIRフィルタ
構成を有して前記原信号に所望の音響特性の時間特性を
付加するピッチ合成フィルタを含む。前記ピッチ合成フ
ィルタは、減衰率が大きな直接音に係るピッチ合成部
と、その後に続く減衰率が小さな反射音に係るピッチ合
成部及びその遅延時間を与える遅延部から構成される
The linear synthesis filter has a IIR filter configuration using the linear prediction coefficient and adds a frequency characteristic of a desired acoustic characteristic to the original signal, and an IIR also using the linear prediction coefficient. It includes a pitch synthesizing filter having a filter structure and adding a time characteristic of a desired acoustic characteristic to the original signal. The pitch synthesis filter is composed of a pitch synthesis section for direct sound with a large attenuation rate, a pitch synthesis section for subsequent reflected sound with a small attenuation rate, and a delay section for giving a delay time thereof.

【0025】さらに、ヘッドホンやスピーカ等の音響出
力機器の音響特性の逆特性を、その音響特性を表すイン
パスルレスポンスの線形予測解析から得られた線形予測
係数をフィルタ係数とする線形予測フィルタによって形
成し、前記線形予測フィルタを通して前記音響機器の音
響特性を除去する。前記線形予測フィルタは、前記線形
予測係数を用いたFIRフィルタで構成される。
Further, the inverse characteristic of the acoustic characteristic of the acoustic output device such as headphones or speaker is formed by a linear prediction filter using a linear prediction coefficient obtained from a linear prediction analysis of an impressive response representing the acoustic characteristic as a filter coefficient. Then, the acoustic characteristics of the acoustic device are removed through the linear prediction filter. The linear prediction filter is composed of an FIR filter using the linear prediction coefficient.

【0026】また本発明によれば、仮想音源を用いて音
像を定位させる立体音響処理装置は:原信号に付加する
左耳への1つ又は複数の音響経路の各音響特性を表すイ
ンパスルレスポンスの線形予測解析によって得られる線
形予測係数を、そのフィルタ係数とする線形合成フィル
タから成る第1の音響特性付加フィルタ;前記第1の音
響特性付加フィルタに直列接続され、左耳への音響出力
機器の音響特性を表すインパスルレスポンスの線形予測
解析によって得られる線形予測係数を、前記音響出力機
器の音響特性を除去するための逆特性を与えるそのフィ
ルタ係数とする線形予測フィルタから成る第1の音響特
性除去フィルタ;
Further, according to the present invention, the stereophonic acoustic processing device for locating a sound image by using a virtual sound source is: an impulse response representing each acoustic characteristic of one or a plurality of acoustic paths to the left ear to be added to an original signal. Acoustic prediction device obtained by the linear prediction analysis of the first acoustic property addition filter including a linear synthesis filter using the linear prediction coefficient as a filter coefficient; and an audio output device to the left ear connected in series to the first acoustic property addition filter. The first prediction sound composed of a linear prediction filter having a linear prediction coefficient obtained by a linear prediction analysis of an impulse response representing the sound characteristics of the sound output device as an inverse characteristic for removing the sound characteristics of the sound output device. Characteristic removal filter;

【0027】原信号に付加する右耳への1つ又は複数の
音響経路の各音響特性を表すインパスルレスポンスの線
形予測解析によって得られる線形予測係数を、そのフィ
ルタ係数とする線形合成フィルタから成る第2の音響特
性付加フィルタ;前記第2の音響特性付加フィルタに直
列接続され、右耳への音響出力機器の音響特性を表すイ
ンパスルレスポンスの線形予測解析によって得られる線
形予測係数を、前記音響出力機器の音響特性を除去する
ための逆特性を与えるそのフィルタ係数とする線形予測
フィルタから成る第2の音響特性除去フィルタ;
A linear synthesis filter having a linear prediction coefficient obtained by a linear prediction analysis of an impulse response representing each acoustic characteristic of one or more acoustic paths to the right ear added to the original signal as its filter coefficient. A second acoustic characteristic addition filter; a linear prediction coefficient obtained by a linear prediction analysis of an impulse response that is connected in series to the second acoustic characteristic addition filter and represents the acoustic characteristics of an acoustic output device to the right ear, A second acoustic characteristic removing filter comprising a linear prediction filter having a filter coefficient that gives an inverse characteristic for eliminating the acoustic characteristic of the output device;

【0028】そして前記第1の音響特性付加フィルタ及
び第2の音響特性付加フィルタに対して音像の位置情報
に従って対応する所定のパラメータを選択的に設定する
選択設定部からなる立体音響処理装置が提供される。
Further, there is provided a stereophonic processing apparatus comprising a selection setting section for selectively setting a predetermined parameter corresponding to the first acoustic characteristic addition filter and the second acoustic characteristic addition filter according to position information of a sound image. To be done.

【0029】前記第1及び第2の音響特性付加フィルタ
は、各音響経路の音響特性に共通の特性を付加する共通
部と、各音響経路の音響特性にそれぞれ固有な特性を付
加する固有部とに分けて構成され、前記共通部と固有部
とを直列接続することによって全体の音響特性を付加す
る。
The first and second acoustic characteristic addition filters include a common section for adding a common characteristic to the acoustic characteristics of each acoustic path, and a unique section for adding a unique characteristic to each acoustic characteristic of each acoustic path. , And the overall acoustic characteristics are added by connecting the common part and the unique part in series.

【0030】さらに、所定の音源に対する前記共通部の
演算結果を記憶する蓄積媒体と前記記憶された演算結果
の読み出しを指示する読出指示部を有し、前記読出指示
部は、その指示によって読み出された演算結果を前記固
有部に直接与える。また、前記蓄積媒体には、前記所定
の音源に対する前記共通部の演算結果に加えて対応する
前記第1又は第2の音響特性除去フィルタの演算結果も
合わせて記憶するようにしてもよい。
Further, it has a storage medium for storing the calculation result of the common part for a predetermined sound source and a read instructing part for instructing to read out the stored operation result, and the read instructing part reads out according to the instruction. The calculated result is directly given to the proper part. Further, in the storage medium, in addition to the calculation result of the common unit for the predetermined sound source, the calculation result of the corresponding first or second acoustic characteristic removal filter may be stored together.

【0031】また、前記第1の音響特性付加フィルタ及
び第2の音響特性付加フィルタは、さらに両耳間の遅延
時間を与える遅延部を有し、前記第1又は第2の音響特
性付加フィルタの遅延部のうち、両耳間の遅延時間のい
ずれか一方を基準(遅延時間ゼロ)とすることによっ
て、その基準となる遅延部を省略することもできる。
Further, each of the first acoustic characteristic addition filter and the second acoustic characteristic addition filter further includes a delay section for giving a delay time between the two ears, and the first acoustic characteristic addition filter of the first or second acoustic characteristic addition filter. By setting either one of the delay times between the ears among the delay sections as a reference (delay time zero), the reference delay section can be omitted.

【0032】前記第1の音響特性付加フィルタ及び第2
の音響特性付加フィルタは、さらにそれらの出力信号レ
ベルを可変的に設定できる増幅部を有し、前記選択設定
部は前記音像の位置情報に従った前記増幅部のゲイン設
定により前記第1の音響特性付加フィルタと第2の音響
特性付加フィルタの各出力信号レベルを相対的に可変さ
せることにより音像の定位位置を移動させることができ
る。
The first acoustic characteristic addition filter and the second acoustic characteristic addition filter
The acoustic characteristic addition filter further includes an amplification unit capable of variably setting the output signal levels thereof, and the selection setting unit sets the first sound by the gain setting of the amplification unit according to the position information of the sound image. The localization position of the sound image can be moved by relatively varying the output signal levels of the characteristic addition filter and the second acoustic characteristic addition filter.

【0033】前記第1及び第2の音響特性付加フィルタ
は、聴取者の前方を中心に左右対象に構成してもよく、
その場合には前記遅延部及び増幅部のパラメータが左右
の対応する位置間で共用される。
The first and second filters for adding acoustic characteristics may be arranged symmetrically with respect to the front of the listener.
In that case, the parameters of the delay unit and the amplification unit are shared between the corresponding positions on the left and right.

【0034】さらに本発明によれば、前記立体音響処理
装置は、過去及び未来の音像の位置情報からその中間の
位置情報を補間する位置情報補間部を有し、前記位置情
報補間部からの補間位置情報は前記選択設定部への位置
情報として与えられる。同様に、過去及び現在の音像の
位置情報からその未来の位置情報を予測補間する位置情
報予測部を有し、前記位置情報予測部からの未来位置情
報は前記選択設定部への位置情報として与えられる。
Further, according to the present invention, the stereophonic processing apparatus has a position information interpolating unit for interpolating position information in the middle of the position information of the past and future sound images, and the interpolation from the position information interpolating unit. The position information is given as position information to the selection setting unit. Similarly, it has a position information prediction unit that predictively interpolates the position information of the future from the position information of the past and present sound images, and the future position information from the position information prediction unit is given as position information to the selection setting unit. To be

【0035】前記位置情報予測部は、さらに過去及び現
在の音像の位置情報からその移動方向に関する規則性の
有無を判断する規則性判断部を含み、前記位置情報予測
部は前記規則性判断部が規則性有りと判断した場合に前
記未来位置情報を与える。なお、前記音像の位置情報に
代えて、前記音像を発する画像が表示される画像表示装
置からの画像位置情報を用いることができる。前記選択
設定部は、さらに聴取者の良好な聴取環境を提供・維持
すべく、与えられた聴取者の位置情報に従って前記聴取
環境を移動させてもよい。
The position information predicting unit further includes a regularity determining unit that determines whether or not there is regularity in the moving direction of the past and present sound image position information, and the position information predicting unit includes the regularity determining unit. If it is determined that there is regularity, the future position information is given. It should be noted that instead of the position information of the sound image, image position information from an image display device in which an image emitting the sound image is displayed can be used. The selection setting unit may move the listening environment according to the given position information of the listener in order to further provide / maintain a good listening environment of the listener.

【0036】本発明によれば、原信号に付加する所望の
音響特性を表すインパルスレスポンスの線形予測解析に
よって得られた線形予測係数を有する線形合成フィルタ
が構成される。次に、この線形合成フィルタの時間領域
エンベロープ(時間特性)及びスペクトル(周波数特
性)が元のインパルスレスポンスと等しく又は近くなる
ように線形予測係数の補正を行う。この補正済みの線形
合成フィルタを用いて、原音に音響特性を付加する。時
間領域エンベロープとスペクトルが元のインパルスレス
ポンスと等しいか又は近いため、この線形合成フィルタ
を用いて所望の音響特性と等しいか又は近い音響特性を
付加することができる。
According to the present invention, the linear synthesis filter having the linear prediction coefficient obtained by the linear prediction analysis of the impulse response representing the desired acoustic characteristic added to the original signal is constructed. Next, the linear prediction coefficient is corrected so that the time domain envelope (time characteristic) and spectrum (frequency characteristic) of this linear synthesis filter become equal to or close to the original impulse response. Acoustic characteristics are added to the original sound by using the corrected linear synthesis filter. Since the time domain envelope and spectrum are equal to or close to the original impulse response, this linear synthesis filter can be used to add acoustic characteristics equal to or close to the desired acoustic characteristics.

【0037】この場合、線形合成フィルタをIIRフィ
ルタ(巡回型フィルタ)のピッチ構成フィルタと短期合
成フィルタで構成することで、従来構成よりも大幅に少
ないタップ数の線形合成フィルタを構成することができ
る。ここで、時間領域エンベロープは前記ピッチ合成フ
ィルタで、またスペクトルは主に短期合成フィルタで制
御する。
In this case, by constructing the linear synthesis filter by the IIR filter (recursive filter) pitch configuration filter and the short-term synthesis filter, a linear synthesis filter having a significantly smaller number of taps than the conventional configuration can be constructed. . Here, the time domain envelope is controlled by the pitch synthesis filter, and the spectrum is mainly controlled by the short term synthesis filter.

【0038】また本発明によれば、入力信号に付加する
音響特性を音像定位を行う各位置に共通な特性と固有な
特性に分けてフィルタを構成する。音響特性を付加する
場合には、これらのフィルタを直列に接続して用いる。
これによって全体の演算処理量を削減することができ
る。この場合、固有な特性の数が多いほど前記削減の効
果は大となる。
Further, according to the present invention, the acoustic characteristic added to the input signal is divided into a characteristic common to each position for sound image localization and a characteristic unique to the filter. When adding acoustic characteristics, these filters are connected in series and used.
As a result, it is possible to reduce the total calculation processing amount. In this case, the greater the number of unique characteristics, the greater the effect of the reduction.

【0039】また、上記共通な特性部分を処理した結果
を予めハードディスク等の蓄積媒体に記憶しておくこと
により、ゲームのように使用する音が決まっているよう
な用途に対しては、前記蓄積媒体から直接信号を読み出
すだけで実時間処理が必要な各位置に固有な音響特性を
付加するフィルタにそれを入力することができる。この
ため、演算量の削減はもとより単に全ての情報を蓄積媒
体に記憶させる場合よりも少ない蓄積容量で済ませられ
る。
Further, by storing the result of processing the common characteristic portion in a storage medium such as a hard disk in advance, the above-mentioned storage is used for applications such as a game in which a sound to be used is determined. Simply by reading the signal directly from the medium, it can be input to a filter that adds unique acoustic properties to each location that requires real-time processing. Therefore, not only the amount of calculation is reduced, but also the storage capacity is smaller than in the case where all information is simply stored in the storage medium.

【0040】さらに、各位置に共通な特性を付加するフ
ィルタの出力信号と伴に、音響特性除去フィルタに入力
して得られる出力信号を蓄積媒体に蓄えてもよい。この
場合には音響特性除去フィルタの処理を実時間で行う必
要がなくなる。このように、蓄積媒体を利用することに
より少ない処理量で音像を動かすことができる。
Further, the output signal obtained by inputting to the acoustic characteristic removing filter may be stored in the storage medium together with the output signal of the filter for adding the characteristic common to each position. In this case, it is not necessary to perform the processing of the acoustic characteristic removal filter in real time. Thus, by using the storage medium, the sound image can be moved with a small amount of processing.

【0041】さらに本発明によれば、不連続な動きを行
う画像の位置を補間し、その補間した位置に合わせて音
像を動かすことで連続的に音像を動かすことができる。
また、ユーザの視聴環境を画像制御器と音像制御器に入
力し、その情報を用いて画像と音像の動きを制御するこ
とによって見かけの画像の動きと音像の動きとを一致さ
せることができる。
Further, according to the present invention, it is possible to continuously move the sound image by interpolating the position of the image in which the motion is discontinuous and moving the sound image in accordance with the interpolated position.
Further, by inputting the viewing environment of the user to the image controller and the sound image controller and controlling the motions of the image and the sound image using the information, the apparent motion of the image and the motion of the sound image can be matched.

【0042】[0042]

【発明の実施の形態】図10は、本発明による音響特性
を付加するための線形合成フィルタを求めるための原理
構成を示したものである。本発明においては、図2で示
した各伝達特性Ll,Lr,Rl,Rrを表すフィルタ
を線形合成フィルタ40によって構成する。そのために
反射音や残留音等が除かれる無響室で上記各伝達特性を
表すそれぞれの音響空間経路のインパルスレスポンスを
測定し、それをもとに線形予測解析処理41をおこなっ
てインパルスレスポンスの線形予測係数を求める。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 10 shows a principle configuration for obtaining a linear synthesis filter for adding acoustic characteristics according to the present invention. In the present invention, the filter representing the transfer characteristics Ll, Lr, Rl, Rr shown in FIG. Therefore, the impulse response of each acoustic space path that represents each of the above transfer characteristics is measured in an anechoic room in which reflected sounds and residual sounds are excluded, and linear prediction analysis processing 41 is performed based on the measured impulse response to determine the linear shape of the impulse response. Calculate the prediction coefficient.

【0043】前記線形予測係数にはさらに補正処理42
が施され、その結果得られた係数を本発明によるIIR
フィルタ構成の線形合成フィルタ40の線形予測係数に
設定する。よって、前記線形合成フィルタ40を通過し
た原信号には上記音響空間経路の音響特性の一つである
周波数特性が付加されることになる。
Further correction processing 42 is applied to the linear prediction coefficient.
And the resulting coefficients are IIR according to the invention.
The linear prediction coefficient of the linear synthesis filter 40 of the filter configuration is set. Therefore, the original signal that has passed through the linear synthesis filter 40 is added with the frequency characteristic that is one of the acoustic characteristics of the acoustic space path.

【0044】図11は、本発明による音響特性を付加す
るための線形合成フィルタの構成例を示したものであ
る。図11において、線形合成フィルタ40は、短期合
成フィルタ44とピッチ合成フィルタ43とから構成さ
れ、それぞれ下式(2)及び(3)で表される。
FIG. 11 shows an example of the configuration of a linear synthesis filter for adding acoustic characteristics according to the present invention. In FIG. 11, the linear synthesis filter 40 includes a short-term synthesis filter 44 and a pitch synthesis filter 43, which are represented by the following equations (2) and (3), respectively.

【0045】[0045]

【数2】 [Equation 2]

【0046】前者の短期合成フィルタ44は、各伝達特
性を表すインパルスレスポンスの線形予測解析から得ら
れる線形予測係数を備えたIIRフィルタとして構成さ
れ、聴取者には方向感を与える。また、後者のピッチ合
成フィルタ43は、原音にさらに初期反射音や残音響を
与える。
The former short-term synthesis filter 44 is constructed as an IIR filter having a linear prediction coefficient obtained from a linear prediction analysis of impulse responses representing each transfer characteristic, and gives a listener a sense of direction. The latter pitch synthesizing filter 43 gives an initial reflected sound and a residual sound to the original sound.

【0047】図12は、短期合成フィルタ44の線形予
測係数(b1,b2,...,bm)、及びピッチ合成
フィルタ43のピッチ係数L,bLの求め方を示したも
のである。まず、無響室で測定したインパルスレスポン
スの自己相関係数処理45によって自己相関係数を求め
てから線形予測解析処理46を行う。この結果得られる
線形予測係数(b1,b2,...,bm)を用いて図
11の短期合成フイルタ44(IIRフィルタ)を構成
する。線形予測係数を用いたIIRフィルタ構成とする
ことによって、元のインパルスレスポンスのサンプル数
よりも大幅に少ないタップ数で、伝送特性の1つである
周波数特性を付加することができる。例えば、256タ
ップのものが約10タップ程度にまで大幅に削減でき
る。
FIG. 12 shows how to obtain the linear prediction coefficients (b1, b2, ..., Bm) of the short-term synthesis filter 44 and the pitch coefficients L and bL of the pitch synthesis filter 43. First, the autocorrelation coefficient processing 45 of the impulse response measured in the anechoic room is used to obtain the autocorrelation coefficient, and then the linear prediction analysis processing 46 is performed. The linear prediction coefficients (b1, b2, ..., Bm) obtained as a result are used to configure the short-term synthesis filter 44 (IIR filter) of FIG. With the IIR filter configuration using the linear prediction coefficient, it is possible to add the frequency characteristic, which is one of the transmission characteristics, with the number of taps significantly smaller than the number of samples of the original impulse response. For example, 256 taps can be significantly reduced to about 10 taps.

【0048】その他の伝送特性である各経路を通って信
号が両耳まで到達する時間差とレベル差を表す遅延及び
ゲインは、図11の遅延(Z-d)とゲイン(g)によっ
て付加される。図12では、線形予測解析処理46で求
めた線形予測係数(b1,b2,...,bm)を短期
合成フイルタ44の逆特性を示す下式(4)からなる短
期予測フイルタ47(FIRフィルタ)の係数として用
いる。
Delays and gains representing the time difference and the level difference in which the signals reach each ear through each path, which is another transmission characteristic, are added by the delay (Z- d ) and the gain (g) in FIG. . In FIG. 12, the linear prediction coefficients (b1, b2, ..., Bm) obtained by the linear prediction analysis process 46 are expressed by the following formula (4) showing the inverse characteristic of the short-term synthesis filter 44. The short-term prediction filter 47 (FIR filter) ) Is used as a coefficient.

【0049】[0049]

【数3】 (Equation 3)

【0050】式(2)と(4)から分かるように、前記
短期予測フイルタ47を通すことで短期合成フイルタ4
4で付加された音響特性と同等の周波数成分を反対に除
去することができる。その結果、次段のピッチ抽出処理
48で残った時間成分から上記遅延(Z-L)及びゲイン
(bL)を求めることができる。求められた値はピッチ
合成フィルタ43の遅延及び係数として与えられる。以
上のことから、周波数特性及び時間特性を兼ね備えた所
望の音響特性を表す伝達特性が図11の回路構成によっ
て実現できることが分かる。
As can be seen from equations (2) and (4), by passing through the short-term prediction filter 47, the short-term synthesis filter 4 can be obtained.
The frequency component equivalent to the acoustic characteristic added in 4 can be removed conversely. As a result, the delay (Z −L ) and the gain (bL) can be obtained from the time component remaining in the pitch extraction processing 48 of the next stage. The obtained value is given as the delay and coefficient of the pitch synthesis filter 43. From the above, it can be seen that the transfer characteristic representing the desired acoustic characteristic having both the frequency characteristic and the time characteristic can be realized by the circuit configuration of FIG. 11.

【0051】図13は、ピッチ合成フィルタ43の一ブ
ロック構成例を示したものであり、いわゆる直接音と反
射音に分けて別々のピッチ合成フィルタを使用してい
る。音場を測定して得られるインパルスレスポンスは、
通常、減衰率が大きい部分(直接音)で始まり、その後
に減衰率の小さな部分(反射音)が続く。そのため、ピ
ッチ合成フィルタ43は、図12に示す前者の直接音に
係るピッチ合成フィルタ部49と、後者に係るピッチ合
成フィルタ部51及びその遅延時間を与える遅延部50
とに分けて構成することができる。なお、直接音の部分
をFIRフィルタで構成し、または直接音と反射音の部
分をオーバラップさせるようにしてもよい。
FIG. 13 shows an example of one block configuration of the pitch synthesis filter 43. Separate pitch synthesis filters are used for so-called direct sound and reflected sound. The impulse response obtained by measuring the sound field is
Usually, a part with a large attenuation rate (direct sound) starts, and then a part with a small attenuation rate (reflected sound) follows. Therefore, the pitch synthesizing filter 43 includes the former pitch synthesizing filter unit 49 relating to the direct sound, the latter pitch synthesizing filter unit 51 shown in FIG.
Can be configured separately. Note that the direct sound portion may be configured by an FIR filter, or the direct sound portion and the reflected sound portion may be overlapped.

【0052】図14は、上記のようにして得られた線形
予測係数の補正処理の一例を示したものである。図14
の時間領域のエンベロープ、スペクトルの評価処理49
において、一旦得られた短期合成フイルタ54とピッチ
合成フィルタ53とを直列接続した状態で所望の音響特
性のインパルスレスポンスと比較し、それによって線形
合成フィルタのインパルスレスポンスの時間領域エンベ
ロープとスペクトルが元のインパルスレスポンスと等し
く、又はより近づくようにフィルタ係数の補正処理を行
う。
FIG. 14 shows an example of correction processing of the linear prediction coefficient obtained as described above. FIG.
Time domain envelope and spectrum evaluation processing 49
In the above, the once obtained short-term synthesis filter 54 and the pitch synthesis filter 53 are connected in series and compared with the impulse response of the desired acoustic characteristic, whereby the time domain envelope and spectrum of the impulse response of the linear synthesis filter are the original. The filter coefficient correction process is performed so as to be equal to or closer to the impulse response.

【0053】図15は、本発明によるヘッドホンの伝達
特性の逆特性Hl-1,Hr-1を表すフィルタ構成例を示
したものである。図15のフィルタ53は、図12で示
した短期予測フィルタ47と同一の構成を有しており、
ヘッドホンのインパルスレスポンスの自己相関係数を求
めて線形予測解析を行い、得られた線形予測係数(c
1,c2,...,cm)からその逆特性を示すFIR
型の線形予測フィルタを構成する。これにより、図3で
示した従来の逆特性のインパルスレスポンスの1/10
以下の少ないタップ数のフィルタによりヘッドホンの周
波数特性を除去することができる。なお、両耳間の特性
を互いに対象と仮定することにより、それらの間の時間
差やレベル差を考慮する必要は無くなる。
FIG. 15 shows an example of a filter configuration showing the inverse characteristics Hl -1 , Hr -1 of the transfer characteristics of the headphones according to the present invention. The filter 53 of FIG. 15 has the same configuration as the short-term prediction filter 47 shown in FIG.
The linear prediction analysis is performed by obtaining the autocorrelation coefficient of the impulse response of the headphones, and the obtained linear prediction coefficient (c
1, c2 ,. . . , Cm) to show the opposite characteristic from FIR
Form a linear predictive filter. As a result, 1/10 of the impulse response of the conventional inverse characteristic shown in FIG.
The frequency characteristic of the headphones can be removed by the following filter with a small number of taps. It is not necessary to consider the time difference and level difference between the two ears by assuming that the characteristics between the ears are mutually symmetrical.

【0054】図16は、従来との比較における本発明に
よる音響付加フィルタの周波数特性の一例を示したもの
である。図16において、実線は図3に示す従来の25
6タップから成る音響特性付加フィルタの周波数特性の
場合を示し、点線は本発明による10タップからなる音
響特性付加フィルタ(短期合成フィルタのみを使用)の
周波数特性の場合を示している。本発明により従来より
も大幅に少ないタップ数でスペクトル近似がなされてい
ることが分かる。
FIG. 16 shows an example of frequency characteristics of the sound addition filter according to the present invention in comparison with the conventional one. In FIG. 16, the solid line is the conventional 25 shown in FIG.
The case of the frequency characteristic of the acoustic characteristic addition filter having 6 taps is shown, and the dotted line shows the case of the frequency characteristic of the acoustic characteristic addition filter having 10 taps (using only the short-term synthesis filter) according to the present invention. According to the present invention, it can be seen that the spectrum approximation is performed with a significantly smaller number of taps than the conventional one.

【0055】次に、図17は、本発明による線形予測係
数を用いた音響フィルタによって音像定位を行わせるた
めの基本的なブロック構成が示されている。図17は、
先に説明した図4及び図5の音響付加装置28に相当
し、その音響特性付加フィルタ35及び37は、本発明
による線型予測係数を用いて周波数特性を付加したII
Rフィルタ54,55、それらの入力段でピッチや左右
の耳に到達するまでの時間差等を与える遅延部56,5
7、そして出力段でゲインを個別に制御する増幅器5
8,59で構成される。また、左右チャネルのヘッドホ
ンの音響特性を除去するフィルタ36,38は、本発明
による線型予測係数を用いたFIRフィルタによって構
成される。
Next, FIG. 17 shows a basic block configuration for performing sound image localization by the acoustic filter using the linear prediction coefficient according to the present invention. Figure 17
The acoustic characteristic adding filters 35 and 37 correspond to the acoustic adding device 28 of FIGS. 4 and 5 described above, and the acoustic characteristic adding filters 35 and 37 add the frequency characteristic using the linear prediction coefficient according to the present invention.
R filters 54 and 55, delay units 56 and 5 that give pitches and time differences before reaching the left and right ears at their input stages
7, and an amplifier 5 that controls the gain individually at the output stage
It is composed of 8,59. Further, the filters 36 and 38 for removing the acoustic characteristics of the headphones of the left and right channels are configured by FIR filters using the linear prediction coefficient according to the present invention.

【0056】ここで、前記音響特性付加フィルタ35及
び37のうち、IIRフィルタ53,54には図11で
説明した短期合成フィルタ44が使われ、同じく遅延部
55,56には図11の遅延回路(Z-d)が使われる。
また、ヘッドホンの音響特性を除去するフィルタ36,
38には、図15で説明したFIR形の線型予測フィル
タ53が使われる。従って、ここでは上記各フィルタつ
いてこれ以上説明しない。なお、フィルタ係数選択手段
39は、上記各フィルタパラメータの内のフィルタ係
数、ピッチ・遅延時間、そしてゲイン等の選択設定を行
う。
Here, of the acoustic characteristic adding filters 35 and 37, the short-term synthesis filter 44 described in FIG. 11 is used for the IIR filters 53 and 54, and the delay circuits 55 and 56 are also the delay circuits of FIG. (Z- d ) is used.
In addition, a filter 36 for removing the acoustic characteristics of the headphones,
The FIR type linear prediction filter 53 described with reference to FIG. 15 is used for 38. Therefore, each of the above filters will not be described further here. The filter coefficient selecting means 39 selects and sets a filter coefficient, a pitch / delay time, a gain, etc., among the above filter parameters.

【0057】図18は、図17の本発明による音響付加
装置28を使って図9で説明した音像定位を実現した例
を示している。図9に示す5個のスピーカ(L,C,
R,SR,SL)に相当する5個の仮想音源が音響特性
付加フィルタ(Cl〜SRl及びCr〜SRr)54〜
57によって同様な位置に配置され、またヘッドホン3
3,34の音響特性はその除去フィルタ36,38によ
って取り除かれる。この環境は聴取者にとって図9と同
じものとなり、従って図9で説明したようにレベル調整
部39で増幅器58,59のゲインを変えることによっ
て各仮想音源(L,C,R,SR,SL)からの音量を
変化させ、それによって聴取者を取り囲むように音像を
定位させることができる。
FIG. 18 shows an example in which the sound image localization described in FIG. 9 is realized by using the sound adding device 28 according to the present invention in FIG. Five speakers (L, C,
Five virtual sound sources corresponding to R, SR, and SL) are acoustic characteristic addition filters (Cl to SRl and Cr to SRr) 54 to
57 is placed in a similar position, and the headphones 3
The acoustic characteristics of 3, 34 are removed by the removal filters 36, 38. This environment becomes the same as that shown in FIG. 9 for the listener. Therefore, the virtual sound sources (L, C, R, SR, SL) are changed by changing the gains of the amplifiers 58 and 59 in the level adjusting unit 39 as described in FIG. The sound volume from can be varied, thereby localizing the sound image to surround the listener.

【0058】図19は、本発明による音響付加装置の別
の構成例を示したものであり、基本的には上述した図1
7と同様な構成を有しているが、新たに位置情報の補間
/予測部60と規則性判断部61を設けている点が異な
る。図20〜図24は、図19の位置情報の補間/予測
部60及び規則性判断部61の機能に関する説明図であ
る。
FIG. 19 shows another configuration example of the sound adding device according to the present invention, which is basically the above-mentioned FIG.
7 has the same configuration as that of No. 7, but is different in that a position information interpolation / prediction unit 60 and a regularity determination unit 61 are newly provided. 20 to 24 are explanatory diagrams regarding the functions of the position information interpolation / prediction unit 60 and the regularity determination unit 61 of FIG. 19.

【0059】図20〜22は位置情報の補間に関するも
のである。図20に示すように、画像制御器62(図4
のCG表示装置24に相当)から音像制御器63(図4
の立体音響装置27に相当)へ処理時間の長い画像処理
に先立ってそれに関する未来の位置情報が先送りされ
る。そして、図20では音像制御器63に含まれる前記
位置情報の補間/予測部60が図21に示すようにその
未来の画像位置と現在位置及び過去の位置を用いてディ
スプレイ21(図4参照)上の音像位置の補間を行う。
20 to 22 relate to interpolation of position information. As shown in FIG. 20, the image controller 62 (see FIG.
Corresponding to the CG display device 24 of FIG.
Corresponding to the stereophonic sound device 27), the future position information regarding the image processing is postponed prior to the image processing having a long processing time. In FIG. 20, the position information interpolation / prediction unit 60 included in the sound image controller 63 uses the future image position, the current position, and the past position as shown in FIG. 21 to display the display 21 (see FIG. 4). Interpolates the upper sound image position.

【0060】ここでは、図22を使って画像位置の直交
座標系(x,y,z)の内のx軸の値の補間方法につい
て述べる。なお、y軸とz軸の値についてもそれぞれ同
様に行うことができる。図22において、t0を現在の
時刻、t−1,...,t−mを過去の時刻、t+1を
未来の時刻とする。ここで、テイラー級数展開を用い
て、時刻t+1,...,t−mにおいて、x(t)が
次式で表されると仮定する。 x(t)=a0+a1*t+a2*t2 +... +an*tn (n≦m+1) ・・・(5.1)
Here, a method of interpolating the value of the x-axis in the Cartesian coordinate system (x, y, z) of the image position will be described with reference to FIG. Note that the y-axis and z-axis values can be similarly determined. In FIG. 22, t0 is the current time, t−1 ,. . . , T−m is past time, and t + 1 is future time. Here, using the Taylor series expansion, times t + 1 ,. . . , T−m, it is assumed that x (t) is expressed by the following equation. x (t) = a0 + a1 * t + a2 * t 2 +. . . + An * t n (n ≦ m + 1) (5.1)

【0061】値x(t+1),...,x(t−m)を
用いて、上式の係数a0,...,anを求めることに
より、時刻t’(t0<t’<t+1)におけるx軸の
値x(t’)を得ることができる。ここで、
The values x (t + 1) ,. . . , X (tm), the coefficients a0 ,. . . , An, the x-axis value x (t ′) at time t ′ (t0 <t ′ <t + 1) can be obtained. here,

【0062】[0062]

【数4】 [Equation 4]

【0063】なお、上記と同様に、x軸の値の補間によ
って未来の位置を予測することもできる。例えば、予測
係数b1,・・・,bnを用いて、次式で時刻t+1の
予測値x’(t+1)を求める。 x’(t+1)=b1*x(t)+b2*x(t−1)+... +bn*x(t−n+1) ・・・(5.4) 上式の予測係数b1,・・・,bnは、現在と過去の値
x(t),・・・,x(t−m)の自己相関係数より線
形予測解析を行って求まる。または、最大傾斜法等のア
ルゴリズムを用いて試行錯誤的に求めることができる。
As in the above case, the future position can be predicted by interpolating the x-axis value. For example, using the prediction coefficients b1, ..., Bn, the prediction value x ′ (t + 1) at time t + 1 is calculated by the following equation. x ′ (t + 1) = b1 * x (t) + b2 * x (t−1) +. . . + Bn * x (t-n + 1) (5.4) The prediction coefficients b1, ..., Bn in the above equation are the current and past values x (t), ..., x (t-m). It is obtained by performing a linear prediction analysis from the autocorrelation coefficient of. Alternatively, it can be obtained by trial and error using an algorithm such as the maximum gradient method.

【0064】図23及び図24は、画像の動きに規則性
が有るか否かを判断することによって未来の位置を予測
する方法について示している。例えば、図19の規則性
判断部61に相当する図23の規則性判断器64が上記
式(5.4)において、予測係数b1,・・・,bnを
線形予測解析を用いて求めるときに安定な予測系の係数
が求まる場合には画像の動きに規則が有ると判断する。
又は、同じ式(5.4)において、予測係数b1,・・
・,bnを所定の適応アルゴリズムを用いて試行錯誤的
に求めるときに係数の値がある値に収束する場合に画像
の動きに規則性があると判断する。そしてこのように判
断した場合にだけ式(5.4)から求められた係数を未
来の位置情報として採用する。
23 and 24 show a method of predicting a future position by determining whether or not the motion of an image has regularity. For example, when the regularity determiner 64 of FIG. 23 corresponding to the regularity determination unit 61 of FIG. 19 obtains the prediction coefficients b1, ..., Bn in the above equation (5.4) using linear prediction analysis, If a stable coefficient of the prediction system is obtained, it is determined that there is a rule in the motion of the image.
Alternatively, in the same equation (5.4), the prediction coefficients b1, ...
.., bn is determined by trial and error using a predetermined adaptive algorithm, and it is determined that the motion of the image has regularity when the coefficient values converge to a certain value. Then, only in the case of making such a judgment, the coefficient obtained from the equation (5.4) is adopted as the future position information.

【0065】上記では、ユーザやソフトウェアによって
与えられる画像の位置情報に従ってディスプレイ上の音
像位置を補間/予測することについて述べてきたが、位
置情報は聴取者の位置情報であってもよい。図25及び
図26は、聴取者の位置情報によって音像を最適に定位
させる例について示している。
Although the above has described the interpolation / prediction of the sound image position on the display according to the position information of the image given by the user or software, the position information may be the position information of the listener. 25 and 26 show an example in which the sound image is optimally localized according to the position information of the listener.

【0066】図25は、図4のシステムにおいて聴取者
31が斜線で囲まれた適切な視聴環境範囲を離れて移動
することにより聴取者31にとって音像位置と画像位置
の軌跡が合わなくなった一例を示している。このような
場合でも本発明により聴取者31の位置を位置センサ等
で常時監視することで、図26に示すように前記視聴環
境範囲を聴取者31の側へ自動的に移動させ、それによ
ってユーザの視聴環境に合わせて音像と画像を一致させ
ることができる。図20に視聴環境によって音像制御器
63を制御するようにしているのはこのためである。な
お、音像定位位置を移動させることに関しては、いまま
で述べてきた方法がそのまま使用される。すなわち、
L,Rの各チャネル信号を制御して、視聴環境範囲をユ
ーザの位置へ移動する。
FIG. 25 shows an example in which, in the system of FIG. 4, the listener 31 moves away from the appropriate viewing environment range surrounded by the diagonal lines, and the loci of the sound image position and the image position do not match for the listener 31. Shows. Even in such a case, by constantly monitoring the position of the listener 31 with a position sensor or the like according to the present invention, the viewing environment range is automatically moved to the listener 31 side as shown in FIG. It is possible to match the sound image with the image according to the viewing environment of. This is the reason why the sound image controller 63 is controlled according to the viewing environment in FIG. The method described so far is used as it is for moving the sound image localization position. That is,
The L and R channel signals are controlled to move the viewing environment range to the user's position.

【0067】図27は、本発明による演算処理の効率化
の一実施例を示したものである。図27は、図17又は
図19に示す各音響特性付加フィルタ35,37におけ
る音響特性の共通特性を抽出することで各フィルタに共
通の演算部(C→l)64及び(C→r)65と個々の
フィルタに固有の演算部(P→l)〜(Q→r)66〜
69とに分け、それらの間の重複した演算処理を回避す
ることによって図8で説明した従来例と比べてより一層
の演算処理の効率化/高速化を図ろうとしたものであ
る。
FIG. 27 shows an embodiment of streamlining the arithmetic processing according to the present invention. FIG. 27 is a diagram illustrating a calculation unit (C → l) 64 and (C → r) 65 common to each of the acoustic characteristic addition filters 35 and 37 shown in FIG. And an operation unit (P → l) to (Q → r) 66 unique to each filter
This is intended to further improve the efficiency / speed of the arithmetic processing as compared with the conventional example described in FIG. 8 by avoiding redundant arithmetic processing between them.

【0068】前記共通の演算部64,65は、それぞれ
の固有の演算部66〜69と直列に接続される。また、
各固有の演算部66〜69には両耳間のレベル差と音像
の位置とを制御するための増幅器gPl〜gQrが接続され
る。ここでは、音響特性の共通特性として2個若しくは
複数の実音源(P〜Q)の中間に位置する仮想音源
(C)から聴取者までの音響特性を用いる。
The common arithmetic units 64 and 65 are connected in series with their own arithmetic units 66 to 69. Also,
Amplifiers g Pl to g Qr for controlling the level difference between both ears and the position of the sound image are connected to each of the unique arithmetic units 66 to 69. Here, the acoustic characteristic from the virtual sound source (C) located in the middle of two or a plurality of real sound sources (P to Q) to the listener is used as the common characteristic of the acoustic characteristics.

【0069】図28の(a)は、上記仮想音源Cから聴
取者までの音響特性を表すインパルスレスポンスを用い
て共通特性の線形予測係数を求める処理系を示してい
る。本例では、C→lの音響特性について示している
が、C→rの音響特性についても同様である。なお、よ
り一層の共通化のためには仮想音源Cが聴取者の正面に
あるとして、C→lとC→rの各音響特性を互いに等し
いと仮定することもできる。一般に、窓掛け処理70に
はハミングウインドウ等が用いられ、線形予測解析には
レビンソンダービン法が用いられる。
FIG. 28A shows a processing system for obtaining the linear prediction coefficient of the common characteristic by using the impulse response representing the acoustic characteristic from the virtual sound source C to the listener. In this example, the acoustic characteristic of C → l is shown, but the acoustic characteristic of C → r is also the same. Note that, for further commonality, it is possible to assume that the virtual sound source C is in front of the listener and that the acoustic characteristics C → l and C → r are equal to each other. Generally, a Hamming window or the like is used for the windowing process 70, and the Levinson-Durbin method is used for the linear prediction analysis.

【0070】図28の(b)は、実音源P〜Qから聴取
者までの音響特性の固有特性を表す線形予測係数を求め
る処理系を示している。各音響特性を表すインパルスレ
スポンスを共通特性を除去するフィルタ(C→l)-1
2又は(C→r)-173に入力し、その出力を線形予測
解析することにより、各音響特性に固有な特性を表す線
形予測係数を求める。上記フィルタ72,73には、図
12で説明したのと同様な方法で共通特性の線形予測係
数が設定される。その結果、各固有のインパルスレスポ
ンスから予め共通特性部分を除去した状態で、各固有の
フィルタ特性(P→l)〜(Q→l)及び(P→r)〜
(Q→r)の線形予測係数が求まる。
FIG. 28 (b) shows a processing system for obtaining a linear prediction coefficient representing the characteristic characteristic of the acoustic characteristics from the real sound sources P to Q to the listener. A filter (C → l) -17 for removing the common characteristic from the impulse response representing each acoustic characteristic
2 or (C → r) −1 73, and the output thereof is subjected to linear prediction analysis to obtain a linear prediction coefficient representing a characteristic peculiar to each acoustic characteristic. A linear prediction coefficient having a common characteristic is set in the filters 72 and 73 by the same method as described with reference to FIG. As a result, the filter characteristics (P → l) to (Q → l) and (P → r) to the unique filter characteristics are removed in advance with the common characteristic portion removed from the unique impulse responses.
The linear prediction coefficient of (Q → r) is obtained.

【0071】図29及び図30は本発明により共通部と
固有部とを分離してそれらの間を直列接続した音響特性
付加フィルタ35,37の一実施例を示したものであ
る。図29の共通部64,65は、図11で説明した短
期合成フィルタ及びピッチ合成フィルタからなる線形合
成フィルタそのもので構成され、また固有部66〜69
は個々の周波数特性を表す短期合成フィルタの他に両耳
間の時間差を制御する遅延器Z-DP ,Z-DQ とレベル差
及び音像の位置とを制御するための増幅器g Pl〜gQl
構成される。
29 and 30 show a common part according to the present invention.
Acoustic characteristics in which the characteristic part is separated and they are connected in series
An example of the additional filters 35 and 37 is shown.
You. The common parts 64 and 65 in FIG. 29 are the same as the short parts described in FIG.
A linear combination consisting of a phase synthesis filter and a pitch synthesis filter.
It is composed of the composition filter itself, and the unique parts 66 to 69
Is a binaural in addition to a short-term synthesis filter that represents individual frequency characteristics.
Delay device Z for controlling the time difference between-DP, Z-DQAnd the level difference
And an amplifier g for controlling the position of the sound image Pl~ GQlso
Be composed.

【0072】図30は、LとRの2つの音源と聴取者と
の間の音響特性付加フィルタの例を示している。ここで
は、以下で説明する図31〜図33の説明との整合性を
考慮して共通部64,65においてピッチ合成フィルタ
は使用していない。図31〜図33は、図30に示す音
響特性付加フィルタの周波数特性の一例を示したもので
ある。
FIG. 30 shows an example of the acoustic characteristic addition filter between the two sound sources L and R and the listener. Here, the pitch synthesis filter is not used in the common units 64 and 65 in consideration of the consistency with the description of FIGS. 31 to 33 described below. 31 to 33 show an example of frequency characteristics of the acoustic characteristic addition filter shown in FIG.

【0073】図30のL及びRの2つの音源は、図31
の(a)及び(b)に示す音源S1及びS2にそれぞれ
対応し、聴取者からみて30度の開きをもって配置され
る。図31の(b)は、図30の音響特性付加フィルタ
を回路ブロック化したものであり、図32及び33の測
定系を示している。
The two sound sources L and R in FIG.
The sound sources S1 and S2 shown in (a) and (b) of FIG. 3 are respectively arranged with an opening of 30 degrees when viewed from the listener. FIG. 31B is a block diagram of the acoustic characteristic addition filter of FIG. 30 and shows the measurement system of FIGS. 32 and 33.

【0074】図32の点線は図31の共通部(C→l)
の周波数特性を示し、また図33の点線は共通部と固有
部(s1→l)を直列接続したときの周波数特性を示し
ている。ここで、実線で示す従来フィルタのタップ数は
256であり、点線で示す本発明による短期合成フィル
タのタップ数は、C→1が6,s1→lが4の合計10
タップとしてある。なお、上述したようにピッチ合成フ
ィルタは使用していない。従って、固有部の数が増える
ほど演算量の削減効果は大きいことが分かる。
The dotted line in FIG. 32 is the common part (C → l) in FIG.
33, and the dotted line in FIG. 33 shows the frequency characteristic when the common part and the unique part (s1 → l) are connected in series. Here, the number of taps of the conventional filter shown by the solid line is 256, and the number of taps of the short-term synthesis filter according to the present invention shown by the dotted line is 10 in total for C → 1 and 4 for s1 → l.
It is as a tap. Note that the pitch synthesis filter is not used as described above. Therefore, it can be seen that the greater the number of unique parts, the greater the effect of reducing the calculation amount.

【0075】図34は、図30の共通部64,65の共
通特性を既に付加済みの原信号を音データとしてハード
ディスク等の蓄積媒体74に記憶することを示してい
る。図35は、共通特性の演算処理に代えて蓄積媒体7
4から既に共通特性付加済みの信号を読み出し、それを
固有部66〜69に与えることを示している。図35の
例では、聴取者は、必要な時に音像制御装置75を操作
することによって蓄積媒体74から共通特性演算済みの
信号を読み出すことができる。読み出された信号は、固
有特性の付加演算やその出力ゲインの調整処理が行われ
て所望の音像位置に定位する。この本発明によって共通
特性の実時間演算処理は不要となる。なお、蓄積媒体7
4に記憶される信号には、前記共通特性に加えて処理内
容が固定しているヘッドホンの逆特性演算処理までを含
めることができる。
FIG. 34 shows that the common characteristics of the common sections 64 and 65 shown in FIG. 30 are stored in the storage medium 74 such as a hard disk as the original signal already added as sound data. In FIG. 35, the storage medium 7 is replaced with the common characteristic calculation process.
4 shows that the signal to which the common characteristic has already been added is read out from No. 4 and is given to the proper portions 66 to 69. In the example of FIG. 35, the listener can read the signal for which the common characteristic has been calculated from the storage medium 74 by operating the sound image control device 75 when necessary. The read signal is localized at a desired sound image position by performing a calculation for adding a characteristic and adjusting an output gain thereof. According to the present invention, real-time arithmetic processing of common characteristics is unnecessary. The storage medium 7
In addition to the common characteristics, the signal stored in 4 can include up to the inverse characteristic calculation processing of headphones whose processing content is fixed.

【0076】図36は、聴取者に対して左右対象な処理
を行う例を示したものである。図36では、2つの仮想
音源A及びBを使い、その間のレベルgAl,gAr
Bl,gBrの差によって音像Sを定位させるものであ
る。ここでは、聴取者の中心線(一点鎖線)を基準に左
右対象な処理を行う。すなわち、中心線の左側の仮想音
源A及びBと、中心線に関してそれらと対象な位置にあ
る右側の仮想音源(A)及び(B)とは聴取者に対して
実質的に同様な音響空間を形成するものとする。
FIG. 36 shows processing that is symmetrical to the listener.
It shows an example of performing. In FIG. 36, two virtual
Using sound sources A and B, level g between themAl, GAr,
g Bl, GBrThe sound image S is localized by the difference of
You. Here, the left side is based on the listener's center line (dashed line)
Perform target processing on the right. That is, the virtual sound on the left side of the center line
Sources A and B and their locations relative to the centerline
The virtual sound sources (A) and (B) on the right side are
A substantially similar acoustic space shall be formed.

【0077】図37に示すように、聴取者の回りをn等
分して、各々の境界に仮想音源AとBを置き、各仮想音
源から両耳lとrまでの伝達経路に対応する音響特性を
図38に示すように左右対象とする。これにより、実際
には0,・・・,n/2−1の係数のみを持っておけば
よい。聴取者に対する音像位置を、図39に示すように
正面から例えば反時計回りの角度θで表す。次に、下式
(6)から図37のn等分した区間の内のどの区間に音
像が存在するかを前記角度θから求める。
As shown in FIG. 37, the listener's surroundings are divided into n equal parts, virtual sound sources A and B are placed at each boundary, and the sound corresponding to the transmission path from each virtual sound source to both ears 1 and r. The characteristics are left and right as shown in FIG. As a result, only the coefficients 0, ..., N / 2−1 need to be actually held. The sound image position for the listener is represented by a counterclockwise angle θ from the front as shown in FIG. 39. Next, from the angle θ, which section of the section equally divided into n in FIG. 37 contains the sound image is calculated from the following equation (6).

【0078】 区間番号=(少数点未満切り捨て)θ/(2π/n) ・・・(6) また、仮想音源のレベルgAl,gAr,gBl,gBrを求め
る場合には左右対象の条件から角度θを式(7)のよう
に変換する。 θ=θ(0≦θ<π) ・・・(7) 又は2π−θ (π≦θ≦2π) このように左右対象とすることにより音響特性を表す遅
延やゲイン等の係数を左右で共用することができる。図
39において求めたθがπ≦θ≦2πの場合は、lch
とrchの出力信号を入れ換えて、ヘッドホンに出力す
る。これにより、聴取者の左側にあるとして計算した音
像を右側に定位させることができる。
Section number = (round down to the nearest whole number) θ / (2π / n) (6) In addition, when the levels g Al , g Ar , g Bl , and g Br of the virtual sound source are to be obtained, there are left and right objects. The angle θ is converted from the condition as shown in Expression (7). θ = θ (0 ≦ θ <π) (7) or 2π−θ (π ≦ θ ≦ 2π) In this way, the left and right are shared with the left and right coefficients such as delay and gain representing the acoustic characteristics. can do. When θ obtained in FIG. 39 is π ≦ θ ≦ 2π, lch
And rch output signals are exchanged and output to headphones. Thereby, the sound image calculated as being on the left side of the listener can be localized on the right side.

【0079】図40は、上述した左右対象な系を処理す
るための音響特性付加フィルタの一例を示したものであ
る。この音響特性付加フィルタの特徴は、伝達経路A→
r B→rの遅延処理をそれぞれA→l,B→lの遅延
を基準に行うことによってA→l,B→lの遅延処理を
省略することができることである。従って、両耳間時間
差を表す遅延処理を半減させることができる。
FIG. 40 shows an example of the acoustic characteristic addition filter for processing the above-mentioned symmetrical system. The characteristic of this acoustic characteristic addition filter is that the transmission path A →
By performing the delay process of r B → r on the basis of the delay of A → l and B → l respectively, the delay process of A → l and B → l can be omitted. Therefore, the delay process indicating the interaural time difference can be halved.

【0080】[0080]

【発明の効果】以上述べたように、本発明によれば所望
の音像定位を複数の仮想音源で行うため、音像の数や位
置が変わった場合でも仮想音源から聴取者までの音響特
性を変更する必要が無く、従って線形合成フィルタの構
成を変える必要がない。また、少ないタップ数のフィル
タで原信号に所望の音響特性を付加することができる。
As described above, according to the present invention, a desired sound image localization is performed by a plurality of virtual sound sources. Therefore, even when the number or position of sound images changes, the acoustic characteristics from the virtual sound source to the listener are changed. Therefore, it is not necessary to change the configuration of the linear synthesis filter. In addition, desired acoustic characteristics can be added to the original signal with a filter having a small number of taps.

【0081】また本発明によれば、入力信号に付加する
音響特性を音像定位を行う各位置に共通な特性と固有な
特性に分けてフィルタを構成するため、各フィルタの共
通特性の演算は一度で済み、全体の演算処理量を削減す
ることができる。この場合には、固有な特性の数が多い
ほどその削減の効果は大となる。
Further, according to the present invention, the acoustic characteristic added to the input signal is divided into the characteristic common to each position for sound image localization and the characteristic unique to the filter. Therefore, the calculation of the common characteristic of each filter is performed once. Therefore, it is possible to reduce the total calculation processing amount. In this case, the greater the number of unique characteristics, the greater the effect of the reduction.

【0082】さらに、上記共通な特性部分を処理した結
果を予めハードディスク等の蓄積媒体に記憶しておくこ
とにより、前記蓄積媒体から直接信号を読み出すだけで
実時間処理が必要な各位置に固有な音響特性を付加する
フィルタにそれを入力することができる。このため、演
算量の削減はもとより単に全ての情報を蓄積媒体に記憶
させる場合よりも少ない蓄積容量で済ませられる。
Further, by storing the result of processing the common characteristic part in a storage medium such as a hard disk in advance, it is possible to read a signal directly from the storage medium and to make it unique to each position requiring real-time processing. It can be input to a filter that adds acoustic properties. Therefore, not only the amount of calculation is reduced, but also the storage capacity is smaller than in the case where all information is simply stored in the storage medium.

【0083】なお、各位置に共通な特性を付加するフィ
ルタの出力信号と伴に、音響特性除去フィルタに入力し
て得られる出力信号を蓄積媒体に蓄えてもよい。この場
合には音響特性除去フィルタの処理を実時間で行う必要
がなくなる。このように、蓄積媒体を利用することによ
り少ない処理量で音像を動かすことができる。
The output signal obtained by inputting to the acoustic characteristic removing filter may be stored in the storage medium together with the output signal of the filter that adds a common characteristic to each position. In this case, it is not necessary to perform the processing of the acoustic characteristic removal filter in real time. Thus, by using the storage medium, the sound image can be moved with a small amount of processing.

【0084】さらに本発明によれば、不連続な動きを行
う画像の位置を補間し、その補間した位置に合わせて音
像を動かすことで連続的に音像を動かすことができる。
また、ユーザの視聴環境を画像制御器と音像制御器に入
力し、その情報を用いて画像と音像の動きを制御するこ
とによって見かけの画像の動きと音像の動きとを一致さ
せることができる。
Further, according to the present invention, it is possible to continuously move the sound image by interpolating the position of the image in which the motion is discontinuous and moving the sound image in accordance with the interpolated position.
Further, by inputting the viewing environment of the user to the image controller and the sound image controller and controlling the motions of the image and the sound image using the information, the apparent motion of the image and the motion of the sound image can be matched.

【図面の簡単な説明】[Brief description of drawings]

【図1】2チャンネルのステレオ装置から立体音像を聴
取する一例を示した図である。
FIG. 1 is a diagram showing an example of listening to a stereoscopic sound image from a 2-channel stereo device.

【図2】ヘッドホンを使った図1と等価な音響空間の一
構成例を示した図である。
FIG. 2 is a diagram showing a configuration example of an acoustic space equivalent to that of FIG. 1 using headphones.

【図3】従来のFIRフィルタの一例を示した図であ
る。
FIG. 3 is a diagram showing an example of a conventional FIR filter.

【図4】CG表示装置と立体音響装置の一構成例を示し
た図である。
FIG. 4 is a diagram showing a configuration example of a CG display device and a stereophonic device.

【図5】図4の音響特性付加器の基本的な構成例を示し
た図である。
5 is a diagram showing a basic configuration example of the acoustic characteristic adder of FIG.

【図6】従来の音像定位技術の説明図(1)である。FIG. 6 is an explanatory diagram (1) of a conventional sound image localization technique.

【図7】従来の音像定位技術の説明図(2)である。FIG. 7 is an explanatory diagram (2) of a conventional sound image localization technique.

【図8】従来の音像定位技術の説明図(3)である。FIG. 8 is an explanatory diagram (3) of a conventional sound image localization technique.

【図9】サラウンドタイプの音像定位の一例を示した図
である。
FIG. 9 is a diagram showing an example of a surround-type sound image localization.

【図10】本発明による音響特性を付加する線形合成フ
ィルタを求めるための原理構成図である。
FIG. 10 is a principle configuration diagram for obtaining a linear synthesis filter that adds acoustic characteristics according to the present invention.

【図11】本発明による音響特性を付加する線形合成フ
ィルタの基本構成を示した図である。
FIG. 11 is a diagram showing a basic configuration of a linear synthesis filter for adding acoustic characteristics according to the present invention.

【図12】線形予測係数及びピッチ係数の求め方の一例
を示した図である。
FIG. 12 is a diagram showing an example of how to obtain a linear prediction coefficient and a pitch coefficient.

【図13】ピッチ合成フィルタの一構成例を示した図で
ある。
FIG. 13 is a diagram showing a configuration example of a pitch synthesizing filter.

【図14】線形予測係数の補正処理の一例を示した図で
ある。
FIG. 14 is a diagram showing an example of correction processing of a linear prediction coefficient.

【図15】線形予測係数を用いて伝達特性の逆特性を実
現するFIRフィルタの一例を示した図である。
FIG. 15 is a diagram showing an example of an FIR filter that realizes an inverse characteristic of a transfer characteristic by using a linear prediction coefficient.

【図16】本発明による音響特性付加フィルタの周波数
特性の一例を示した図である。
FIG. 16 is a diagram showing an example of frequency characteristics of the acoustic characteristic addition filter according to the present invention.

【図17】本発明による音響付加装置の基本構成例を示
した図である。
FIG. 17 is a diagram showing an example of the basic configuration of a sound adding device according to the present invention.

【図18】図17の音響付加装置によるサラウンドタイ
プの音像定位の一例を示した図である。
18 is a diagram showing an example of a surround type sound image localization by the sound adding device of FIG.

【図19】本発明による音響付加装置の別の構成例を示
した図である。
FIG. 19 is a diagram showing another configuration example of the sound adding device according to the present invention.

【図20】位置情報の補間の説明図(1)である。FIG. 20 is an explanatory diagram (1) of interpolation of position information.

【図21】位置情報の補間の説明図(2)である。FIG. 21 is an explanatory diagram (2) of interpolation of position information.

【図22】位置情報の補間の説明図(3)である。FIG. 22 is an explanatory diagram (3) of interpolation of position information.

【図23】位置情報の予測の説明図(1)である。FIG. 23 is an explanatory diagram (1) of prediction of position information.

【図24】位置情報の予測の説明図(2)である。FIG. 24 is an explanatory diagram (2) of prediction of position information.

【図25】聴取者の位置情報によって音像を定位させる
説明図(1)である。
FIG. 25 is an explanatory diagram (1) for localizing a sound image according to the position information of the listener.

【図26】聴取者の位置情報によって音像を定位させる
説明図(2)である。
FIG. 26 is an explanatory diagram (2) in which a sound image is localized according to the position information of the listener.

【図27】本発明による演算処理構成を示した図であ
る。
FIG. 27 is a diagram showing an arithmetic processing configuration according to the present invention.

【図28】共通特性及び固有特性の求め方の一例を示し
た図である。
FIG. 28 is a diagram showing an example of how to obtain a common characteristic and a unique characteristic.

【図29】共通部と固有部とを分離した音響特性付加フ
ィルタの実施例(1)を示した図である。
FIG. 29 is a diagram showing an embodiment (1) of the acoustic characteristic addition filter in which the common part and the unique part are separated.

【図30】共通部と固有部とを分離した音響特性付加フ
ィルタの実施例(2)を示した図である。
FIG. 30 is a diagram showing an embodiment (2) of the acoustic characteristic addition filter in which the common part and the specific part are separated.

【図31】図32の周波数特性の測定系を示した図であ
る。
FIG. 31 is a diagram showing a measurement system for frequency characteristics of FIG. 32.

【図32】共通部C→lの周波数特性図である。FIG. 32 is a frequency characteristic diagram of a common portion C → l.

【図33】共通部C→lと固有部s1→lの直列接続時
の周波数特性図である。
FIG. 33 is a frequency characteristic diagram when the common portion C → l and the unique portion s1 → l are connected in series.

【図34】共通特性記憶の一例を示した図である。FIG. 34 is a diagram showing an example of a common characteristic storage.

【図35】図34の一実施例を示した図である。FIG. 35 is a diagram showing an example of FIG. 34.

【図36】左右対象な処理の一例を示した図である。FIG. 36 is a diagram showing an example of left-right symmetrical processing.

【図37】仮想音源の位置の例を示した図である。FIG. 37 is a diagram showing an example of the position of a virtual sound source.

【図38】図37における左右対象な音響特性の一例を
示した図である。
FIG. 38 is a diagram showing an example of left-right symmetrical acoustic characteristics in FIG. 37.

【図39】音像位置を表す角度θの説明図である。FIG. 39 is an explanatory diagram of an angle θ that represents a sound image position.

【図40】左右対象な音響特性付加フィルタの一例を示
した図である。
FIG. 40 is a diagram showing an example of left-right symmetrical acoustic characteristic addition filters.

【符号の説明】[Explanation of symbols]

40…線形合成フィルタ 43…ピッチ合成フィルタ 44…短期合成フィルタ 35,37…音響特性付加フィルタ 36,38…音響特性除去フィルタ 39…選択設定部 60…位置情報の補間/予測部 61…規則性判断部 64,65…共通部 66〜69…固有部 74…ハードディスク 40 ... Linear synthesis filter 43 ... Pitch synthesis filter 44 ... Short-term synthesis filter 35, 37 ... Acoustic characteristic addition filter 36, 38 ... Acoustic characteristic removal filter 39 ... Selection setting unit 60 ... Position information interpolation / prediction unit 61 ... Regularity judgment Part 64, 65 ... Common part 66-69 ... Unique part 74 ... Hard disk

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04S 7/00 G10K 15/00 B ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location H04S 7/00 G10K 15/00 B

Claims (20)

【特許請求の範囲】[Claims] 【請求項1】 仮想音源を用いて音像を定位させる立体
音響処理装置であって、 原信号に付加する所望の音響特性を、その音響特性を表
すインパスルレスポンスの線形予測解析によって得られ
る線形予測係数をフィルタ係数とする線形合成フィルタ
によって形成し、前記線形合成フィルタを通して前記原
信号に所望の音響特性を付加することを特徴とする立体
音響処理装置。
1. A stereophonic processing apparatus for localizing a sound image using a virtual sound source, wherein a desired acoustic characteristic to be added to an original signal is linearly predicted by linear predictive analysis of an impulse response representing the acoustic characteristic. A stereophonic processing apparatus formed by a linear synthesis filter having a coefficient as a filter coefficient, and adding desired acoustic characteristics to the original signal through the linear synthesis filter.
【請求項2】 前記線形合成フィルタは、前記線形予測
係数を用いたIIRフィルタ構成を有して前記原信号に
所望の音響特性の周波数特性を付加する短期合成フィル
タを含む請求項1記載の立体音響処理装置。
2. The stereoscopic synthesis filter according to claim 1, wherein the linear synthesis filter includes a short-term synthesis filter having an IIR filter configuration using the linear prediction coefficient and adding a frequency characteristic of a desired acoustic characteristic to the original signal. Sound processing device.
【請求項3】 前記線形合成フィルタは、さらに前記線
形予測係数を用いたIIRフィルタ構成を有して前記原
信号に所望の音響特性の時間特性を付加するピッチ合成
フィルタを含む請求項2記載の立体音響処理装置。
3. The linear synthesis filter according to claim 2, further comprising a pitch synthesis filter having an IIR filter configuration using the linear prediction coefficient and adding a time characteristic of a desired acoustic characteristic to the original signal. 3D sound processing device.
【請求項4】 前記ピッチ合成フィルタは、減衰率が大
きな直接音に係るピッチ合成部と、その後に続く減衰率
が小さな反射音に係るピッチ合成部及びその遅延時間を
与える遅延部から構成される請求項3記載の立体音響処
理装置。
4. The pitch synthesis filter is composed of a pitch synthesis section for direct sound with a large attenuation rate, a pitch synthesis section for reflected sound with a small attenuation rate that follows, and a delay section for giving a delay time thereof. The stereophonic sound processing apparatus according to claim 3.
【請求項5】 さらに、音響出力機器の音響特性の逆特
性を、その音響特性を表すインパスルレスポンスの線形
予測解析から得られた線形予測係数をフィルタ係数とす
る線形予測フィルタによって形成し、前記線形予測フィ
ルタを通して前記音響機器の音響特性を除去する請求項
1記載の立体音響処理装置。
5. An inverse characteristic of an acoustic characteristic of an acoustic output device is formed by a linear prediction filter having a linear prediction coefficient obtained from a linear prediction analysis of an impulse response representing the acoustic characteristic as a filter coefficient. The stereophonic processing apparatus according to claim 1, wherein the acoustic characteristics of the acoustic device are removed through a linear prediction filter.
【請求項6】 前記線形予測フィルタは、前記線形予測
係数を用いたFIRフィルタ構成を有する請求項5記載
の立体音響処理装置。
6. The stereophonic processing apparatus according to claim 5, wherein the linear prediction filter has an FIR filter configuration using the linear prediction coefficient.
【請求項7】 仮想音源を用いて音像を定位させる立体
音響処理装置であって、 原信号に付加する左耳への1つ又は複数の音響経路の各
音響特性を表すインパスルレスポンスの線形予測解析に
よって得られる線形予測係数を、そのフィルタ係数とす
る線形合成フィルタから成る第1の音響特性付加フィル
タ、 前記第1の音響特性付加フィルタに直列接続され、左耳
への音響出力機器の音響特性を表すインパスルレスポン
スの線形予測解析によって得られる線形予測係数を、前
記音響出力機器の音響特性を除去するための逆特性を与
えるそのフィルタ係数とする線形予測フィルタから成る
第1の音響特性除去フィルタ、 原信号に付加する右耳への1つ又は複数の音響経路の各
音響特性を表すインパスルレスポンスの線形予測解析に
よって得られる線形予測係数を、そのフィルタ係数とす
る線形合成フィルタから成る第2の音響特性付加フィル
タ、 前記第2の音響特性付加フィルタに直列接続され、右耳
への音響出力機器の音響特性を表すインパスルレスポン
スの線形予測解析によって得られる線形予測係数を、前
記音響出力機器の音響特性を除去するための逆特性を与
えるそのフィルタ係数とする線形予測フィルタから成る
第2の音響特性除去フィルタ、そして前記第1の音響特
性付加フィルタ及び第2の音響特性付加フィルタに対し
て音像の位置情報に従って対応する所定のパラメータを
選択的に設定する選択設定部から構成することを特徴と
する立体音響処理装置。
7. A stereophonic processing apparatus for localizing a sound image by using a virtual sound source, which is a linear prediction of an impulse response representing each acoustic characteristic of one or a plurality of acoustic paths to the left ear added to an original signal. A first acoustic characteristic addition filter composed of a linear synthesis filter having a linear prediction coefficient obtained by analysis as its filter coefficient, which is connected in series to the first acoustic characteristic addition filter, and acoustic characteristics of an acoustic output device to the left ear. A first acoustic characteristic removing filter comprising a linear predictive filter having a linear predictive coefficient obtained by a linear predictive analysis of an impulse response representing the above as a filter coefficient for giving an inverse characteristic for removing an acoustic characteristic of the acoustic output device. , Obtained by linear predictive analysis of the in-pulse response representing each acoustic characteristic of one or more acoustic paths to the right ear added to the original signal A second acoustic characteristic addition filter composed of a linear synthesis filter having a linear prediction coefficient as a filter coefficient, and an in-pass representing the acoustic characteristic of the acoustic output device to the right ear, which is connected in series to the second acoustic characteristic addition filter. A second acoustic characteristic removal filter comprising a linear prediction filter obtained by a linear response linear prediction analysis and having a filter coefficient that gives an inverse characteristic for eliminating the acoustic characteristic of the acoustic output device, and A stereophonic processing apparatus comprising: a selection setting unit that selectively sets a predetermined parameter corresponding to the first acoustic characteristic addition filter and the second acoustic characteristic addition filter according to position information of a sound image.
【請求項8】 前記第1及び第2の音響特性付加フィル
タは、各音響経路の音響特性に共通の特性を付加する共
通部と、各音響経路の音響特性にそれぞれ固有な特性を
付加する固有部とに分けて構成され、前記共通部と固有
部とを直列接続することによって全体の音響特性を付加
する請求項7記載の立体音響処理装置。
8. The first and second acoustic characteristic addition filters include a common unit that adds a common characteristic to the acoustic characteristics of each acoustic path, and a unique unit that adds a unique characteristic to each acoustic characteristic of each acoustic path. The three-dimensional acoustic processing apparatus according to claim 7, wherein the three-dimensional acoustic processing device is configured by being divided into parts, and the overall acoustic characteristics are added by connecting the common part and the specific part in series.
【請求項9】 さらに、所定の音源に対する前記共通部
の演算結果を記憶する蓄積媒体と前記記憶された演算結
果の読み出しを指示する読出指示部を有し、前記読出指
示部は、その指示によって読み出された演算結果を前記
固有部に直接与える請求項8記載の立体音響処理装置。
9. A storage medium for storing a calculation result of the common unit for a predetermined sound source, and a read instruction unit for instructing reading of the stored operation result, wherein the read instruction unit is instructed by the instruction. 9. The stereophonic processing apparatus according to claim 8, wherein the read calculation result is directly given to the proper part.
【請求項10】 前記蓄積媒体は、前記所定の音源に対
する前記共通部の演算結果に加えて対応する前記第1又
は第2の音響特性除去フィルタの演算結果も合わせて記
憶する請求項9記載の立体音響処理装置。
10. The storage medium stores, in addition to the calculation result of the common unit for the predetermined sound source, the calculation result of the corresponding first or second acoustic characteristic removal filter. 3D sound processing device.
【請求項11】 前記第1の音響特性付加フィルタ及び
第2の音響特性付加フィルタは、さらに両耳間の遅延時
間を与える遅延部を有する請求項7記載の立体音響処理
装置。
11. The stereophonic sound processing apparatus according to claim 7, wherein the first acoustic characteristic addition filter and the second acoustic characteristic addition filter further include a delay unit that gives a delay time between both ears.
【請求項12】 前記第1又は第2の音響特性付加フィ
ルタの遅延部のうち、両耳間の遅延時間のいずれか一方
を基準(遅延時間ゼロ)とすることによって、その基準
となる遅延部を省略することができる請求項11記載の
立体音響処理装置。
12. The delay unit serving as a reference by using, as a reference (delay time zero), one of the delay times between both ears of the delay sections of the first or second acoustic characteristic addition filter. The stereophonic sound processing apparatus according to claim 11, wherein the can be omitted.
【請求項13】 前記第1の音響特性付加フィルタ及び
第2の音響特性付加フィルタは、さらにそれらの出力信
号レベルを可変的に設定できる増幅部を有する請求項7
記載の立体音響処理装置。
13. The first acoustic characteristic addition filter and the second acoustic characteristic addition filter further include an amplification section capable of variably setting the output signal levels thereof.
The three-dimensional sound processing device according to the above.
【請求項14】 前記選択設定部は、前記音像の位置情
報に従った前記増幅部のゲイン設定により前記第1の音
響特性付加フィルタと第2の音響特性付加フィルタの各
出力信号レベルを相対的に可変させることによって音像
の定位位置を移動させる請求項13記載の立体音響処理
装置。
14. The selection / setting unit relatively sets output signal levels of the first acoustic characteristic addition filter and the second acoustic characteristic addition filter by gain setting of the amplification unit according to position information of the sound image. The stereophonic processing apparatus according to claim 13, wherein the localization position of the sound image is moved by changing the position of the sound image.
【請求項15】 前記第1及び第2の音響特性付加フィ
ルタは、聴取者の前方を中心に左右対象に構成され、前
記遅延部及び増幅部のパラメータが左右の対応する位置
間で共用される請求項11又は13記載の立体音響処理
装置。
15. The first and second acoustic characteristic addition filters are configured symmetrically with respect to the front of a listener, and parameters of the delay unit and the amplification unit are shared between corresponding positions on the left and right. The stereophonic sound processing apparatus according to claim 11 or 13.
【請求項16】 さらに、過去及び未来の音像の位置情
報からその中間の位置情報を補間する位置情報補間部を
有し、前記位置情報補間部からの補間位置情報は前記選
択設定部への位置情報として与えられる請求項7記載の
立体音響処理装置。
16. A position information interpolating unit for interpolating intermediate position information from position information of past and future sound images, and the interpolated position information from the position information interpolating unit is the position to the selection setting unit. The stereophonic sound processing apparatus according to claim 7, which is given as information.
【請求項17】 さらに、過去及び現在の音像の位置情
報からその未来の位置情報を予測補間する位置情報予測
部を有し、前記位置情報予測部からの未来位置情報は前
記選択設定部への位置情報として与えられる請求項7記
載の立体音響処理装置。
17. A position information predicting unit for predictively interpolating the position information of the future from the position information of the past and present sound images, and the future position information from the position information predicting unit is sent to the selection setting unit. The stereophonic sound processing apparatus according to claim 7, which is given as position information.
【請求項18】 前記位置情報予測部は、さらに過去及
び現在の音像の位置情報からその移動方向に関する規則
性の有無を判断する規則性判断部を含み、前記位置情報
予測部は前記規則性判断部が規則性有りと判断した場合
に前記未来位置情報を与える請求項17記載の立体音響
処理装置。
18. The position information predicting unit further includes a regularity determining unit that determines whether or not there is regularity regarding a moving direction of the past and present sound image position information, and the positional information predicting unit determines the regularity determining unit. 18. The stereophonic sound processing apparatus according to claim 17, wherein the future position information is given when the unit determines that there is regularity.
【請求項19】 前記音像の位置情報に代えて、前記音
像を発する画像が表示される画像表示装置からの画像位
置情報が使われる請求項16〜18のいずれか1つに記
載の立体音響処理装置。
19. The stereophonic sound processing according to claim 16, wherein instead of the position information of the sound image, image position information from an image display device that displays an image emitting the sound image is used. apparatus.
【請求項20】 前記選択設定部は、さらに聴取者の良
好な聴取環境を提供・維持すべく、与えられた聴取者の
位置情報に従って前記聴取環境を移動させる請求項7記
載の立体音響処理装置。
20. The stereophonic processing apparatus according to claim 7, wherein the selection setting unit moves the listening environment in accordance with the given position information of the listener so as to further provide / maintain a favorable listening environment of the listener. .
JP23170595A 1995-09-08 1995-09-08 Stereo sound processor using linear prediction coefficient Expired - Fee Related JP3810110B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP23170595A JP3810110B2 (en) 1995-09-08 1995-09-08 Stereo sound processor using linear prediction coefficient
EP07010496A EP1816895B1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor which uses linear predictive coefficients
EP96113318A EP0762804B1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor which uses linear predictive coefficients
DE69637736T DE69637736D1 (en) 1995-09-08 1996-08-20 Three-dimensional acoustic processor with application of linear predictive coefficients
US08/697,247 US6023512A (en) 1995-09-08 1996-08-21 Three-dimensional acoustic processor which uses linear predictive coefficients
US09/330,017 US6269166B1 (en) 1995-09-08 1999-06-11 Three-dimensional acoustic processor which uses linear predictive coefficients
US09/449,570 US6553121B1 (en) 1995-09-08 1999-11-29 Three-dimensional acoustic processor which uses linear predictive coefficients

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23170595A JP3810110B2 (en) 1995-09-08 1995-09-08 Stereo sound processor using linear prediction coefficient

Publications (2)

Publication Number Publication Date
JPH0984199A true JPH0984199A (en) 1997-03-28
JP3810110B2 JP3810110B2 (en) 2006-08-16

Family

ID=16927719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23170595A Expired - Fee Related JP3810110B2 (en) 1995-09-08 1995-09-08 Stereo sound processor using linear prediction coefficient

Country Status (1)

Country Link
JP (1) JP3810110B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999051061A1 (en) * 1998-03-30 1999-10-07 Sony Corporation Audio player
KR100541478B1 (en) * 2002-09-06 2006-01-10 엘지전자 주식회사 Apparatus and method for controlled sound field of mobilephone
JP2015032844A (en) * 2013-07-31 2015-02-16 Kddi株式会社 Voice transmission device, voice transmission method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999051061A1 (en) * 1998-03-30 1999-10-07 Sony Corporation Audio player
GB2340705A (en) * 1998-03-30 2000-02-23 Sony Corp Audio player
GB2340705B (en) * 1998-03-30 2003-06-04 Sony Corp Audio reproducing apparatus
KR100682492B1 (en) * 1998-03-30 2007-02-15 소니 가부시끼 가이샤 Audio Player
KR100541478B1 (en) * 2002-09-06 2006-01-10 엘지전자 주식회사 Apparatus and method for controlled sound field of mobilephone
JP2015032844A (en) * 2013-07-31 2015-02-16 Kddi株式会社 Voice transmission device, voice transmission method

Also Published As

Publication number Publication date
JP3810110B2 (en) 2006-08-16

Similar Documents

Publication Publication Date Title
EP1816895B1 (en) Three-dimensional acoustic processor which uses linear predictive coefficients
CN107018460B (en) Binaural headphone rendering with head tracking
US6421446B1 (en) Apparatus for creating 3D audio imaging over headphones using binaural synthesis including elevation
US6021206A (en) Methods and apparatus for processing spatialised audio
JP5285626B2 (en) Speech spatialization and environmental simulation
KR101407200B1 (en) Apparatus and Method for Calculating Driving Coefficients for Loudspeakers of a Loudspeaker Arrangement for an Audio Signal Associated with a Virtual Source
EP2258120B1 (en) Methods and devices for reproducing surround audio signals via headphones
JP3976360B2 (en) Stereo sound processor
JP4914124B2 (en) Sound image control apparatus and sound image control method
JP3258816B2 (en) 3D sound field space reproduction device
JP2007266967A (en) Sound image localizer and multichannel audio reproduction device
WO2006067893A1 (en) Acoustic image locating device
US7174229B1 (en) Method and apparatus for processing interaural time delay in 3D digital audio
KR20190083863A (en) A method and an apparatus for processing an audio signal
Otani et al. Binaural Ambisonics: Its optimization and applications for auralization
JP2003061200A (en) Sound processing apparatus and sound processing method, and control program
Huopaniemi et al. DIVA virtual audio reality system
JP3810110B2 (en) Stereo sound processor using linear prediction coefficient
JPH09182200A (en) Device and method for controlling sound image
Pelzer et al. 3D reproduction of room acoustics using a hybrid system of combined crosstalk cancellation and ambisonics playback
US20230403528A1 (en) A method and system for real-time implementation of time-varying head-related transfer functions
JP4691662B2 (en) Out-of-head sound localization device
JPH1042398A (en) Surround reproducing method and device
Mickiewicz et al. Spatialization of sound recordings using intensity impulse responses
JP2924539B2 (en) Sound image localization control method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060523

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100602

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110602

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120602

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130602

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140602

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees