JP3367625B2 - Sound image localization control device - Google Patents

Sound image localization control device

Info

Publication number
JP3367625B2
JP3367625B2 JP3137795A JP3137795A JP3367625B2 JP 3367625 B2 JP3367625 B2 JP 3367625B2 JP 3137795 A JP3137795 A JP 3137795A JP 3137795 A JP3137795 A JP 3137795A JP 3367625 B2 JP3367625 B2 JP 3367625B2
Authority
JP
Japan
Prior art keywords
sound image
sound
localization
coefficient
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3137795A
Other languages
Japanese (ja)
Other versions
JPH08205298A (en
Inventor
雅博 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP3137795A priority Critical patent/JP3367625B2/en
Publication of JPH08205298A publication Critical patent/JPH08205298A/en
Application granted granted Critical
Publication of JP3367625B2 publication Critical patent/JP3367625B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Stereophonic System (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、実際のトランスジュー
サ(スピーカ)の設置位置とは異なる所望の任意の位置
に音像が定位しているように感じさせる音像定位制御装
置に係り、特に、アミューズメントゲーム機やコンピュ
ータ端末機などにも搭載可能な、音像定位感に優れ、か
つ、回路規模を小さくできる音像定位制御装置に関する
ものである。 【0002】 【従来の技術】従来より、両耳における信号のレベル差
と位相差(時間差)によって特定な位置(方向)に音源
を感じさせる音像定位装置がある。例えば、特開平2−
298200号公報記載の「音像形成方法及びその装
置」であり、2つのスピーカから放出される左右の両チ
ャンネル信号に周波数に依存したレベル差と位相差を与
えて、音像の定位を制御するものである。また、本出願
人は特願平4−343459号および特願平4−356
358号を提案した。これはHRTF(頭部伝達関数)
による実測に基づき特性を定めて音像の定位を行わせる
ようにしたものである。 【0003】いずれもデジタル的に振幅周波数特性や位
相周波数特性を信号処理により加工して音像定位させて
いる。 【0004】 【発明が解決しようとする課題】しかしながら、音像の
定位位置が意図した位置に分散し(音像がぼけ)たり、
意図した位置からずれるという問題があった。そこで本
出願人はHRTFによる心理的要素を盛り込んで音像の
定位を改善すべく特願平5−34946号を提案した。
これは帯域ごとの修正処理を用いて音像の定位を改善し
たものである。本発明は、こうした音像の定位の位置ず
れの改善を踏まえ、さらに、雑音が多い外部環境あるい
は両耳間の距離の相違による個人差等によっても、常
に、音像の定位を最適に得ることができる音像定位制御
装置を提供することを目的とする。 【0005】 【課題を解決するための手段】上記課題を解決するため
に、本発明は下記する構成になる音像定位制御装置を提
供する。 【0006】 【0007】音源(X)から出力する信号を畳込演算し
た音声信号を一対のトランスジューサ(スピーカsp
1,sp2)から再生して、前記一対のトランスジュー
サ(スピーカsp1,sp2)の配置とは異なる位置に
音像が定位するように音像定位を行う音像定位制御装置
1であって、同一音源(X)から出力する信号が供給さ
れる一対の畳込演算処理回路(コンボルバ)2と、前記
一対のトランスジューサ(スピーカsp1,sp2)の
配置とは異なる位置に音像を定位するための音像定位位
置係数(一対のコンボルバの係数データ(cfLx,c
fRx))を前記畳込演算処理回路(コンボルバ)2に
供給する係数メモリ3と、聴取位置(聴取者Mの位置)
において定位している音像を周期的に角度位置変更する
(例えば、3秒間〜5秒間ごとに±10度、音像を振ら
せる)ことにより定位している音像の認識を確実化する
ことを特徴とする音像定位制御装置。 【0008】 【0009】 【実施例】本発明になる音像定位制御装置について、以
下図面と共に説明する。図1は本発明になる音像定位制
御装置の一実施例構成図、図2は音像定位認識のずれを
補正するマッピングを説明する図、図3は音像定位点の
振れ方を説明する図、図4は一般の音像定位装置の構成
図、図5は音像定位制御の基本原理を示す構成図、図6
はHRTF(頭部伝達関数)の測定システムを示す構成
図、図7はHRTF測定のポイントを説明する図、図8
はキャンセルフィルタの算出例を説明する図、図9はH
RTFのIR(インパルス応答)の具体的な例を示す
図、図10はキャンセルフィルタの係数の具体的な例を
示す図である。 【0010】最初に、音像定位制御の基本原理について
説明する。これは、離間して配設された一対のトランス
ジューサ(以下、スピーカを例として説明する)を使用
し、空間の任意の位置に音像を定位させる技術である。 【0011】音像定位制御の基本原理を示す構成図であ
る図5において、sp1,sp2は受聴者(即ち、聴取
者M)の前方左右に配置されるスピーカであり、sp1
から受聴者左耳までの頭部伝達特性(インパルス応答)
をh1L、右耳までの頭部伝達特性をh1R、sp2か
ら左右耳までの頭部伝達特性をh2L,h2Rとする。
また、目的とする定位位置xに実際のスピーカを配置し
たときの受聴者左右耳までの頭部伝達特性をpLx,p
Rxとする。ここで各伝達特性は音響空間にスピーカ
と、ダミーヘッド(または人頭)の両耳位置にマイクを
配置して実際に測定したものに、適切な波形処理などを
施したものである。 【0012】次に、定位させたい音源ソースXを信号変
換装置cfLx,cfRx(コンボルバなどによる伝達
特性)に通して得られる信号を、それぞれsp1,sp
2で再生することを考える。このとき受聴者左右耳に得
られる信号をeL,eRとすると、 eL=h1L・cfLx・X+h2L・cfRx・X eR=h1R・cfLx・X+h2R・cfRx・X ここで、両式を合わせて、(式1)とする。 【0013】一方、ソースXを目的の定位位置から再生
したときに受聴者左右耳に得られる信号をdL,dRと
すると、 dL=pLx・X dR=pRx・X ここで、両式を合わせて、(式2)とする。 【0014】ここで、sp1,sp2の再生により受聴
者左右耳に得られる信号が、目的位置からソースを再生
したときの信号に一致すれば、受聴者はあたかも目的位
置にスピーカが存在するように音像を認識することとな
る。この条件eL=dL,eR=dRと(式1),(式
2)より、Xを消去して h1L・cfLx+h2L・cfRx=pLx h1R・cfRx+h2R・cfRx=pRx ここで、両式を合わせて、(式3)とする。(式3)か
らcfLx,cfRxを求めると cfLx=(h2R・pLx−h2L・pRx)/H cfRx=(−h1R・pLx+h1L・pRx)/H ここで、両式を合わせて、(式4a)とする。 ただし、 H=h1L・h2R−h2L・h1R ………(式4b) 【0015】したがって、(式4a),(式4b)によ
り算出した伝達特性cfLx,cfRxを用いてコンボ
ルバ(畳込演算処理回路)等により定位させたい信号を
処理すれば、目的の位置xに音像を定位させることがで
きる。具体的な信号変換装置の実現方法は様々考えられ
るが、非対称なFIRデジタルフィルタ(コンボルバ)
を用いて実現すれば良い。なお、FIRデジタルフィル
タで用いる場合の最終の伝達特性は、時間応答関数であ
る。 【0016】つまり、必要な定位位置xにおける伝達特
性cfLx,cfRxとして、(式4a),(式4b)
で求めたものを、1回のFIRフィルタ処理により実現
するための係数として、cfLx,cfRxの係数をあ
らかじめ作成し、ROMのデータとして準備しておく。
ROMから必要な音像定位置の係数をFIRデジタルフ
ィルタに転送し、音源からの信号を畳み込み演算処理し
て一対のスピーカから再生すれば、所望の任意の位置に
音像が定位されることになる。 【0017】以上のような原理に基づく本音像定位制御
について、〜の順に説明する。 【0018】頭部伝達関数(Head Related Transfer
Function;以下、HRTFと称する)の測定 【0019】図6に示すように、ダミーヘッド(または
人頭)DMの両耳に一対マイクロホンML,MRを設置
し、スピーカSPからの測定音を受け、録音器DATに
ソース音(リファレンスデータ)refL,refRと
被測定音(測定データ)L,Rを同期して記録する。 【0020】ソース音XHとしては、インパルス音,ホ
ワイトノイズ,その他のノイズ等を用いることができ
る。特に、統計処理の観点からは、ホワイトノイズは、
連続音でかつオーディオ帯域にわたってエネルギー分布
が一定なので、ホワイトノイズを用いることによりSN
比が向上する。上記スピーカSPの位置を、正面を0度
として取決めた空間内の複数の角度θ(例えば、図7に
示すように、30度ごとに12ポイント)に設置し、そ
れぞれ所定の時間だけ、連続的に記録する。 【0021】HRTFのインパルス応答(Impulse Re
sponse;以下、IRと称する)の算出 前記したHRTFの測定で、同期して記録されたソー
ス音(リファレンスデータ)refL,refRと被測
定音(測定データ)L,Rとを、ワークステーション
(図示せず)上で処理する。 【0022】ソース音(リファレンスデータ)の周波数
応答をX(S)、被測定音(測定データ)の周波数応答
をY(S)、測定位置におけるHRTFの周波数応答を
IR(S)とすると、下記する(式5)に示す、入出力
の関係がある。 Y(S)=IR(S)・X(S) ………(式5) したがって、HRTFの周波数応答をIR(S)は、 IR(S)=Y(S)/X(S) ………(式6) である。よって、リファレンスの周波数応答X(S)、
測定データの周波数応答Y(S)は、前記ステップ10
1で求めたデータを時間同期した窓で切り出し、それぞ
れFFT変換により有限のフーリエ級数展開して離散周
波数として計算し、(式6)より、HRTFの周波数応
答IR(S)が、周知の計算方法で求められる。 【0023】この場合、IR(S)の精度をあげる(S
N比の向上)ために時間的に異なる数百個の窓に対して
それぞれIR(S)を計算し、それらを平均化すると良
い。そして、計算したHRTFの周波数応答IR(S)
を逆FFT変換して、HRTFの時間軸応答(インパル
ス応答)IR(第1のIR)とする。 【0024】IR(インパルス応答)の整形処理 ここで、前記したHRTFのインパルス応答で求めた
IRを整形する。まず例えばFFT変換により、前記し
た第1のIRをオーディオスペクトラムにわたる離散周
波数で展開し、不要な帯域(高域には大きなディップが
生じるが、これは音像定位にあまり影響しない不要なも
のである)を、BPF(バンドパスフィルタ)で除去す
る。このように帯域制限すると、周波数軸上での不要な
ピークやディップが除去されて、キャンセルフィルタに
不要な係数が生じなくなるので、収束性がよくなり、係
数を短くすることができる。 【0025】そして、帯域制限されたIR(S)を逆F
FT変換して、IR(インパルス応答)を時間軸上で切
り出し窓(例えば、コサイン関数の窓)を掛けて、ウィ
ンド処理する(第2のIRとなる)。ウィンド処理する
ことにより、IRの有効長が長くなくなり、キャンセル
フィルタの収束性が向上して、音質の劣化が生じないよ
うになる。図9にHRTFのIR(インパルス応答)の
具体的な例を示す。横軸は時間(サンプルクロックが 4
8kHzであるクロック単位の時間)、縦軸は振幅のレベル
である。2点鎖線はウィンド窓を示す。 【0026】キャンセルフィルタcfLx、cfRx
の算出 コンボルバ(畳込演算処理回路)であるキャンセルフィ
ルタcfLx、cfRxは、前述した(式4a)及び
(式4b)に示した値となる。 【0027】ここで、配置されるスピーカsp1,sp
2による頭部伝達特性h1L,h1R,h2L,h2R
及び、目的とする定位位置xに実際のスピーカを配置し
たときの頭部伝達特性pLx,pRxとして、上記した
〜によって求められた、各角度θごとの整形処理さ
れた第2のIR(インパルス応答)を代入する。 【0028】頭部伝達特性h1L,h1Rは、図8のL
チャンネルスピーカの位置に対応するもので、正面から
左に例えば30度(θ=330度)に設置されるとすれ
ば、θ=330度のIRを用いる。頭部伝達特性h2
R,h2Lは、同図のRチャンネルスピーカの位置に対
応するもので、正面から右に例えば30度(θ=30
度)に設置されるとすれば、θ=30度のIRを用いる
(すなわち、実際の音像再生時のシステム(例えば図4
に示す)に近いものを選ぶ)。 【0029】そして、頭部伝達特性pLx、pRxとし
ては、目的とする音源定位位置である正面から左右90
度の180度の範囲はもちろんのこと、それを越える広
範囲な空間(全空間)における、30度ごとのIRを代
入することにより、それに対応した全空間のcfLx、
cfRx、すなわち30度ごとに12組のキャンセルフ
ィルタcfLx、cfRx群が求められる(図8では、
240度の位置を例としている)。キャンセルフィルタ
cfLx、cfRx群は、最終的には、時間軸上の応答
であるIR(インパルス応答)として求められる。 【0030】なお、(式4a)によるキャンセルフィル
タcfLx、cfRxの計算は、次のようである。まず
(式4b)のHに対する一種の逆フィルタであるH-1
最小2乗法により求め、これを逆FFT変換して時間関
数h(t) とする。また(式4a)の各項h1L,h1
R,h2L,pRx,pLx,h2Rをそれぞれ時間関
数で表すことにより、次式が成り立つ。 cfLx(t) =(h2R・pLx−h2L・pRx)・
h(t) cfRx(t) =(−h1R・pLx+h1L・pRx)
・h(t) ここで、両式を合わせて、(式7)とする。 【0031】したがって、これらの(式7)からキャン
セルフィルタcfLx、cfRxの係数が求められるこ
とになる。(式7)から明らかなように、キャンセルフ
ィルタcfLx、cfRxの係数を短くするには、各頭
部伝達特性h1L,h1R,h2L,pRx,pLx,
h2Rをそれぞれ短くすることが極めて大切である。こ
のため、前述したように、〜でウィンド処理,整形
処理などの各種の処理をして、各頭部伝達特性h1L,
h1R,h2L,pRx,pLx,h2Rを短くしてい
る。 【0032】図10にキャンセルフィルタの係数cfL
x、cfRxの具体的な係数列を示す。横軸は時間(サ
ンプルクロックが 48kHzであるクロック単位の時間)、
縦軸は振幅のレベルである。2点鎖線はウィンド窓を示
す。なお、キャンセルフィルタの係数cfLx、cfR
xをFFT変換して周波数応答を求めこれを一定の幅で
移動平均化し、それを逆FFT変換して最終的なキャン
セルフィルタの時間応答を得てもよい。このように移動
平均化することにより、不必要なピークやディップを取
り除くことができ、実現すべき時間応答の収束を早め
て、キャンセルフィルタの規模を小さくできる。 【0033】各定位ポイントxのキャンセルフィルタ
のスケーリング また、実際にコンボルバ(キャンセルフィルタ)で音像
処理される音源(ソース音)のスペクトラム分布は、統
計的にみるとピンクノイズのように分布するもの、ある
いは高域でなだらかに下がるものなどがあり、いずれに
しても音源は単一音とは異なるために、畳み込み演算
(積分)を行ったときオーバーフローして、歪が発生す
る危険がある。そこで、オーバーフローを防止するた
め、キャンセルフィルタcfLx、cfRxの係数の中
で最大のゲイン(例えば、キャンセルフィルタcfL
x、cfRxの各サンプル値の2乗和)のものを見つ
け、その係数と0dbのホワイトノイズを畳込んだとき
に、オーバーフローが生じないように、全係数をスケー
リングする。実際的には、絶対値の最大値が、許容レベ
ル(振幅)1に対して0.1〜0.4位(例えば0.
2)となるように減衰させると良い。 【0034】そして、図10に示したウィンド窓(コサ
イン窓)により、実際のコンボルバの係数の数にあわせ
て、両端が0となるように、ウィンド処理し、係数の有
効長を短くする。このようにしてスケーリング処理され
て、最終的にコンボルバに係数として供給されるデータ
群(この例では、30度ごとに音像定位が可能な12組
のコンボルバの係数群)cfLx、cfRxが求まる。 【0035】音源からの信号を畳み込み演算して再生 例えば、ゲーム機の音響再生装置として、図4に示すよ
うに、ゲーム操作者(聴取者)Mを中心として左右30
度づづ離間して一対のスピーカsp1,sp2を配設
し、これら一対のスピーカsp1,sp2には、一対の
コンボルバ(畳込演算処理回路)で処理された音響信号
が再生されるように構成する。一対のコンボルバには、
同一の音源X(例えば、ゲーム用シンセサイザからの飛
行音など)からの信号が供給されると共に、前記ステッ
プ105で作成されたIRの係数cfLx、cfRx
(例えば、飛行音を左後方120度(θ=240度)の
位置に音像定位させたい時は、θ=240度の係数)
が、選択されてコンボルバに設定される。例えば、ゲー
ム機などのメインCPU(中央演算装置)からの音像定
位命令にもとづいてコントロール用サブCPUが係数R
OMから、所望の定位位置の係数を一対のコンボルバに
転送する。 【0036】このようにして、一対のコンボルバにより
音源Xからの信号は時間軸上で畳み込み演算処理がなさ
れて、離間して配設された一対のスピーカsp1,sp
2から再生される。一対のスピーカsp1,sp2から
再生された音は、スピーカsp1,sp2から両耳への
HRTFがキャンセルされ、所望の任意の位置から両耳
へのHRTFが再現されることにより、所望の位置に音
源があるように音像定位して、聴取者Mに聞かれ、極め
て現実感に満ちた音として再生される。コンボルバの係
数は、聴取者Mの操作に応じた飛行機の動きの推移と共
に、最適な音像位置が順次選択され、切換えられる。ま
た、飛行音から、例えばミサイル音に変更する時は、音
源Xからのソース音が飛行音からミサイル音に変更され
る。このようにして、任意の位置を音像を自由に定位さ
せることができる。 【0037】なお、再生のためのトランスジューサとし
てはー対のスピーカsp1,sp2のかわりにヘッドホ
ーンを用いることもできる。この場合は、HRTFの測
定条件が異なるので、係数を別に準備して再生状況に応
じて切換えると良い。 【0038】また、IR(インパルス応答)の整形処
理は必ずしも必要ではなく、省略しても音像定位の制御
は可能である。 【0039】また、本音像定位制御における、離間して
配設された一対のトランスジューサから同一の音源が供
給された一対のコンボルバで処理した信号を再生する構
成は、本願の効果を得るための最小限の構成を示すもの
である。よって、必要に応じては、一対、すなわち、2
つ以上のトランスジューサ及びコンボルバで追加構成し
ても良いことはもちろんであり、さらに、コンボルバの
係数が長い場合には、係数を分割して複数個のコンボル
バで構成しても良い。 【0040】さらに、上記コンボルバの係数は、スピー
カの開き角(すなわち、図4で角度sp1−M−sp
2)により異なるので、スピーカの開き角毎に求めてお
き、実際の再生システムに応じて選択的に使用できるよ
うにしてもよい。すなわち、上記したものでは、ゲーム
操作者(聴取者)を中心として左右30度ずつ離間して
開き角を60度として一対のスピーカsp1,sp2を
配設される場合のコンボルバの係数を求めたが、上記し
たのキャンセルフィルタの算出時に、スピーカsp
1,sp2による頭部伝達特性h1L,h1R,h2
L,h2Rとして、他の開き角、例えば45度,30度
に対応したものを代入して求めておけば良い。 【0041】また、コンボルバの係数は、HRTFの測
定条件により異なるので、この点について配慮しても良
い。すなわち、人頭の大きさには個人差があるので、H
RTF測定時に、ダミーヘッド(または人頭)の大きさ
を変えて、数種類求めておき、視聴者に応じて(例え
ば、頭の大きい大人用と、頭の小さい子供用とを)選択
的に使用できるようにしても良い。 【0042】さらに、実測していない位置、例えばθ=
15度ごとに、より緻密に音像定位をさせたい場合に
は、実測した係数cfLx、cfRxをもとにして、上
記したまたはで、中間値を計算で求めても良い。こ
の時、2つの実測値(例えばθ=15度における中間値
を求めるには、θ=0度とθ=30度の測定値)を単純
に算術平均するのではなく、実測にもとずくコンボルバ
の係数cfLx、cfRxをFFT変換して周波数応答
を求めてから、周波数−振幅特性を参照伝達特性の振幅
特性の相乗平均として求め、周波数−位相特性は参照伝
達特性の周波数複素ベクトルのベクトル平均の位相成分
として求めると良い。このようにして中間値を求める
と、実測値に良く近似した中間伝達特性が得られ、定位
感や音質の劣化がほとんどない。 【0043】また、上記したにおけるHRTFの測定
に際して、θ=0度〜180度までの半円部のみを実測
し、残りの半円部については、係数の対称性を利用し
て、実測値を流用しても良い。このようにすると、測定
が容易になると共に、IRの算出,係数の算出の計算が
不必要に細かくならず、音像定位感に優れた係数が得ら
れる場合がある。 【0044】以上詳述したように、上述した音像定位制
御技術によれば、一対のコンボルバにより音源からの信
号を時間軸上で処理して音像を定位させるようにしたの
で、実際に音像処理をする回路としては、上述したに
示すように時間軸上でのコンボルバが一組必要となるだ
けであり、回路規模が非常に小さく安価なものとなる。 【0045】また、前記コンボルバの音像定位処理の係
数データを、最終的には時間軸上のIR(インパルス応
答)のデータとして供給するようにしたので、より回路
規模を小さくするためには、コンボルバの係数の数を少
なくすれば良いこととなる。 【0046】さらに、コンボルバにIR(インパルス応
答)のデータを係数として供給して処理するようにした
ので、IRとしての係数を時間領域での最適解を簡単に
しかも適応的でなく一義的に求めることができ、さらに
時間軸応答波形の遅延時間を明確に規定できるので複数
点の応答波形の相互の時間関係を正確に制御できる。ま
た、コンボルバの係数を実測に基づいて周波数毎の位相
及び振幅について正確に実施でき、180度の範囲を越
える広範囲な空間に音像を定位させることが可能となっ
た。 【0047】また、上記したによるIRの整形処理、
すなわち、測定したHRTFに対応する第1のIRを求
め、第1のIRからオーディオスペクトラムにわたる離
散周波数帯域にて所定の処理(帯域制限)を行って、再
び時間軸上で切り出し窓(例えば、コサイン関数の窓)
を掛けてウィンド処理し、長さを所定の値に収束させた
第2のIRを求め、この第2のIRから一対のキャンセ
ルフィルタの係数を求めるようにすれば、前述したよう
に、キャンセルフィルタの算出処理における演算の精度
が向上する。 【0048】また、上記したにおいて、ホワイトノイ
ズを用いて各音像定位におけるHRTFを測定するよう
にすれば、ホワイトノイズを用いることによりSN比が
向上し、精度良くHRTF(それにもとづくIR,係
数)を求めることができる。また、上記したにおい
て、各HRTFに対応して求めた複数のIRを平均化し
て、すなわち、前述したように、時間的に異なる数百個
の窓に対してそれぞれIR(S)を計算しそれらを平均
化すれば、SN比が向上して精度が向上する。 【0049】また、上記したにより、係数の大きさの
最大値を最大レベルの 0.1〜 0.4であるようにスケーリ
ング処理して減衰させれば、オーバーフローして、再生
音に歪が発生することもない。 【0050】さて、前述した音像定位制御技術は、一対
のスピーカsp1,sp2の配置とは異なる位置に音像
を定位するために、一対のコンボルバの係数データ(c
fLx,cfRx)を一対のコンボルバ2に供給するこ
とによって、聴取者Mを中心とする360度の水平角度
制御と、聴取者Mからの距離制御を行うことができるこ
とまでであり、聴取者Mの真横から真上にまで亘る仰角
制御は盛り込まれていない。 【0051】このため、本発明者はこの音像定位制御技
術に仰角制御を盛り込むべく検討を行った。この結果、
水平角度及び距離制御に関するコンボルバの係数データ
(cfLx,cfRx)に画一な仰角制御に関するデー
タを盛り込むだけでは、聴取者Mにより、再生する音源
(ソース)により、仰角方向の音像定位の実現確率、定
位の精度にばらつきが大きいこと、また、水平面に関し
ても、聴取者Mの後方面において音像が静止していると
きに音像の前後反転が起こりやすいことを留意した。 【0052】つまり、音像定位制御における仰角方向の
音像定位制御を最適に行うためには、聴取者Mごとに、
再生するソースごとに、きめ細かな音像定位の補正が必
要なことである。 【0053】そこで、後述するマッピングに基づく補正
データを用いることにより、後方定位、垂直面定位の改
善をすることができ、聴取者Mごと、再生するソースご
とに、最適な音像定位を行うことができる。 【0054】(1)聴覚の定位認識のずれを補正する定
位フィルタのマッピング 本発明者は実音による空間音像定位実験を行った。この
結果、聴取者Mが音像を認識する位置は必ずしも提示し
た位置とは一致しないこと、その呈示位置と定位認識位
置とのずれは、聴取者Mによらず提示位置により、以下
の(a),(b)に示すことがほぼ同一傾向となること
が確認された。 【0055】(a)水平角の偏差は全体に聴取者Mの前
方に生じやすく、聴取者Mの真横から斜め後方で特にこ
の傾向が強いことである。即ち、図2(A)に示すよう
に、聴取者Mを中心として、聴取者Mから一定距離離間
した水平位置にマッピングした呈示位置a(聴取者Mの
真正面),b,c,d(聴取者Mの真後ろ)を設定す
る。この後、聴取者Mが実際に音像を認識する定位認識
位置をマッピングする。この結果、呈示位置a,dに対
しては定位認識位置とのずれは発生しない。一方、呈示
位置cに対しては定位認識位置とのずれが発生する。呈
示位置cに対してはあたかも呈示位置bのものであるか
のような定位認識位置ずれが発生する。特に、聴取者M
の真横から後方に亘り呈示位置と定位認識位置とのずれ
が発生する。 【0056】こうした呈示位置と定位認識位置とのずれ
を積極的に利用して、この例において、一例を示せば、
呈示位置bに音像を定位させる場合には、呈示位置cに
対応する一対のコンボルバの係数データ(cfLx,c
fRx)を補正し設定しておきさえすれば、定位認識位
置を最適に得ることができる。 【0057】(b)仰角の偏差は、全体に聴取者Mの上
方に生じやすく、特に聴取者Mの真後ろ周辺でこの傾向
が強いことである。即ち、図2(B)に示すように、聴
取者Mを中心として、聴取者Mの真後ろから頭頂に向か
い一定距離離間した仰角位置にマッピングした呈示位置
e(聴取者Mの真後ろ),f,g,h(聴取者Mの頭
頂)を設定する。この後、聴取者Mが実際に音像を認識
する定位認識位置をマッピングする。この結果、呈示位
置e,hに対しては定位認識位置とのずれは発生しな
い。一方、呈示位置fに対しては定位認識位置とのずれ
が発生する。呈示位置fに対してはあたかも呈示位置g
のものであるかのような定位認識位置ずれが発生する。
特に、真後ろ、頭頂を除く聴取者Mの後方上部に呈示位
置と定位認識位置とのずれが発生する。 【0058】こうした呈示位置と定位認識位置とのずれ
を積極的に利用して、この例において、一例を示せば、
呈示位置gに音像を定位させる場合には、呈示位置fに
対応する一対のコンボルバの係数データ(cfLx,c
fRx)を補正し設定しておきさえすれば、定位認識位
置を最適に得ることができる。 【0059】ところで、聴取者Mによって程度の差はあ
るが、音像定位を行った音は、動きの中では定位しやす
いが、後方面において音像が静止しているときに音像の
前後反転が起こりやすいことがある。音像を静止させて
おく場合、その定位点を小刻みに揺らすことにより定位
を明確にすることが可能であるかを、実験により検討し
た。 【0060】この結果、振り幅に関しては、振る周期が
短い場合に再生ソースの震えが感じられた。即ち、図3
(A)に示すように、角度+θ〜角度−θ範囲内におい
て、1秒間間隔で定位点を連続して小刻みに揺らした
(角度−θ→0→+θ→−θ1秒間休止−θ→0→+θ
→−θ…)。因みに、角度+θは定位点の右斜め前の所
要角度、角度−θは定位点の左斜め後ろの所要角度であ
る。 【0061】また、振る周期が長い場合には定位の動き
そのものが感じられた。即ち、図3(B)に示すよう
に、角度+θ〜角度−θ範囲内において、+θ(1秒
間)→0(2秒間)→−θ(1秒間)→0(2秒間)→
…で定位点を長い周期で揺らした。 【0062】さて、上述したマッピングに基づく補正デ
ータを用いることにより、後方定位、垂直面定位の改善
をするための音像定位制御装置は、図1に示すように、
音源(X)から出力する音声信号を畳込演算した音声信
号をスピーカsp1,sp2から再生して、スピーカs
p1,sp2の配置とは異なる位置に音像が定位するよ
うに音像定位を行う装置1であり、音源(X)から出力
する信号が供給される一対のコンボルバ2と、スピーカ
sp1,sp2の配置とは異なる位置に音像を定位する
ための係数データcfLx,cfRxをコンボルバ2に
供給する係数メモリ3と、聴取位置(聴取者(例えば、
ゲーム操作者)Mの位置)の後方に音像定位した係数デ
ータcfLx,cfRxにより定位した音像を補正する
変換テーブル4とを備えている。前述したものと同一構
成部分には同一符号を付しその説明を省略する。 【0063】これにより、聴取位置(聴取者Mの位置)
において最適な音像定位が得られない場合は、聴取者M
は図示せぬ入力装置によって最適な音像定位が得られな
い位置に応じた信号を指定し入力する。この入力状態を
メインCPUが認識すると、コントロール用サブCPU
に対して、係数メモリ3からコンボルバ2に供給されて
いる上記位置に対応する係数データcfLx,cfRx
に代えて、上記位置に対応する係数データcfLx,c
fRx(補正データ)を変換テーブル4から係数メモリ
3へ切り換え出力する旨の制御信号を係数メモリ3及び
変換テーブル4へ出力する。こうした補正データは上述
した聴覚の定位認識のずれを補正する定位フィルタのマ
ッピングに基づくデータであり、この補正データは変換
テーブル4に前もってメモリしておく。 【0064】こうして、聴取位置において最適な音像定
位が得られない特定位置が生じた場合は、その特定位置
に関する補正データを切り換え出力することによって、
後方定位、垂直面定位の改善をすることができ、聴取者
Mごと、再生するソースごとに、最適な音像定位を行う
ことができる。 【0065】例えば、上記した水平角の偏差により聴取
者Mがその後方定位を最適に得られない場合は、図2
(A)に示すように、呈示位置bに対応する角度位置に
呈示位置cの音像が定位するように音像定位認識位置ず
れが発生する。係数ROM3から出力する一対のコンボ
ルバの係数データ(cfLx,cfRx)は定位目標点
から両耳へのHRTFから求めた係数データではなく、
定位認識のずれを考慮し、そこに定位していると感じら
れる係数データである(即ち、呈示位置bに定位させる
係数は、呈示位置cからのHRTFからつくられた係数
とする)。 【0066】したがって、係数ROM3から出力する一
対のコンボルバの係数データ(cfLx,cfRx)が
呈示位置bを示すものであるときには、この代わりに呈
示位置cの係数データを出力するための補正データを変
換テーブル4から係数メモリ3に出力しさえすれば良
い。変換テーブル4からの補正データの読み出しはコン
トロール用サブCPUからの制御により行われる。 【0067】同様に、上記した仰角の偏差により聴取者
Mがその後方定位を最適に得られない場合は、図2
(B)に示すように、呈示位置gに対応する角度位置に
呈示位置fの音像が定位するように音像定位認識位置ず
れが発生する。係数ROM3から出力する一対のコンボ
ルバの係数データ(cfLx,cfRx)は定位目標点
から両耳へのHRTFから求めた係数データではなく、
定位認識のずれを考慮し、そこに定位していると感じら
れる係数データである(即ち、呈示位置gに定位させる
係数は、呈示位置fからのHRTFからつくられた係数
とする)。 【0068】したがって、係数ROM3から出力する一
対のコンボルバの係数データ(cfLx,cfRx)が
呈示位置gを示すものであるときには、この代わりに呈
示位置fの係数データを出力するための補正データを変
換テーブル4から係数メモリ3に出力しさえすれば良
い。 【0069】さらに、上記した音像の前後反転により聴
取者Mがその後方定位を最適に得られない場合は、図3
(A)に示すように、音像を振る周期を小刻みに揺らす
(角度−θ→0→+θ→−θ1秒間休止−θ→0→+θ
→−θ…)ことにより、静止している音像を前後反転な
く安定して確実に認識することができる。即ち、係数R
OM3には予め、−θ,0,+θに対応する一対のコン
ボルバの係数データ(cfLx,cfRx)を格納して
おく。一例として、呈示位置eのコンボルバの係数デー
タ(cfLx,cfRx)としては、−θ(例えば、
中心0から−10度程度の角度位置)における呈示位置
eの係数データ、中心0における呈示位置eの係数デ
ータ、+θ(例えば、中心0から+10度程度の角度
位置)における呈示位置eの係数データがそれぞれ格納
しておく。 【0070】そして、聴取位置(聴取者Mの位置)にお
いて静止している音像の安定した定位が得られない場合
は、聴取者Mは図示せぬ入力装置によって安定した音像
定位が得られない位置に応じた信号を指定し入力する。
この入力状態をメインCPUが認識すると、コントロー
ル用サブCPUに対して、その特定位置に対応した上記
した係数データ−θ,0,+θに対応する一対のコンボ
ルバの係数データが、−θ→0→+θ→−θ1秒間休止
−θ→0→+θ→−θ…と、係数ROM3から順次出力
する旨の制御信号を係数ROM3に対して出力する。 【0071】こうして、上記した特定位置に対応した音
像は周期的に小刻みに揺らすことができるので、聴取位
置(聴取者Mの位置)において、静止している音像を前
後反転なく安定して確実に認識することができる。 【0072】同様に、上記した音像の前後反転により聴
取者Mがその後方定位を最適に得られない場合は、図3
(B)に示すように、音像を振る周期を長くして揺らす
(+θ(1秒間)→0(2秒間)→−θ(1秒間)→0
(2秒間)→…)ことにより、静止している音像を前後
反転なく安定して確実に認識することができる。即ち、
係数ROM3には予め、−θ,0,+θに対応する一対
のコンボルバの係数データ(cfLx,cfRx)を格
納しておく。一例として、呈示位置eのコンボルバの係
数データ(cfLx,cfRx)としては、−θ(例
えば、中心0から−10度程度の角度位置)における呈
示位置eの係数データ、中心0における呈示位置eの
係数データ、+θ(例えば、中心0から+10度程度
の角度位置)における呈示位置eの係数データがそれぞ
れ格納しておく。 【0073】そして、聴取位置(聴取者Mの位置)にお
いて静止している音像の安定した定位が得られない場合
は、聴取者Mは図示せぬ入力装置によって安定した音像
定位が得られない位置に応じた信号を指定し入力する。
この入力状態をメインCPUが認識すると、コントロー
ル用サブCPUに対して、その特定位置に対応した上記
した係数データ−θ,0,+θに対応する一対のコンボ
ルバの係数データが、+θ(1秒間)→0(2秒間)→
−θ(1秒間)→0(2秒間)→…と、係数ROM3か
ら順次出力する旨の制御信号を係数ROM3に対して出
力する。 【0074】こうして、上記した特定位置に対応した音
像は周期的に長く揺らすことができるので、聴取位置
(聴取者Mの位置)において、静止している音像を前後
反転なく安定して確実に認識することができる。 【0075】上記した音像定位認識位置ずれあるいは音
像の前後反転は、外部雑音が大きい聴取位置の環境下、
聴取者の個人差あるいは音楽ソースなどにより大きく相
違するので、予め、テストパターンにより音像定位認識
位置ずれあるいは音像の前後反転現象を検知して、この
検知に基づく上記したような補正データを変換テーブル
4にメモリすることによって、上記した補正を効率よく
行うことができる。 【0076】 【発明の効果】以上詳述したように、本発明になる音像
定位制御装置によれば、一対のコンボルバにより音源か
らの信号を時間軸上で処理して音像を定位させるように
したので、実際に音像処理をする回路としては、時間軸
上での畳込演算処理回路が必要となるだけであり、回路
規模が非常に小さく安価なものとなる。また、前記コン
ボルバの音像定位処理の係数データを、最終的には時間
軸上のIR(インパルス応答)のデータとして供給する
ようにしたので、より回路規模を小さくするためには、
コンボルバの係数の数を少なくすれば良いこととなる。
その結果、従来の周波数軸上のデータの近似と比較して
HRTFを正確にかつ効果的に近似処理することがで
き、この点からも音像定位感を損なうことなく回路規模
を小さくすることができる。さらに、外部雑音が多い環
境下の聴取位置、両耳間標準距離より大きな差がある聴
取者が聴取する場合など、一律の音像定位制御では良好
な音像定位感が得られない場合には、特に聴取位置の後
方の音像定位位置を補正することによって、それぞれ最
適な音像定位感を得ることができる。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention
Any desired position different from the installation position of the speaker (speaker)
Sound localization control device that makes the sound image seem to be localized
Installation, especially for amusement game machines and computers.
Excellent sound image localization that can be installed on data terminals, etc.
And a sound image localization control device capable of reducing the circuit scale.
Things. 2. Description of the Related Art Conventionally, signal level differences between both ears have been known.
Sound source at a specific position (direction) depending on the phase difference (time difference)
There is a sound image localization device that makes you feel. For example, Japanese Unexamined Patent Publication
298200, "Sound image forming method and device therefor"
Left and right channels emitted from the two speakers
Gives a frequency-dependent level difference and phase difference to the channel signal
Instead, it controls the localization of the sound image. In addition, this application
Person is Japanese Patent Application No. 4-343449 and Japanese Patent Application No. 4-356
No. 358 was proposed. This is the HRTF (head-related transfer function)
To determine sound characteristics and localize sound image based on actual measurements
It is like that. [0003] In either case, the amplitude frequency characteristics and
Process phase frequency characteristics by signal processing and localize sound image
I have. [0004] However, the sound image
The localization position is dispersed at the intended position (the sound image is blurred),
There was a problem that it deviated from the intended position. So book
The applicant has incorporated the psychological element of HRTF and
In order to improve the localization, Japanese Patent Application No. 5-34946 was proposed.
This improves the localization of the sound image using a band-by-band correction process.
It is a thing. The present invention is not limited to the position of the localization of such a sound image.
Based on these improvements, the external environment or
Is always due to individual differences due to differences in the distance between the ears.
Sound image localization control that can optimally obtain sound image localization
It is intended to provide a device. [0005] In order to solve the above problems,
In addition, the present invention provides a sound image localization control device having the following configuration.
Offer. A signal output from a sound source (X) is subjected to a convolution operation.
Audio signal is transmitted to a pair of transducers (speakers sp
1, sp2), the pair of transducers
In a position different from the arrangement of the speakers (speakers sp1, sp2)
Sound image localization control device that performs sound image localization so that the sound image is localized
1 and a signal output from the same sound source (X) is supplied.
A pair of convolution operation processing circuits (convolvers) 2
Of a pair of transducers (speakers sp1, sp2)
Sound image localization to localize the sound image at a position different from the arrangement
Coefficient (coefficient data (cfLx, c
fRx)) to the convolution operation processing circuit (convolver) 2
Coefficient memory 3 to be supplied and listening position (position of listener M)
To periodically change the angular position of the localized sound image at
(For example, a sound image is shaken ± 10 degrees every 3 to 5 seconds.
To ensure the recognition of the localized sound image
A sound image localization control device, characterized in that: [0008] The sound image localization control device according to the present invention will be described below.
This will be described with reference to the drawings below. FIG. 1 shows a sound image localization system according to the present invention.
FIG. 2 is a configuration diagram of an embodiment of a control device, and FIG.
FIG. 3 is a diagram for explaining mapping to be corrected, and FIG.
FIG. 4 is a diagram for explaining how the image is shaken. FIG.
FIG. 5 is a block diagram showing the basic principle of sound image localization control, and FIG.
Shows the configuration of the HRTF (head-related transfer function) measurement system
FIG. 7 is a diagram for explaining the points of HRTF measurement, FIG.
FIG. 9 is a diagram for explaining a calculation example of a cancel filter, and FIG.
A specific example of IR (impulse response) of RTF is shown.
FIG. 10 and FIG. 10 show specific examples of coefficients of the cancel filter.
FIG. First, the basic principle of sound image localization control
explain. This consists of a pair of transformers
Uses a juicer (speaker as an example)
This is a technique for localizing a sound image at an arbitrary position in space. FIG. 2 is a block diagram showing the basic principle of sound image localization control.
In FIG. 5, sp1 and sp2 are the listeners (ie, the listeners).
Speakers placed on the front left and right of the person M), and sp1
Transfer characteristics from head to listener's left ear (impulse response)
H1L, head transfer characteristics to the right ear h1R, sp2
The transfer characteristics from the head to the left and right ears are defined as h2L and h2R.
In addition, an actual speaker is placed at the intended localization position x.
Head transfer characteristics to the listener's left and right ears when pLx, p
Rx. Here, each transfer characteristic is represented by a speaker in the acoustic space.
And the microphones on both sides of the dummy head (or head)
Appropriate waveform processing etc. are applied to the actual measurement
It was done. Next, the sound source X to be localized is signal-transformed.
Conversion devices cfLx, cfRx (transmission by convolver etc.)
The signals obtained through the characteristics are respectively referred to as sp1 and sp
Consider playing on 2. At this time, the listener
Assuming that the signals to be obtained are eL and eR, eL = h1L · cfLx · X + h2L · cfRx · X eR = h1R · cfLx · X + h2R · cfRx · X Here, both equations are combined to form (Equation 1). On the other hand, the source X is reproduced from the target localization position.
The signals obtained at the listener's left and right ears are dL and dR.
Then, dL = pLx · X dR = pRx · X Here, both equations are combined to obtain (Equation 2). Here, the listener listens by playing back the sp1 and sp2.
Signals from the left and right ears play the source from the target position
If the signal matches the signal at the time of the
The sound image is recognized as if a speaker is
You. The conditions eL = dL, eR = dR and (Equation 1), (Equation 1)
From 2), X is deleted and h1L · cfLx + h2L · cfRx = pLx h1R · cfRx + h2R · cfRx = pRx Here, both equations are combined to form (Equation 3). (Equation 3)
When cfLx and cfRx are obtained, cfLx = (h2R · pLx−h2L · pRx) / H cfRx = (− h1R · pLx + h1L · pRx) / H Here, both equations are combined to obtain (Equation 4a). Where H = h1L · h2R−h2L · h1R (Equation 4b) Therefore, (Equation 4a) and (Equation 4b)
Using the transfer characteristics cfLx and cfRx calculated
The signal to be localized by Luba (convolution processing circuit)
By processing, the sound image can be localized at the target position x.
Wear. There are various ways to realize a specific signal conversion device.
But asymmetric FIR digital filter (convolver)
What is necessary is just to realize using. In addition, FIR digital fill
The final transfer characteristic when used in a
You. That is, the transmission characteristics at the required localization position x
As the properties cfLx and cfRx, (Equation 4a) and (Equation 4b)
Realized by one FIR filter process
The coefficients for cfLx and cfRx are
It is created in advance and prepared as ROM data.
The required coefficient of the sound image fixed position is read from the ROM by the FIR digital file.
Filter, and convolve the signal from the sound source
Playback from a pair of speakers
The sound image is localized. Real sound image localization control based on the above principle
Will be described in the order of ~. Head Related Transfer Function
Function; hereinafter referred to as HRTF) As shown in FIG. 6, a dummy head (or
Human head) A pair of microphones ML and MR are installed in both ears of DM
And receives the measurement sound from the speaker SP and sends it to the recorder DAT.
Source sound (reference data) refL, refR
Sounds to be measured (measurement data) L and R are synchronously recorded. As the source sound XH, an impulse sound, an e
White noise and other noise can be used
You. In particular, from the viewpoint of statistical processing, white noise is
Energy distribution with continuous sound and over the audio band
Is constant, it is possible to obtain SN by using white noise.
The ratio improves. The position of the speaker SP is set to 0 degrees in front.
Angles θ in the space determined as
As shown, it is set at 12 points every 30 degrees)
Recording is continuously performed for a predetermined time. HRTF impulse response (Impulse Re
calculation of sponse (hereinafter referred to as IR).
Sound (reference data) refL, refR and measured
A constant sound (measurement data) L, R and a workstation
(Not shown). Source sound (reference data) frequency
The response is X (S), the frequency response of the measured sound (measurement data)
Is Y (S), and the frequency response of the HRTF at the measurement position is
Assuming IR (S), the input / output shown in the following (Equation 5)
There is a relationship. Y (S) = IR (S) · X (S) (Equation 5) Therefore, the frequency response of the HRTF is represented by IR (S) as follows: IR (S) = Y (S) / X (S) ... (Equation 6) Thus, the frequency response of the reference X (S),
The frequency response Y (S) of the measurement data is calculated in step 10
Cut out the data obtained in step 1 using a window synchronized with the time, and
Finite Fourier series expansion by FFT
HRTF is calculated as
The answer IR (S) is obtained by a well-known calculation method. In this case, the accuracy of IR (S) is increased (S
Hundreds of windows that differ in time to improve the N ratio)
It is better to calculate IR (S) and average them.
No. Then, the calculated HRTF frequency response IR (S)
Is subjected to inverse FFT transform, and the time axis response of HRTF (impulse
Response) IR (first IR). IR (Impulse Response) Shaping Process Here, the HRTF impulse response was obtained.
Shape the IR. First, for example, by FFT transform,
The first IR into a discrete circle over the audio spectrum
Unfolding by wave number, unnecessary band (large dip in high frequency
However, this does not have a significant effect on sound image localization.
Is removed by a BPF (Band Pass Filter).
You. By limiting the band in this way, unnecessary
Peaks and dips have been removed and applied to the cancel filter
Since unnecessary coefficients do not occur, convergence is improved, and
The number can be shortened. Then, the band-limited IR (S) is converted into the inverse F
FT conversion and cut IR (impulse response) on time axis
Window (for example, a cosine function window)
(The second IR). Wind processing
As a result, the effective length of IR will no longer be long and will be canceled
The convergence of the filter is improved so that the sound quality does not deteriorate
Swell. FIG. 9 shows the IR (impulse response) of the HRTF.
A specific example will be described. The horizontal axis is time (sample clock is 4
8kHz clock time), vertical axis is amplitude level
It is. The two-dot chain line indicates the window. Cancel filters cfLx, cfRx
Calculation convolver (convolution operation processing circuit)
Ruta cfLx and cfRx are as described above (Equation 4a) and
It takes the value shown in (Equation 4b). Here, the speakers sp1 and sp
2 transfer characteristics h1L, h1R, h2L, h2R
And an actual speaker is placed at the intended localization position x.
Head transfer characteristics pLx and pRx when
The shaping process for each angle θ obtained by
The obtained second IR (impulse response) is substituted. The head transfer characteristics h1L and h1R are represented by L in FIG.
It corresponds to the position of the channel speaker, from the front
For example, if it is set at 30 degrees to the left (θ = 330 degrees)
For example, an IR of θ = 330 degrees is used. Head transfer characteristics h2
R and h2L correspond to the position of the R channel speaker in FIG.
For example, 30 degrees from the front to the right (θ = 30
Degrees), use an IR of θ = 30 degrees
(That is, the system at the time of actual sound image reproduction (for example, FIG. 4
). Then, the head transfer characteristics pLx and pRx are defined as
90 degrees from the front, which is the target sound source localization position.
The range of 180 degrees is of course
IR for every 30 degrees in a wide space (all spaces)
By entering, cfLx of the whole space corresponding to it,
cfRx, that is, 12 sets of cancel buffers every 30 degrees
Filters cfLx and cfRx are obtained (in FIG. 8,
An example is a position at 240 degrees). Cancel filter
The cfLx and cfRx groups finally show the response on the time axis.
Is obtained as IR (impulse response). It should be noted that the cancel fill according to (Equation 4a)
The calculation of the parameters cfLx and cfRx is as follows. First
H which is a kind of inverse filter for H in (Equation 4b) -1 To
It is obtained by the least-squares method, and this is inverse-FFT transformed to obtain
Let h (t) be the number. Further, each term h1L, h1 of (Equation 4a)
R, h2L, pRx, pLx, h2R
The following formula is established by expressing by a number. cfLx (t) = (h2R · pLx−h2L · pRx) ·
h (t) cfRx (t) = (− h1R · pLx + h1L · pRx)
H (t) Here, both equations are combined to obtain (Equation 7). Therefore, from these (Equation 7),
The coefficients of the cell filters cfLx and cfRx are determined.
And As is apparent from (Equation 7),
To shorten the filter cfLx and cfRx coefficients,
Transfer characteristics h1L, h1R, h2L, pRx, pLx,
It is very important to shorten h2R. This
Therefore, as described above, window processing and shaping
Various processing such as processing are performed, and each head transfer characteristic h1L,
h1R, h2L, pRx, pLx, h2R are shortened.
You. FIG. 10 shows the coefficient cfL of the cancel filter.
A specific coefficient sequence of x and cfRx is shown. The horizontal axis is time (sa
Clock time when the sample clock is 48kHz),
The vertical axis is the amplitude level. Two-dot chain line indicates window
You. Note that the coefficients cfLx and cfR of the cancel filter are used.
x is subjected to FFT to obtain a frequency response,
Moving average, inverse FFT transform and final
The time response of the cell filter may be obtained. Move like this
Averaging eliminates unnecessary peaks and dips.
Time response to be achieved earlier
Thus, the size of the cancel filter can be reduced. Cancellation filter for each localization point x
Scaling Also, the actual sound image with a convolver (cancellation filter)
The spectrum distribution of the processed sound source (source sound)
There is something distributed like pink noise
Or something that goes down gently in the high range.
Even though the sound source is different from a single sound, convolution operation
Overflow occurs when (integration) is performed, causing distortion
Danger. So, to prevent overflow
Between the coefficients of the cancellation filters cfLx and cfRx
At the maximum gain (for example, cancel filter cfL
x, cfRx)
When the coefficient and 0db white noise are convolved
Scale all coefficients to avoid overflow.
Ring. In practice, the maximum absolute value is
(Amplitude) 1 to 0.1 to 0.4 (for example, 0.1 to 0.4).
It is good to attenuate so that it becomes 2). Then, the window shown in FIG.
In window), according to the actual number of convolver coefficients
Window processing so that both ends become 0, and
Shorten the effect length. Is scaled in this way.
Data that is finally supplied to the convolver as coefficients
Group (in this example, 12 sets capable of sound image localization every 30 degrees
Of the convolver) cfLx and cfRx are obtained. FIG. 4 shows an example of a sound reproducing device of a game machine, which is obtained by convolving and reproducing a signal from a sound source.
In this way, the game operator (listener) M
A pair of speakers sp1 and sp2 are arranged at intervals
The pair of speakers sp1 and sp2 have a pair of speakers sp1 and sp2.
Acoustic signal processed by convolver (convolution processing circuit)
Is configured to be reproduced. In a pair of convolvers,
The same sound source X (for example, a flight from a game synthesizer)
Signal, etc.), and
Coefficients cfLx and cfRx created in step 105
(For example, the flight sound is 120 degrees left rear (θ = 240 degrees)
(If you want to localize the sound image at the position, θ = 240 degree coefficient)
Is selected and set in the convolver. For example, game
Sound image measurement from main CPU (central processing unit)
The sub CPU for control uses the coefficient R
From the OM, the coefficient of the desired localization position is applied to a pair of convolvers.
Forward. In this way, the pair of convolvers
The signal from sound source X is not convoluted on the time axis
And a pair of speakers sp1 and sp
Reproduced from 2. From a pair of speakers sp1 and sp2
The reproduced sound is transmitted from the speakers sp1 and sp2 to both ears.
HRTF canceled, binaural from any desired position
HRTF is reproduced to the desired position
The sound image is localized as if there is a source, heard by the listener M,
It is reproduced as a sound full of reality. Convolver
The number is based on the movement of the airplane in response to the operation of the listener M.
Then, the optimal sound image position is sequentially selected and switched. Ma
When changing from a flight sound to a missile sound, for example,
Source sound from source X is changed from flight sound to missile sound
You. In this way, the sound image can be freely localized at any position.
Can be made. As a transducer for reproduction,
Headphone instead of the pair of speakers sp1 and sp2
Can also be used. In this case, the HRTF measurement
Since the constant conditions are different, prepare the coefficients separately and
It is better to switch between them. In addition, IR (impulse response) shaping processing
Is not always necessary, and even if omitted, control of sound image localization
Is possible. In the real sound image localization control,
The same sound source is supplied from a pair of transducers
A structure for reproducing a signal processed by a pair of supplied convolvers
Is the minimum configuration to obtain the effect of the present application.
It is. Therefore, if necessary, a pair, ie, 2
Additional configuration with one or more transducers and convolvers
Of course, you can also
If the coefficient is long, split the coefficient to
It may be constituted by a bus. Further, the coefficient of the convolver is
The opening angle of the mosquito (that is, the angle sp1-M-sp in FIG. 4)
2) It depends on the opening angle of the speaker.
Can be used selectively according to the actual playback system.
You may do it. That is, in the above, the game
Separate left and right by 30 degrees around the operator (listener)
A pair of speakers sp1 and sp2 with an opening angle of 60 degrees
The convolver's coefficient for installation was determined.
When calculating the cancellation filter, the speaker sp
1, sp2, head transfer characteristics h1L, h1R, h2
As L and h2R, other opening angles, for example, 45 degrees and 30 degrees
What is necessary is just to substitute the one corresponding to and find it. The convolver coefficient is measured by HRTF.
It may vary depending on the fixed conditions.
No. That is, since there is an individual difference in the size of the head,
The size of the dummy head (or human head) when measuring RTF
Change, and find several types, depending on the audience (for example,
(For adults with big heads and for children with small heads)
You may make it possible to use it. Further, positions not actually measured, for example, θ =
If you want to localize the sound image more precisely every 15 degrees
Is based on the measured coefficients cfLx and cfRx.
As described above, the intermediate value may be calculated. This
, Two measured values (for example, an intermediate value at θ = 15 degrees)
Is obtained by simply measuring θ = 0 degrees and θ = 30 degrees)
Convolver based on actual measurement instead of arithmetic averaging
Frequency response by transforming the coefficients cfLx and cfRx of
, And then refer to the frequency-amplitude characteristic as the amplitude of the transfer characteristic.
Calculated as the geometric mean of the characteristics.
Phase component of the vector average of the frequency complex vector
It is good to ask. Find the intermediate value in this way
And an intermediate transfer characteristic that closely approximates the measured value.
There is almost no deterioration in feeling or sound quality. The measurement of HRTF in the above-mentioned case
At the time of measurement, only the semicircular portion from θ = 0 to 180 degrees was actually measured
For the remaining semicircle, use the symmetry of the coefficient.
Then, the measured value may be used. In this way, the measurement
And the calculation of IR and coefficient
Unnecessary fineness and a coefficient excellent in sound image localization
May be. As described in detail above, the sound image localization system described above
According to the technology, the signal from the sound source is
The signal is processed on the time axis to localize the sound image
As a circuit for actually performing the sound image processing,
You need one set of convolvers on the time axis as shown
Therefore, the circuit scale is very small and inexpensive. Also, the sound image localization processing of the convolver
Numerical data is finally converted to IR (impulse response) on the time axis.
A) Because it is supplied as data,
To reduce the scale, reduce the number of convolver coefficients.
It would be good to lose it. Further, the convolver is provided with an IR (impulse response).
A) data is supplied as a coefficient and processed.
Therefore, the optimal solution in the time domain can be easily calculated using the coefficient as IR.
Moreover, it is not adaptive and can be determined uniquely.
Since the delay time of the time axis response waveform can be clearly specified, multiple
The time relationship between the response waveforms of the points can be accurately controlled. Ma
In addition, the convolver coefficient is set to the phase for each frequency based on the actual measurement.
And the amplitude can be accurately measured,
It is possible to localize the sound image in a wide space
Was. The IR shaping process described above,
That is, the first IR corresponding to the measured HRTF is obtained.
From the first IR over the audio spectrum
Perform predetermined processing (band limitation) in the scattered frequency band,
Window on time and time axis (for example, cosine function window)
Multiplied by window processing to converge the length to a predetermined value
A second IR is obtained, and a pair of cancels are obtained from the second IR.
If the coefficients of the filter are determined,
In addition, the accuracy of the calculation in the cancel filter calculation process
Is improved. In the above description, white noise
HRTF at each sound image localization using
, The S / N ratio can be increased by using white noise.
HRTF (IR,
Number). Also the smell mentioned above
Average the multiple IRs determined for each HRTF
That is, as mentioned above, several hundred
Calculate IR (S) for each window and average them
In this case, the SN ratio is improved and the accuracy is improved. As described above, the magnitude of the coefficient is
Scale the maximum value to be 0.1 to 0.4 of the maximum level
If it is attenuated by processing, overflow and playback
There is no distortion in the sound. The above-described sound image localization control technique has a
Image at a position different from the position of the speakers sp1 and sp2
To localize the coefficient data of a pair of convolvers (c
fLx, cfRx) to a pair of convolvers 2
The horizontal angle of 360 degrees about the listener M
Control and distance control from the listener M
And the elevation angle from just beside the listener M to just above
No controls are included. For this reason, the present inventor has proposed this sound image localization control technique.
We studied to incorporate elevation control into the surgery. As a result,
Convolver coefficient data for horizontal angle and distance control
(CfLx, cfRx)
The sound source to be reproduced by listener M
(Source) determines the probability of realization of sound image localization in the elevation direction,
The accuracy of the position is large and
However, if the sound image is stationary on the rear side of the listener M,
It was noted that the sound image is likely to be flipped back and forth when the sound is heard. That is, in the elevation direction in the sound image localization control,
To perform sound image localization control optimally, for each listener M,
Fine sound image localization correction is required for each playback source.
It is important. Therefore, correction based on mapping described later is performed.
By using the data, it is possible to change
You can do good, every listener M, you play source
At the same time, optimal sound image localization can be performed. (1) A method for correcting a shift in auditory localization recognition
Mapping of the position filter The present inventor conducted an experiment of localization of a spatial sound image by a real sound. this
As a result, the position where the listener M recognizes the sound image is not necessarily provided.
Position does not match, the presentation position and the localization recognition position
The deviation from the position depends on the presentation position regardless of the listener M,
(A) and (b) show almost the same tendency
Was confirmed. (A) The deviation of the horizontal angle is entirely before the listener M.
This is particularly likely to occur in the direction
Is a strong tendency. That is, as shown in FIG.
At a certain distance from listener M with listener M at the center
Presentation position a (mapped to the listener M)
(Directly in front of), b, c, d (directly behind listener M)
You. After this, the localization recognition in which the listener M actually recognizes the sound image
Map the location. As a result, the display positions a and d
Therefore, no deviation from the localization recognition position occurs. On the other hand, presentation
For the position c, a deviation from the localization recognition position occurs. Present
Whether the display position c is the same as the display position b
The following positional deviation occurs. In particular, listener M
Between the presentation position and the localization recognition position from right behind to the rear
Occurs. The deviation between the presenting position and the localization recognition position
Actively use, in this example, if you show an example,
When the sound image is localized at the presentation position b,
The corresponding pair of convolver coefficient data (cfLx, c
fRx) only needs to be corrected and set.
Position can be obtained optimally. (B) The deviation of the elevation angle is entirely above the listener M
This tendency tends to occur especially in the area immediately behind the listener M.
Is strong. That is, as shown in FIG.
From the back of the listener M to the crown, with the listener M at the center
The presentation position mapped to the elevation position that is separated by a certain distance
e (directly behind listener M), f, g, h (head of listener M)
Top) is set. After this, the listener M actually recognizes the sound image
The localization recognition position to be mapped is mapped. As a result, the presentation position
For the positions e and h, no deviation from the localization recognition position occurs.
No. On the other hand, the deviation from the localization recognition position for the presentation position f
Occurs. For the presentation position f, it is as if the presentation position g
, A localization recognition position shift occurs as if it were the same.
In particular, the presentation position right behind and above the back of listener M excluding the top of the head
The position and the localization recognition position are shifted. The deviation between the presented position and the localization recognition position
Actively use, in this example, if you show an example,
When the sound image is localized at the presentation position g,
The corresponding pair of convolver coefficient data (cfLx, c
fRx) only needs to be corrected and set.
Position can be obtained optimally. By the way, the degree differs depending on the listener M.
However, sound that has undergone sound localization can be easily localized in motion.
However, when the sound image is stationary on the rear surface,
Inversion may occur easily. Make the sound image stand still
If you place it, you can localize it by shaking the localization point little by little.
To determine if it is possible to clarify
Was. As a result, regarding the swing width, the swing cycle is
When it was short, the playback source tremble was felt. That is, FIG.
(A) As shown in FIG.
And oscillated the localization point in small increments at 1 second intervals
(Angle -θ → 0 → + θ → −θ 1 second pause -θ → 0 → + θ
→ -θ ...). By the way, the angle + θ is the position diagonally right before the localization point.
Required angle, angle -θ is the required angle diagonally behind and left of the localization point.
You. In addition, when the shaking cycle is long,
That was felt. That is, as shown in FIG.
In addition, within the range of angle + θ to angle -θ, + θ (1 second)
Interval) → 0 (for 2 seconds) → -θ (for 1 second) → 0 (for 2 seconds) →
... caused the localization point to fluctuate in a long cycle. Now, the correction data based on the above-described mapping
Data to improve rear localization and vertical plane localization
The sound image localization control device for performing
An audio signal obtained by convolving an audio signal output from a sound source (X)
Is reproduced from the speakers sp1 and sp2 and the speakers s
The sound image is localized at a position different from the arrangement of p1 and sp2
Device 1 that performs sound image localization, and outputs from a sound source (X)
A pair of convolvers 2 to which signals to be supplied are supplied, and a speaker
A sound image is localized at a position different from the arrangement of sp1 and sp2.
Data cfLx and cfRx for convolver 2
The supplied coefficient memory 3 and a listening position (a listener (for example,
The coefficient data localized in the sound image behind the game operator) M position)
Data localized by the data cfLx and cfRx
And a conversion table 4. Same structure as above
The same components are denoted by the same reference numerals and description thereof is omitted. Thus, the listening position (the position of the listener M)
If the optimal sound image localization cannot be obtained in
Cannot obtain the optimal sound image localization using an input device (not shown).
Specify and input the signal corresponding to the position. This input state
When the main CPU recognizes, the sub CPU for control
Is supplied from the coefficient memory 3 to the convolver 2
Coefficient data cfLx, cfRx corresponding to the position
Instead of the coefficient data cfLx, c corresponding to the position
fRx (correction data) is converted from the conversion table 4 into a coefficient memory.
The control signal for switching and outputting to the coefficient memory 3 and
Output to the conversion table 4. These correction data are described above.
Of the localization filter that corrects the displacement of
This correction data is converted
It is stored in advance in Table 4. Thus, the optimum sound image definition at the listening position
If a specific position for which rank cannot be obtained occurs, the specific position
By switching and outputting correction data for
The listener can improve rear and vertical orientation.
Performs optimal sound image localization for each M and for each source to be reproduced
be able to. For example, the listening is performed based on the above-described deviation of the horizontal angle.
When the person M cannot optimally obtain the backward localization, FIG.
As shown in (A), at the angular position corresponding to the presentation position b
There is no sound image localization recognition position so that the sound image at the presentation position c is localized.
This occurs. A pair of combos output from coefficient ROM3
Luba coefficient data (cfLx, cfRx) is the localization target point
Is not the coefficient data obtained from the HRTF to both ears,
Considering the misalignment of localization recognition, if you feel that you are localized there
(Ie, localized at the presentation position b)
The coefficient is a coefficient created from the HRTF from the presentation position c.
And). Therefore, the output from the coefficient ROM 3 is
The coefficient data (cfLx, cfRx) of the pair of convolvers is
When indicating the presentation position b, the presentation position b is used instead.
Change the correction data for outputting the coefficient data at the indicated position c.
What is necessary is just to output from the conversion table 4 to the coefficient memory 3.
No. Reading of the correction data from the conversion table 4
This is performed under the control of the troll sub CPU. Similarly, the listener is determined by the above-mentioned elevation angle deviation.
FIG. 2 shows a case where M cannot optimally obtain the backward localization.
As shown in (B), at the angular position corresponding to the presentation position g
There is no sound image localization recognition position so that the sound image at the presentation position f is localized.
This occurs. A pair of combos output from coefficient ROM3
Luba coefficient data (cfLx, cfRx) is the localization target point
Is not the coefficient data obtained from the HRTF to both ears,
Considering the misalignment of localization recognition, if you feel that you are localized there
(Ie, localized at the presentation position g)
The coefficient is a coefficient created from the HRTF from the presentation position f.
And). Therefore, the output from the coefficient ROM 3 is
The coefficient data (cfLx, cfRx) of the pair of convolvers is
When it indicates the presentation position g, the presentation position g
Change the correction data for outputting the coefficient data at the indicated position f.
What is necessary is just to output from the conversion table 4 to the coefficient memory 3.
No. Further, the sound image is reproduced by reversing the sound image.
FIG. 3 shows a case where the taker M cannot optimally obtain the rearward orientation.
As shown in (A), the period of shaking the sound image is fluctuated little by little.
(Angle -θ → 0 → + θ → −θ 1 second pause -θ → 0 → + θ
→ −θ ...), the stationary sound image is
It can be recognized stably and reliably. That is, the coefficient R
OM3 has a pair of capacitors corresponding to -θ, 0, + θ in advance.
Storing the VOLBA coefficient data (cfLx, cfRx)
deep. As an example, the coefficient data of the convolver at the presentation position e
Data (cfLx, cfRx) is -θ (for example,
Presentation position at an angle of about -10 degrees from the center 0)
coefficient data of the presentation position e at the center 0
Data, + θ (for example, an angle of about +10 degrees from the center 0)
The coefficient data of the presentation position e at the position is stored respectively.
Keep it. Then, at the listening position (the position of the listener M),
When stable localization of a stationary sound image cannot be obtained
Means that the listener M has a stable sound image using an input device (not shown).
Specify and input the signal corresponding to the position where localization cannot be obtained.
When the main CPU recognizes this input state,
For the sub CPU for the
Pair of combos corresponding to the obtained coefficient data -θ, 0, + θ
Luba coefficient data pauses for -θ → 0 → + θ → −θ1 second
-Θ → 0 → + θ → −θ, etc., sequentially output from coefficient ROM3
A control signal to the effect is output to the coefficient ROM 3. In this way, the sound corresponding to the specific position
Since the image can be shaken periodically in small increments,
At the position (position of the listener M),
It can be recognized stably and reliably without inversion. Similarly, the sound image is reproduced by reversing the sound image.
FIG. 3 shows a case where the taker M cannot optimally obtain the rearward orientation.
(B) As shown in FIG.
(+ Θ (1 second) → 0 (2 seconds) → −θ (1 second) → 0
(2 seconds) →…)
It can be recognized stably and reliably without inversion. That is,
The coefficient ROM 3 previously stores a pair corresponding to -θ, 0, + θ.
Of the convolver's coefficient data (cfLx, cfRx)
Keep it. As an example, the convolver at the presentation position e
As numerical data (cfLx, cfRx), -θ (example
(For example, an angle position of about −10 degrees from the center 0)
Coefficient data of the indicated position e, of the indicated position e at the center 0
Coefficient data, + θ (for example, about +10 degrees from the center 0)
The coefficient data of the presentation position e at the angle position
And store it. Then, at the listening position (the position of the listener M),
When stable localization of a stationary sound image cannot be obtained
Means that the listener M has a stable sound image using an input device (not shown).
Specify and input the signal corresponding to the position where localization cannot be obtained.
When the main CPU recognizes this input state,
For the sub CPU for the
Pair of combos corresponding to the obtained coefficient data -θ, 0, + θ
Luba coefficient data is + θ (1 second) → 0 (2 seconds) →
-Θ (1 second) → 0 (2 seconds) → ...
From the coefficient ROM3.
Power. Thus, the sound corresponding to the specific position
Since the image can be shaken periodically and long, the listening position
(The position of the listener M)
It can be recognized stably and reliably without inversion. The above sound image localization recognition position shift or sound
In the environment of the listening position where external noise is large,
It depends greatly on the individual differences of the listeners or the music source, etc.
Because it is different, the sound image localization is recognized in advance by the test pattern.
Detecting displacement or reversal of the sound image
Conversion table for correction data as described above based on detection
4 so that the above correction can be performed efficiently.
It can be carried out. As described in detail above, the sound image according to the present invention
According to the localization control device, the sound source is controlled by a pair of convolvers.
Processing these signals on the time axis to localize the sound image
Therefore, as a circuit that actually performs sound image processing, the time axis
Only the convolutional processing circuit above is required, and the circuit
The scale is very small and inexpensive. In addition, the
The coefficient data of the sound image localization processing of Volva
Supply as IR (impulse response) data on axis
In order to make the circuit size smaller,
It suffices to reduce the number of convolver coefficients.
As a result, compared to the conventional approximation of data on the frequency axis,
HRTF can be accurately and effectively approximated.
From this point, the circuit scale without impairing the sound image localization feeling
Can be reduced. In addition, a ring with much external noise
Listening position below the border, listening with a difference greater than the standard distance between both ears
Good for uniform sound image localization control, such as when the listener listens
Especially when the listening position is not
By correcting the sound image localization position,
An appropriate sound image localization feeling can be obtained.

【図面の簡単な説明】 【図1】本発明になる音像定位制御装置の一実施例構成
図である。 【図2】音像定位認識のずれを補正するマッピングを説
明する図である。 【図3】音像定位点の振れ方を説明する図である。 【図4】一般の音像定位装置の構成図である。 【図5】音像定位制御の基本原理を示す構成図である。 【図6】HRTF(頭部伝達関数)の測定システムを示
す構成図である。 【図7】HRTF測定のポイントを説明する図である。 【図8】キャンセルフィルタの算出例を説明する図であ
る。 【図9】HRTFのIR(インパルス応答)の具体的な
例を示す図である。 【図10】キャンセルフィルタの係数の具体的な例を示
す図である。 【符号の説明】 1 音像定位制御装置 2 畳込演算処理回路、コンボルバ 3 係数ROM(係数メモリ) 4 変換テーブル(補正手段) cfLx,cfRx キャンセルフィルタ(コンボル
バ)及びその係数 M 聴取者 sp1,sp2 スピーカ(トランスジューサ) X 音源
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram of an embodiment of a sound image localization control device according to the present invention. FIG. 2 is a diagram illustrating mapping for correcting a shift in sound image localization recognition. FIG. 3 is a diagram illustrating how a sound image localization point fluctuates. FIG. 4 is a configuration diagram of a general sound image localization device. FIG. 5 is a configuration diagram showing a basic principle of sound image localization control. FIG. 6 is a configuration diagram showing an HRTF (head-related transfer function) measurement system. FIG. 7 is a diagram illustrating points of HRTF measurement. FIG. 8 is a diagram illustrating a calculation example of a cancel filter. FIG. 9 is a diagram showing a specific example of IR (impulse response) of HRTF. FIG. 10 is a diagram illustrating a specific example of coefficients of a cancel filter. [Description of Signs] 1 sound image localization control device 2 convolution operation processing circuit, convolver 3 coefficient ROM (coefficient memory) 4 conversion table (correction means) cfLx, cfRx cancel filter (convolver) and its coefficient M listeners sp1, sp2 speakers (Transducer) X sound source

Claims (1)

(57)【特許請求の範囲】 【請求項1】 音源から出力する信号を畳込演算した音
声信号を一対のトランスジューサから再生して、前記一
対のトランスジューサの配置とは異なる位置に音像が定
位するように音像定位を行う音像定位制御装置であっ
て、 同一音源から出力する信号が供給される一対の畳込演算
処理回路と、 前記一対のトランスジューサの配置とは異なる位置に音
像を定位するための音像定位位置係数を前記畳込演算処
理回路に供給する係数メモリとを備え、 聴取位置において定位している音像を周期的に角度位置
変更するための音像定位位置係数を用いることにより定
位している音像の認識を確実化することを特徴とする音
像定位制御装置。
(57) [Claim 1] A sound signal obtained by convolving a signal output from a sound source with a pair of transducers is reproduced from a pair of transducers, and a sound image is localized at a position different from the arrangement of the pair of transducers. A sound image localization control device that performs sound image localization as described above, comprising: a pair of convolution operation processing circuits to which signals output from the same sound source are supplied; and a sound image localization control device for localizing the sound image at a position different from the arrangement of the pair of transducers. A coefficient memory for supplying a sound image localization position coefficient to the convolution operation processing circuit, wherein the sound image is localized at the listening position by using a sound image localization position coefficient for periodically changing an angular position. A sound image localization control device for ensuring recognition of a sound image.
JP3137795A 1995-01-26 1995-01-26 Sound image localization control device Expired - Fee Related JP3367625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3137795A JP3367625B2 (en) 1995-01-26 1995-01-26 Sound image localization control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3137795A JP3367625B2 (en) 1995-01-26 1995-01-26 Sound image localization control device

Publications (2)

Publication Number Publication Date
JPH08205298A JPH08205298A (en) 1996-08-09
JP3367625B2 true JP3367625B2 (en) 2003-01-14

Family

ID=12329568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3137795A Expired - Fee Related JP3367625B2 (en) 1995-01-26 1995-01-26 Sound image localization control device

Country Status (1)

Country Link
JP (1) JP3367625B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3266020B2 (en) 1996-12-12 2002-03-18 ヤマハ株式会社 Sound image localization method and apparatus
EP0932325B1 (en) 1998-01-23 2005-04-27 Onkyo Corporation Apparatus and method for localizing sound image
JP4531554B2 (en) * 2004-09-14 2010-08-25 日本電信電話株式会社 High presence communication device and high presence communication method
CN101116374B (en) * 2004-12-24 2010-08-18 松下电器产业株式会社 Acoustic image locating device
JP2006203850A (en) * 2004-12-24 2006-08-03 Matsushita Electric Ind Co Ltd Sound image locating device
US8249283B2 (en) 2006-01-19 2012-08-21 Nippon Hoso Kyokai Three-dimensional acoustic panning device
JP5010185B2 (en) * 2006-06-08 2012-08-29 日本放送協会 3D acoustic panning device
WO2010004649A1 (en) * 2008-07-11 2010-01-14 パイオニア株式会社 Delay amount determination device, sound image localization device, delay amount determination method, and delay amount determination processing program

Also Published As

Publication number Publication date
JPH08205298A (en) 1996-08-09

Similar Documents

Publication Publication Date Title
EP1816895B1 (en) Three-dimensional acoustic processor which uses linear predictive coefficients
JP5540581B2 (en) Audio signal processing apparatus and audio signal processing method
US5579396A (en) Surround signal processing apparatus
US7978866B2 (en) Acoustics correcting apparatus
EP0880871B1 (en) Sound recording and reproduction systems
US5598478A (en) Sound image localization control apparatus
US5761315A (en) Surround signal processing apparatus
JP2019115042A (en) Audio signal processing method and device for binaural rendering using topology response characteristics
JPH03214897A (en) Acoustic signal reproducing device
JP2001507879A (en) Stereo sound expander
JP2008512015A (en) Personalized headphone virtualization process
US20050069143A1 (en) Filtering for spatial audio rendering
JPH09505702A (en) Binaural signal processor
JPH09322299A (en) Sound image localization controller
JP3367625B2 (en) Sound image localization control device
JPH06245300A (en) Sound image localization controller
JP2827777B2 (en) Method for calculating intermediate transfer characteristics in sound image localization control and sound image localization control method and apparatus using the same
JP2671329B2 (en) Audio player
JP7384162B2 (en) Signal processing device, signal processing method, and program
JPH09135499A (en) Sound image localization control method
JP2755081B2 (en) Sound image localization control method
JPH06198074A (en) Video game machine
JP2882449B2 (en) Sound image localization control device for video games
JP2870562B2 (en) Method of sound image localization control
JP2985557B2 (en) Surround signal processing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071108

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081108

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091108

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101108

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101108

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111108

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121108

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121108

Year of fee payment: 10

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121108

Year of fee payment: 10

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121108

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131108

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees