JP4427915B2 - Virtual sound image localization processor - Google Patents

Virtual sound image localization processor Download PDF

Info

Publication number
JP4427915B2
JP4427915B2 JP2001054743A JP2001054743A JP4427915B2 JP 4427915 B2 JP4427915 B2 JP 4427915B2 JP 2001054743 A JP2001054743 A JP 2001054743A JP 2001054743 A JP2001054743 A JP 2001054743A JP 4427915 B2 JP4427915 B2 JP 4427915B2
Authority
JP
Japan
Prior art keywords
sound
signal
delay
acoustic
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001054743A
Other languages
Japanese (ja)
Other versions
JP2002262400A (en
Inventor
健司 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001054743A priority Critical patent/JP4427915B2/en
Publication of JP2002262400A publication Critical patent/JP2002262400A/en
Application granted granted Critical
Publication of JP4427915B2 publication Critical patent/JP4427915B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
本発明は、仮想音像定位処理装置に関する
【0002】
【従来の技術】
通常、ステレオ音響信号やモノラル音響信号を、例えば、ヘッドフォンに直接供給して再生した場合、聴取者の知覚する音像は一般に頭内に定位する。ヘッドフォン再生において、自然な頭外定位感を得るには、仮想音像定位処理された音響信号をヘッドフォンに供給すれば良い。
【0003】
一方近年、テレビゲーム機などの分野において、モノラル音声の定位位置を聴取者から見て様々な方向に配置させる要求が高まっており、音響再生装置の一つとしてヘッドフォンを使用し、仮想音像定位処理された音響信号をヘッドフォンに供給するようにしたものも提案されている。更に、音響再生装置としてスピーカを使用し、仮想音像定位処理された音響信号を、更に、クロストーク処理した後、聴取者の前方左右に配置された2本のスピーカに供給し、任意の位置に音像定位させるようにしたものも提案されている。尚、仮想音像定位処理された音響信号をクロストーク処理した後、ヘッドフォンに供給する場合もある。
【0004】
ここで、任意のモノラル音響信号を信号処理して、例えば、ヘッドフォンに供給して、その再生時に、音像を聴取者の頭外に定位させたり、スピーカ再生して任意の位置に音像定位させて、奥行き感を出すには、定位させたい位置から聴取者の耳元までの音響伝達関数を重畳するバイノーラル化信号処理を行い、その生成された音響信号を入力信号として、ヘッドフォンに供給したり、あるいは更に、クロストーク・キャンセル処理を加えて、スピーカに供給するようにすれは良い。
【0005】
尚、本明細書では、このようなバイノーラル化信号処理、または、これにクロストーク・キンセ処理を加えた信号処理を、仮想音像定位処理と呼ぶことにする。
【0006】
しかしながら、モノラル音響信号を仮想音像定位処理しても、モノラル音響信号自体の間接音成分が少ない場合には、その仮想音像定位処理された音響信号をヘッドフォンやスピーカに供給しても、音像の十分な頭外定位感や奥行き感は得られ難いものである。
【0007】
そこで、従来は、モラル音響信号に適当な部屋の反射音などの間接音音響信号を付加したり、モノラル音響信号を遅延、移相、減衰させた音響信号を、間接音音響信号として元の音響信号に付加することが行われていた。
【0008】
ここで、数少ない間接音音響信号をモノラル音響信号に付加することによって、間接音の到来方向を聴取者から見て水平面において45度〜90度程度、つまり聴取者の側方に設定すると効果的であるといわれている(入交他による「二個及び三個の反射音が音の距離感と拡がり感に与える影響について」日本音響学会建築音響研究委員会資料AA−81−32,1981参照)。
【0009】
そこで、モノラル音響信号を所定時間遅延させたものに、側方から聴取者の耳元までの音響伝達関数を重畳するような仮想音像定位処理を施した音響信号を間接音信号として使用すると、効果的である。
【0010】
【発明が解決しようとする課題】
しかしながら、一般的に計測によって得られた音響伝達関数は、例えば、サンプリング周波数が44.1kHzの場合、時間軸上数十サンプル以上あるため、間接音生成のために、これをモノラル音響信号に重畳する処理は処理量が多く、コンパクトな信号処理量が要求されるリアルタイム処理ゲームなどの分野では問題であり、よりコンパクトな仮想音像定位処理の要求が高くなっている。
【0011】
かかる点に鑑み、本発明は、コンパクトな信号処理量の仮想音像定位処理装置を提案しようとするものである
【0012】
【課題を解決するための手段】
上記課題を解決するために、本発明の仮想音像定位処理装置は、モノラル音響信号源が入力され、仮想聴取者に対する直接音音響信号となる音声信号部分を生成する処理を行う直接音音響信号生成部と、モノラル音響信号源が入力され、1サンプル周期に等しい遅延時間を有する遅延器が一以上直列接続される第一遅延部と、第一遅延部の出力信号が入力され、遅延器が一以上直列接続される第二遅延部と、第二遅延部の出力信号が入力され、複数直列接続される遅延器の出力信号を全て等しいタップ係数にて加算するFIR型の第一デジタルフィルタと、第一デジタルフィルタの出力信号が入力され、遅延器が一以上直列接続される第三遅延部と、第三遅延部の出力信号が入力され、複数直列接続される遅延器の出力信号を全て等しいタップ係数にて加算するFIR型の第二デジタルフィルタと、直接音音響信号生成部の出力信号と、第二遅延部の入力信号と、第二デジタルフィルタの出力信号とを加算してステレオ出力の一方のチャンネルに出力すると共に、直接音音響信号生成部の出力信号と、第三遅延部の入力信号と、第一デジタルフィルタの出力信号とを加算してステレオ出力の他方のチャンネルに出力する加算部とを具備する。
【0023】
【発明の実施の形態】
以下に、図面を参照して、本発明の実施の形態の仮想音像定位処理装置及び処理方法を、ヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)に適用した例を説明する。図1に、このヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)例の全体の構成を示し、以下、これについて説明する。ここでは、モノラル音響信号源1から、デジタルモノラル音響信号(デジタル入力音響信号)が発生するものとするが、以下の説明では、単に、モノラル音響信号または入力音響信号と略称する。図1は、全体として、ヘッドフォン装置を構成し、ヘッドフォン8を除く部分は、ヘッドフォン供給用音響信号生成装置を構成する。
【0024】
尚、図1のヘッドフォン8を除く部分の終段に、クロストークキャンセル手段を付加して、スピーカ供給用音響信号生成装置を構成することも可能である。
【0025】
モノラル音響信号源1よりのモノラル音響信号が、直接音音響信号生成手段2に供給されて、仮想音像定位処理されて、直接音音響信号が生成され、その直接音音響信号が加算手段7に供給される。
【0026】
モノラル音響信号源1よりのモノラル音響信号が、遅延手段3によって所定時間遅延された後、左側間接音音響信号生成手段5に供給されて、左側間接音音響信号が生成され、その左側間接音音響信号が加算手段7に供給される。
【0027】
モノラル音響信号源1よりのモノラル音響信号が、遅延手段3、4によって所定時間遅延された後、右側間接音音響信号生成手段6に供給されて、右側間接音音響信号が生成され、その右側間接音音響信号が加算手段7に供給される。尚、この遅延手段4は、左側間接音音響信号生成手段5内の遅延手段をも含むものとする。
【0028】
尚、遅延手段3、4を、モノラル音響信号源1に対し並列接続し、遅延手段3、4よりの各遅延モノラル音響信号を、各別に左側間接音音響信号生成手段5及び右側間接音音響信号生成手段6に供給するようにしても良い。
【0029】
そして、加算手段7から得られた後述する第1及び第2チャンネルのヘッドフォン供給用音響信号が、ヘッドフォン8に供給される。
【0030】
直接音音響信号生成手段2はモノラル音響信号源1からのモノラル音響信号を入力信号とし、仮想聴取者に対する直接音音響信号となる音声信号部分を生成する処理を行うものである。直接音は、仮想聴取者に音像を知覚させたい位置から仮想聴取者の耳元までの音響伝達関数を、入力信号であるモノラル音響信号に重畳させることにより生成することができる。
【0031】
尚、本明細書では、入力時間信号に対してインパルス時間応答の畳み込み積分演算を施したり、後述のイコライザやフィルタのように、入力信号の周波数特性を変化させるために、伝達周波数特性を掛けることなどをまとめて重畳処理または重畳演算と呼ぶことにする
【0032】
音響伝達関数は、仮想聴取者に音像を知覚させたい位置から仮想聴取者の耳元までの音響インパルス応答であり、一つの位置に関して左耳元までの音響伝達関数HL及び右耳元までの音響伝達関数HRが存在する。左耳用の直接音音響信号とは、モノラル音響信号に対して左耳元までの音響伝達関数HLを重畳演算することにより得られるものである。同様に、右耳用の直接音音響信号とは、モノラル音響信号に対して右耳元までの音響伝達関数HRを重畳演算することにより得られるものである。具体的には重畳演算は、次に示す数1の計算式によって表される。
【0033】
【数1】

Figure 0004427915
【0034】
この数1の式における各符号の意味するものは、下記の通りである。
S:モノラル音響信号
SL:左耳用音響信号
SR:右耳用音響信号
HL:左耳用音響伝達関数
HR:右耳用音響伝達関数
n:サンプル
sL:HLの次数
sR:HRの次数
【0035】
直接音音響信号生成に使用される音響伝達関数HL、HRは、無響室等の通常響きの少ない空間で測定されたデータに基づいて、作成される。
【0036】
直接音音響信号生成手段2により生成された音響信号は、聴取者に音像定位させたい位置にスピーカを設置し、そのスピーカからモノラル音響を放声した際に聴取者の耳元に届く音響をシミュレートしたものである。従って、これをヘッドフォンで受聴した聴取者は上述したスピーカの位置に音像定位すると考えられるが、実際にはほとんど頭外定位しない。無響室など響きの少ない、つまり略直接音のみの空間では音像の距離感はほとんど出ないためである。
【0037】
音像の距離感を得るための要因としてはいくつかの物理的要因や心理的要因が挙げられているが、その中で間接音の存在は重要な要因の一つとされている。そこで、直接音音響信号に加えて更に間接音音響信号成分を生成、付加することによりヘッドフォン受聴における音像の頭外定位感を向上させる手法が行われている。
【0038】
間接音音響の物理的役割は両耳に受ける音響の相関性(両耳相関)を減らすことであると言われている。相関性を減らすことにより音像が頭外にあるものとして知覚されると考えられている。
【0039】
ところで、通常自然界での間接音音響は、複数の方向から到来し、時間的には数百ミリ秒から数秒程度まで遅延した音響から構成される。このような間接音音響信号を上述したような音響伝達関数の重畳演算にて生成するとなると膨大な演算量となり、特にリアルタイム演算が要求されるテレビゲーム機などの分野では非現実的なものとなってしまう。
【0040】
そこで、従来、より少い演算量ながら両耳相関を効果的に低くする手法として、聴取者側方から到達する数少ない本数の間接音を使用するものが提案されていた。しかしながら、この手法においても、テレビゲーム機の分野などにおいては、未だ高負荷となっており、より低負荷な間接音音響信号の生成が求められていた。
【0041】
ここで、先に述べたように間接音は両耳相関を減らす、という物理的機能に主として注目し、間接音音響成分に使用される音響伝達関数の細部構造の頭外定位感効果に対する寄与は小さいものと推測した。ここで側方間接音音響の構造を極力単純化させるための試聴及び実験を行ったところ、仮想聴取者の左右の耳に対し、左及び右側方の仮想音源からの音響伝達関数は、例えば、時間軸インパルス、その逆側である右及び左側方の仮想音源からの音響伝達関数は、例えば、時間軸矩形波で代用しても有意な頭外定位感効果が得られることが判明した。
【0042】
図1に戻り、モノラル音響信号源1よりのモノラル音響信号を遅延させる遅延手段3からの音響信号を入力とする左側間接音音響信号生成手段5は、上述した聴取者側方(ここでは左側方)から到達する間接音音響信号を生成するものである。しかしながら、上述したような従来手法が音響伝達関数を使用した高負荷な高次重畳処理であるのに対し、本発明で提案する左側間接音生音響信号成手段5は、仮想聴取者の左耳までの音響伝達特性を時間軸インパルスにて近似代用し、仮想聴取者の右耳までの音響伝達特性を、例えば、時間軸矩形波にて近似代用する演算量的に低負荷なものである。同様に、右側間接音音響信号生成手段6は、仮想聴取者の右耳までの音響伝達特性を時間軸インパルスにて近似代用し、仮想聴取者の左耳までの音響伝達特性を、例えば、時間軸矩形波にて近似代用する演算量的に低負荷なものである。
【0043】
図2は、図1における遅延手段3、4並びに左及び右間接音音響信号生成手段5、6を更に具体的に示したものである。以下、図2について説明する。DLは1サンプル周期に等しい遅延時間を有する遅延器を示す。モノラル音響信号源1よりのモノラル音響信号が、縦続接続された所定個数の遅延器DLから構成される遅延手段3によって遅延された後、左側間接音音響信号生成手段5に供給される。
【0044】
左側間接音生成手段5では、遅延手段3よりの遅延モノラル音響信号を、振幅重み付け係数がα1の係数乗算器(減衰手段)を通じて、左耳用間接音音響信号5Lを得るようにする。また、遅延手段3よりの遅延モノラル音響信号を、縦続接続された所定個数の遅延器DLから構成される遅延手段5Dを通じて、デジタルフィルタ5Fに供給する。このフィルタ5Fは、遅延手段5Dの出力側の1個のタップ及び遅延手段5Dに縦続接続された所定個数の遅延器DLから構成される遅延手段における、遅延手段5Dの出力側の1個のタップに連続した(r−2)個、計(r−1)個のタップを取り出し、それぞれのタップを振幅重み付け係数がα2、α3、…、α(r−1)、αrの係数乗算器を通じて、加算器5Sに供給して加算して、右耳用間接音音響信号5Rとして出力する。即ち、デジタルフィルタ5Fは、FIR(Finit Impulse Response)(有限インパルス応答)フィルタを構成している。
【0045】
ここで、左側間接音音響信号生成手段5の左耳用間接音音響信号5Lに重畳した特性は時間軸インパルスとなる。フィルタ5Fにおける振幅重み付け係数α2、‥‥、α(r−1)、αrの値を全て等しくすると、左側間接音音響信号生成手段5の右耳用音響信号に重畳した特性は時間軸矩形波となる。更に、次の数2の式の
【0046】
【数2】
Figure 0004427915
【0047】
ような関係に設定することにより、左側間接音音響信号生成手段5の左耳用間接音音響信号5L及び右耳用間接音音響信号5Rに重畳した低域振幅特性は略等しくなり、中域から高域にかけての右耳用間接音音響信号5Rの振幅特性のエンベロープは、左耳用間接音音響信号5Lのそれに対して高域方向に減衰してゆく特性となる。このような相対的な振幅特性はマクロ的には、仮想聴取者左側方から到達する音響伝達関数のそれと類似したものとなる。
【0048】
また、左側間接音音響信号生成手段5の時間軸上の左右出力波形の相対位置(時間遅れ)を、仮想聴取者の左側方から到達する音響伝達関数のそれと類似したものに設定することにより、位相特性に関してもマクロ的には、仮想聴取者の左側方から到達する音響伝達関数のそれと類似したものにすることができる。即ち、仮想聴取者の左側方から到達する音波は、先ず、左耳に到達した後に、左右の両耳間距離を音波が伝播する時間だけ、やや遅れて右耳に到達する。そのとき、聴取者の頭部による回折効果などにより、右耳へ到達する音波は相対的に中高音域が減衰されて到達する。
【0049】
このようにして左側間接音音響信号生成手段5の出力音響信号は、仮想聴取者の左側方から到達する音響伝達関数を簡略化したものとして扱うことができる訳である。
【0050】
次に、図5を参照して、左側間接音音響信号生成手段5の原理を説明する。図5Aに示すように、聴取者LNの左側方に仮想音源ISを設け、その仮想音源ISから、聴取者LNの左耳EL 及び右耳ER までの音響伝達関数(インパルス応答)をそれぞれHL 、HR とする。
【0051】
この音響伝達関数(インパルス応答)HL 、HR を示す時間軸波形の一例を、図5B、Cに示す。尚、図5B、Cにおけるtは時間を示す。仮想音源ISから聴取者LNの右耳ER に到達する音波は、左耳EL に到達する音波に比べてΔtだけ遅れて到達する(図5C)。また、図5B、Cの時間特性を、周波数軸に変換した特性を、図5Dに、それぞれ▲1▼及び▲2▼として示す。図5B、C及びDに明らかなように、仮想音源ISから聴取者LNの右耳ER に到達する音波は、仮想音源ISから聴取者LNの左耳EL に到達する音波に比べて、聴取者LNの頭部の存在によって、中高音成分が減衰していることが分かる。
【0052】
図5B、Cに示すインパルス応答を示す時間軸波形を単純化した音響伝達関数(インパルス応答)を示す時間軸波形を、図5E及びFにそれぞれHL ′、HR ′として示す。図5Eの音響伝達関数(インパルス応答)HL ′は、振幅がα1のインパルスであり、図5Fの音響伝達関数(インパルス応答)HR ′は、図5Eの音響伝達関数(インパルス応答)HL ′よりΔtだけ遅延した矩形波応答で、各サンプリング時間毎の振幅値の総和が、α1となるように設定されている。図5Fの矩形波応答が、図5Gに丸印で示すように、例えば、3サンプルから構成されている場合は、各サンプル値は共にα1/3となる。
【0053】
図5E及びFの音響伝達関数(インパルス応答)を示す時間軸波形を、周波数軸波形に変換して示すと、それぞれ図5Hの▲3▼、▲4▼のようになり、▲3▼は周波数の変化に対し平坦な特性を呈し、▲4▼はローパスフィルタ特性(中高音域を単純減衰させる特性)を示す。また、図5Hの応答▲3▼、▲4▼の積分値、即ち、各サンプル点の振幅値の総和が、両者で一致しているので、低音域での周波数特性は、略一致する。
【0054】
再び、図2に戻って説明する。モノラル音響信号源1よりのモノラル音響信号が、それぞれ縦続接続された所定個数の遅延器DLから構成される、縦続接続された遅延手段3、4によって遅延された後、右側間接音音響信号生成手段6に供給される。遅延手段4は、上述の遅延手段5D、フィルタ5Fを構成する各遅延器DL及びその他の各遅延器5Dから構成される。
【0055】
右側間接音音響信号生成手段6では、遅延手段3及び4によって遅延されたモノラル音響信号、即ち、遅延モノラル音響信号を、振幅重み付け係数がβ1の係数乗算器を通過させることによって、右耳用音響信号6Rを得るようにする。また、遅延手段4よりの遅延モノラル音響信号を、縦続接続された所定個数の遅延器DLから構成される遅延手段6Dを通じて、デジタルフィルタ6Fに供給する。このフィルタ6Fは、遅延手段6Dの出力側の1個のタップ及び遅延手段6Dに縦続接続された所定個数の遅延器DLから構成される遅延手段における、遅延手段6Dの出力側の1個のタップに連続した(k−2)個、計(k−1)個のタップを取り出し、それぞれのタップを振幅重み付け係数がβ2、β3、…、β(k−1)、βkの係数乗算器を通じて、加算器6Sに供給して加算して、左耳用音響信号6Lとして出力する。このデジタルフィルタ6Fも、上述のデジタルフィルタ5Fと同様に、FIRフィルタを構成している。
【0056】
ここで、右側間接音音響信号生成手段6の右耳用音響信号6Rに重畳した特性は時間軸インパルスとなる。フィルタ6Fにおける振幅重み付け係数β2、‥‥、β(k−1)、βkの値を全て等しくすると、左側間接音音響信号生成手段5の右耳用音響信号に重畳した特性は時間軸矩形波となる。更に、次の数3の数式
【0057】
【数3】
Figure 0004427915
【0058】
のような関係に設定することにより、右側間接音音響信号生成手段6の右耳用音響信号6R及び左耳用音響信号6Lに重畳した低域振幅特性は略等しくなり、中域から高域にかけての左耳用音響信号6Lに重畳した振幅特性のエンベロープは、右耳用音響信号6Rのそれに対して高域方向に減衰してゆく特性となる。このような相対的な振幅特性はマクロ的には、仮想聴取者の左側方から到達する音響伝達関数のそれと類似したものとなる。
【0059】
また、右側間接音音響信号生成手段6の時間軸上の左右出力波形の相対位置(時間遅れ)を、仮想聴取者の右側方から到達する音響伝達関数のそれと類似したものに設定することにより、位相特性に関してもマクロ的には、仮想聴取者の右側方から到達する音響伝達関数のそれと類似したものにすることができる。
【0060】
このようにして右側間接音音響信号生成手段6の出力音響信号は、仮想聴取者の右側方から到達する音響伝達関数を簡略化したものとして扱うことができる訳である。
【0061】
図2では、仮想聴取者の左側方から到達する間接音音響信号の方が、仮想聴取者の右側方から到達する間接音よりも時間的に早く、仮想聴取者の耳元に到達する関係になっているが、これは逆でも良い。
【0062】
また、上述の左側及び右側間接音音響信号生成手段5、6のいずれか一方のみを使用しても、音像の頭外定位感や奥行き感が十分に改善されることが、実験的に確かめられている。
【0063】
左側及び右側間接音生成手段5、6において、仮想音源と逆側の耳に到達する波形を生成するために重畳した伝達関数は時間軸矩形波に限ったものではなく、数2及び数3の式の条件を満たし、かつ、時間軸短時間波形に置き換えることも有効である。すなわち、α2 、α3 、‥‥‥‥、αr に関して必ずしも等しい値に設定する必要はない。同様に、β2 、β3 、‥‥‥‥、βk に関しても必ずしも等しい値に設定する必要はない。
【0064】
図5Gに示す時間軸波形の変形例を、図6A、B、Cに示す。尚、図6A、B、Cにおける丸印はサンプリング点を示す。以下、これらの変形例について説明する。
【0065】
図6Aに示す時間軸波形は、2次または3次多項式を適用した例であり、図6Bは4次または5次多項式を適用した例である。図5Gに示す矩形波を含めて、いずれも移動加算平均演算に用いられる重み係数列である入力信号に、これらの時間軸波形(伝達関数)を重畳演算すれぱ、いずれも高音域が減衰した出力言号が得られるが、時間軸波形によって高音域の減衰特性が変化する。
【0066】
尚、図5Gに示す矩形波の場合は、例えば、DSP(デジタル・シグナル・プロセッサ)を使用した信号処理では、係数データを格納するメモリが1つで済み、更に、サンプリング点の数が2の羃乗、例えは、4であれば、それぞれの重み係数値は、α1 /4となるので、ビットシフト演算により求めることができ、演算処理の負荷がより一層軽減されるので、好適である。
【0067】
図6Cに示す時間軸波形は、指数関数を適用して疑似的にRCフィルタを模した例である。この場合も、サンプリング点は高々数点でも良いが、後述のIIRフィルタによって実施された場合には、係数データメモリや演処理量が非常に少なくて済む利点がある。
【0068】
また、伝達関数が時間軸矩形波であるFIRフィルタの代わりとして中高音域の振幅を単純減衰させる特性を有するフィルタやイコライザにて近似代用することも有効である。図3は、この場合における、図1における遅延手段3、4並びに左及び右間接音音響信号生成手段5、6を具体的に示したものである。
【0069】
以下、図3について説明する。基本構成は図2と同様であり、異なるのは左側間接音音響信号生成手段5の右耳用音響信号生成部及び右側間接音音響信号生成手段6の左耳用音響信号生成部である。即ち、左側間接音音響信号生成手段5では、左耳用音響信号として取り出したタップ位置より数タップから数十タップ後方の位置より1タップを取り出し、振幅重み付け係数α2 を乗じた後、中高音域の振幅を単純減衰させる特性(図5Hの特性曲線▲4▼参照)であるイコライザ5Eにより処理した信号を右耳用間接音音響信号5Rとして出力する。イコライザ5Eとしては、例えば低次IIR( Infinite Impulse Response )フィルタからなるLPF( Low Pass Filter ) で構成する。
【0070】
右側間接音音響信号生成手段6では、右耳用間接音音響信号6Rとして取り出したタップ位置より数タップから数十タップ後方の位置より1タップを取り出し、振幅重み付け係数β2 を乗じた後、中高音域の振幅を単純減衰させる特性であるイコライザ6Eにより処理した信号を左耳用間接音音響信号6Lとして信号出力する。イコライザ6Eとしては、例えば低次IIRフィルタで構成されたLPFで構成する。
【0071】
尚、本発明の実施の形態では、デジタル信号処理による構成としたが、この振幅重み付け係数α2 、β2 を乗ずる係数乗算器やイコライザ5E、6Eの前にD/A変換器を設けてアナログ信号として取り出せば、これらを簡単なCRフィルタなどのアナログローパスフィルタで構成するようにしても良い。
【0072】
左側及び右側間接音生成手段5、6において、右耳用間接音音響信号5R及び左耳用間接音音響信号6Lに重畳した低域振幅特性がそれぞれ左耳用間接音音響信号5L及び右耳用間接音音響信号6Rに重畳した低域振幅特性とが略等しくなるように、イコライザ5E及び6Eのの構成及び係数乗算器の係数α2及びβ2をそれぞれα1 及びβ1 と互いに略等しくなるように設定するのが望ましい。
【0073】
図4は、図1における加算手段7を更に具体的に示したものである。以下、図4について説明する。
【0074】
この加算手段7は、左耳用音響信号用加算器7SL及び右耳用音響信号用加算器7SRを備える。そして、直接音音響信号生成手段2よりの左耳用音響信号2L{SL〔n〕}、左側間接音音響信号生成手段5よりの左耳用間接音音響信号5L及び右側間接音音響信号生成手段6よりの左耳用間接音音響信号6Lが、左耳用音響信号用加算器7SLに供給されて加算されて、その左耳用加算信号7Lがヘッドフォン8の左耳用スピーカに供給される。又、直接音音響信号生成手段2よりの右耳用音響信号2R{SR〔n〕}、左側間接音音響信号生成手段5よりの右耳用間接音音響信号5R及び右側間接音音響信号生成手段6よりの右耳用間接音音響信号6Rが、右耳用音響信号用加算器7SRに供給されて加算されて、その右耳用加算信号7Rがヘッドフォン8の右耳用スピーカに供給される。
【0075】
このようにして、聴取者はヘッドフォン受聴による音像の頭外定位感を享受することが可能となる。
【0076】
尚、上述の実施の形態においては、各信号処理ブロックを回路として説明したが、その代わりに、マイクロコンピュータやDSPなどのソフトウェアとして信号処理を行うようにしても良いことは勿論である。
【0077】
更に、間接音音響信号生成方法、又は、それを含んだ仮想音像定位処理方法をプログラム・ステップとして記録した記録媒体(光ディスク、光磁気ディスク、磁気ディスク、磁気テープ、半導体メモリ等)として提供することも可能である。例えば、数種類の間接音音響信号生成パラメータ(遅延時間や高音域減衰特性など)をこの処理プログラムと共に記録媒体に記憶しておき、聴取者の嗜好に応じて選択させたり、再生信号ソースの制作者側の意図により、適宜切り換えたりすることが可能となる。
【0078】
これらのプログラムは、テレビゲーム機のために提供されるゲームソフト用記録媒体に記録されても良いし、別体の記録媒体に記録されて供給されても良い。
【0079】
上述の遅延時間は、上述の図1の遅延手段3、4で与えられるものに相当する。上述の高音域減衰特性は上述の図1の左側及び右側間接音音響信号生成手段5、6で与えられる時間軸伝達特性または周波数特性に相当し、これらによって形成される間接音音響信号のレベルに対して、相対的に変化させたり、これらのパラメータを変化させることにより、音像の当該定位感や奥行き感を変化させることができる。この場合にも、頗るコンパクトな信号処理量を以て、間接音音響信号を得ることができるので、マイクロコンピュータなどの信号処理への負荷は頗る小さく、また、パラメータとしての情報量も頗る小さいので、記録媒体における記録容量を大きく占有することはない。
【0080】
上述のヘッドフォンは、聴取者の頭部に装着して聴取するものに限らず、聴取者の耳介や耳道に直接装着するイヤーホンでも良く、又、ヘッドフォンの代わりに、聴取者の耳近傍に配置されたスピーカ装置であっても良い。
【0081】
【発明の効果】
本発明によれば、コンパクトな信号処理量の音像定位処理装置を得ることができる
【図面の簡単な説明】
【図1】本発明の実施の形態の仮想音像定位処理装置が適用されたヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)の例を示すブロック図である。
【図2】図1の本発明の実施の形態の仮想音像定位処理装置が適用されたヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)の例の左側及び右側間接音音響信号生成手段の具体構成例を示すブロック図である。
【図3】図1の本発明の実施の形態の仮想音像定位処理装置が適用されたヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)の例の左側及び右側間接音音響信号生成手段の他の具体構成例を示すブロック図である。
【図4】図1の本発明の実施の形態の仮想音像定位処理装置が適用されたヘッドフォン供給用音響信号生成装置(ヘッドフォン装置)の例の加算手段の具体構成例を示すブロック図である。
【図5】右側間接音音響信号生成手段の原理説明のための図である。
【図6】時間軸波形の他の例を示す波形図である。
【符号の説明】
1 モノラル音響信号源、2 直接音音響信号生成手段、3 遅延手段、4 遅延手段、5 左側間接音音響信号生成手段、6 右側間接音音響信号生成手段、7 加算手段、7SL、7SR 加算器、8 ヘッドフォン。[0001]
  The present inventionVirtual sound localization processing device.
[0002]
[Prior art]
Normally, when a stereo sound signal or a monaural sound signal is directly supplied to, for example, a headphone and reproduced, a sound image perceived by a listener is generally localized in the head. In order to obtain a natural out-of-head localization feeling during headphone playback, an acoustic signal subjected to virtual sound image localization processing may be supplied to the headphones.
[0003]
On the other hand, in recent years, in the field of video game machines and the like, there has been an increasing demand for positioning the monaural sound in various directions when viewed from the listener. Headphones are used as one of the sound reproduction devices, and virtual sound image localization processing is performed. There has also been proposed an apparatus in which a sound signal is supplied to headphones. Furthermore, a speaker is used as the sound reproducing device, and the sound signal subjected to the virtual sound image localization processing is further subjected to crosstalk processing, and then supplied to two speakers arranged on the front left and right of the listener to be placed at an arbitrary position. Some have been proposed to localize the sound image. In some cases, the sound signal subjected to the virtual sound image localization process is supplied to the headphones after being subjected to a crosstalk process.
[0004]
Here, an arbitrary monaural sound signal is signal-processed and supplied to, for example, headphones, and at the time of reproduction, the sound image is localized outside the listener's head, or reproduced by a speaker to localize the sound image at an arbitrary position. In order to give a sense of depth, binaural signal processing that superimposes the acoustic transfer function from the position to be localized to the ear of the listener is performed, and the generated acoustic signal is supplied to the headphones as an input signal, or Furthermore, it is good to add a crosstalk / cancellation process and supply it to the speaker.
[0005]
  In this specification, such binaural signal processing, or crosstalk keyTurbochargerNseLeThe signal processing to which the processing is added is referred to as virtual sound image localization processing.
[0006]
However, even if the monaural sound signal is subjected to the virtual sound localization process, if the indirect sound component of the monaural sound signal itself is small, the sound image is sufficient even if the virtual sound localization process is supplied to the headphones or speakers. It is difficult to obtain a sense of out-of-head localization and a sense of depth.
[0007]
  So, in the past,NoAdd an indirect sound signal such as a reflected sound of a suitable room to the sound signal, or add a sound signal that has been delayed, phase-shifted, or attenuated to the original sound signal as an indirect sound signal. Was done.
[0008]
Here, by adding a few indirect sound signals to the monaural sound signal, it is effective to set the direction of arrival of the indirect sound to about 45 to 90 degrees in the horizontal plane when viewed from the listener, that is, to the side of the listener. It is said that there are (refer to the AA-81-32, 1981 of the Acoustical Society of Japan, Architectural Acoustics Research Committee document, “The effect of two and three reflected sounds on the sense of distance and spread of sound” .
[0009]
Therefore, it is effective to use as an indirect sound signal an acoustic signal that has been subjected to a virtual sound localization process that superimposes the acoustic transfer function from the side to the listener's ear on the monaural sound signal delayed by a predetermined time. It is.
[0010]
[Problems to be solved by the invention]
However, in general, the acoustic transfer function obtained by measurement has, for example, several tens of samples on the time axis when the sampling frequency is 44.1 kHz, and this is superimposed on the monaural acoustic signal for indirect sound generation. The processing to be performed is a problem in fields such as real-time processing games where a large amount of processing is required and a compact signal processing amount is required, and a demand for a more compact virtual sound image localization processing is increasing.
[0011]
  In view of this point, the present invention provides a compact amount of signal processing.A virtual sound localization processing device is proposed..
[0012]
[Means for Solving the Problems]
In order to solve the above problems, a virtual sound localization processing apparatus according to the present invention is a direct sound / acoustic signal generator that receives a monaural sound signal source and generates a sound signal portion that becomes a direct sound / acoustic signal for a virtual listener. And a monophonic sound signal source, a first delay unit to which one or more delay units having a delay time equal to one sample period are connected in series, an output signal of the first delay unit is input, and the delay unit is The second delay unit connected in series, the output signal of the second delay unit is input, the first digital filter of the FIR type that adds all the output signals of the delay devices connected in series with the same tap coefficient, The output signal of the first digital filter is input, and the third delay unit to which one or more delay units are connected in series and the output signal of the third delay unit are input, and the output signals of the plurality of delay units connected in series are all equal. T One of the stereo outputs by adding the FIR type second digital filter added by the coefficient, the output signal of the direct sound and acoustic signal generation unit, the input signal of the second delay unit, and the output signal of the second digital filter And adding the output signal of the direct sound / acoustic signal generation unit, the input signal of the third delay unit, and the output signal of the first digital filter to the other channel of the stereo output It comprises.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an example in which a virtual sound image localization processing device and a processing method according to an embodiment of the present invention are applied to a headphone supply acoustic signal generation device (headphone device) will be described with reference to the drawings. FIG. 1 shows the overall configuration of this headphone supply acoustic signal generation device (headphone device) example, which will be described below. Here, it is assumed that a digital monaural sound signal (digital input sound signal) is generated from the monaural sound signal source 1, but in the following description, it is simply referred to as a monaural sound signal or an input sound signal. 1 constitutes a headphone device as a whole, and a portion excluding the headphone 8 constitutes a headphone supplying acoustic signal generating device.
[0024]
It is also possible to add a crosstalk cancellation means to the final stage of the portion excluding the headphone 8 in FIG.
[0025]
The monaural sound signal from the monaural sound signal source 1 is supplied to the direct sound sound signal generation means 2 and subjected to virtual sound image localization processing to generate a direct sound sound signal, and the direct sound sound signal is supplied to the addition means 7. Is done.
[0026]
The monaural sound signal from the monaural sound signal source 1 is delayed for a predetermined time by the delay means 3 and then supplied to the left indirect sound sound signal generating means 5 to generate the left indirect sound sound signal, and the left indirect sound sound is generated. The signal is supplied to the adding means 7.
[0027]
The monaural sound signal from the monaural sound signal source 1 is delayed for a predetermined time by the delay means 3 and 4 and then supplied to the right indirect sound sound signal generation means 6 to generate the right indirect sound sound signal and the right indirect sound signal. A sound-acoustic signal is supplied to the adding means 7. The delay means 4 also includes a delay means in the left indirect sound acoustic signal generation means 5.
[0028]
The delay means 3 and 4 are connected in parallel to the monaural sound signal source 1, and the delayed monaural sound signals from the delay means 3 and 4 are individually connected to the left indirect sound sound signal generating means 5 and the right indirect sound sound signal. You may make it supply to the production | generation means 6. FIG.
[0029]
Then, first and second channel headphone supply sound signals obtained from the adding means 7 are supplied to the headphone 8.
[0030]
The direct sound / acoustic signal generating means 2 performs a process of generating a sound signal portion that becomes a direct sound / acoustic signal for a virtual listener using the monaural sound signal from the monaural sound signal source 1 as an input signal. The direct sound can be generated by superimposing an acoustic transfer function from a position where the virtual listener wants to perceive a sound image to the ear of the virtual listener on a monaural acoustic signal that is an input signal.
[0031]
  In this specification, a convolution integral operation of impulse time response is performed on the input time signal, or a transfer frequency characteristic is applied in order to change the frequency characteristic of the input signal like an equalizer or a filter described later. Are collectively referred to as superposition processing or superposition computation..
[0032]
The acoustic transfer function is an acoustic impulse response from the position where the virtual listener wants to perceive a sound image to the ear of the virtual listener, and the acoustic transfer function HL to the left ear and the acoustic transfer function HR to the right ear for one position. Exists. The direct sound signal for left ear is obtained by superimposing the sound transfer function HL up to the left ear on the monaural sound signal. Similarly, a direct sound signal for right ear is obtained by superimposing a sound transfer function HR up to the right ear on a monaural sound signal. Specifically, the superimposition calculation is expressed by the following equation (1).
[0033]
[Expression 1]
Figure 0004427915
[0034]
The meaning of each symbol in the formula 1 is as follows.
S: Monaural sound signal
SL: Acoustic signal for left ear
SR: Acoustic signal for right ear
HL: Acoustic transfer function for left ear
HR: Sound transfer function for right ear
n: Sample
sL: HL order
sR: HR order
[0035]
The acoustic transfer functions HL and HR used for generating the direct sound acoustic signal are created based on data measured in a space with little normal sound such as an anechoic room.
[0036]
The sound signal generated by the direct sound signal generating means 2 simulates the sound that reaches the listener's ear when a speaker is installed at a position where the listener wants to localize the sound image and monaural sound is emitted from the speaker. Is. Therefore, it is considered that the listener who has listened to this with the headphones is localized at the position of the speaker described above, but in reality, it is hardly localized outside the head. This is because there is almost no sense of distance in the sound image in an anechoic room where there is little reverberation, that is, in an almost direct sound space.
[0037]
There are several physical factors and psychological factors as factors for obtaining a sense of distance in the sound image. Among them, the presence of indirect sound is regarded as one of the important factors. In view of this, a technique for improving the sense of out-of-head localization of a sound image in listening to headphones by generating and adding an indirect sound sound signal component in addition to the direct sound sound signal has been performed.
[0038]
It is said that the physical role of indirect sound acoustics is to reduce the correlation between the sounds received by both ears (binaural correlation). It is considered that the sound image is perceived as being out of the head by reducing the correlation.
[0039]
By the way, the indirect sound sound in the natural world is usually composed of sound that arrives from a plurality of directions and is delayed from several hundred milliseconds to several seconds. If such an indirect sound signal is generated by the superimposition calculation of the acoustic transfer function as described above, the calculation amount becomes enormous, and it becomes unrealistic particularly in the field of video game machines and the like that require real-time calculation. End up.
[0040]
Therefore, conventionally, as a technique for effectively lowering the binaural correlation while using a smaller amount of calculation, a technique using a small number of indirect sounds reaching from the listener side has been proposed. However, even in this method, in the field of video game machines and the like, the load is still high, and the generation of a lower load indirect acoustic signal has been demanded.
[0041]
Here, as mentioned above, the indirect sound mainly focuses on the physical function of reducing the binaural correlation, and the contribution to the out-of-head localization effect of the detailed structure of the acoustic transfer function used for the indirect sound acoustic component is I guess it was small. Here, when the trial listening and the experiment for simplifying the structure of the side indirect sound as much as possible were performed, the acoustic transfer functions from the left and right virtual sound sources for the left and right ears of the virtual listener are, for example, It has been found that the sound transfer function from the right and left virtual sound sources on the opposite side of the time axis impulse can obtain a significant out-of-head localization effect even if the time axis rectangular wave is substituted, for example.
[0042]
Returning to FIG. 1, the left indirect sound sound signal generation means 5 that receives the sound signal from the delay means 3 that delays the monaural sound signal from the monaural sound signal source 1 is connected to the listener side (here, the left side). ) To generate an indirect sound signal. However, while the conventional method as described above is a high-load high-order superimposition process using an acoustic transfer function, the left indirect sound signal generating means 5 proposed in the present invention is a virtual listener's left ear. The acoustic transmission characteristics up to and including the time axis impulse are approximated, and the acoustic transmission characteristics up to the right ear of the virtual listener are approximated using, for example, the time axis rectangular wave and the amount of computation is low. Similarly, the right-side indirect sound acoustic signal generation means 6 approximates the sound transfer characteristic up to the virtual ear's right ear with a time axis impulse, and uses the sound transfer characteristic up to the virtual listener's left ear as, for example, time The amount of calculation is low and the load is approximated by an axial rectangular wave.
[0043]
FIG. 2 shows more specifically the delay means 3 and 4 and the left and right indirect sound signal generation means 5 and 6 in FIG. Hereinafter, FIG. 2 will be described. DL denotes a delay device having a delay time equal to one sample period. The monaural sound signal from the monaural sound signal source 1 is delayed by the delay means 3 composed of a predetermined number of delay devices DL connected in cascade, and then supplied to the left indirect sound sound signal generation means 5.
[0044]
The left indirect sound generating means 5 obtains the left ear indirect sound acoustic signal 5L from the delayed monaural acoustic signal from the delay means 3 through a coefficient multiplier (attenuating means) having an amplitude weighting coefficient α1. Further, the delayed monaural sound signal from the delay means 3 is supplied to the digital filter 5F through the delay means 5D constituted by a predetermined number of delay devices DL connected in cascade. This filter 5F has one tap on the output side of the delay means 5D in the delay means composed of one tap on the output side of the delay means 5D and a predetermined number of delay devices DL cascaded to the delay means 5D. (R-2) and (r-1) total taps are extracted, and each tap is passed through a coefficient multiplier with amplitude weighting coefficients α2, α3,..., Α (r−1), αr, The signal is supplied to the adder 5S, added, and output as an indirect sound signal 5R for the right ear. That is, the digital filter 5F constitutes an FIR (Finit Impulse Response) filter.
[0045]
Here, the characteristic superimposed on the left ear indirect sound acoustic signal 5L of the left indirect sound acoustic signal generating means 5 is a time-axis impulse. When the values of the amplitude weighting coefficients α2,..., Α (r−1), αr in the filter 5F are all equal, the characteristic superimposed on the right ear acoustic signal of the left indirect sound acoustic signal generating means 5 is a time axis rectangular wave. Become. Furthermore, the following equation 2
[0046]
[Expression 2]
Figure 0004427915
[0047]
By setting the relationship as described above, the low frequency amplitude characteristics superimposed on the left ear indirect sound acoustic signal 5L and the right ear indirect sound acoustic signal 5R of the left indirect sound acoustic signal generating means 5 become substantially equal, The envelope of the amplitude characteristic of the indirect sound acoustic signal 5R for the right ear over the high frequency is a characteristic that attenuates in the high frequency direction with respect to that of the indirect sound acoustic signal 5L for the left ear. Such a relative amplitude characteristic is macroscopically similar to that of an acoustic transfer function that arrives from the left side of the virtual listener.
[0048]
Also, by setting the relative position (time delay) of the left and right output waveforms on the time axis of the left indirect sound signal generation means 5 to be similar to that of the acoustic transfer function that arrives from the left side of the virtual listener, The phase characteristic can be made macroscopically similar to that of the acoustic transfer function that arrives from the left side of the virtual listener. That is, the sound wave that arrives from the left side of the virtual listener first reaches the left ear, and then reaches the right ear with a slight delay for the time that the sound wave propagates through the distance between the left and right ears. At that time, due to the diffraction effect by the listener's head, etc., the sound wave reaching the right ear arrives with the mid-high range relatively attenuated.
[0049]
Thus, the output acoustic signal of the left indirect sound acoustic signal generating means 5 can be treated as a simplified acoustic transfer function that arrives from the left side of the virtual listener.
[0050]
Next, with reference to FIG. 5, the principle of the left indirect sound acoustic signal generation means 5 will be described. As shown in FIG. 5A, a virtual sound source IS is provided on the left side of the listener LN, and the left ear E of the listener LN is provided from the virtual sound source IS.LAnd right ear ERThe acoustic transfer function (impulse response) up toL, HRAnd
[0051]
This acoustic transfer function (impulse response) HL, HR5B and 5C show examples of the time axis waveform indicating the above. In addition, t in FIG. 5B and C shows time. Right ear E of listener LN from virtual sound source ISRThe sound wave reaching the left ear ELCompared to the sound wave that reaches, the wave arrives with a delay of Δt (FIG. 5C). Also, the characteristics obtained by converting the time characteristics of FIGS. 5B and 5C to the frequency axis are shown as (1) and (2) in FIG. 5D, respectively. As apparent from FIGS. 5B, 5C and 5D, the right ear E of the listener LN from the virtual sound source IS.RSound waves that reach the left ear E of the listener LN from the virtual sound source ISLIt can be seen that the mid-high sound component is attenuated by the presence of the head of the listener LN as compared to the sound wave that reaches.
[0052]
5B and 5C, the time axis waveform showing the acoustic transfer function (impulse response) obtained by simplifying the time axis waveform showing the impulse response shown in FIGS.L', HRShown as'. 5E acoustic transfer function (impulse response) HL′ Is an impulse having an amplitude α1, and the acoustic transfer function (impulse response) H in FIG.R′ Is the acoustic transfer function (impulse response) H of FIG.LThe sum of the amplitude values at each sampling time is set to α1 with a rectangular wave response delayed by Δt from ′. When the rectangular wave response of FIG. 5F is composed of, for example, three samples as indicated by a circle in FIG. 5G, each sample value is α1 / 3.
[0053]
When the time-axis waveform showing the acoustic transfer function (impulse response) in FIGS. 5E and 5F is converted into a frequency-axis waveform, the waveforms are as shown in (3) and (4) in FIG. (4) indicates a low-pass filter characteristic (characteristic for simply attenuating the mid-high range). Further, since the integral values of the responses (3) and (4) in FIG. 5H, that is, the sum of the amplitude values of the respective sample points are the same, the frequency characteristics in the bass range are substantially the same.
[0054]
Again, referring back to FIG. After the monaural sound signal from the monaural sound signal source 1 is delayed by cascaded delay means 3 and 4 each comprising a predetermined number of delay devices DL connected in cascade, the right indirect sound and sound signal generating means is generated. 6 is supplied. The delay means 4 includes the delay means 5D and the delay elements DL constituting the filter 5F and the other delay elements 5D.
[0055]
In the right-side indirect sound signal generating means 6, the monaural sound signal delayed by the delay means 3 and 4, that is, the delayed monaural sound signal is passed through a coefficient multiplier having an amplitude weighting coefficient β1, thereby allowing the right-ear sound signal. The signal 6R is obtained. Further, the delayed monaural sound signal from the delay means 4 is supplied to the digital filter 6F through the delay means 6D composed of a predetermined number of delay devices DL connected in cascade. This filter 6F has one tap on the output side of the delay means 6D in the delay means composed of one tap on the output side of the delay means 6D and a predetermined number of delay devices DL cascaded to the delay means 6D. (K-2) and (k-1) total taps are taken out, and each tap is passed through a coefficient multiplier with amplitude weighting coefficients β2, β3,..., Β (k−1), βk, The signal is supplied to the adder 6S, added, and output as the left ear acoustic signal 6L. This digital filter 6F also constitutes an FIR filter in the same manner as the digital filter 5F described above.
[0056]
Here, the characteristic superimposed on the right ear acoustic signal 6R of the right indirect sound acoustic signal generating means 6 is a time axis impulse. When the values of the amplitude weighting coefficients β2,..., Β (k−1), βk in the filter 6F are all equal, the characteristic superimposed on the right ear acoustic signal of the left indirect sound acoustic signal generating means 5 is a time axis rectangular wave. Become. Furthermore, the following mathematical formula 3
[0057]
[Equation 3]
Figure 0004427915
[0058]
By setting the relationship as follows, the low-frequency amplitude characteristics superimposed on the right-ear acoustic signal 6R and the left-ear acoustic signal 6L of the right indirect acoustic signal generation means 6 are substantially equal, and from the middle range to the high range. The envelope of the amplitude characteristic superimposed on the left-ear acoustic signal 6L is a characteristic that attenuates in the high frequency direction relative to that of the right-ear acoustic signal 6R. Such relative amplitude characteristics are macroscopically similar to those of an acoustic transfer function that arrives from the left side of the virtual listener.
[0059]
Also, by setting the relative position (time delay) of the left and right output waveforms on the time axis of the right indirect sound signal generation means 6 to be similar to that of the acoustic transfer function that arrives from the right side of the virtual listener, The phase characteristics can be made macroscopically similar to that of the acoustic transfer function that arrives from the right side of the virtual listener.
[0060]
Thus, the output acoustic signal of the right indirect sound acoustic signal generating means 6 can be handled as a simplified acoustic transfer function that arrives from the right side of the virtual listener.
[0061]
In FIG. 2, the indirect sound acoustic signal that arrives from the left side of the virtual listener reaches the ear of the virtual listener earlier in time than the indirect sound that arrives from the right side of the virtual listener. However, this may be reversed.
[0062]
Further, it has been experimentally confirmed that even if only one of the left and right indirect sound acoustic signal generating means 5 and 6 is used, the out-of-head localization feeling and the depth feeling of the sound image are sufficiently improved. ing.
[0063]
In the left and right indirect sound generating means 5 and 6, the transfer function superimposed to generate the waveform that reaches the ear opposite to the virtual sound source is not limited to the time-axis rectangular wave, It is also effective to replace the waveform with a short time waveform while satisfying the condition of the equation. That is, α2, ΑThree, .................., αrNeed not be set to equal values. Similarly, β2, ΒThree, ………………, βkIt is not always necessary to set equal values for.
[0064]
6A, 6B, and 6C show modifications of the time axis waveform shown in FIG. 5G. The circles in FIGS. 6A, 6B and 6C indicate sampling points. Hereinafter, these modifications will be described.
[0065]
The time axis waveform shown in FIG. 6A is an example in which a second-order or third-order polynomial is applied, and FIG. 6B is an example in which a fourth-order or fifth-order polynomial is applied. Including the rectangular wave shown in FIG. 5G, these time-axis waveforms (transfer functions) are superimposed on the input signal, which is a weighting coefficient sequence used for the moving average calculation, and the high frequency range is attenuated. Although the output symbol is obtained, the attenuation characteristic in the high frequency range changes depending on the time axis waveform.
[0066]
In the case of the rectangular wave shown in FIG. 5G, for example, in signal processing using a DSP (digital signal processor), only one memory is required to store coefficient data, and the number of sampling points is two. If the power, for example, is 4, then each weighting factor value is α1/ 4, which is preferable because it can be obtained by a bit shift operation and the load of the arithmetic processing is further reduced.
[0067]
The time axis waveform shown in FIG. 6C is an example of imitating an RC filter by applying an exponential function. In this case, the number of sampling points may be at most several, but when implemented by an IIR filter described later, there is an advantage that the coefficient data memory and the amount of performance processing can be very small.
[0068]
It is also effective to use an approximate substitution with a filter or equalizer having a characteristic of simply attenuating the amplitude of the mid-high range instead of the FIR filter whose transfer function is a time-axis rectangular wave. FIG. 3 specifically shows the delay means 3 and 4 and the left and right indirect sound acoustic signal generation means 5 and 6 in FIG. 1 in this case.
[0069]
Hereinafter, FIG. 3 will be described. The basic configuration is the same as that in FIG. 2, and the difference is the right ear acoustic signal generation unit of the left indirect sound acoustic signal generation unit 5 and the left ear acoustic signal generation unit of the right indirect sound acoustic signal generation unit 6. That is, the left-side indirect sound acoustic signal generation means 5 extracts one tap from a position several taps to several tens of taps behind the tap position extracted as the left ear acoustic signal, and the amplitude weighting coefficient α2, The signal processed by the equalizer 5E, which is a characteristic that simply attenuates the amplitude of the mid-high range (see characteristic curve (4) in FIG. 5H), is output as an indirect sound signal 5R for the right ear. The equalizer 5E is composed of, for example, an LPF (Low Pass Filter) composed of a low-order IIR (Infinite Impulse Response) filter.
[0070]
The right indirect sound and acoustic signal generation means 6 extracts one tap from a position several taps to several tens of taps behind the tap position extracted as the right ear indirect sound and acoustic signal 6R, and an amplitude weighting coefficient β2Then, the signal processed by the equalizer 6E, which has the characteristic of simply attenuating the mid-high range amplitude, is output as an indirect sound signal 6L for the left ear. The equalizer 6E is configured by an LPF configured by a low-order IIR filter, for example.
[0071]
In the embodiment of the present invention, the configuration is based on the digital signal processing.2, Β2If a D / A converter is provided in front of the coefficient multipliers and equalizers 5E and 6E multiplied by, and these are taken out as analog signals, these may be constituted by a simple analog low-pass filter such as a CR filter.
[0072]
In the left and right indirect sound generation means 5 and 6, the low-frequency amplitude characteristics superimposed on the right ear indirect sound acoustic signal 5R and the left ear indirect sound acoustic signal 6L have the left ear indirect sound acoustic signal 5L and the right ear indirect sound acoustic signal 5L, respectively. The configurations of the equalizers 5E and 6E and the coefficients α2 and β2 of the coefficient multiplier are set to α so that the low-frequency amplitude characteristic superimposed on the indirect sound acoustic signal 6R is substantially equal.1And β1It is desirable to set so that they are substantially equal to each other.
[0073]
FIG. 4 shows the adding means 7 in FIG. 1 more specifically. Hereinafter, FIG. 4 will be described.
[0074]
The adding means 7 includes a left ear acoustic signal adder 7SL and a right ear acoustic signal adder 7SR. Then, the left ear acoustic signal 2L {SL [n]} from the direct sound acoustic signal generation means 2, the left ear indirect sound acoustic signal 5L and the right indirect sound acoustic signal generation means from the left indirect sound acoustic signal generation means 5. 6 is supplied to and added to the left ear acoustic signal adder 7SL, and the left ear addition signal 7L is supplied to the left ear speaker of the headphone 8. Also, the right ear sound signal 2R {SR [n]} from the direct sound sound signal generation means 2, the right ear indirect sound sound signal 5R and the right indirect sound sound signal generation means from the left indirect sound sound signal generation means 5. 6 is supplied to and added to the right ear acoustic signal adder 7SR, and the right ear addition signal 7R is supplied to the right ear speaker of the headphone 8.
[0075]
In this way, the listener can enjoy the sense of out-of-head localization of the sound image by listening to headphones.
[0076]
In the above-described embodiment, each signal processing block has been described as a circuit. However, it goes without saying that signal processing may be performed as software such as a microcomputer or DSP instead.
[0077]
Furthermore, it is provided as a recording medium (optical disk, magneto-optical disk, magnetic disk, magnetic tape, semiconductor memory, etc.) in which an indirect sound acoustic signal generation method or a virtual sound image localization processing method including the method is recorded as a program step. Is also possible. For example, several types of indirect sound signal generation parameters (delay time, high-frequency attenuation characteristics, etc.) are stored in the recording medium together with this processing program, and can be selected according to the listener's preference, or the producer of the reproduction signal source It is possible to switch appropriately according to the intention of the side.
[0078]
These programs may be recorded on a game software recording medium provided for a video game machine, or may be recorded and supplied on a separate recording medium.
[0079]
The delay time described above corresponds to that given by the delay means 3 and 4 in FIG. The treble attenuation characteristics described above correspond to the time-axis transmission characteristics or frequency characteristics given by the left and right indirect sound acoustic signal generating means 5 and 6 in FIG. On the other hand, the localization feeling and the depth feeling of the sound image can be changed by changing them relatively or changing these parameters. Even in this case, since the indirect sound and acoustic signal can be obtained with a small amount of signal processing, the load on the signal processing of the microcomputer and the like is small and the amount of information as a parameter is also small. It does not occupy a large recording capacity on the medium.
[0080]
The headphones described above are not limited to those that are attached to the listener's head, but may be earphones that are attached directly to the listener's pinna or ear canal. An arranged speaker device may be used.
[0081]
【The invention's effect】
According to the present invention, it is possible to obtain a sound image localization processing device with a compact signal processing amount..
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating an example of a headphone supply acoustic signal generation apparatus (headphone apparatus) to which a virtual sound image localization processing apparatus according to an embodiment of the present invention is applied.
2 is a specific configuration example of left and right indirect sound acoustic signal generation means of an example of a headphone supply acoustic signal generation device (headphone device) to which the virtual sound localization processing device of the embodiment of the present invention of FIG. 1 is applied; FIG.
3 is another specific example of the left and right indirect sound sound signal generating means of the headphone supply sound signal generating device (headphone device) to which the virtual sound localization processing device of the embodiment of the present invention of FIG. 1 is applied. It is a block diagram which shows a structural example.
4 is a block diagram showing a specific configuration example of an adding unit of an example of a headphone supply acoustic signal generation device (headphone device) to which the virtual sound image localization processing device of the embodiment of the present invention of FIG. 1 is applied. FIG.
FIG. 5 is a diagram for explaining the principle of right-side indirect sound acoustic signal generation means.
FIG. 6 is a waveform diagram showing another example of a time axis waveform.
[Explanation of symbols]
1 monophonic sound signal source, 2 direct sound sound signal generating means, 3 delay means, 4 delay means, 5 left indirect sound sound signal generating means, 6 right indirect sound sound signal generating means, 7 adding means, 7SL, 7SR adder, 8 Headphones.

Claims (1)

モノラル音響信号源が入力され、仮想聴取者に対する直接音音響信号となる音声信号部分を生成する処理を行う直接音音響信号生成部と、  A direct sound signal generation unit that receives a monaural sound signal source and performs a process of generating a sound signal part that is a direct sound signal for a virtual listener;
前記モノラル音響信号源が入力され、1サンプル周期に等しい遅延時間を有する遅延器が一以上直列接続される第一遅延部と、  A first delay unit to which the monaural acoustic signal source is input and one or more delay units having a delay time equal to one sample period are connected in series;
前記第一遅延部の出力信号が入力され、前記遅延器が一以上直列接続される第二遅延部と、  An output signal of the first delay unit, and a second delay unit to which the one or more delay units are connected in series;
前記第二遅延部の出力信号が入力され、複数直列接続される前記遅延器の出力信号を全て等しいタップ係数にて加算するFIR型の第一デジタルフィルタと、  An FIR type first digital filter that receives the output signal of the second delay unit and adds a plurality of output signals of the delay devices connected in series with equal tap coefficients;
前記第一デジタルフィルタの出力信号が入力され、前記遅延器が一以上直列接続される第三遅延部と、  A third delay unit to which an output signal of the first digital filter is input, and one or more delay devices are connected in series;
前記第三遅延部の出力信号が入力され、複数直列接続される前記遅延器の出力信号を全て等しいタップ係数にて加算するFIR型の第二デジタルフィルタと、  An FIR type second digital filter that receives the output signal of the third delay section and adds all the output signals of the delay devices connected in series with equal tap coefficients;
前記直接音音響信号生成部の出力信号と、前記第二遅延部の入力信号と、前記第二デジタルフィルタの出力信号とを加算してステレオ出力の一方のチャンネルに出力すると共に、前記直接音音響信号生成部の出力信号と、前記第三遅延部の入力信号と、前記第一デジタルフィルタの出力信号とを加算してステレオ出力の他方のチャンネルに出力する加算部と  The output signal of the direct sound / acoustic signal generation unit, the input signal of the second delay unit, and the output signal of the second digital filter are added and output to one channel of stereo output, and the direct sound / acoustic signal is output. An adder for adding the output signal of the signal generation unit, the input signal of the third delay unit, and the output signal of the first digital filter to output to the other channel of the stereo output;
を具備する仮想音像定位処理装置。A virtual sound localization processing apparatus.
JP2001054743A 2001-02-28 2001-02-28 Virtual sound image localization processor Expired - Fee Related JP4427915B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001054743A JP4427915B2 (en) 2001-02-28 2001-02-28 Virtual sound image localization processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001054743A JP4427915B2 (en) 2001-02-28 2001-02-28 Virtual sound image localization processor

Publications (2)

Publication Number Publication Date
JP2002262400A JP2002262400A (en) 2002-09-13
JP4427915B2 true JP4427915B2 (en) 2010-03-10

Family

ID=18915029

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001054743A Expired - Fee Related JP4427915B2 (en) 2001-02-28 2001-02-28 Virtual sound image localization processor

Country Status (1)

Country Link
JP (1) JP4427915B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5114981B2 (en) * 2007-03-15 2013-01-09 沖電気工業株式会社 Sound image localization processing apparatus, method and program
JP2009105565A (en) * 2007-10-22 2009-05-14 Onkyo Corp Virtual sound image localization processor and virtual sound image localization processing method
JP5526009B2 (en) * 2010-12-02 2014-06-18 富士フイルム株式会社 Ultrasonic diagnostic equipment
JP6102179B2 (en) * 2012-08-23 2017-03-29 ソニー株式会社 Audio processing apparatus and method, and program

Also Published As

Publication number Publication date
JP2002262400A (en) 2002-09-13

Similar Documents

Publication Publication Date Title
JP4477081B2 (en) Using filter effects in stereo headphone devices to enhance the spatial spread of the sound source around the listener
JP4656833B2 (en) Electroacoustic conversion using low frequency reinforcement devices
JP4732807B2 (en) Audio signal processing
JP5540581B2 (en) Audio signal processing apparatus and audio signal processing method
KR101124382B1 (en) Method and apparatus for generating a stereo signal with enhanced perceptual quality
CA2430403C (en) Sound image control system
KR100636252B1 (en) Method and apparatus for spatial stereo sound
JP2012120219A (en) Improved head related transfer functions for panned stereo audio content
JP5611970B2 (en) Converter and method for converting audio signals
JPH1051900A (en) Table lookup system stereo reproducing device and its signal processing method
US8817997B2 (en) Stereophonic sound output apparatus and early reflection generation method thereof
JP5038145B2 (en) Localization control apparatus, localization control method, localization control program, and computer-readable recording medium
JPH10136497A (en) Sound image localizing device
JP4427915B2 (en) Virtual sound image localization processor
JP2005167381A (en) Digital signal processor, digital signal processing method, and headphone device
JP5651813B1 (en) Audio signal processing apparatus and audio signal processing method
JP2007336080A (en) Sound compensation device
JPH06269097A (en) Acoustic equipment
Pihlajamäki Multi-resolution short-time fourier transform implementation of directional audio coding
JP4357218B2 (en) Headphone playback method and apparatus
WO2022145154A1 (en) Stereophonic processing device, stereophonic processing method, and stereophonic processing program
JP2007202020A (en) Audio signal processing device, audio signal processing method, and program
JP2006005414A (en) Pseudo stereo signal generating apparatus and pseudo stereo signal generating program
TWI262738B (en) Expansion method of multi-channel panoramic audio effect
JPH06261399A (en) Sound image localization controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090915

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121225

Year of fee payment: 3

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131225

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees