JP6770698B2 - スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置 - Google Patents

スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置 Download PDF

Info

Publication number
JP6770698B2
JP6770698B2 JP2016063390A JP2016063390A JP6770698B2 JP 6770698 B2 JP6770698 B2 JP 6770698B2 JP 2016063390 A JP2016063390 A JP 2016063390A JP 2016063390 A JP2016063390 A JP 2016063390A JP 6770698 B2 JP6770698 B2 JP 6770698B2
Authority
JP
Japan
Prior art keywords
speaker
sound
sound source
listener
speakers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016063390A
Other languages
English (en)
Other versions
JP2017183779A (ja
Inventor
ヴィジェガス ジュリアン
ヴィジェガス ジュリアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Aizu
Original Assignee
University of Aizu
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Aizu filed Critical University of Aizu
Priority to JP2016063390A priority Critical patent/JP6770698B2/ja
Publication of JP2017183779A publication Critical patent/JP2017183779A/ja
Application granted granted Critical
Publication of JP6770698B2 publication Critical patent/JP6770698B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereophonic System (AREA)

Description

本発明は、スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置に関する。
サウンドシステムは、家庭内において普及し、ビデオ再生、ゲーム、音楽鑑賞等を含む娯楽目的でシームレスに用いられている。
そうしたシステムで最も一般的なものは、国際電気通信連合-無線通信部門ITU-R BS775-3(非特許文献1)推奨規格で提示されている5.1チャネル(5.1Ch)である。端数(.1)は、当該システムで使用されるサブウーハの数を示す。前記ITU推奨規格によれば、スピーカは、図1に示す様に、受聴者100を囲んで0°,±30°,±110°(±10°)の角度位置に置かれる。この図において、スピーカは、伝統的に、センター(C),レフト(L),ライト(R),サラウンド-レフト(SL),及びサラウンド-ライト(SR)と称される。
これらのシステムの主たる目的は、音で受聴者100を囲むことである。例えば、フロントスピーカで会話を提示し、余興のために左右スピーカを用い、音楽及びバックグラウンド音等のためサラウンドチャネルを用いる(非特許文献2)。
音の伝搬の性質により、図1に示す様な単一層のシステムを用いると、特にスピーカ間の領域では、仮想音を詳細に位置づけること(同じ耳の高さレベルで、受聴者の周囲の任意の方向に位置づけること)は難しい。音を上下させること(耳のレベルの上下方向に音を位置づけること)は、尚さら難しくなる(非特許文献3)。
これらの不都合を解決するいくつかの解決策が提案されている。これらの可能性の網羅的な検討は、本願発明の範囲外であるが、いくつかの重要な技術を下記に説明する。
頭部伝達関数(HRTF:Head Related transfer Functions)とモノラル音との畳み込み、及びそれぞれのスピーカにおける反対側の耳の影響を追加的に除去する技術(トランスオーラル技術)(非特許文献4,5,6); ルーム内ルームと呼ばれる技術において、先の効果(いくつかのスピーカを通して再生される音源を最も早くスピーカで聴く様に結びつける傾向)を利用するスピーカ中の遅延の操作(非特許文献7); スピーカの数の増加(非特許文献8,9); 記録チャネルと再生装置の数の分離によるサウンドフィールドの記録と再生(アンビソニック[Ambisonic]:高忠実再生技術)(非特許文献10);及び いくつかのスピーカに渉ってのステレオパンニング技術の拡張(Vector-Based Amplitude Panning−VBAP)(非特許文献11)。
トランスオーラル技術は、受聴者の頭の既知の位置(場所及び方向)に依存している。受聴者の頭の既知の位置は、動画再生及びゲームアプリケーションにおいてかなり影響されるが、音楽再生、仮想現実の応用、他ではそれほど影響されない。その様なケースに対しては、追加の頭追跡システムが必要である。いくつかの受聴者の頭を同時に追跡することは可能であるが、それぞれの受聴者の位置に密着して音場を再生することは非常に難しい作業である。
遅延操作(例えば、ルーム内ルーム、その他)に基づく解決が、複数の受聴者の条件に対してはより適切であるが、これら解決策は、音像,特に高さ方向のシミュレートに対して正確さを欠くものである(非特許文献12)。
スピーカの数を増やすと、複雑な配置となり、そして幾分大きなスペースを必要とし、そのため、しばしば映画で使用される。しかし、それは、普通の家庭では実際的でなく、(あるいは、少なくとも好まれない)。
アンビソニック技術は、(ITUが推奨する様な)奇数の数のスピーカを備える配置には、効果的でない。システムのパフォーマンスを向上するには、ITU推奨ではない特徴で組みにしてスピーカを互いに対向させることが望ましい。
図1に示すスピーカ配置は、前方に偏重されるので、VBAPベースの解法は、音像が安定せず、曖昧になる後方や側方よりも,受聴者の前方において音像をより正確にする。
特開2008−11342号公報 特開2015−76797号公報 特開2015−118004号公報 特開2015−126268号公報 特許第5472613号公報
Int. Telecommunication Union, Recommendation ITU-R BS.775-3, Multichannel Stereophonic Sound System with and without Accompanying Picture, Aug. 2012. D. R. Begault, 3-D Sound for Virtual Reality and Multimedia. National Aeronautics and Space Administration, 2000. W. G. Gardner, 3-D audio using loudspeakers. Springer Science & Business Media, 1998. M. R. Schroeder, "Improved quasi-stereophony and "colorless" artificial reverberation," J. Acoust. Soc. Am., vol. 33, pp. 1061-106, Aug. 1961. M. Ikeda, S. Kim, Y. Ono, and A. Takahashi, "Investigating listeners’ localization of virtually elevated sound sources," in Proc. 40 Int. Audio Eng. Soc. Conf.: Spatial Audio: Sense the Sound of Space, 2010. K. Tanno, 3D Sound System with Horizontally Arranged Loudspeakers. Ph.D. thesis, University of Aizu, 2014. F. R. Moore, "A general model for spatial processing of sounds," Computer Music J., vol. 7, no. 3, pp. 6-15, 1982. K. Hamasaki, "22.2 multichannel sound system for ultra high-definition TV," tech. rep., NHK Science and Technical Research Laboratories, Tokyo, 2007. A. J. Berkhout, D. de Vries, and P. Vogel, "Acoustic control by wave field synthesis," J. Acoust. Soc. Am., vol. 93, pp. 2764-2778, 1993. D. G. Malham and A. Myatt, "3-d sound spatialization using ambisonic techniques," Computer Music J., vol. 19, no. 4, pp. 58-70, 1995. V. Pulkki, "Virtual Sound Source Positioning Using Vector Base Amplitude Panning," J. Audio Eng. Soc., vol. 45, no. 6, pp. 456-466, 1997. U. Zoelzer, ed., DAFX - Digital Audio Effects. New York, NY, USA: John Wiley & Sons, 2002. T. Qu, Z. Xiao, M. Gong, Y. Huang, X. Li, and X. Wu, "Distance-Dependent Head-Related Transfer Functions Measured With High Spatial Resolution Using a Spark Gap," IEEE Trans. on Audio, Speech & Language Processing, vol. 17, no. 6, pp. 1124-1132, 2009. J. Estrella, "On the extraction of interaural time differences from binaural room impulse responses," Master’s thesis, Technische Universitaet Berlin, 2010. V. Valimaki and T. I. Laakso, "Principles of fractional delay filters," in Proc. 2000 IEEE Int. Conf. on Acoustics, Speech, and Signal Processing, ICASSP’00., vol. 6, pp. 3870-3873,2000. J. Smith and N. Lee, Computational Acoustic Modeling with Digital Delay. Center for Computer Research in Music and Acoustics, Stanford University, 2008. Available [Jan. 2015] from https://ccrma.stanford.edu/realsimple/Delay/.
上記した従来技術に照らし、本発明の一つの目的は、所望位置のエネルギープロファイルを近似する信号のエネルギーの操作に基づく音の定位化の代替技術を提供し、受聴者の頭の位置(配置及び方向)が定まらない同席する複数の受聴者に対するスピーカベースの定位化を提案することにある。
上記本発明の課題を解決する第一の側面として、スピーカから再生される音の定位化方法は、第一の側面として、情報処理装置により、所望の音源を更新するステップと、前記所望の音源に対し、周囲のスピーカを検索するステップと、前記所望の音源と前記周囲のスピーカのHRTF(頭部伝達関数)を検索するステップと、前記検索されたHRTFからPSD(パワースペクトル密度)を計算するステップと、前記スピーカの配置の中心に位置する受聴者のそれぞれ側の耳に対して、前記所望の音源のPSDと前記周囲のスピーカの平均PSDとの比を計算するステップと、前記比を用いて最小位相フィルタを構成するステップと、前記最小位相フィルタで前記所望の音源の畳み込みを行うステップと、遅延とITD(両耳間時間差)を計算する工程と、前記遅延を所望のITDに近似するように前記遅延を調整するステップと、前記指定された周囲のスピーカから音を再生するステップを行うことを特徴とする。
上記本発明の課題を解決する第一の側面において、前記HRTFを検索するステップは、前記所望の音源と前記周囲のスピーカに対応するHRIR(頭部インパルス応答)を、複数の音源に対するそれぞれのHRIR(頭部インパルス応答)を保持するデータベースから検索し、前記周囲のスピーカの位置と前記所望の音源の位置に対応して、受聴者に対する左右チャネル間のITD(両耳間時間差)を計算し、前記検索されたHRIRからHRTFを計算することを特徴とする。
上記本発明の課題を解決する第一の側面において、スピーカが、任意の配置、例えばITU-R BS775-3の推奨に従う5.1 チャネルオーディオシステムにおいて設けられ、前記受聴者は、前記スピーカで囲まれる中央に位置することを特徴とする。
上記本発明の課題を解決する第二の側面として、スピーカから再生される音の定位化のための音像定位化装置であって、マルチエージェントシステムと、定位化ユニットと、レンダリングユニットとして機能するコンピュータと、n個のスピーカと,複数の音源に対するHRIRを格納するデータベースを有する。前記マルチエージェントシステムは、異なる音源位置のトラックを維持し、これらの音源を前記定位化ユニットに対して更新する。定位化ユニットは、前記所望の音源を囲うスピーカを求め、所望の音源ち、前記求めたスピーカの対応するHRTF(頭部伝達関数)を検索し、検索したHRTFから中央にある受聴者の左右耳のそれぞれに対するPSDを計算し、所望のPSDと前記スピーカの平均PSDとの比を計算し、前記比を用いて最小位相フィルタを構成し、前記最小位相フィルタで前記所望の音源の畳み込みを行い、遅延とITD(両耳間時間差)を計算し、前記遅延を所望のITDに近似するように前記遅延を調整する。前記レンダリングユニットは、前記指定された所望の音源を囲うスピーカから音を再生する。
ITU推奨による5.1Chオーディオシステムのスピーカ配置を説明する図である。 本発明に従う、スピーカから再生される音の定位化方法を実行するためのオーディオシステムの概念構成図である。 本発明に従う、スピーカから再生される音の定位化方法の一実施例を示すフロー図である。 実施例として、5.1chオーディオシステムにおける仮想音像の位置を示す図である。 スピーカSP1用に取得された頭部伝達関数HRTFを示す図である。 スピーカSP2用に取得された頭部伝達関数HRTFを示す図である。 頭部伝達関数(HRTF)からの平均PSDを示す図である。 スピーカから再生される音の遅延による所望ITDの近似を示す図である。 リアルスピーカ(real loudspeakers), アンビソニックス(Ambisonics), 及び本発明による平均角度認識における誤りの大きさの測定結果間の比較を示す図である。
以下、本発明の実施例を添付の図面に従い説明する。この実施例は発明の理解のために用意されており、発明の保護の範囲は、これら実施例に限定されるものではない。
図2は、本発明に従うスピーカから再生される音の定位化方法を実行するためのオーディオシステムの概念構成図である。一般に、マルチエージェントシステム1,定位化ユニット2,及びレンダリングユニット3の全ては、コンピュータベースのシステム(マイクロプロセッサ、マイクロコントローラ、その他この実行のために使用可能である。)により実行される。
マルチエージェントシステム1は、同時的且つ一緒に所在する使用者(即ち、受聴者)に対して、m個の異なる移動エージェントの位置を知るアプリケーションツールである。マルチエージェントシステム1は、m個の移動エージェントの位置情報と、対応するm個のモノラル音ストリームを出力する。
移動エージェントとは、仮想現実空間において移動操作され、例えば、仮想現実のゲームにおいて、音を発するスプライトを意味する。あるいは、映画において、移動し、音を発するキャラクタを意味する。さらに、オーディオシステムにおいては、移動エージェントは音源となる。
したがって、その様なスプライトやキャラクタの位置する場所から対応して発せられる音の位置を正確に受聴者が認識出来ることが必要である。
このため、マルチエージェントシステム1は、ゲーム、映画、楽曲,その他の進行に同期して、m個の移動エージェントの位置情報とm個のモノラル音ストリームを出力する。
定位化ユニット2は、マルチエージェントシステム1から出力されるm個のエージェントの位置情報と、m個のモノラル音ストリームを受信する。そして、オーディオシステムに配置されるn個のスピーカからn個のモノラル音ストリームを生成する。次いで、出力されるn個のモノラル音ストリームは、レンダリングユニット3に入力される。
定位化ユニット2における処理は、後に説明する図3に示すフローチャートの処理に対応してアプリケーションプログラムにより実行される。
図2において、定位化ユニット2は、CPU(あるいはDSP)20により、ROM/RAM/HDDのような記憶装置21に格納されている前記アプリケーションプログラムを実行することにより、図3に示すフローチャートの処理ステップを実行する。定位化ユニット2には、後に詳細に説明するように、HRIRデータベース22が接続される。
図3は、本発明に従うスピーカから再生される音の定位化方法の一実施例を示すフローチャートである。なお、このフローチャートは、上記したm個の移動エージェントのそれぞれに対して実行される。
図3に示すフローチャートの各ステップは、原則DSPブロック毎に実行される。サンプリングレートsr=44.1kHzで64オーディオサンプルのDSPブロックを有するシステムにおいて、これは、1.45ms毎を意味する。マルチエージェントシステム1から出力される信号は、モノラル信号である。
ここで、図4に示す5.1chオーディオシステムにおける仮想音像位置を想定する。図4において、受聴者100を囲んで、中央スピーカC,左右スピーカL, R、及びサラウンド左右スピーカSL, SRが配置されている。中央スピーカCからの方位角θ、高さΦ,及び受聴者100からの距離ρで特定される仮想音像位置D(θ, Φ, ρ)が、定位化の対象である。
所望の位置としてこの仮想音像位置Dに対応する位置情報がマルチエージェントシステム1により更新され,定位化ユニット2に入力される(ステップS1,図3)。この仮想音像位置Dは、音楽レコーディング、映画等において、マルチエージェントシステム1により予めプログラムしておくことができる。
次いで、図2の定位化ユニット2のHRIRデータベース22から頭部インパルス応答(HRIR)データが検索される(ステップS2)。HRIRデータベース22から仮想音像位置Dに対応するHRIRデータが得られない場合は、仮想音像位置Dに隣接する角度位置のHRIRデータを補完処理してHRIRデータを求めることができる。
ここで、HRIRデータベース22に関し、種々の周知の、公開されたデータベースが入手可能である。例えば、MITのMedia Lab Machine Listening Groupにより提供されるデータベース、CIPIC(Center for Image Processing and Integrated Computing University of California)により提供されるデータベース、その他の提供するデータベースがある。
しかし、後の工程で説明するPSD(Power Spectral Density)が事前に計算されている場合は、上記ステップS2は省くことが可能である。
図3に戻り、次の工程として、仮想音像位置Dに最近接な又は仮想音像位置Dを囲うスピーカ位置が特定される(ステップS3)。図4に示す例では、右のスピーカRと右サラウンドスピーカSRが仮想音像位置Dに最も隣接していて、スピーカRとSRの位置が、それぞれL1,L2と特定される。この例では、2つのスピーカが周囲スピーカとして特定されるが、2つ以上の周囲スピーカを使用することが、例えば、非常に高い位置の音源に対してより正確な印象を与える場合がある。
また、5.1chオーディオシステムにおいて、受聴者100のそばに音像が必要な場合は、左右サラウンドスピーカSLとSRが、(音源が受聴者の耳の高さである)スピーカ位置L1、L2に対応する周囲スピーカとして選択される。
ここで、周囲スピーカの選択は、スピーカアレイの実際の配置に依存する。簡単のために、5.1chオーディオシステムを使用するが、発明は、7つのスピーカを有する7.1チャネルシステム,5.1chに4つの高さ方向のスピーカを備える5.1.4チャネルシステムの様な異なるスピーカ位置の構成にも適用することが出来る。
次に、スピーカ位置L1,L2に対する頭部インパルス応答(HRIR)が、データベース22から検索される(ステップS4)。図5は、その位置がL1と特定される選択されたスピーカSP1に対する頭部インパルス応答HRIRを示す。
図5において、(r)は、選択されたスピーカSP1と受聴者100の右耳に対する頭部インパルス応答HRIRを示す。一方(l)は、スピーカSP1と受聴者100の左耳に対する頭部インパルス応答HRIRを示す。
同様に、図6は、特定位置L2の選択されたスピーカSP2に対する頭部インパルス応答HRIRを示す。図6において、(r)は、選択されたスピーカSP2と受聴者100の右耳に対する頭部インパルス応答HRIRを示す。一方、一方(l)は、スピーカSP2と受聴者100の左耳に対する頭部インパルス応答HRIRを示す。
そして、両耳間時間差(ITD)を計算するために、位置L1,L2からそれぞれの耳までの音の遅れ(τ)が、例えば、HRIR チャネルの左(hl)と右(hr)間の相互相関を用いて、式(1)のように計算される(ステップS5)。
Figure 0006770698
なお、両耳間時間差(ITDs)を求める方法はいくつかあり(非特許文献14)、ここで提示した相互相関関係による方法は、説明の目的のためのみの提示である。
スピーカ位置L1, L2 及び仮想音像位置Dに対する頭部伝達インパルス応答HRIRは、フーリエ変換を用いて、頭部伝達関数HRTF(Head-Related Transfer Functions)として表される(ステップS6)。
頭部伝達関数HRTFsは、受聴者100の左右両耳に対応する2つのチャネルを有する。これらの頭部伝達関数HRTFの各々に対して、0からナイキスト周波数までの周波数でのパワー寄与(即ち、離散パワースペクトル密度PSDs(Power Spectral Densities)を計算する(ステップS7)。
所与の頭部伝達関数Hに対して、PSD Pは,次式により計算される。
Figure 0006770698
但し、NはHRTFの長さ、srはサンプリング周波数である。
ついで、スピーカ位置L1, L2に対応するPSDは、左右チャネルに対して次の様に平均値化される(ステップS8)。
Figure 0006770698
但し、P1は、左チャネル、P2は右チャネルである。この工程は、図7に示される。
つぎに、仮想音像位置D(PD)に対応するPSDと前記平均PSDとの比が計算され、修正フィルタを見つける(ステップS9)。
Figure 0006770698
Fの最小位相、Fmが、ヒルベルト変換により計算される(ステップS10)。
Figure 0006770698
最終的に、Fmは、畳込み演算によりモノラル音源xの定位化された音Xを見つけるために、使用される(ステップS11)。
X=Fm*x ・・・ (6)
ついで、スピーカの信号は、両耳の信号到達時間の差を、仮想音像位置DでのITDに近似するように遅延され(ステップS12)、レンダリングユニット3に送られる(ステップS13)。レンダリングユニット3おいて、受信した信号はデジタルアナログ変換器D/A1〜D/Anを通して、アナログ信号に変換され、増幅器AMP1〜AMPnにより増幅され対応するスピーカS1〜Snに出力される。
図8は、スピーカの信号を遅延させることにより望ましいITDに近似することを説明する図である。図8(A)において、受聴者100の左右の耳に届くスピーカSP1の音は、望ましいITDの範囲内にない。しかし、図8(B)に示す様に、遅延時間を調整することによりスピーカSP1,SP2の遅延時間を望ましいITDの範囲内にすることが可能である。
位置Dでシミュレートするために、左耳が4.63msで、右耳が4.67msで、所望のITD=0.04とする最初の信号を受信するように、30°のスピーカの信号を0.07msだけ遅延することができる。48kHz のサンプリング周波数で、遅延線を使用して達成される最小遅延は、単一サンプル(≒0.021ms)の遅延である。;もし,より小さい遅延が要求される場合、分数遅延フィルタ(fractional delay filter;非特許文献15)を使用することが出来る。
所定のスピーカ配置では物理的に遅延の近似が不可能である位置がある。例えば、±90°に位置する(受聴者の左又は右)音源が、ITU 5.1ch システムで達成以上に長いITDである位置である。この様な場合、代わりに、現在のスピーカ配置構成で最大のITDが使用される。
最後に、音の再生前に、前記定位化された音Xの二つのチャネルが対応するスピーカに送られる;本発明において任意の接続が可能であるが、拡張されたwaveフォーマット(https://msdn.microsoft.com/en-us/library/windows/hardware/ff536383(v=vs.85).aspx)において推奨されるチャネル分配が利用できる。例えば、5.1ch システムでは、チャネル1:左、チャンル2:右、チャネル3:センター、チャネル4:低周波、チャネル5:左サラウンド、チャンル6:右サラウンドである。
本発明に使用される処理の理解の容易化のため、不要な処理工程は省略されている。例えば、実際の適用において、HRTF及び実時間の遅延の計算の代わりに、処理要求されたデータベースが直接にHRTFを構成し、最小位相フィルタと両耳間遅延の組み合わせとして表される(非特許文献16)。
本発明者は、図4に示す様に、受聴者100の頭の中心から1.6mのところで、普通の5.1chシステム配置としておかれるBose 101 MMスピーカを用いて無響室で本発明の効果を測定した。受聴者の耳の高さは、スピーカの高さ(128cm)に一致するように調整された。
図9は、角度における絶対誤りの大きさに関する、3つの定位化方法;リアルスピーカ(real), Ambisonic技術(Ambi)と本発明による方法(EqFi)を用いる方位角の判定の比較で示す図である。 図9から本発明で達せられる誤りの大きさは、Ambisonic方法を用いた時の大きさよりも十分に小さいことが理解できる。

Claims (6)

  1. スピーカから再生される音の定位化の方法であって、
    情報処理装置により、
    所望の音源の位置を更新するステップと、
    前記所望の音源の位置に対し、周囲のスピーカを特定するステップと、
    前記特定された周囲のスピーカのHRTF(頭部伝達関数)を検索するステップと、
    前記特定された周囲のスピーカと受聴者の位置のITD(両耳間時間差)を計算するステップと、
    前記検索されたHRTFからPSD(離散パワースペクトル密度)を計算するステップと、
    前記スピーカの配置の中心に位置する受聴者の左右それぞれの耳に対して、前記所望の音源のPSDと前記特定された周囲のスピーカの平均PSDとの比を計算するステップと,
    前記比を用いて最小位相フィルタを計算するステップと、
    前記最小位相フィルタで前記所望の音源の畳み込みを行うステップと、
    前記スピーカの信号の遅延を、両耳の信号到達時間の差が前記所望の音源の位置でITD(両耳間時間差)に近似するように調整するステップと、
    前記特定された周囲のスピーカから前記遅延調整したスピーカの信号を再生するステップを行う、
    ことを特徴とする音の定位化方法。
  2. 請求項1において、
    前記HRTFを検索するステップは、
    前記所望の音源と前記特定された周囲のスピーカに対応するHRIR(頭部インパルス応答)を、複数の音源に対するそれぞれのHRIR(頭部インパルス応答)を保持するデータベースから検索し、
    前記特定された周囲のスピーカの位置と前記所望の音源に対応して、受聴者に対する左右チャネル間のITD(両耳間時間差)を計算し、
    前記検索されたHRIRからHRTFを計算する、
    ことを特徴とするスピーカから再生される音の定位化の方法。
  3. 請求項1において、
    前記スピーカが、任意の配置、例えばITU-R BS775-3の推奨に従う5.1チャネルオーディオシステムにおいて設けられ、前記受聴者は、前記スピーカで囲まれる中央に位置する
    ことを特徴とするスピーカから再生される音の定位化の方法。
  4. スピーカから再生される音の定位化のための音像定位化装置であって、
    マルチエージェントシステムと、定位化ユニットと、レンダリングユニットとして機能するコンピュータと、
    n個のスピーカと,
    複数の音源に対するHRIRを格納するデータベースと、
    受聴者位置を有し、
    前記マルチエージェントシステムは、所望の音源を更新し、前記所望の音源に関する情報と、m個のモノラルオーディオストリームを出力し、
    前記定位化ユニットは、
    前記所望の音源に対し、周囲のスピーカを特定し、
    前記特定された周囲のスピーカのHRTF(頭部伝達関数)を検索し、
    前記特定された周囲のスピーカの位置と受聴者のITD(両耳間時間差)を計算し、
    前記検索されたHRTFからPSD(離散パワースペクトラル密度)を計算し、
    前記スピーカの配置の中心位置に位置する受聴者の左右それぞれの耳に対し、前記仮想音像位置のPSDと、前記特定された周囲のスピーカの平均PSDとの比を求め、
    前記比を用いて修正フィルタの最小位相を計算し、
    前記最小位相の修正フィルタで前記所望の音源の畳み込みを行い、
    前記スピーカの信号を、両耳の信号到達時間の差が前記仮相音像位置でのITD(両耳間時間差)に近似するように遅延調整し、
    前記レンダリングユニットは、
    前記特定された周囲のスピーカから前記遅延調整したスピーカの信号を再生する、
    ことを特徴とする音像定位化装置。
  5. 請求項4において、
    前記HRTFを検索する時、前記定位化ユニットは、前記データベースから前記所望の音源と前記特定された周囲スピーカに対応するHRIR(頭部インパルス応答)を検索し、
    前記特定された周囲のスピーカの位置と前記所望の音源の位置に対応して、前記受聴者の左右チャネル間のITD(両耳間時間差)を計算し、
    前記検索されたHRIRからHRTFを計算する、
    ことを特徴とする音像定位化装置。
  6. 請求項4において、
    前記受聴者の位置が、n個のスピーカから同じ距離にある、
    ことを特徴とする音像定位化装置。
JP2016063390A 2016-03-28 2016-03-28 スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置 Active JP6770698B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016063390A JP6770698B2 (ja) 2016-03-28 2016-03-28 スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016063390A JP6770698B2 (ja) 2016-03-28 2016-03-28 スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置

Publications (2)

Publication Number Publication Date
JP2017183779A JP2017183779A (ja) 2017-10-05
JP6770698B2 true JP6770698B2 (ja) 2020-10-21

Family

ID=60007301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016063390A Active JP6770698B2 (ja) 2016-03-28 2016-03-28 スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置

Country Status (1)

Country Link
JP (1) JP6770698B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2574239A (en) * 2018-05-31 2019-12-04 Nokia Technologies Oy Signalling of spatial audio parameters
CN116760499B (zh) * 2023-07-07 2023-12-01 恩平市天悦音响科技有限公司 一种基于大数据的调音台调音管理系统及方法

Also Published As

Publication number Publication date
JP2017183779A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
US9154896B2 (en) Audio spatialization and environment simulation
US8374365B2 (en) Spatial audio analysis and synthesis for binaural reproduction and format conversion
US9769589B2 (en) Method of improving externalization of virtual surround sound
CN109891503B (zh) 声学场景回放方法和装置
JP6820613B2 (ja) 没入型オーディオ再生のための信号合成
CN113170271B (zh) 用于处理立体声信号的方法和装置
JP5865899B2 (ja) 立体音響の再生方法及び装置
JP2019033506A (ja) 音響信号のレンダリング方法、該装置、及びコンピュータ可読記録媒体
JP5496235B2 (ja) 多重オーディオチャンネル群の再現の向上
EP2920982A1 (en) Segment-wise adjustment of spatial audio signal to different playback loudspeaker setup
US11350213B2 (en) Spatial audio capture
JP2016529801A (ja) 一定出力ペアワイズパニングによるマトリクスデコーダ
JP6770698B2 (ja) スピーカから再生される音の定位化方法、及びこれに用いる音像定位化装置
Pulkki et al. Multichannel audio rendering using amplitude panning [dsp applications]
JP2022502872A (ja) 低音マネジメントのための方法及び装置
EP3803860A1 (en) Spatial audio parameters
Floros et al. Spatial enhancement for immersive stereo audio applications
US11388540B2 (en) Method for acoustically rendering the size of a sound source
Hollebon et al. Experimental study of various methods for low frequency spatial audio reproduction over loudspeakers
CN112602338A (zh) 信号处理装置、信号处理方法和程序
Trevino et al. A Spatial Extrapolation Method to Derive High-Order Ambisonics Data from Stereo Sources.
Villegas et al. Pure-data-based transaural filter with range control
Iida et al. Acoustic VR System
Vryzas et al. Multichannel mobile audio recordings for spatial enhancements and ambisonics rendering
Kurokawa et al. Effect of switching reproduction area in dynamic local sound field synthesis

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20160407

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200910

R150 Certificate of patent or registration of utility model

Ref document number: 6770698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250