JP6454027B2 - バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法 - Google Patents

バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法 Download PDF

Info

Publication number
JP6454027B2
JP6454027B2 JP2017549156A JP2017549156A JP6454027B2 JP 6454027 B2 JP6454027 B2 JP 6454027B2 JP 2017549156 A JP2017549156 A JP 2017549156A JP 2017549156 A JP2017549156 A JP 2017549156A JP 6454027 B2 JP6454027 B2 JP 6454027B2
Authority
JP
Japan
Prior art keywords
contralateral
hrtf
ipsilateral
frequency band
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017549156A
Other languages
English (en)
Other versions
JP2018502535A (ja
Inventor
ヒョン オ
ヒョン オ
テキュ リ
テキュ リ
ヨンヒョン ペク
ヨンヒョン ペク
Original Assignee
ガウディ オーディオ ラボラトリー,インコーポレイティド
ガウディ オーディオ ラボラトリー,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ガウディ オーディオ ラボラトリー,インコーポレイティド, ガウディ オーディオ ラボラトリー,インコーポレイティド filed Critical ガウディ オーディオ ラボラトリー,インコーポレイティド
Publication of JP2018502535A publication Critical patent/JP2018502535A/ja
Application granted granted Critical
Publication of JP6454027B2 publication Critical patent/JP6454027B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)

Description

本発明は、バイノーラルレンダリングを行うためのオーディオ信号処理装置及びその方法に係る。
3Dオーディオとは、従来のサラウンドオーディオから提供する水平面(2D)上のサウンド場面に高さ位置に当たる他の軸を提供することで、3次元空間上において臨場感のあるサウンドを提供するための一連の信号処理、伝送、符号化及び再生技術などを通称する。特に、3Dオーディオを提供するためには、従来より多数のスピーカを使用するか、或いは少数のスピーカを使用してもスピーカが存在しない仮想の位置に音像が結ばれるようにするレンダリング技術が要求される。
3Dオーディオは超高度解像度TV(UHDTV)に対応するオーディオソリューションになり、多様な分野及びディバイスで使用されると予想される。3Dオーディオに提供される音源の形態としては、チャネル基盤の信号とオブジェクト基盤の信号が存在する。これだけでなく、チャネル基盤の信号とオブジェクト基盤の信号が混合された形態の音源が存在してもよく、これを介してユーザに新たな形態の聴取経験を提供することができる。
一方、バイノーラルレンダリングは入力オーディオ信号を人の両耳に提供される信号にモデリングするプロセッシングである。ユーザは、バイノーラルレンダリングされた2チャネルオーディオ信号をヘッドフォンやイヤーフォンを介して聴取することで、音の立体感を感じることができる。よって、3Dオーディオを人の両耳に伝達されるオーディオ信号の形態にモデリングすることができれば、2チャネル出力オーディオ信号を介して3Dオーディオの立体感を再現することができる。
本発明は、バイノーラルレンダリングを行うためのオーディオ信号処理装置及びその方法を提供する目的を有する。
また、本発明は3Dオーディオのオブジェクト信号及びチャネル信号に対する効率的なバイノーラルレンダリングを行うための目的を有する。
また、本発明は仮想現実(Virtual Reality、VR)コンテンツのオーディオ信号に対する没入型バイノーラルレンダリングを具現するための目的を有する。
前記のような課題を解決するために、本発明は以下のようなオーディオ信号処理方法及びオーディオ信号処理装置を提供する。
まず、本発明の実施例によると、入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理装置であって、前記入力オーディオ信号を第1側伝達関数でフィルタリングして第1側出力信号を生成する第1フィルタリング部と、前記入力オーディオ信号を第2側伝達関数でフィルタリングして第2側出力信号を生成する第2フィルタリング部と、を含むが、前記第1側伝達関数及び第2側伝達関数は、前記入力オーディオ信号に対する第1側HRTF(Head Related Transfer Function)を第2側HRTFで割った両耳間伝達関数(Interaural Transfer Function、ITF)を変形して生成されるオーディオ信号処理装置が提供される。
前記第1側伝達関数及び前記第2側伝達関数は、前記入力オーディオ信号に対する第1側HRTF及び第2側HRTFのうち少なくとも一つのノッチ(notch)成分に基づき、前記IFTを変形して生成される。
前記第1側伝達関数は、前記第1側HRTFから抽出されたノッチ成分に基づいて生成され、前記第2側伝達関数は前記第2側HRTFを前記第1側HRTFから抽出されたエンベロープ(envelope)成分で割った値に基づいて生成される。
前記第1側伝達関数は、前記第1側HRTFから抽出されたノッチ成分に基づいて生成され、前記第2側伝達関数は前記第2側HRTFを入力オーディオ信号とは異なる方向を有する第1側HRTFから抽出されたエンベロープ成分で割った値に基づいて生成される。
前記異なる方向を有する第1側HRTFは前記入力オーディオ信号と同じ方位角を有し、高度角0を有する第1側HRTFである。
前記第1側伝達関数は、前記第1側HRTFのノッチ成分を利用して生成されたFIR(Finite Impulse Response)フィルタ係数、またはIRR(Infinite Impulse Response)フィルタ係数である。
前記第2側伝達関数は、前記入力オーディオに信号対する第1側HRTFのエンベロープ成分と第2側HRTFのエンベロープ成分に基づいて生成された両耳間パラメータ及び前記第2側HRTFのノッチ成分に基づいて生成されたIR(Impulse Response)フィルタ係数を含み、前記第1側伝達関数は前記第1側HRTFのノッチ成分に基づいて生成されたIRフィルタ係数を含む。
前記両耳間パラメータは、ILD(Interaural Level Difference)及びITD(Interaural Time Difference)を含む。
次に、本発明の他の実施例によると、入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理装置であって、前記入力オーディオ信号を同側伝達関数でフィルタリングして同側出力信号を生成する同側フィルタリング部と、前記入力オーディオ信号を対側伝達関数でフィルタリングして対側出力信号を生成する対側フィルタリング部と、を含むが、前記同側及び対側伝達関数は、第1周波数帯域と第2周波数帯域において互いに異なる伝達関数に基づいて生成されるオーディオ信号処理装置が提供される。
前記第1周波数帯域の前記同側及び対側伝達関数は、両耳間伝達関数(ITF)に基づいて生成されるが、前記ITFは前記入力オーディオ信号に対する同側HRTFを対側HRTFに割った値に基づいて生成される。
前記第1周波数帯域の前記同側及び対側伝達関数は、前記入力オーディオ信号に対する同側HRTF及び対側HRTFである。
前記第1周波数帯域とは異なる第2周波数帯域の前記同側及び対側伝達関数は変形された両耳間伝達関数(Modified Interaural Transfer Fuction、MITF)に基づいて生成されるが、前記MITFは前記入力オーディオ信号に対する同側HRTF及び対側HRTFのうち少なくとも一つのノッチ成分に基づいて両耳間伝達関数(ITF)を変形して生成される。
前記第2周波数帯域の同側伝達関数は前記同側HRTFから抽出されたノッチ成分に基づいて生成され、前記第2周波数帯域の対側伝達関数は前記対側HRTFを前記同側HRTFから抽出されたエンベロープ成分で割った値に基づいて生成される。
前記第1周波数帯域の前記同側及び対側伝達関数は、前記入力オーディオ信号に対する同側HRTF及び対側HRTFの周波数バンド別ILD、ITD、IPD(Interaural Phase Difference)及びIC(Interaural Coherence)のうち少なくとも一つから抽出された情報に基づいて生成される。
前記第1周波数帯域と第2周波数帯域の伝達関数は、同じ同側及び対側HRTFから抽出された情報に基づいて生成される。
前記第1周波数帯域は、前記第2周波数帯域より低い周波数帯域である。
前記第1周波数帯域の前記同側及び対側伝達関数は第1伝達関数に基づいて生成され、前記第1周波数帯域とは異なる第2周波数帯域の前記同側及び対側伝達関数は第2伝達関数に基づいて生成され、前記第1周波数帯域と第2周波数帯域の間の第3周波数帯域の前記同側及び対側伝達関数は、第1伝達関数と第2伝達関数の線型結合に基づいて生成される。
また、本発明の実施例によると、入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理方法であって、入力オーディオ信号を受信するステップと、前記入力オーディオ信号を同側伝達関数でフィルタリングして同側出力信号を生成するステップと、前記入力オーディオ信号を対側伝達関数でフィルタリングして対側出力信号を生成するステップと、を含むが、前記同側及び対側伝達関数は、第1周波数帯域と第2周波数帯域において互いに異なる伝達関数に基づいて生成されるオーディオ信号処理方法が提供される。
また、本発明の他の実施例によると、入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理方法であって、入力オーディオ信号を受信するステップと、前記入力オーディオ信号を第1側伝達関数でフィルタリングして第1側出力信号を生成するステップと、前記入力オーディオ信号を第2側伝達関数でフィルタリングして第2側出力信号を生成するステップと、を含むが、前記第1側伝達関数及び第2側伝達関数は、前記入力オーディオ信号に対する第1側HRTFを第2側HRTFで割った両耳間伝達関数(ITF)を変形して生成されるオーディオ信号処理方法が提供される。
本発明の実施例によると、低い演算量で高品質のバイノーラルサウンドを提供することができる。
また、本発明の実施例によると、バイノーラルレンダリングの際に発生し得る音声定位の劣化及び音質の低下を防止することができる。
また、本発明の実施例によると、効率的な演算を介してユーザまたは客体の動きを反映したバイノーラルレンダリング処理が可能になる。
本発明の実施例によるオーディオ信号処理装置を示すブロック図である。 本発明の実施例によるバイノーラルレンダラを示すブロック図である。 本発明の一実施例による方向レンダラを示すブロック図である。 本発明の一実施例によるMITF(Modified ITF)の生成方法を示す図である。 本発明の他の実施例によるMITFの生成方法を示す図である。 本発明の他の実施例によるバイノーラルパラメータの生成方法を示す図である。 本発明の他の実施例による方向レンダラを示すブロック図である。 本発明のまた他の実施例によるMITFの生成方法を示す図である。
本明細書で使用される用語は本発明における機能を考慮してできるだけ現在広く使用される一般的な用語を選択したが、これは合分野に携わる技術者の意図、慣例または新たな技術の出現などによって異なり得る。また、特定の場合は出願人が任意に選択したものもあるが、この場合、該当する発明を実施する形態の部分においてその意味を記載する。よって、本明細書で使用される用語は、単なる用語の名称ではなく、その用語の有する実質的な意味と本明細書全般にわたる内容に基づいて解析すべきであることを明らかにする。
図1は、本発明の実施例によるオーディオ信号処理装置を示すブロック図である。図1を参照すると、オーディオ信号処理装置10はバイノーラルレンダラ100、バイノーラルパラメータコントローラ200及びパーソナライザ300を含む。
まず、バイノーラルレンダラ100は入力オーディオを受信し、それに対するバイノーラルレンダリングを行って2チャネル出力オーディを信号L、Rを生成する。バイノーラルレンダラ100の入力オーディオ信号は、オブジェクト信号及びチャネル信号のうち少なくとも一つを含む。この際、入力オーディオは1つのオブジェクト信号またはモノ信号であってもよく、マルチオブジェクト信号またはマルチチャネル信号であってもよい。一実施例によると、バイノーラルレンダラ100が別途のデコーダを含む場合、バイノーラルレンダラ100の入力信号は前記オーディオ信号の符号化されたビットストリームとなる。
バイノーラルレンダラ100の出力オーディオ信号はバイノーラル信号であって、各入力オブジェクト/チャネル信号が3次元上に位置する仮想の音源によって表現されるようにする2チャネルのオーディオ信号である。バイノーラルレンダリングは、バイノーラルパラメータコントローラ200から提供されたバイノーラルパラメータに基づいて行われるが、時間ドメインまたは周波数ドメインの上で行われる。このように、バイノーラルレンダラ100は多様なタイプの入力信号に対するバイノーラルレンダリングを粉って、3Dオーディオヘッドフォン信号(つまり、3Dオーディオ2チャネル信号)を生成する。
一実施例によると、バイノーラルレンダラ100の出力オーディオ信号に対するポストプロセッシングが追加に行われる。ポストプロセッシングにはクローストークの除去、DRC(Dynamic Range Control)、音量正規化、ピークの制限などが含まれる。また、ポストプロセッシングはバイノーラルレンダラ100の出力オーディオ信号に対する周波数/時間ドメインの変換を含む。オーディオ信号処理装置10はポストプロセッシングを行う別途のポストプロセッシング部を含み、他の実施例によると、ポストプロセッシング部はバイノーラルレンダラ100に含まれてもよい。
バイノーラルパラメータコントローラ200は、バイノーラルレンダリングのためのパラメータを生成し、これをバイノーラルレンダラ100に伝達する。この際、伝達されるバイノーラルパラメータには後述する多様な実施例のように、同側(ipsilateral)伝達関数及び対側(contralateral)伝達関数を含む。この際、伝達関数はHRTF、ITF、MITF、BRTF(Binaural Room Transfer Function)、RIR(Room Impulse Response)、BRIR(Binaural Room Impulse Response)、HRIR(Head Related Impulse Response)及びこれの変形及び編集されたデータのうち少なくとも一つを含むが、これに限らない。
前記伝達関数は無響室で測定されたものであってもよく、シミュレーションで推定されたHRTFに関する情報を含む。HRTFを推定するのに使用されるシミュレーション技法は、球状ヘッドモデル(Spherical Head Model、SHM)、スノーマンモデル(snowman model)、有限差分時間領域技法(Finite−Difference Time−Domain Method、FDTDM)及び境界要素法(Boundary Element Method、BEM)のうち少なくとも一つである。この際、球状ヘッドモデルは人の頭が球状であると仮定してシミュレーションするシミュレーション技法を指す。また、スノーマンモデルは頭と体が球状であると仮定してシミュレーションするシミュレーション技法を指す。
バイノーラルパラメータコントローラ200はデータベース(図示せず)から前記伝達関数を獲得してもよく、個人化された(personalized)伝達関数をパーソナライザ300から受信してもよい。本発明においては伝達関数はIRを高速フーリエ変換(Fast Fourier Transform)したと前提したが、本発明における変換方法はこれに限らない。つまり、本発明の実施例によると、変換方法はQMF(Quadratic Mirror Filterbank)、離散コサイン変換(Discrete Cosine Transform、DCT)、離散サイン変換(Discrete Sine Transform、DST)、Waveletなどを含む。
本発明の実施例によると、バイノーラルパラメータコントローラ200は同側伝達関数及び対側伝達関数を生成し、生成された伝達関数をバイノーラルレンダラ100に伝達する。一実施例によると、同側伝達関数及び対側伝達関数は、それぞれ同側原型(prototype)伝達関数及び対側原型伝達関数を変形して生成される。また、バイノーラルパラメータは、ILD、ITD、FIRフィルタ係数、IIRフィルタ係数などを更に含む。本発明において、ILD及びITDは両耳間パラメータとも称される。
一方、本発明の実施例において、伝達関数はフィルタ係数と相互置換可能な用語として使用される。また、原型関数は原型フィルタ係数と相互置換可能な用語として使用される。よって、同側伝達関数及び対側伝達関数それぞれは同側フィルタ係数及び対側フィルタ係数を示し、同側原型伝達関数及び対側原型伝達関数それぞれは同側原型フィルタ係数及び対側原型フィルタ係数を示す。
一実施例によると、バイノーラルパラメータコントローラ200はパーソナライザ300から獲得された個人化された情報に基づいてバイノーラルパラメータを生成する。パーソナライザ300はユーザによって互いに異なるバイノーラルパラメータを適用するための付加情報を獲得し、獲得された付加情報に基づいて決定されたバイノーラル伝達関数を提供する。例えば、パーソナライザ300はユーザの身体的特徴情報に基づいて、該当ユーザのためのバイノーラル伝達関数(例えば、個人化されたHRTF)をデータベースから選択する。この際、身体的特徴情報は耳介の模様及び大きさ、外耳道の形態、頭蓋骨の大きさ及び類型、体形、体重などの情報を含む。
パーソナライザ300は、決定されたバイノーラル伝達関数をバイノーラルレンダラ100及び/またはバイノーラルパラメータコントローラ200に提供する。一実施例によると、バイノーラルレンダラ100はパーソナライザ300から提供されたバイノーラル伝達関数を利用して入力オーディオ信号に対するバイノーラルレンダリングを行う。他の実施例によると、バイノーラルパラメータコントローラ200はパーソナライザ300から提供されたバイノーラル伝達関数を利用してバイノーラルパラメータを生成し、生成されたバイノーラルパラメータをバイノーラルレンダラ100に伝達する。バイノーラルレンダラ100はバイノーラルパラメータコントローラ200から獲得したバイノーラルパラメータに基づいて、入力オーディオ信号に対するバイノーラルレンダリングを行う。
一方、図1は本発明のオーディオ信号処理装置10の構成を示す一実施例であるが、本発明はこれに限らない。例えば、本発明のオーディオ信号処理装置10は、図1に示した構成以外の追加的な構成を更に含んでもよい。また、図1に示した一部の構成、例えば、パーソナライザ300などはオーディオ信号処理装置10から省略されてもよい。
図2は、本発明の実施例によるバイノーラルレンダラを示すブロック図である。図2を参照すると、バイノーラルレンダラ100は方向レンダラ120と距離レンダラ140を含む。本発明の実施例において、オーディオ信号処理装置とは図2のバイノーラルレンダラ100を示すか、その構成要素である方向レンダラ120または距離レンダラ140を指す。しかし、本発明の実施例において、広い意味でのオーディオ信号処理装置は、バイノーラルレンダラ100を含む図1のオーディオ信号処理装置10を指す。
まず、方向レンダラ120は入力オーディオ信号の音源方向を定位(localizeing)する方向レンダリングを行う。音源は、オブジェクト信号に対応するオーディオオブジェクトまたはチャネル信号に対応する拡声器を示す。方向レンダラ120は、聴取者を基準にする音源の方向を識別しようとするバイノーラルキュー(binaural cue)、つまり、ディレクションキュー(direction cue)を入力オーディオ信号に適用して方向レンダリングを行う。この際、ディレクションキューは両耳(both ears)のレベル差、両耳の位相差、スペクトルエンベロープ(spectral envelope)、スペクトルノッチ(spectral notch)、ピークなどを含む。方向レンダラ120は、同側伝達関数、対側伝達関数などのバイノーラルパラメータを利用してバイノーラルレンダリングを行う。
次に、距離レンダラ140は入力オーディオ信号の音源距離による効果を反映する距離レンダリングを行う。距離レンダラ140は、聴取者を基準にする音源の距離を識別しようとするディスタンスキュー(distance cue)を入力オーディオ信号に適用して距離レンダリングを行う。本発明の実施例によると、距離レンダリングは音源の距離変化による音響強度(sound intensity)及びスペクトル形態(spectral shaping)の変化を入力オーディオ信号に反映する。本発明の実施例によると、距離レンダラ140は音源の距離が予め設定された臨界値以下であるのか否かに基づいて互いに異なるプロセッシングを行う。もし、音源の距離が予め設定された臨界値を超過すれば、聴取者の頭を中心に音源の距離に反比例する音響強度が適用される。しかし、音源の距離が予め設定された臨界値を以下であれば、聴取者の両耳それぞれを基準に測定された音源の距離に基づいて別途の距離レンダリングが行われる。
本発明の実施例によると、バイノーラルレンダラ100は入力信号に対する方向レンダリング及び距離レンダリングのうち少なくとも一つを行ってバイノーラル出漁信号を生成する。バイノーラルレンダラ100は入力信号に対する方向レンダリング及び距離レンダリングを順次に行ってもよく、方向レンダリング及び距離レンダリングが統合されたプロセッシングを行ってもよい。以下、本発明の実施例では方向レンダリング、距離レンダリング及びこれらの組み合わせを全て含む概念としてバイノーラルレンダリングまたはバイノーラルフィルタリングという用語が使用される。
一実施例によると、バイノーラルレンダラ100は入力オーディオ信号に対する方向レンダリングを先に行って、2チャネルの出力信号、つまり、同側出力信号D^Iと対側出力信号D^Cを獲得する。次に、バイノーラルレンダラ100は2チャネルの出力信号D^I及びD^Cに対する距離レンダリングを行って、バイノーラル出力信号B^I、B^Cを生成する。この際、方向レンダラ120の入力信号はオブジェクト信号及び/またはチャネル信号であり、距離レンダラ140の入力信号は前処理段階として方向レンダリングが行われた2チャネル信号D^I及びD^Cである。
他の実施例によると、バイノーラルレンダラ100は入力オーディオ信号に対する距離レンダリングを先に行って、2チャネルの出力信号、つまり、同側出力信号d^Iと対側出力信号d^Cを獲得する。次に、バイノーラルレンダラ100は2チャネルの出力信号d^I及びd^Cに対する方向レンダリングを行って、バイノーラル出力信号B^I、B^Cを生成する。この際、距離レンダラ140の入力信号はオブジェクト信号及び/またはチャネル信号であり、方向レンダラ120の入力信号は前処理段階として距離レンダリングが行われた2チャネル信号d^I及びd^Cである。
図3は、本発明の一実施例による方向レンダラ120−1を示すブロック図である。図3を参照すると、方向レンダラ120−1は同側フィルタリング部122aと対側フィルタリング部122bを含む。方向レンダラ120−1同側伝達関数及び対側伝達関数を含むバイノーラルパラメータを受信し、入力オーディオ信号を受信されたバイノーラルパラメータでフィルタリングして、同側出力信号と対側出力信号を生成する。つまり、同側フィルタリング部122aは入力オーディオ信号を同側伝達関数でフィルタリングして同側出力信号を生成し、対側フィルタリング部122bは入力オーディオ信号を対側伝達関数でフィルタリングして対側出力信号を生成する。本発明の一実施例によると、同側伝達関数及び対側伝達関数は、それぞれ同側HRTF及び対側HRTFである。つまり、方向レンダラ120−1は入力オーディオ信号を両耳に対するHRTFにコンボリューションすることで、該当方向のバイノーラル信号を獲得する。
本発明の実施例において、同側/対側フィルタリング部122a、12bは、それぞれ左/右チャネルのフィルタリング部を示すか、右/左チャネルフィルタリング部を示す。もし、入力オーディオ信号の音源が聴取者の左側に位置する場合、同側フィルタリング部122aは左側チャネル出力信号を生成し、対側フィルタリング部122bは右側チャネル出力信号を生成する。しかし、入力オーディオ信号の音源が聴取者の右側に位置する場合、同側フィルタリング部122aは右側チャネル出力信号を生成し、対側フィルタリング部122bは左側チャネル出力信号を生成する。このように、方向レンダラ120−1は同側/対側フィルタリングを行って2チャネルの左/右出力信号を生成する。
本発明の実施例によると、方向レンダラ120−1は無響室の特性がバイノーラル信号に反映されることを防止するために、HRTFの代わりに両耳間伝達関数(ITF)、変形された両耳間伝達関数(MITF)、またはこれらの組み合わせを利用して入力オーディオ信号をフィルタリングする。以下、本発明の多様な実施例による伝達関数を利用したバイノーラルレンダリング方法について説明する。
<ITFを利用したバイノーラルレンダリング>
まず、方向レンダラ120−1はITFを利用して入力オーディオ信号をフィルタリングする。ITFは以下の数式1のように対側HRTFを同側HRTFに割った伝達関数と定義される。
ここで、kは周波数インデックスであり、H_I(k)は周波数kの同側HRTF、H_C(k)は周波数kの対側HRTF、I_I(k)は周波数kの同側HRTF、I_C(k)は周波数kの対側ITFを示す。
つまり、本発明の実施例によると、各周波数kにおけるI_I(k)の値は1(つまり、0dB)と定義され、I_C(k)は該当周波数kのH_C(k)をH_I(k)で割った値と定義される。方向レンダラ120−1の同側フィルタリング部122aは入力オーディオ信号を同側ITFでフィルタリングして同側出力信号を生成し、対側フィルタリング部122bは入力オーディオ信号を対側ITFでフィルタリングして対側出力信号を生成する。この際、数式1のように同側ITFが1であれば、つまり、同側ITFが時間ドメインにおいてユニットデルタ関数であるか、周波数ドメインにおいて全ての利得が1であれば、同側フィルタリング部122aは入力オーディオ信号に対するフィルタリングをバイパス(bypass)する。このように、同側フィルタリングはバイパスし、対側ITFで入力オーディオ信号に対する対側フィルタリングを行うことで、ITFを利用したバイノーラルレンダリングが行われる。方向レンダラ120−1は、同側フィルタリング部122aの演算を省略することで演算量の利得を得る。
ITFは同側原型伝達関数と対側原型伝達関数の差を示す関数であり、聴取者は両耳間の伝達関数の差を手がかりに方向感を認知する。ITFの処理過程においてはHRTFの室(room)特性が相殺されるが、よって、HRTFを利用したレンダリングで不自然な音(主に低音が喪失された音)が現れる現象を補完することができる。一方、本発明の他の実施例によると、I_C(k)が1と定義され、I_I(k)は該当周波数kのH_I(k)をH_C(k)で割った値と定義される。この際、方向レンダラ120−1は対側フィルタリングをバイパスし、同側ITFで入力オーディオ信号に対する同側フィルタリングを行う。
<MITFを利用したバイノーラルレンダリング>
ITFを利用してバイノーラルレンダリングを行うと、L/Rペアのうち一側のチャネルにのみレンダリングを行えばよいため、大きな演算量の利得が得られるようになる。しかし、ITFを利用すると、HRTFのスペクトルピーク、ノッチなどの固有特性が喪失され、音像定位の劣化が発生する恐れがある。また、ITFの分母となるHRTF(前記実施例において、同側HRTF)にノッチが存在すれば、該当ITFにはバンド幅が狭いすぺ朽ちるピークが発生してトーンノイズを誘発する問題がある。よって、本発明の他の実施例によると、バイノーラルフィルタリングのための同側伝達関数及び対側伝達関数は、入力オーディオ信号に対するITFを変形して生成される。方向レンダラ120−1は変形されたITF(つまり、MITF)を利用して入力オーディオ信号をフィルタリングする。
図4は、本発明の一実施例によるMITFの生成方法を示す図である。MITF生成部220は図1のバイノーラルパラメータコントローラ200の一構成要素であり、同側HRTF及び対側HRTFを受信して同側MITF及び対側MITFを生成する。MITF生成部220で生成された同側MITF及び対側MITFは、それぞれ図3の同側フィルタリング部122a及び対側フィルタリング部122bに伝達されて同側フィルタリング及び対側フィルタリングに使用される。
以下、数式を参照して、本発明の多様な実施例によるMITF生成方法を説明する。本発明の実施例において、第1側は同側及び対側のうちいずれか一つを、第2側はそのうち残りの他の一つを示す。本発明は、便宜上、第1側を同側、第2側を対側と仮定して説明するが、第1側が対側、第2側が同側である場合にも同一に実施可能である。つまり、本発明の各数式及び実施例は同側と対側を互いに置換しても使用可能である。例えば、同側HRTFを対側HRTFで割って同側MITFを獲得する演算は、対側HRTFを同側HRTFで割って対側MITFを獲得する演算に置換されてもよい。
また、以下の実施例においてMITFは原型伝達関数HRTFを利用して生成される。しかし、本発明の実施例によると、HRTFではなく他の原型伝達関数、つまり、他のバイノーラルパラメータがMITFの生成に利用されてもよい。
(MITF第1方法−条件付同側フィルタリング)
本発明の第1実施例によると、特定周波数インデックスkにおいて対側HRTFの値が同側HRTFの値より大きければ、MITFは同側HRTFを対側HRTFで割った値に基づいて生成される。つまり、同側HRTFのノッチ成分によって同側HRTFと対側HRTFの大きさ(magnitude)が客店されれば、ITFの演算とは逆に同側HRTFを対側HRTFに割ってスペクトルピークの発生を防止する。より詳しくは、周波数インデックスkに対して同側HRTFをH_I(k)、対側HRTFをH_C(k)、同側MITFをM_I(k)、対側MITFをM_C(k)とすると、同側及び対側MITFは以下の数式2のように生成される。
つまり、実施例によると特定周波数インデックスkにおいてH_I(k)の値がH_C(k)の値より小さければ(つまり、ノッチ町域であれば)、M_I(k)はH_I(k)をH_C(k)で割った値に決定され、M_C(k)の値は1に決定される。しかし、H_I(k)の値がH_C(k)の値より小さくなければ、M_I(k)の値は1に決定され、M_C(k)の値はをH_C(k)をH_I(k)で割った値に決定される。
(MITF第2方法−切断)
本発明の第2実施例によると、特定周波数インデックスkにおいてITFの分母となるHRTF、つまり、同側HRTFにノッチ成分があれば、該当周波数インデックスkにおける同側及び対側MITFの値は1に(つまり、0dB)に設定される。MITF生成方法の第2実施例を数式で表すと、以下の数式3のようである。
つまり、第2実施例によると特定周波数インデックスkにおいてH_I(k)の値がH_C(k)の値より小さければ(つまり、ノッチ町域であれば)、M_I(k)及びM_C(k)の値は1に決定される。しかし、H_I(k)の値がH_C(k)の値より小さくなければ、同側及び対側MITFはそれぞれ同側及び対側ITFと同じく設定される。つまり、MITF H_I(k)の値は1に決定され、M_C(k)の値はをH_C(k)をH_I(k)で割った値に決定される。
(MITF第3方法−スケーリング)
本発明の第3実施例によると、ノッチ成分のあるHRTFに対して加重値を反映し、ノッチの深さを減らす。ITFの分母となるHRTF、つまり、同側HRTFのノッチ成分に対して1より大きい加重値を反映するために、加重値関数w(k)が数式4のように適用される。
ここで、*は乗算を意味する。つまり、第3実第施例によると特定周波数インデックスkにおいてH_I(k)の値がH_C(k)の値より小さければ(つまり、ノッチ町域であれば)、M_I(k)の値は1に決定され、M_C(k)の値はH_C(k)をw(k)とH_I(k)の積で割った値に決定される。しかし、H_I(k)の値がH_C(k)の値より小さくなければ、M_I(k)の値は1に決定され、M_C(k)の値はをH_C(k)をH_I(k)で割った値に決定される。つまり、加重値関数w(k)はH_I(k)の値がH_C(k)の値より小さい場合に適用される。一実施例によると、加重値関数w(k)は同側HRTFのノッチの深さが深いほど、つまり、同側HRTFの値が小さいほど大きい値を有するように設定される。他の実施例によると、加重値関数w(k)は同側HRTFの値と対側のHRTFの値の差が大きいほど大きい値を有するように設定される。
前記第1、第2及び第3実施例の条件部分は、特定周波数インデックスkにおいてH_I(k)の値がH_C(k)の値の一定割合(α)より小さい場合に拡張される。つまり、H_I(k)の値がα*H_C(k)の値より小さければ、同側及び対側MITFは各実施例の条件文内の数式に基づいて生成される。しかし、H_I(k)の値がα*H_C(k)の値より小さくなければ、同側及び対側MITFはそれぞれ同側及び対側ITFと同じく設定される。また、前記第1、第2及び第3実施例の条件部分は特定周波数帯域に限って使用され、前記一定割合(α)は周波数帯域に応じて互いに異なる値が適用されてもよい。
(MITF第4−1方法−ノッチの分離)
本発明の第4実施例によると、HRTFのノッチ成分を別に分離し、分離されたノッチ成分に基づいてMITFが生成される。図5は、本発明の第4実施例によるMITFの生成方法を示す図である。MITF生成部220−1は、HRTF分離部222及びノーマライゼーション部224を更に含む。HRTF分離部222は原型伝達関数、つまり、HRTFをHRTFエンベロープ成分とHRTFノッチ成分に分離する。
本発明の実施例によると、HRTF分離部222は分母となるHRTF、つまり、同側HRTFをHRTFエンベロープ成分とHRTFノッチ成分に分離し、分離された同側HRTFエンベロープ成分と同側HRTFノッチ成分に基づいてMITFが生成される。MITF生成方法の第4実施例を数式で表すと、以下の数式5のようである。
ここで、kは周は周波数インデックスであり、H_I_notch(k)は同側HRTFノッチ成分、H_I_env(k)は同側HRTFエンベロープ成分、H_C_notch(k)は対側HRTFノッチ成分、H_C_env(k)は対側HRTFエンベロープ成分を示す。*は乗算を示し、H_C_notch(k)*H_C_env(k)は分離されていない対側HRTF H_C(k)に代替されてもよい。
つまり、第4実施例によると、M_I(k)は同側HRTFから抽出されたノッチ成分H_I_notch(k)の値に決定され、M_C(k)は対側HRTF H_C(k)を同側HRTFから抽出されたエンベロープ成分H_I_env(k)で割った値に決定される。図5を参照すると、HRTF分離部222は同側HRTFから同側HRTFエンベロープ成分を抽出し、同側HRTFの残余成分、つまり、ノッチ成分を同側MITFとして出力する。また、ノーマライゼーション部224は同側HRTFエンベロープ成分と対側HRTFを受信し、前記数式5の実施例によって対側MITFを生成し出力する。
スペクトルノッチの場合、一般的に外耳の特定位置に反射が起こることで発生するが、HRTFのスペクトルノッチは高度感の認知に大きく寄与する。一般に、ノッチはスペクトルドメインで素早く変化する特徴を有する。逆に、ITFが示すバイノーラルキューはスペクトルドメインでゆっくりに変化する特徴を有する。よって、本発明の一実施例によると、HRTF分離部222はケプストラム(cepstrum)を利用した同形信号処理(homonmorphic signal processing)またはウェーブインターポレーション(wave interpolation)を使用してHRTFのノッチ成分を分離する。
例えば、HRTF分離部222は同側HRTFのケプストラムにウィンドイングを行って、同側HRTFエンベロープ成分を獲得する。MITF生成部200は、同側HRTFと対側HRTFをそれぞれ同側HRTFエンベロープ成分で割ることで、スペクトルカラーレーション(coloration)が除去された同側MITFを生成する。一方、本発明の追加的な実施例によると、HRTF分離部222はオール・ポールモデリング(all−pole modeling)、ポール・ゼロモデリング(pole−zero modeling)、グループディレー関数(group delay fuction)などを利用してHRTFのノッチ成分を分離してもよい。
一方、本発明の追加的な実施例によると、H_I_notch(k)をFIRフィルタ係数またはIIRフィルタ係数で近似計算し、近似計算したフィルタ係数がバイノーラルレンダリングの同側伝達関数として使用される。つまり、方向レンダラの同側フィルタリング部は入力オーディオ信号を前記近似計算したフィルタ係数でフィルタリングして、同側出力信号を生成する。
(MITF第4−2方法−ノッチの分離/他の高度角のHRTFの使用)
本発明の追加的な実施例によると、特定角度のMITFを生成するために、入力オーディオ信号とは異なる方向を有するHRTFエンベロープ成分が使用される。例えば、MITF生成部200は水平面上の(つまり、高度角0の)HRTFエンベロープ成分で他のHRTF対(同側HRTF、対側HRTF)を正規化することで、水平面上に位置した伝達関数を平坦なスペクトルを有するMITFに具現する。本発明の一実施例によると、MITFは以下の数式6の方法で生成される。
ここで、kは周波数インデックス、θは高度角、Φは方位角を示す。
つまり、高度角θと方位角Φの同側MITF M_I(k、θ、Φ)は該当高度角θ及び方位角Φの同側HRTFから抽出されたノッチ成分H_I_notch(k、θ、Φ)に決定され、対側MITF M_C(k、θ、Φ)は該当高度角θ及び方位角Φの対側MITF M_C(k、θ、Φ)を高度角0及び方位角Φの同側HRTFから抽出されたエンベロープ成分H_I_env(k、θ、Φ)で割った値に決定される。本発明の他の実施例によると、MITFは以下の数式7の方法でも生成される。
つまり、高度角θと方位角Φの同側MITF M_I(k、θ、Φ)は該当高度角θ及び方位角Φの同側HRTF H_I(k、θ、Φ)を前記H_I_env(k、θ、Φ)で割った値に決定され、対側MITF M_C(k、θ、Φ)は該当高度角θ及び方位角Φの対側MITF M_C(k、θ、Φ)を前記H_I_env(k、θ、Φ)で割った値に決定される。数式6及び数式7においては、MITFを生成するために同一方位角及び他の高度角(つまり、高度角0)のHRTFエンベロープ成分が利用されることを例示した。しかし、本発明はこれに限らず、他の方位角及び/または他の高度角のHRTFエンベロープ成分を利用してMITFが生成されてもよい。
(MITF第5方法−ノッチの分離2)
本発明の第5実施例によると、空間/周波数軸で表現されるウェーブインターポレーションを使用してMITFが生成される。例えば、HRTFは高度角/周波数軸または方位角/周波数軸の3次元で表現されるSEW(slowly evolving waveform)とREW(rapidly evolving waveform)に分離される。この際、バイノーラルレンダリングのためのバイノーラルキュー(例えば、ITF、両耳間パラメータはSEWから、ノッチ成分はREWから抽出される。
本発明の実施例によると、方向レンダラはSEWから抽出されたバイノーラルキューを利用してバイノーラルレンダリングを行い、REWから抽出されたノッチ成分を各チャネル(同側チャネル/対側チャネル)に直接適用してトーンノイズを抑制する。空間/周波数ドメインのウェーブインターポレーションにおいて、SEWとREWを分離するために、同形信号プロセッシング、ロウ/ハイパスフィルタリングなどの方法が使用される。
(MITF第6方法−ノッチの分離3)
本発明の第6実施例によると、原型伝達関数のノッチ領域では該当原型伝達関数がバイノーラルフィルタリングに使用され、ノッチ領域ではなく上述した実施例によるMITFがバイノーラルフィルタリングに使用される。これを数式で表すと、以下の数式8のようである。
ここで、M’_I(k)及びM’_C(k)はそれぞれ第6実施例による同側及び対側MITFを示し、M_I(k)及びM_C(k)は上述した実施例のうちいずれか一つによる同側及び対側MITFを示す。H_I(k)及びH_C(k)は原型伝達関数である同側及び対側HRTFを示す。つまり、同側HRTFのノッチ成分が含まれた周波数帯域の場合、同側HRTF及び対側HRTFがそれぞれバイノーラルレンダリングの同側伝達関数及び対側伝達関数として使用される。また、同側HRTFのノッチ成分が含まれていない周波数帯域の場合、同側MITF及び対側MITFがそれぞれバイノーラルレンダリングの同側伝達関数及び対側伝達関数として使用される。ノッチ領域を分離するために、上述したようにオール・ポールモデリング、ポール・ゼロモデリング、グループディレー関数などが使用される。本発明の追加的な実施例によると、ノッチ領域と非ノッチ領域の境界における急激なスペクトルの変化による音質の劣化を防止するために、ロウパスフィルタリングのようなスムージング(smoothing)技法が使用される。
(MITF第7方法−複雑度の低いノッチの分離)
本発明の第6実施例によると、HRTF分離の残余成分、つまり、ノッチ成分はより簡単な演算で処理される。一実施例にイ夜と、HRTF残余成分はFIRフィルタ係数またはIIRフィルタ係数で近似計算され、近似計算されたフィルタ係数がバイノーラルレンダリングの同側及び/または対側伝達関数として使用される。図6は本発明の他の実施例によるバイノーラルパラメータの生成方法を示す図であり、図7は本発明の他の実施例による方向レンダラを示すブロック図である。
まず、図6は本発明の実施例によるバイノーラルパラメータ生成部220−2を示す。図6を参照すると、バイノーラルパラメータ生成部220−2はHRTF分離部222a、222b、両耳間パラメータ算出部225、及びノッチパラメータ化部226a、226bを含む。一実施例によると、バイノーラルパラメータ生成部220−2は図4及び図5のMITF生成部を代替する構成として使用される。
まず、HRTF分離部222a、222bは入力されたHRTFをHRTFエンベロープ成分とHRTF残余成分に分離する。第1HRTF分離部222aは同側HRTFを受信し、これを同側HRTFエンベロープ成分と同側HRTF残余成分に分離する。第2HRTF分離部222bは対側HRTFを受信し、これを対側HRTFエンベロープ成分と対側HRTF残余成分に分離する。両耳間パラメータ算出部225は同側HRTFエンベロープ成分及び対側TFエンベロープ成分を受信し、これを利用して両耳間パラメータを生成する。両耳間パラメータは、ILD及びITDを含む。この際、ILDは両耳間伝達関数の大きさに対応し、ITDは両耳間伝達関数の位相(或いは、時間ドメインにおける時間差)に対応する。
一方、ノッチパラメータ化部226a、226bはHRTF残余成分を受信し、これをIRフィルタ係数に近似計算する。HRTF残余成分はHRTFノッチ成分を含み、IRフィルタはFIRフィルタ及びIIRフィルタを含む。第1ノッチパラメータ化部226aは同側HRTF残余成分を受信し、これを利用して同側IRフィルタ係数を生成する。第2ノッチパラメータ化部226bは対側HRTF残余成分を受信し、これを利用して対側IRフィルタ係数を生成する。
このように、バイノーラルパラメータ生成部220−2によって生成されたバイノーラルパラメータは、方向レンダラに伝達される。前記バイノーラルパラメータは、両耳間パラメータ、同側/対側IRフィルタの個数を含む。この際、両耳間パラメータはILD及びITDを少なくとも含む。
図7は、本発明の実施例による方向レンダラ120−2を示すブロック図である。図7を参照すると、方向レンダラ120−2はエンベロープフィルタリング部125と同側/対側ノッチフィルタリング部126a、126bを含む。一実施例によると、同側ノッチフィルタリング部126aは図2の同側フィルタリング部122aを代替する構成で使用され、エンベロープフィルタリング部125及び対側ノッチフィルタリング部126bは図2の対側フィルタリング部122bを代替する構成で使用される。
まず、エンベロープフィルタリング部125は両耳間パラメータを受信し、受信された両耳間パラメータに基づいて入力オーディオ信号をフィルタリングして、同側/対側間のエンベロープの差を反映する。図7の実施例によると、エンベロープフィルタリング部125は対側信号のためのフィルタリングを行うが、本発明はこれに限らない。つまり、他の実施例によると、エンベロープフィルタリング部125は同側信号のためのフィルタリングを行ってもよい。エンベロープフィルタリング部125が対側信号のためのフィルタリングを行う際、両耳間パラメータは同側エンベロープを基準とする対側エンベロープの相対的な情報を示し、エンベロープフィルタリング部125が同側信号のためのフィルタリングを行う際、両耳間パラメータは対側エンベロープを基準とする同側エンベロープの相対的な情報を示す。
次に、ノッチフィルタリング部126a、126bは同側/対側信号に対するフィルタフィングを行って、それぞれ同側/対側伝達関数のノッチを反映する。第1ノッチフィルタリング部126aは、入力オーディオ信号を同側IRフィルタ係数でフィルタリングして同側出力信号を生成する。第2ノッチフィルタリング部126bは、入力オーディオ信号を対側IRフィルタ係数でフィルタリングして対側出力信号を生成する。図7の実施例ではエンベロープフィルタリングがノッチフィルタリングより先に行われると示したが、本発明はこれに限らない。本発明の他の実施例によると、入力オーディオ信号に対する同側/対側ノッチフィルタリングが先に行われた後、同側または対側信号に対するエンベロープフィルタリングが行われてもよい。
このように、図7の実施例によると、方向レンダラ120−2は同側ノッチフィルタリング部126aを利用して同側フィルタリングを行う。また、方向レンダラ120−2はエンベロープフィルタリング部125及び対側ノッチフィルタリング部126bを利用して対側フィルタリングを行う。この際、同側フィルタリングに使用される同側伝達関数は、同側HRTFのノッチ成分に基づいて生成されたIRフィルタ係数を含む。また、対側フィルタリングに使用される対側伝達関数は、対側HRTFのノッチ成分に基づいて生成されたIRフィルタ係数及び両耳間パラメータを含む。ここで、両耳間パラメータは同側HRTFのエンベロープ成分と対側HRTFのエンベロープ成分に基づいて生成される。
(MITF第8方法−ハイブリッドITF)
本発明の第8実施例によると、上述したITF及びMITFのうち2つ以上が組み合わせられたハイブリッドITF(HITF)が使用される。本発明の実施例において、HITFは少なくとも一つの周波数帯域で使用される伝達関数が他の周波数帯域で使用される伝達関数とは異なる両耳間伝達関数を示す。つまり、第1周波数帯域と第2周波数帯域において、それぞれ異なる伝達関数に基づいて生成された同側及び対側伝達関数が使用される。本発明の一実施例によると、第1周波数帯域のバイノーラルレンダリングにはITFが、第2周波数帯域のバイノーラルレンダリングにはMITFが使用される。
より詳しくは、低周波帯域の場合、両耳レベル、両耳の位相差などが音像定位において重要な要素であり、高周波帯域の場合、スペクトルエンベロープ、特定のノッチ、ピークなどが音像定位において重要な手がかりになる。よって、これを効果的に反映するために、低周波帯域の同側及び対側伝達関数はITFに基づいて生成され、高周波帯域の同側及び対側伝達関数はMITFに基づいて生成される。これを数式で表すと、以下の数式9のようである。
ここで、kは周波数インデックス、C0は臨界周波数インデックスであり、h_I(k)及びh_C(k)はそれぞれ本発明の実施例による同側及び対側HITFを示す。また、I_I(k)及びI_C(k)はそれぞれ同側及び対側ITFを示し、M_I(k)及びM_C(k)はそれぞれ上述した実施例のうちいずれか一つによる同側及び対側MITFを示す。
つまり、本発明の一実施例によると、周波数インデックスが臨界周波数インデックスより低い第1周波数帯域の同側及び対側伝達関数はITFに基づいて生成され、周波数インデックスが臨界周波数インデックスより高いか同じである第2周波数帯域の同側及び対側伝達関数はMITFに基づいて生成される。一実施例によると、臨界周波数インデックスC0は500Hz乃至2KHzの間の特定周波数を指す。
一方、本発明の他の実施例によると、低周波帯域の同側及び対側伝達関数はITFに基づいて生成され、高周波帯域の同側及び対側伝達関数はMITFに基づいて生成され、低周波帯域と高周波帯域の間の中間周波数帯域の同側及び対側伝達関数はITFとMITFの線型結合に基づいて生成される。これを数式で表すと、以下の数式10のようである。
ここで、C1は第1臨界周波数インデックスを、C2は第2臨界周波数インデックスを示す。また、g1(k)及びg2(k)は、それぞれ周波数インデックスkにおけるITF及びMITFに対するゲイン(gain)を示す。
つまり、本発明の他の実施例によると、周波数インデックスが第1臨界周波数インデックスより低い第1周波数帯域の同側及び対側伝達関数はITFに基づいて生成され、周波数インデックスが第2臨界周波数インデックスより高いか同じである第2周波数帯域の同側及び対側伝達関数はMITFに基づいて生成される。また、周波数インデックスが第1臨界周波数インデックスと第2周波数インデックスの間にある第3周波数インデックスの同側及び対側伝達関数は、ITFとMITFの線型結合に基づいて生成される。但し、本発明はこれに限らず、第3周波数帯域の同側及び対側伝達関数ITFとMITFのログ結合、スプライン(spline)結合、ラグランジュ(lagrange)結合のうち少なくとも一つに基づいて生成されてもよい。
一実施例によると、第1臨界周波数インデックスC1は500Hz乃至1KHzの間の特定周波数を指し、第2臨界周波数インデックスC2は1KHz乃至2KHzの間の特定周波数を指す。また、エネルギー保存のためにゲインg1(k)及びg2(k)の二乗の合算値であるg1(k)^2+g2(k)^2=1を満足する。しかし、本発明がこれに限ることはない。
一方、ITFに基づいて生成された伝達関数とMITFに基づいて生成された伝達関数は、互いに異なるディレーを有する。本発明の実施例によると、特定周波数帯域の同側/対側伝達関数のディレーが異なる周波数帯域の同側/対側伝達関数のディレーと互いに異なる場合、長いディレーを有する同側/対側伝達関数を基準に短いディレーを有する同側/対側伝達関数に対する遅延補償を追加に行う。
本発明の他の実施例によると、第1周波数帯域の同側及び対側伝達関数は同側及び対側HRTFが使用され、第2周波数帯域の同側及び対側伝達関数は同側及び対側MITFに基づいて生成される。また、第1周波数帯域の同側及び対側HRTFの各周波数バンド別ILD、ITD、IPD及びICのうち少なくとも一つから抽出された情報に基づいて生成され、第2周波数帯域の同側及び対側伝達関数はMITFに基づいて生成される。
本発明の他の実施例によると、第1周波数帯域の同側及び対側伝達関数は球状ヘッドモデルの同側及び対側HRTFが使用され、第2周波数帯域の同側及び対側伝達関数は測定された同側及び対側HRTFに基づいて生成される。一実施例似ると、第1周波数帯域と第2周波数帯域の間の第3周波数帯域の同側及び対側伝達関数は、球状ヘッドモデルのHRTFと測定されたHRTFの線型結合、重畳、ウィンドイングなどに基づいて生成される。
(MITF第9方法−ハイブリッドITF2)
本発明の第9実施例によると、HRTF、ITF及びMITFのうち2つ以上が組み合わせられたハイブリッドITF(HITF)が使用される。本発明の実施例によると、音像定位の性能を上げるために特定周波数帯域のスペクトル特性が強調される。上述したITFまたはMITFを使用すると、音源のカラーレーションが減少されるが、音像定位性能も落ちるトレードオフ現象が起こる。よって、音像定位性能を向上するために同側/対側伝達関数に対する追加的な精製が必要である。
本発明の一実施例によると、音源のカラーレーションに支配的な影響を及ぼす低周波帯域の同側及び対側伝達関数は、MITF(または、ITF)に基づいて生成され、音像定位に支配的な影響を及ぼす高周波帯域の同側及び対側伝達関数は、HRTFに基づいて生成される。これを数式で表すと、以下の数式11のようである。
ここで、kは周波数インデックス、C0は臨界周波数インデックスであり、h_I(k)及びh_C(k)はそれぞれ本発明の実施例による同側及び対側HITFを示す。また、H_I(k)及びH_C(k)はそれぞれ同側及び対側HRTFを示し、M_I(k)及びM_C(k)はそれぞれ上述した実施例のうちいずれか一つによる同側及び対側MITFを示す。
つまり、本発明の一実施例によると、周波数インデックスが臨界周波数インデックスよより低い第1周波数帯域の同側及び対側伝達関数はMITFに基づいて生成され、周波数インデックスが臨界周波数インデックスよより高いか同じである第2周波数帯域の同側及び対側伝達関数はHRTFに基づいて生成される。一実施例によると、臨界周波数インデックスC0は2HKz乃至4KHzの間の特定周波数をさすが、本発明はこれに限らない。
本発明の他の実施例によると、同側及び対側伝達関数はITFに基づいて生成され、高周波帯域の同側及び対側伝達関数に別途のゲインが適用される。これを数式で表すと、以下の数式12のようである。
ここで、Gはゲインを示す。つまり、本発明の他の実施例によると、周波数インデックスが臨界周波数インデックスよより低い第1周波数帯域の同側及び対側伝達関数はITFに基づいて生成され、周波数インデックスが臨界周波数インデックスよより高いか同じである第2周波数帯域の同側及び対側伝達関数はITF設定されたゲインGをかけた値に基づいて生成される。
本発明のまた他の実施例によると、同側及び対側伝達関数は上述した実施例のうちいずれか一つによるMITFに基づいて生成され、高周波帯域の同側及び対側伝達関数に別途のゲインが適用される。これを数式で表すと、以下の数式13のようである。
つまり、本発明のまた他の実施例によると、周波数インデックスが臨界周波数インデックスよより低い第1周波数帯域の同側及び対側伝達関数はMITFに基づいて生成され、周波数インデックスが臨界周波数インデックスよより高いか同じである第2周波数帯域の同側及び対側伝達関数はMITF設定されたゲインGをかけた値に基づいて生成される。
前記HITFに適用されるゲインGは、多様な実施例によって生成される。一実施例によると、第2周波数帯域において最大高度角HRTFの大きさの平均値と最小高度角HRTFの大きさの平均値をそれぞれ算出し、2つの平均値の差を利用したインターポレーションに基づいてゲインGが獲得される。この際、第2周波数帯域の周波数ビン(bin)別に互いに異なるゲインを適用することで、ゲインの解像度が上げられる。
一方、第1周波数帯域と第2周波数帯域間の不連続性による歪曲が発生することを防止するために、周波数軸で平滑化されたゲインが追加に使用される。一実施例によると、ゲインが適用されない第1周波数帯域とゲインが適用される第2周波数帯域の間に第3周波数帯域が設定される。第3周波数帯域の同側及び対側伝達関数には平滑化されたゲインが適用される。平滑化されたゲインは線型インターポレーション、ログインターポレーション、スプラインインターポレーション、ラグランジュインターポレーションのうち少なくとも一つに基づいて生成され、周波数ビンごとに異なる値を有するためG(k)と示される。
本発明の他の実施例によると、ゲインGは他の高度角HRTFから抽出されたエンベロープ成分に基づいて獲得される。図8は、本発明のまた他の実施例によってゲインを適用したMITFの生成方法を示している。図8を参照すると、MITF生成部220−3はHRTF分離部222a、222c、ELD(Elevation Level Difference)算出部223、及びノーマライゼーション部224を含む。
図8は、MITF生成部222−3が周波数k、高度角θ1、方位角Φの同側及び対側MITFを生成する実施例を示す。まず、第1HRTF分離部222aは高度角θ1、方位角Φの同側HRTFを同側HRTFエンベロープ成分と同側HRTFノッチ成分に分離する。一方、第2HRTF分離部222cは他の高度角θ2の同側HRTFを同側HRTFエンベロープ成分と同側HRTFノッチ成分に分離する。θ2はθ1とは異なる高度角を示し、一実施例によるとθ2は0度(つまり、水平面上の角度)に設定される。
ELD算出部223は高度角θ1の同側HRTFエンベロープ成分と高度角θ2の同側HRTFエンベロープ成分を受信し、それに基づいてゲインGを生成する。一実施例によると、ELD算出部223は高度角変化に応じて周波数応答が大きく変わらないほどゲイン値を1日に近く設定し、波数応答が大きいほどゲイン値が増幅されるか減衰されるように設定する。
MITF生成部222−3は、ELD算出部223から生成されたゲインを利用してMITFを生成する。数式14は、生成されたゲインを利用したMITF生成の実施例を示す。
周波数インデックスが臨界周波数インデックスより低い第1周波数帯域の同側及び対側伝達関数は、数式5の実施例によるMITFに基づいて生成される。つまり、高度角θ1、方位角Φの同側MITF M_I(k、θ1、Φ)は同側HRTFから抽出されたノッチ成分H_I_notch(k、θ1、Φ)値に決定され、対側MITF M_C(k、θ1、Φ)は対側HRTFから抽出されたエンベロープ成分H_I_env(k、θ1、Φ)で割った値に決定される。
しかし、周波数インデックスが臨界周波数インデックスより高いか同じである第2周波数帯域の同側及び対側伝達関数は、数式5の実施例によるMITFにゲインGをかけた値に基づいて生成される。つまり、M_I(k、θ1、Φ)は同側HRTFから抽出されたノッチ成分H_I_notch(k、θ1、Φ)値にゲインGをかけた値に決定され、M_C(k、θ1、Φ)は対側HRTF H_C(k、θ1、Φ)にゲインGをかけた値を同側HRTFから抽出されたエンベロープ成分H_I_env(k、θ1、Φ)で割った値に決定される。
よって、図8を参照すると、第1HRTF分離部222aで分離された同側HRTFノッチ成分は、ゲインGとかけられて同側MITFとして出力される。また、ノーマライゼーション部224は数式14のように同側HRTFエンベロープ成分に備えた対側HRTF値を算出するが、算出された値はゲインGとかけられて対側MITFとして出力される。この際、ゲインGは該当高度角θ1の同側HRTFエンベロープ成分とは異なる高度角θ2の同側HRTFエンベロープ成分に基づいて生成された値である。数式15は、前記ゲインGを生成する実施例を示す。
つまり、ゲインGは高度角θ1及び方位角Φの同側HRTFから抽出されたエンベロープ成分H_I_env(k、θ1、Φ)を、高度角θ2及び方位角Φの同側HRTFから抽出されたエンベロープ成分H_I_env(k、θ2、Φ)で割った値に決定する。
一方、前記実施例では高度角が互いに異なる同側HRTFのエンベロープ成分を利用してゲインGが生成されたが、本発明はこれに限らない。つまり、ゲインGは方位角が互いに異なる同側HRTFのンベロープ成分、または高度角と方位角が全て異なる同側HRTFのンベロープ成分に基づいて生成されてもよい。また、前記ゲインGはHITFだけでなくITF、MITF及びHRTFのうち少なくとも一つに適用されてもよい。それだけでなく、ゲインGは高周波帯域などの特定周波数帯域だけでなく全ての周波数帯域に適用されてもよい。
上述した多用な実施例による同側MITF(または、同側HITF)は同側伝達関数として、対側MITF(または、対側HITF)は対側伝達関数として方向レンダラに伝達される。方向レンダラの同側フィルタリング部は入力オーディオ信号を上述した実施例による同側MITF(または、同側HITF)でフィルタリングして同側出力信号を生成し、対側フィルタリング部は入力オーディオ信号を上述した実施例による対側MITF(または、対側HITF)でフィルタリングして対側出力信号を生成する。
上述した実施例において、同側MITFまたは対側MITFの値が1であれば、該当同側フィルタリング部または対側フィルタリング部はフィルタリング演算をバイパスする。この際、フィルタリングのバイパス可否はレンダリング時点に決定される。しかし、たの実施例によると、原型伝達関数(HRF)が予め決定されている場合、同側/対側フィルタリング部はバイパス地点(例えば、周波数インデックス)に対する付加情報を予め獲得し、該当付加情報に基づいて各地点におけるフィルタリングのバイパス可否を決定する。
一方、上述した実施例及び図面においては、同側フィルタリング部及び対側フィルタリング部が同じ入力オーディオ信号を受信してフィルタリングを受信すると説明されたが、本発明はこれに限らない。本発明の他の実施例によると、前処理が行われた2チャネル信号が方向レンダラの入力して受信される。例えば、前処理ステップとして距離レンダリングが行われた同側信号d^I及び対側信号d^Cが方向レンダラの入力して受信される。この際、方向レンダラの同側フィルタリング部は受信された同側信号d^Iを同側伝達関数でフィルタリングして同側出力信号B^Iを生成する。また、方向レンダラの対側フィルタリング部は受信された対側信号d^Cを対側伝達関数でフィルタリングして対側出力信号B^Cを生成する。
これまで本発明を具体的な実施例を介して説明したが、当業者であれば本発明の趣旨及び範囲を逸脱せずに修正、変形を行うことができる。つまり、本発明はオーディオ信号に対するバイのーラルレンダリングの実施例について説明したが、本発明はオーディオ信号だけでなくビデオ信号を含む多様なマルチメディア信号にも同じく適用及び拡張可能である。よって、本発明の詳細な説明及び実施例から本発明の属する技術分野に属する人が容易に類推し得るものは、本発明の権利範囲に属すると解釈される。

Claims (10)

  1. 入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理装置であって、
    前記入力オーディオ信号を同側伝達関数でフィルタリングして同側出力信号を生成する同側フィルタリング部と、
    前記入力オーディオ信号を対側伝達関数でフィルタリングして対側出力信号を生成する対側フィルタリング部と、を含み、
    第1周波数帯域における前記同側及び対側伝達関数は、両耳間伝達関数(Interaural Transfer Function、ITF)に基づいて生成され、第2周波数帯域における前記同側及び対側伝達関数は、前記入力オーディオ信号に対する同側頭部伝達関数(Head Related Transfer Function、HRTF)及び対側HRTFであり、
    前記同側フィルタリング部及び前記対側フィルタリング部は、周波数領域でフィルタリングを実行する、オーディオ信号処理装置。
  2. 前記ITFは、前記同側HRTF及び前記対側HRTFを使用して生成される、請求項1に記載のオーディオ信号処理装置。
  3. 前記ITFは、前記同側HRTFによって前記対側HRTFを割った値に基づいて生成される請求項に記載のオーディオ信号処理装置。
  4. 前記第1周波数帯域は、前記第2周波数帯域より低い周波数帯域である請求項1に記載のオーディオ信号処理装置。
  5. 前記第1周波数帯域の前記同側及び対側伝達関数は第1伝達関数に基づいて生成され、前記第1周波数帯域とは異なる第2周波数帯域の前記同側及び対側伝達関数は第2伝達関数に基づいて生成され、前記第1周波数帯域と第2周波数帯域の間の第3周波数帯域の前記同側及び対側伝達関数は、第1伝達関数と第2伝達関数の線型結合に基づいて生成される請求項1に記載のオーディオ信号処理装置。
  6. 入力オーディオ信号に対するバイノーラルフィルタリングを行うためのオーディオ信号処理方法であって、
    入力オーディオ信号を受信するステップと、
    前記入力オーディオ信号を同側伝達関数でフィルタリングして同側出力信号を生成するステップと、
    前記入力オーディオ信号を対側伝達関数でフィルタリングして対側出力信号を生成するステップと、を含み、
    第1周波数帯域における前記同側及び対側伝達関数は、両耳間伝達関数(Interaural Transfer Function、ITF)に基づいて生成され、第2周波数帯域における前記同側及び対側伝達関数は、前記入力オーディオ信号に対する同側頭部伝達関数(Head Related Transfer Function、HRTF)及び対側HRTFであり、
    前記同側伝達関数での前記フィルタリング及び前記対側伝達関数での前記フィルタリングは、周波数領域でフィルタリングが実行される、オーディオ信号処理方法。
  7. 前記ITFは、前記同側HRTF及び前記対側HRTFを使用して生成される、請求項6に記載の方法。
  8. 前記ITFは、前記ITFは、前記入力オーディオ信号に対する前記同側HRTFによって前記対側HRTFを割った値に基づいて生成される、請求項7に記載の方法。
  9. 前記第1周波数帯域は、前記第2周波数帯域より低い周波数帯域である請求項6に記載の方法。
  10. 前記第1周波数帯域の前記同側及び対側伝達関数は第1伝達関数に基づいて生成され、前記第1周波数帯域とは異なる第2周波数帯域の前記同側及び対側伝達関数は第2伝達関数に基づいて生成され、前記第1周波数帯域と第2周波数帯域の間の第3周波数帯域の前記同側及び対側伝達関数は、第1伝達関数と第2伝達関数の線型結合に基づいて生成される、請求項6に記載の方法。
JP2017549156A 2014-12-04 2015-12-04 バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法 Active JP6454027B2 (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
KR20140173420 2014-12-04
KR10-2014-0173420 2014-12-04
KR10-2015-0015566 2015-01-30
KR20150015566 2015-01-30
KR20150116374 2015-08-18
KR10-2015-0116374 2015-08-18
PCT/KR2015/013277 WO2016089180A1 (ko) 2014-12-04 2015-12-04 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법

Publications (2)

Publication Number Publication Date
JP2018502535A JP2018502535A (ja) 2018-01-25
JP6454027B2 true JP6454027B2 (ja) 2019-01-16

Family

ID=56092040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017549156A Active JP6454027B2 (ja) 2014-12-04 2015-12-04 バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法

Country Status (7)

Country Link
US (1) US9961466B2 (ja)
EP (1) EP3229498B1 (ja)
JP (1) JP6454027B2 (ja)
KR (1) KR101627647B1 (ja)
CN (1) CN107005778B (ja)
ES (1) ES2936834T3 (ja)
WO (1) WO2016089180A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10595150B2 (en) 2016-03-07 2020-03-17 Cirrus Logic, Inc. Method and apparatus for acoustic crosstalk cancellation
US9800990B1 (en) * 2016-06-10 2017-10-24 C Matter Limited Selecting a location to localize binaural sound
JP7039494B2 (ja) * 2016-06-17 2022-03-22 ディーティーエス・インコーポレイテッド 近/遠距離レンダリングを用いた距離パニング
EP3504887B1 (en) * 2016-08-24 2023-05-31 Advanced Bionics AG Systems and methods for facilitating interaural level difference perception by preserving the interaural level difference
GB2556663A (en) * 2016-10-05 2018-06-06 Cirrus Logic Int Semiconductor Ltd Method and apparatus for acoustic crosstalk cancellation
KR102070360B1 (ko) * 2017-09-22 2020-01-29 주식회사 디지소닉 입체음향서비스장치의 구동방법, 그리고 컴퓨터판독가능기록매체
EP3499917A1 (en) * 2017-12-18 2019-06-19 Nokia Technologies Oy Enabling rendering, for consumption by a user, of spatial audio content
US10609504B2 (en) * 2017-12-21 2020-03-31 Gaudi Audio Lab, Inc. Audio signal processing method and apparatus for binaural rendering using phase response characteristics
JP7384162B2 (ja) 2018-08-17 2023-11-21 ソニーグループ株式会社 信号処理装置、信号処理方法、およびプログラム
US11212631B2 (en) 2019-09-16 2021-12-28 Gaudio Lab, Inc. Method for generating binaural signals from stereo signals using upmixing binauralization, and apparatus therefor
CN114503608B (zh) * 2019-09-23 2024-03-01 杜比实验室特许公司 利用变换参数的音频编码/解码
US10841728B1 (en) * 2019-10-10 2020-11-17 Boomcloud 360, Inc. Multi-channel crosstalk processing
US11337021B2 (en) * 2020-05-22 2022-05-17 Chiba Institute Of Technology Head-related transfer function generator, head-related transfer function generation program, and head-related transfer function generation method
CN113747335A (zh) * 2020-05-29 2021-12-03 华为技术有限公司 音频渲染方法及装置
WO2022075908A1 (en) * 2020-10-06 2022-04-14 Dirac Research Ab Hrtf pre-processing for audio applications
GB2600943A (en) * 2020-11-11 2022-05-18 Sony Interactive Entertainment Inc Audio personalisation method and system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10136497A (ja) * 1996-10-24 1998-05-22 Roland Corp 音像定位装置
US6243476B1 (en) * 1997-06-18 2001-06-05 Massachusetts Institute Of Technology Method and apparatus for producing binaural audio for a moving listener
US6442277B1 (en) * 1998-12-22 2002-08-27 Texas Instruments Incorporated Method and apparatus for loudspeaker presentation for positional 3D sound
EP1305975B1 (en) * 2000-06-13 2011-11-23 GN Resound A/S Adaptive microphone array system with preserving binaural cues
JP2003230198A (ja) * 2002-02-01 2003-08-15 Matsushita Electric Ind Co Ltd 音像定位制御装置
CA2621940C (en) * 2005-09-09 2014-07-29 Mcmaster University Method and device for binaural signal enhancement
GB0609248D0 (en) * 2006-05-10 2006-06-21 Leuven K U Res & Dev Binaural noise reduction preserving interaural transfer functions
US8705748B2 (en) * 2007-05-04 2014-04-22 Creative Technology Ltd Method for spatially processing multichannel signals, processing module, and virtual surround-sound systems
US8295498B2 (en) * 2008-04-16 2012-10-23 Telefonaktiebolaget Lm Ericsson (Publ) Apparatus and method for producing 3D audio in systems with closely spaced speakers
KR101526014B1 (ko) * 2009-01-14 2015-06-04 엘지전자 주식회사 다채널 서라운드 스피커 시스템
WO2011045751A1 (en) * 2009-10-12 2011-04-21 Nokia Corporation Multi-way analysis for audio processing
EP2550813B1 (en) * 2010-03-26 2016-11-09 Harman Becker Gépkocsirendszer Gyártó Korlátolt Felelösségü Társaság Multichannel sound reproduction method and device
US9185490B2 (en) * 2010-11-12 2015-11-10 Bradley M. Starobin Single enclosure surround sound loudspeaker system and method
WO2013181172A1 (en) * 2012-05-29 2013-12-05 Creative Technology Ltd Stereo widening over arbitrarily-configured loudspeakers
BR112015024692B1 (pt) * 2013-03-29 2021-12-21 Samsung Electronics Co., Ltd Método de provisão de áudio realizado por um aparelho de áudio, e aparelho de áudio
US20160088417A1 (en) * 2013-04-30 2016-03-24 Intellectual Discovery Co., Ltd. Head mounted display and method for providing audio content by using same

Also Published As

Publication number Publication date
KR101627647B1 (ko) 2016-06-07
WO2016089180A1 (ko) 2016-06-09
US20170272882A1 (en) 2017-09-21
EP3229498A4 (en) 2018-09-12
ES2936834T3 (es) 2023-03-22
US9961466B2 (en) 2018-05-01
CN107005778A (zh) 2017-08-01
EP3229498A1 (en) 2017-10-11
JP2018502535A (ja) 2018-01-25
CN107005778B (zh) 2020-11-27
EP3229498B1 (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP6454027B2 (ja) バイノーラルレンダリングのためのオーディオ信号処理装置及びその方法
KR101627652B1 (ko) 바이노럴 렌더링을 위한 오디오 신호 처리 장치 및 방법
CN107018460B (zh) 具有头部跟踪的双耳头戴式耳机呈现
JP5694174B2 (ja) オーディオ空間化および環境シミュレーション
US9749767B2 (en) Method and apparatus for reproducing stereophonic sound
US10341799B2 (en) Impedance matching filters and equalization for headphone surround rendering
CN109155896B (zh) 用于改进音频虚拟化的系统和方法
WO2015134658A1 (en) Structural modeling of the head related impulse response
KR20180075610A (ko) 사운드 스테이지 향상을 위한 장치 및 방법
CN108370485B (zh) 音频信号处理装置和方法
US20080279401A1 (en) Stereo expansion with binaural modeling
EP3225039B1 (en) System and method for producing head-externalized 3d audio through headphones
CN113170271A (zh) 用于处理立体声信号的方法和装置
EP3545693A1 (en) Method and apparatus for adaptive control of decorrelation filters
EP2946573B1 (en) Audio signal processing apparatus
RU2427978C2 (ru) Кодирование и декодирование аудио
EP4264963A1 (en) Binaural signal post-processing
US11470435B2 (en) Method and device for processing audio signals using 2-channel stereo speaker
Choi Extension of perceived source width using sound field reproduction systems
CN117156376A (zh) 环绕音效的生成方法、计算机设备及计算机存储介质
CA3142575A1 (en) Stereo headphone psychoacoustic sound localization system and method for reconstructing stereo psychoacoustic sound signals using same
Kim et al. 3D Sound Techniques for Sound Source Elevation in a Loudspeaker Listening Environment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6454027

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250