JP2022553913A - 空間オーディオ表現およびレンダリング - Google Patents
空間オーディオ表現およびレンダリング Download PDFInfo
- Publication number
- JP2022553913A JP2022553913A JP2022521423A JP2022521423A JP2022553913A JP 2022553913 A JP2022553913 A JP 2022553913A JP 2022521423 A JP2022521423 A JP 2022521423A JP 2022521423 A JP2022521423 A JP 2022521423A JP 2022553913 A JP2022553913 A JP 2022553913A
- Authority
- JP
- Japan
- Prior art keywords
- data set
- audio signal
- predefined
- binaural
- dataset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000009877 rendering Methods 0.000 title claims abstract description 157
- 230000005236 sound signal Effects 0.000 claims abstract description 170
- 230000004044 response Effects 0.000 claims description 115
- 230000006870 function Effects 0.000 claims description 85
- 238000000034 method Methods 0.000 claims description 54
- 238000012546 transfer Methods 0.000 claims description 44
- 238000004590 computer program Methods 0.000 claims description 7
- 230000001419 dependent effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 description 42
- 238000012545 processing Methods 0.000 description 27
- 230000003111 delayed effect Effects 0.000 description 24
- 238000004458 analytical method Methods 0.000 description 12
- 238000013461 design Methods 0.000 description 12
- 230000000875 corresponding effect Effects 0.000 description 11
- 239000000203 mixture Substances 0.000 description 11
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 230000003595 spectral effect Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 238000003786 synthesis reaction Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000002156 mixing Methods 0.000 description 6
- 239000004065 semiconductor Substances 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000001131 transforming effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000009792 diffusion process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012732 spatial analysis Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013079 data visualisation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
- H04S7/304—For headphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/305—Electronic adaptation of stereophonic audio signals to reverberation of the listening space
- H04S7/306—For headphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/07—Synergistic effects of band splitting and sub-band processing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
Abstract
Description
少なくとも1つの事前定義データセット内で、ギャップ内に位置する方向を有する少なくとも1つの事前定義データセットの要素を識別し、少なくとも1つの事前定義データセットの識別された要素と初期組合せデータセットとを結合するように構成され得る。
実質的なノイズがないこと、および実質的な破損がないことのうちの少なくとも1つで少なくとも1つのデータセットの要素であってもよい。
バイノーラルレンダリングに関連する少なくとも1つのデータセットを取得するステップと、バイノーラルレンダリングに関連する少なくとも1つの事前定義されたデータセットを取得するステップと、少なくとも1つのデータセットおよび少なくとも1つの事前定義されたデータセットの少なくとも一部と、空間オーディオ信号との組合せに基づいてバイノーラルオーディオ信号を生成するステップとを含む方法が提供される。
実質的なノイズがないこと、および実質的な破損がないことのうちの少なくとも1つで少なくとも1つのデータセットの要素であってもよい。
・ データセットは(例えば、22.2または5.1方向に対応する)スパースな測定セットに基づく。いくつかの方向(例えば、仰角、側面)は、応答を有さない場合がある。本発明は単一の(バイノーラルの)応答と同じくらい低い負荷を可能にし、依然として任意の方向へのレンダリングを提供する。
・ データセットは、ノイズまたは破損した測定手順の影響を受ける。
・ ロードされたデータがまばらである方向(すなわち、データセットにおける大きな角度ギャップ)において、事前定義されたデータを実質的に利用するように、ロードされたデータセットに事前定義されたデータセットを追加する。
・ ロードされたバイノーラル・レンダリング・データを、事前定義バイノーラル・レンダリング・データと部分的にまたは完全に置き換える。
・ ロードされたデータセットに基づいて、結合されたデータセットのスペクトル特性を調整する。
・ ロードされたデータセットに基づいて、結合されたデータセットの両耳間位相/時間プロパティを調整する。
αl,c(ql,qc)は、ロードされた前期データセットにおける、ql番目データポイントと、結合された前期データセットにおける、qc番目データポイントとの間の角度差であり、
αp,c(qp,qc)は、事前定義前期データセットにおけるqp番目データポインと、結合された前期データセットにおけるqc番目データポイントとの間の角度差である。
たとえば、
組み合わせた前期データセットから最も近い応答を選択する(特に密集した前期データセットが生成されている場合)こと、
公知方法(例)を使用して、最も近いデータポイント間を補間する。振幅パニングを実行するかのように、最も近いデータポイントにわたる(時間または周波数領域における)応答の重量平均を公式化すること、
例えば、エネルギーとITDを別々に補間することによって、パラメトリックな方法でデータ点間を補間し、球面調和領域(SHD)において前期描画データを使用すること(これは、本質的に、任意の方向への補間も手段する)、
のうちの1つを行うことができる。
・ バイノーラルルームインパルス応答(BRIR)のセットがプログラムにロードされる、
・ プログラムにおいて、BRIRデータセットは早い部分と遅い部分とに分割される、
・ プログラムにおいて、早い部分と遅い部分のスペクトル情報が推定される、
・ プログラムにおいて、周波数の関数としての残響時間(例えば、BRIRセットの平均)が推定される、
・ スペクトル情報および残響時間はプログラムからエクスポートされ、オーディオ処理ソフトウェアモジュールに組み込まれ、ここで、ソフトウェアモジュールは事前定義されたHRTFデータセットおよび構成可能な残響器を有する、
・ オーディオ処理ソフトウェアが事前定義されたHRTFデータセットに基づいて処理のスペクトルを変更するためにスペクトル情報を使用することを可能にされる、
・ オーディオ処理ソフトウェアが残響時間(およびスペクトル情報)を使用して、残響器を構成することを可能にされる、
・ ソフトウェアは例えば、携帯電話上でコンパイルされ、実行され、したがって、ルーム効果がロードされたBRIRデータセットに基づくが、事前定義HRTFデータセットも使用することによって、ルーム効果を有するバイノーラルオーディオをレンダリングすることが可能になる。
Claims (22)
- 少なくとも1つのオーディオ信号と、該少なくとも1つのオーディオ信号に関連付けられた空間メタデータとを含む空間オーディオ信号を取得し、
バイノーラルレンダリングに関連する少なくとも1つのデータセットを取得し、
バイノーラルレンダリングに関連する少なくとも1つの事前定義されたデータセットを取得し、
前記少なくとも1つのデータセットの少なくとも一部および前記少なくとも1つの事前定義されたデータセットと、前記空間オーディオ信号との組合せに基づいてバイノーラルオーディオ信号を生成する
ように構成された手段を備える装置。 - バイノーラルレンダリングに関連する前記少なくとも1つのデータセットは、
バイノーラル室内インパルス応答または伝達関数のセット、
頭部に関連するインパルス応答または伝達関数のセット、
バイノーラル室内インパルス応答または伝達関数に基づくデータセット、および、
頭部関連インパルス応答または伝達関数に基づくデータセット
のうちの少なくとも1つを含む、
請求項1に記載の装置。 - バイノーラルレンダリングに関連する前記少なくとも1つの事前定義データセットは、
事前定義バイノーラル室内インパルス応答または伝達関数のセット、
事前定義頭部関連インパルス応答または伝達関数のセット、
バイノーラル室内インパルス応答または伝達関数に基づく事前定義データセット、
および、捕捉された頭部関連インパルス応答または伝達関数に基づく事前定義データセット、
のうちの少なくとも1つを含む、
請求項1または2に記載の装置。 - 前記手段はさらに、前記少なくとも1つのデータセットを第1部分と第2部分とに分割するように構成され、
前記手段は、前記少なくとも1つのデータセットの前記第1部分と前記少なくとも1つの事前定義データセットとの第1部分の組合せを生成するように構成される、
請求項1ないし3のいずれか1項に記載の装置。 - 前記少なくとも1つのデータセットおよび前記少なくとも1つの事前定義データセットの少なくとも一部と、および、前記空間オーディオ信号と、の組合せに基づいてバイノーラルオーディオ信号を生成するように構成された前記手段は、
前記少なくとも1つのデータセットの前記第1部分および前記少なくとも1つの事前定義データセットと、前記空間オーディオ信号と、の組合せに基づいて、第1部分バイノーラルオーディオ信号を生成するように構成されている、
請求項4に記載の装置。 - 前記少なくとも1つのデータセットの少なくとも一部と、前記少なくとも1つの事前定義されたデータセットとの組合せを生成するように構成された手段は、
前記少なくとも1つのデータセットの前記第2部分と、前記少なくとも1つの事前定義データセットの前記少なくとも一部との組み合わせと、
前記少なくとも1つのデータセットの前記第2部分がヌルセットである前記少なくとも1つの事前定義データセットの少なくとも一部と、
少なくとも1つのデータセットの第2部分が実質的に、誤りを有するか、ノイズが多いか、または破損していると判定される少なくとも1つの事前定義データセットの少なくとも一部と、
のうちの1つを含む第2部分組合せを生成するようにさらに構成される、
請求項4および5のいずれか1項に記載の装置。 - 前記少なくとも1つのデータセットの少なくとも一部と、前記少なくとも1つの事前定義データセットとの組み合わせ、および、前記空間オーディオ信号に基づいてバイノーラルオーディオ信号を生成するように構成された前記手段は、
前記第2部分組み合わせおよび前記空間オーディオ信号に基づいて第2部分バイノーラルオーディオ信号を生成するように構成される、
請求項6に記載の装置。 - 請求項5に従属するときに、前記少なくとも1つのデータセットの少なくとも一部と前記少なくとも1つの事前定義データセットとの組合せ、および前記空間オーディオ信号に基づいてバイノーラルオーディオ信号を生成するように構成された前記手段は、
前記第1部分のバイノーラルオーディオ信号と前記第2部分のバイノーラルオーディオ信号とを結合するように構成される、
請求項7に記載の装置。 - 前記少なくとも1つのデータセットを第1部分と第2部分とに分割するように構成された前記手段は、
決定された最大エネルギーの時間からのオフセット時間とクロスオーバ時間とに基づいてロールオフ機能を有する第1ウィンドウ機能を生成し、ここで、該第1ウィンドウ機能は、前記第1部分を生成するために少なくとも1つのデータセットに適用され、
決定された最大エネルギーの時間からのオフセット時間とクロスオーバ時間とに基づいてロールオン機能を有する第2ウィンドウ機能を生成するように構成され、ここで、該第2ウィンドウ機能は、前記第2部分を生成するために、前記少なくとも1つのデータセットに適用されるものである、
請求項4ないし8のいずれか1項に記載の装置。 - 前記手段は、前記少なくとも1つのデータセットの少なくとも一部と、前記少なくとも1つの事前定義データセットとの組合せを生成するように構成される、請求項1ないし9のいずれか1項に記載の機器。
- 前記少なくとも1つのデータセットの少なくとも一部と、前記少なくとも1つの事前定義されたデータセットとの組合せを生成するように構成された前記手段は、
前記少なくとも1つのデータセットの選択に基づいて初期結合データセットを生成し、
決定されたしきい値より大きい方向差を有する初期結合データセットの隣接要素の少なくとも1つのペアによって定義される該初期結合データセット内の少なくとも1つのギャップを決定し、
ギャップごとに、
前記少なくとも1つの事前定義されたデータセット内で、該ギャップ内に位置する方向を有する前記少なくとも1つの事前定義されたセットの要素を識別し、
前記少なくとも1つの事前定義されたデータセットの識別された要素と前記初期結合データセットとを結合するように構成される、
請求項10に記載の装置。 - 前記決定された閾値は、方位角閾値および仰角閾値を含む、請求項10または11に記載の装置。
- 前記少なくとも1つのデータセットの少なくとも一部と前記少なくとも1つの事前定義されたデータセットとの組み合わせが、方向の範囲にわたって定義され、
前記方向の範囲にわたって、前記組み合わせが、定義された閾値を超える方向ギャップを含まない、請求項1ないし12のいずれか1項に記載の装置。 - 前記少なくとも1つのデータセットの少なくとも一部が、実質的な誤りがない、実質的なノイズがない、実質的な破損がない、のうちの少なくとも1つである前記少なくとも1つのデータセットの要素である、請求項1ないし12のいずれか1項に記載の装置。
- 前記少なくとも1つのオーディオ信号と、前記少なくとも1つのオーディオ信号に関連付けられた空間メタデータとを含む空間オーディオ信号を取得するように構成された前記手段は、
前記空間オーディオ信号を、さらなる装置から受信するように構成される、
請求項1から14のいずれかに記載の装置。 - バイノーラルレンダリングに関連する少なくとも1つのデータセットを取得するように構成された手段は、さらなる装置から該少なくとも1つのデータセットを受信するように構成される、請求項1ないし15のいずれか1項に記載の装置。
- 少なくとも1つのオーディオ信号と、該少なくとも1つのオーディオ信号に関連付けられた空間メタデータとを含む空間オーディオ信号を取得するステップと、
バイノーラルレンダリングに関連する少なくとも1つのデータセットを取得するステップと、
バイノーラルレンダリングに関連する少なくとも1つの事前定義されたデータセットを取得するステップと、
少なくとも1つのデータセットの少なくとも一部および前記少なくとも1つの事前定義データセットと、前記空間オーディオ信号との組合せに基づいてバイノーラルオーディオ信号を生成するステップと、
を含む方法。 - バイノーラルレンダリングに関連する前記少なくとも1つのデータセットは、
バイノーラル室内インパルス応答または伝達関数のセット、
頭部に関連するインパルス応答または伝達関数のセット、
バイノーラル室内インパルス応答または伝達関数に基づくデータセット、および、
頭部関連インパルス応答または伝達関数に基づくデータセット
のうちの少なくとも1つを含む、
請求項17に記載の方法。 - バイノーラルレンダリングに関連する前記少なくとも1つの事前定義データセットは、
事前定義バイノーラル室内インパルス応答または伝達関数のセット、
事前定義頭部関連インパルス応答または伝達関数のセット、
バイノーラル室内インパルス応答または伝達関数に基づく事前定義データセット、および、
捕捉された頭部関連インパルス応答または伝達関数に基づく事前定義データセットのうちの少なくとも1つを含む、
請求項17または18に記載の方法。 - 前記方法は、
前記少なくとも1つのデータセットを第1部分と第2部分とに分割するステップと、
前記少なくとも1つのデータセットの前記第1部分および前記少なくとも1つの事前定義データセットの第1部分の組み合わせを生成するステップと、
をさらに含む、請求項17ないし19のいずれか1項に記載の方法。 - 前記少なくとも1つのデータセットの少なくとも一部と、前記少なくとも1つの事前定義データセットと、前記空間オーディオ信号との組み合わせに基づいて、前記バイノーラルオーディオ信号を生成するステップは、
前記少なくとも1つのデータセットの前記第1部分、前記少なくとも1つの事前定義データセット、および前記空間オーディオ信号の組み合わせに基づいて、第1部分のバイノーラルオーディオ信号を生成することを含む、請求項20に記載の方法。 - 少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つのメモリとを備える装置であって、
該少なくとも1つのメモリおよび該コンピュータプログラムコードは、該少なくとも1つのプロセッサを用いて、該装置に、少なくとも、
少なくとも1つのオーディオ信号と、前記少なくとも1つのオーディオ信号に関連付けられた空間メタデータとを含む空間オーディオ信号を取得するステップと、
バイノーラルレンダリングに関連する少なくとも1つのデータセットを取得するステップと、
バイノーラルレンダリングに関連する少なくとも1つの事前定義されたデータセットを取得するステップと、
前記少なくとも1つのデータセットおよび前記少なくとも1つの事前定義されたデータセットの少なくとも一部と、空間オーディオ信号との組合せに基づいてバイノーラルオーディオ信号を生成するステップと、
を実行させるように構成される、
装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1914716.4 | 2019-10-11 | ||
GB1914716.4A GB2588171A (en) | 2019-10-11 | 2019-10-11 | Spatial audio representation and rendering |
PCT/FI2020/050641 WO2021069794A1 (en) | 2019-10-11 | 2020-09-29 | Spatial audio representation and rendering |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022553913A true JP2022553913A (ja) | 2022-12-27 |
Family
ID=68619568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022521423A Pending JP2022553913A (ja) | 2019-10-11 | 2020-09-29 | 空間オーディオ表現およびレンダリング |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220369061A1 (ja) |
EP (1) | EP4046399A4 (ja) |
JP (1) | JP2022553913A (ja) |
CN (1) | CN114556973A (ja) |
GB (1) | GB2588171A (ja) |
WO (1) | WO2021069794A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2609667A (en) * | 2021-08-13 | 2023-02-15 | British Broadcasting Corp | Audio rendering |
GB2618983A (en) * | 2022-02-24 | 2023-11-29 | Nokia Technologies Oy | Reverberation level compensation |
GB2616280A (en) * | 2022-03-02 | 2023-09-06 | Nokia Technologies Oy | Spatial rendering of reverberation |
WO2024089036A1 (en) * | 2022-10-24 | 2024-05-02 | Brandenburg Labs Gmbh | Audio signal processor and related method and computer program for generating a two-channel audio signal using a smart determination of the single-channel acoustic data |
CN118136042B (zh) * | 2024-05-10 | 2024-07-23 | 四川湖山电器股份有限公司 | 基于iir频谱拟合的频谱优化方法、系统、终端及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006500818A (ja) * | 2002-09-23 | 2006-01-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音再生システム、プログラム、及びデータ担体 |
US20180091920A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Producing Headphone Driver Signals in a Digital Audio Signal Processing Binaural Rendering Environment |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050069143A1 (en) * | 2003-09-30 | 2005-03-31 | Budnikov Dmitry N. | Filtering for spatial audio rendering |
WO2012093352A1 (en) * | 2011-01-05 | 2012-07-12 | Koninklijke Philips Electronics N.V. | An audio system and method of operation therefor |
US9860663B2 (en) * | 2013-01-15 | 2018-01-02 | Koninklijke Philips N.V. | Binaural audio processing |
MX346825B (es) * | 2013-01-17 | 2017-04-03 | Koninklijke Philips Nv | Procesamiento de audio biaural. |
GB201609089D0 (en) * | 2016-05-24 | 2016-07-06 | Smyth Stephen M F | Improving the sound quality of virtualisation |
WO2018147701A1 (ko) * | 2017-02-10 | 2018-08-16 | 가우디오디오랩 주식회사 | 오디오 신호 처리 방법 및 장치 |
WO2019054559A1 (ko) * | 2017-09-15 | 2019-03-21 | 엘지전자 주식회사 | Brir/rir 파라미터화(parameterization)를 적용한 오디오 인코딩 방법 및 파라미터화된 brir/rir 정보를 이용한 오디오 재생 방법 및 장치 |
US10609504B2 (en) * | 2017-12-21 | 2020-03-31 | Gaudi Audio Lab, Inc. | Audio signal processing method and apparatus for binaural rendering using phase response characteristics |
US10390171B2 (en) * | 2018-01-07 | 2019-08-20 | Creative Technology Ltd | Method for generating customized spatial audio with head tracking |
-
2019
- 2019-10-11 GB GB1914716.4A patent/GB2588171A/en not_active Withdrawn
-
2020
- 2020-09-29 CN CN202080070895.XA patent/CN114556973A/zh active Pending
- 2020-09-29 WO PCT/FI2020/050641 patent/WO2021069794A1/en unknown
- 2020-09-29 JP JP2022521423A patent/JP2022553913A/ja active Pending
- 2020-09-29 EP EP20874561.2A patent/EP4046399A4/en active Pending
- 2020-09-29 US US17/767,265 patent/US20220369061A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006500818A (ja) * | 2002-09-23 | 2006-01-05 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音再生システム、プログラム、及びデータ担体 |
US20180091920A1 (en) * | 2016-09-23 | 2018-03-29 | Apple Inc. | Producing Headphone Driver Signals in a Digital Audio Signal Processing Binaural Rendering Environment |
Also Published As
Publication number | Publication date |
---|---|
GB2588171A (en) | 2021-04-21 |
GB201914716D0 (en) | 2019-11-27 |
US20220369061A1 (en) | 2022-11-17 |
EP4046399A1 (en) | 2022-08-24 |
WO2021069794A1 (en) | 2021-04-15 |
CN114556973A (zh) | 2022-05-27 |
EP4046399A4 (en) | 2023-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zaunschirm et al. | Binaural rendering of Ambisonic signals by head-related impulse response time alignment and a diffuseness constraint | |
CN111316354B (zh) | 目标空间音频参数和相关联的空间音频播放的确定 | |
RU2759160C2 (ru) | УСТРОЙСТВО, СПОСОБ И КОМПЬЮТЕРНАЯ ПРОГРАММА ДЛЯ КОДИРОВАНИЯ, ДЕКОДИРОВАНИЯ, ОБРАБОТКИ СЦЕНЫ И ДРУГИХ ПРОЦЕДУР, ОТНОСЯЩИХСЯ К ОСНОВАННОМУ НА DirAC ПРОСТРАНСТВЕННОМУ АУДИОКОДИРОВАНИЮ | |
US11832080B2 (en) | Spatial audio parameters and associated spatial audio playback | |
US20220369061A1 (en) | Spatial Audio Representation and Rendering | |
US20240089692A1 (en) | Spatial Audio Representation and Rendering | |
US20230199417A1 (en) | Spatial Audio Representation and Rendering | |
CN112567765B (zh) | 空间音频捕获、传输和再现 | |
US20220078570A1 (en) | Method for generating binaural signals from stereo signals using upmixing binauralization, and apparatus therefor | |
JP2024023412A (ja) | 音場関連のレンダリング | |
US20240274137A1 (en) | Parametric spatial audio rendering | |
US20230274747A1 (en) | Stereo-based immersive coding | |
GB2627482A (en) | Diffuse-preserving merging of MASA and ISM metadata |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220608 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220608 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230704 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231003 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240808 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20240819 |