JP2016524726A - 球面調和係数に対して空間マスキングを実行すること - Google Patents
球面調和係数に対して空間マスキングを実行すること Download PDFInfo
- Publication number
- JP2016524726A JP2016524726A JP2016516797A JP2016516797A JP2016524726A JP 2016524726 A JP2016524726 A JP 2016524726A JP 2016516797 A JP2016516797 A JP 2016516797A JP 2016516797 A JP2016516797 A JP 2016516797A JP 2016524726 A JP2016524726 A JP 2016524726A
- Authority
- JP
- Japan
- Prior art keywords
- audio data
- channel audio
- spatial
- generate
- spherical harmonic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 230000000873 masking effect Effects 0.000 title claims abstract description 268
- 238000000034 method Methods 0.000 claims abstract description 162
- 238000012732 spatial analysis Methods 0.000 claims abstract description 58
- 238000009877 rendering Methods 0.000 claims description 111
- 230000008569 process Effects 0.000 claims description 37
- 230000002441 reversible effect Effects 0.000 claims description 25
- 238000004091 panning Methods 0.000 claims description 20
- 238000013461 design Methods 0.000 claims description 19
- 230000002123 temporal effect Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 13
- 239000013598 vector Substances 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 7
- 238000004458 analytical method Methods 0.000 description 34
- 230000006870 function Effects 0.000 description 27
- 239000011159 matrix material Substances 0.000 description 22
- 238000010586 diagram Methods 0.000 description 21
- 230000008901 benefit Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000010454 slate Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000005405 multipole Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
以下に、出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
マルチチャンネルオーディオデータを圧縮する方法であって、
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行することと、
前記複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることと、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮することとを備える方法。
[C2]
前記ビットストリームのターゲットビットレートを決定することをさらに備え、
前記マルチチャンネルオーディオデータを圧縮することは、前記圧縮されたオーディオデータを表すビットストリームを生成するために、前記ターゲットビットレートに基づいて、i)パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することを備える、C1に記載の方法。
[C3]
i)前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキングを実行することとを備える、C2に記載の方法。
[C4]
i)前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記マルチチャンネルオーディオデータの1つまたは複数のベースチャンネルに対して前記空間マスキングしきい値を使用した前記空間マスキングを実行し、前記マルチチャンネルオーディオデータに対して前記パラメトリックチャンネル間オーディオ符号化を実行することとを備える、C2に記載の方法。
[C5]
前記球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることは、前記球面調和係数から32個のスピーカーに対する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングすることを備える、C1に記載の方法。
[C6]
前記球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることは、前記球面調和係数から高密度T設計で配置された32個のスピーカーに対応する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングすることを備える、C1に記載の方法。
[C7]
前記マルチチャンネルオーディオデータを圧縮することは、前記空間マスキングしきい値に基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振ることを備える、C1に記載の方法。
[C8]
前記マルチチャンネルオーディオデータを圧縮することは、前記空間マスキングしきい値と時間マスキングしきい値とに基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振ることを備える、C1に記載の方法。
[C9]
前記マルチチャンネルオーディオデータを圧縮することは、前記識別された空間マスキングしきい値に基づいてエントロピー符号化を実行することを備える、C1に記載の方法。
[C10]
変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を時間領域から周波数領域に変換することをさらに備え、
前記マルチチャンネルオーディオデータをレンダリングすることは、前記変換された複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることを備える、C1に記載の方法。
[C11]
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行し、前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングし、ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮するように構成された1つまたは複数のプロセッサを備えるオーディオ符号化デバイス。
[C12]
前記1つまたは複数のプロセッサは、前記ビットストリームのターゲットビットレートを決定するようにさらに構成され、
前記1つまたは複数のプロセッサは、前記圧縮されたオーディオデータを表すビットストリームを生成するために、前記ターゲットビットレートに基づいて、i)パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行するように構成される、C11に記載のオーディオ符号化デバイス。
[C13]
前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキングを実行するように構成される、C12に記載のオーディオ符号化デバイス。
[C14]
前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記マルチチャンネルオーディオデータの1つまたは複数のベースチャンネルに対して前記空間マスキングしきい値を使用した前記空間マスキングを実行し、前記マルチチャンネルオーディオデータに対して前記パラメトリックチャンネル間オーディオ符号化を実行するように構成される、C12に記載のオーディオ符号化デバイス。
[C15]
前記1つまたは複数のプロセッサは、前記球面調和係数から32個のスピーカーに対する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングするようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C16]
前記1つまたは複数のプロセッサは、前記球面調和係数から高密度T設計で配置された32個のスピーカーに対応する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングするようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C17]
前記1つまたは複数のプロセッサは、前記空間マスキングしきい値に基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振るようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C18]
前記1つまたは複数のプロセッサは、前記空間マスキングしきい値と時間マスキングしきい値とに基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振るようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C19]
前記1つまたは複数のプロセッサは、前記識別された空間マスキングしきい値に基づいてエントロピー符号化を実行するようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C20]
前記1つまたは複数のプロセッサは、変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を時間領域から周波数領域に変換し、前記マルチチャンネルオーディオデータをレンダリングするときに、前記変換された複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングするようにさらに構成される、C11に記載のオーディオ符号化デバイス。
[C21]
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行するための手段と、
前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングするための手段と、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮するための手段とを備えるオーディオ符号化デバイス。
[C22]
実行されると、オーディオ符号化デバイスの1つまたは複数のプロセッサに、
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行させ、
前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングさせ、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮させる命令を記憶した非一時的コンピュータ可読記憶媒体。
[C23]
定義されたスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号することと、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行することと、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングすることとを備える方法。
[C24]
前記ビットストリームのターゲットビットレートを決定することをさらに備え、
前記ビットストリームを復号することは、前記ターゲットビットレートに基づいて、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対してパラメトリックチャンネル間オーディオ復号を実行することを備える、C23に記載の方法。
[C25]
前記パラメトリックチャンネル間オーディオ復号を実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対して前記パラメトリックチャンネル間オーディオ復号を実行することとを備える、C24に記載の方法。
[C26]
前記しきい値ビットレートは24−2キロビット毎秒(Kbps)に等しい、C25に記載の方法。
[C27]
前記逆レンダリングプロセスを実行することは、前記複数の球面調和係数を生成するために、23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行することを備える、C23に記載の方法。
[C28]
前記逆レンダリングプロセスを実行することは、前記複数の球面調和係数を生成するために、高密度T設計で配置された23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行することを備える、C23に記載の方法。
[C29]
変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を周波数領域から時間領域に変換することをさらに備え、
前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記変換された複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータをレンダリングすることを備える、C23に記載の方法。
[C30]
前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータを生成するために、前記複数の球面調和係数に対して変換を実行することを備える、C23に記載の方法。
[C31]
前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルは、前記ローカルスピーカー幾何学的配置とは異なる幾何学的配置で配置された仮想スピーカーに対応する複数の仮想チャンネルを備え、
前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想ラウドスピーカーチャンネルに対してパンニングを実行することをさらに備える、C30に記載の方法。
[C32]
パンニングを実行することは、前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想チャンネルに対してベクトルベース振幅パンニングを実行することを備える、C31に記載の方法。
[C33]
前記複数の仮想チャンネルの各々は、対応する異なる定義された空間領域に関連付けられる、C32に記載の方法。
[C34]
前記異なる定義された空間領域は、オーディオフォーマット仕様およびオーディオフォーマット規格のうちの1つまたは複数で定義される、C33に記載の方法。
[C35]
第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号し、複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行し、前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングするように構成された1つまたは複数のプロセッサを備えるオーディオ復号デバイス。
[C36]
前記1つまたは複数のプロセッサは、前記ビットストリームのターゲットビットレートを決定するようにさらに構成され、
前記1つまたは複数のプロセッサは、前記ターゲットビットレートに基づいて、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対してパラメトリックチャンネル間オーディオ復号を実行するように構成される、C35に記載のオーディオ復号デバイス。
[C37]
前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対して前記パラメトリックチャンネル間オーディオ復号を実行するように構成される、C36に記載のオーディオ復号デバイス。
[C38]
前記しきい値ビットレートは24−2キロビット毎秒(Kbps)に等しい、C37に記載のオーディオ復号デバイス。
[C39]
前記1つまたは複数のプロセッサは、前記逆レンダリングプロセスを実行するときに、前記複数の球面調和係数を生成するために、23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行するように構成される、C35に記載のオーディオ復号デバイス。
[C40]
前記1つまたは複数のプロセッサは、前記逆レンダリングプロセスを実行するときに、前記複数の球面調和係数を生成するために、高密度T設計で配置された23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行するように構成される、C35に記載のオーディオ復号デバイス。
[C41]
前記1つまたは複数のプロセッサは、変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を周波数領域から時間領域に変換するように構成され、
前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記変換された複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータをレンダリングするように構成される、C35に記載のオーディオ復号デバイス。
[C42]
前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータを生成するために、前記複数の球面調和係数に対して変換を実行するように構成される、C35に記載のオーディオ復号デバイス。
[C43]
前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルは、前記ローカルスピーカー幾何学的配置とは異なる幾何学的配置で配置された仮想スピーカーに対応する複数の仮想チャンネルを備え、
前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想ラウドスピーカーチャンネルに対してパンニングを実行するように構成される、C42に記載のオーディオ復号デバイス。
[C44]
前記1つまたは複数のプロセッサは、パンニングを実行するときに、前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想チャンネルに対してベクトルベース振幅パンニングを実行するように構成される、C43に記載のオーディオ復号デバイス。
[C45]
前記複数の仮想チャンネルの各々は、対応する異なる定義された空間領域に関連付けられる、C44に記載のオーディオ復号デバイス。
[C46]
前記異なる定義された空間領域は、オーディオフォーマット仕様およびオーディオフォーマット規格のうちの1つまたは複数で定義される、C45に記載のオーディオ復号デバイス。
[C47]
第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号するための手段と、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行するための手段と、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングするための手段とを備えるオーディオ復号デバイス。
[C48]
実行されると、オーディオ復号デバイスの1つまたは複数のプロセッサに、
第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号させ、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行させ、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングさせる、命令を記憶した非一時的コンピュータ可読記憶媒体。
Claims (48)
- マルチチャンネルオーディオデータを圧縮する方法であって、
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行することと、
前記複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることと、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮することと
を備える方法。 - 前記ビットストリームのターゲットビットレートを決定することをさらに備え、
前記マルチチャンネルオーディオデータを圧縮することは、前記圧縮されたオーディオデータを表すビットストリームを生成するために、前記ターゲットビットレートに基づいて、i)パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することを備える、
請求項1に記載の方法。 - i)前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキングを実行することと
を備える、請求項2に記載の方法。 - i)前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記マルチチャンネルオーディオデータの1つまたは複数のベースチャンネルに対して前記空間マスキングしきい値を使用した前記空間マスキングを実行し、前記マルチチャンネルオーディオデータに対して前記パラメトリックチャンネル間オーディオ符号化を実行することと
を備える、請求項2に記載の方法。 - 前記球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることは、前記球面調和係数から32個のスピーカーに対する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングすることを備える、請求項1に記載の方法。
- 前記球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることは、前記球面調和係数から高密度T設計で配置された32個のスピーカーに対応する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングすることを備える、請求項1に記載の方法。
- 前記マルチチャンネルオーディオデータを圧縮することは、前記空間マスキングしきい値に基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振ることを備える、請求項1に記載の方法。
- 前記マルチチャンネルオーディオデータを圧縮することは、前記空間マスキングしきい値と時間マスキングしきい値とに基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振ることを備える、請求項1に記載の方法。
- 前記マルチチャンネルオーディオデータを圧縮することは、前記識別された空間マスキングしきい値に基づいてエントロピー符号化を実行することを備える、請求項1に記載の方法。
- 変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を時間領域から周波数領域に変換することをさらに備え、
前記マルチチャンネルオーディオデータをレンダリングすることは、前記変換された複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングすることを備える、
請求項1に記載の方法。 - 空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行し、前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングし、ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮するように構成された1つまたは複数のプロセッサ
を備えるオーディオ符号化デバイス。 - 前記1つまたは複数のプロセッサは、前記ビットストリームのターゲットビットレートを決定するようにさらに構成され、
前記1つまたは複数のプロセッサは、前記圧縮されたオーディオデータを表すビットストリームを生成するために、前記ターゲットビットレートに基づいて、i)パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した空間マスキング、またはii)前記パラメトリックチャンネル間オーディオ符号化を実行することなしに、前記空間マスキングしきい値を使用した前記空間マスキングのいずれかを実行するように構成される、
請求項11に記載のオーディオ符号化デバイス。 - 前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記パラメトリックチャンネル間オーディオ符号化および前記空間マスキングしきい値を使用した前記空間マスキングを実行するように構成される、請求項12に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記ビットストリームを生成するために、前記マルチチャンネルオーディオデータの1つまたは複数のベースチャンネルに対して前記空間マスキングしきい値を使用した前記空間マスキングを実行し、前記マルチチャンネルオーディオデータに対して前記パラメトリックチャンネル間オーディオ符号化を実行するように構成される、請求項12に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記球面調和係数から32個のスピーカーに対する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングするようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記球面調和係数から高密度T設計で配置された32個のスピーカーに対応する前記マルチチャンネルオーディオデータの32個のチャンネルをレンダリングするようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記空間マスキングしきい値に基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振るようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記空間マスキングしきい値と時間マスキングしきい値とに基づいて、前記マルチチャンネルオーディオデータの時間ベース表現または前記マルチチャンネルオーディオデータの周波数ベース表現のいずれかについて前記ビットストリーム中にビットを割り振るようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、前記識別された空間マスキングしきい値に基づいてエントロピー符号化を実行するようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 前記1つまたは複数のプロセッサは、変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を時間領域から周波数領域に変換し、前記マルチチャンネルオーディオデータをレンダリングするときに、前記変換された複数の球面調和係数から前記マルチチャンネルオーディオデータをレンダリングするようにさらに構成される、請求項11に記載のオーディオ符号化デバイス。
- 空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行するための手段と、
前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングするための手段と、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮するための手段と
を備えるオーディオ符号化デバイス。 - 実行されると、オーディオ符号化デバイスの1つまたは複数のプロセッサに、
空間マスキングしきい値を識別するために、3次元音場を記述する複数の球面調和係数に基づいて空間解析を実行させ、
前記複数の球面調和係数からマルチチャンネルオーディオデータをレンダリングさせ、
ビットストリームを生成するために、前記識別された空間マスキングしきい値に基づいて前記マルチチャンネルオーディオデータを圧縮させる
命令を記憶した非一時的コンピュータ可読記憶媒体。 - 定義されたスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号することと、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行することと、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングすることと
を備える方法。 - 前記ビットストリームのターゲットビットレートを決定することをさらに備え、
前記ビットストリームを復号することは、前記ターゲットビットレートに基づいて、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対してパラメトリックチャンネル間オーディオ復号を実行することを備える、
請求項23に記載の方法。 - 前記パラメトリックチャンネル間オーディオ復号を実行することは、
前記ターゲットビットレートがしきい値ビットレートを下回ると決定することと、
前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対して前記パラメトリックチャンネル間オーディオ復号を実行することと
を備える、請求項24に記載の方法。 - 前記しきい値ビットレートは24−2キロビット毎秒(Kbps)に等しい、請求項25に記載の方法。
- 前記逆レンダリングプロセスを実行することは、前記複数の球面調和係数を生成するために、23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行することを備える、請求項23に記載の方法。
- 前記逆レンダリングプロセスを実行することは、前記複数の球面調和係数を生成するために、高密度T設計で配置された23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行することを備える、請求項23に記載の方法。
- 変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を周波数領域から時間領域に変換することをさらに備え、
前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記変換された複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータをレンダリングすることを備える、
請求項23に記載の方法。 - 前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータを生成するために、前記複数の球面調和係数に対して変換を実行することを備える、請求項23に記載の方法。
- 前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルは、前記ローカルスピーカー幾何学的配置とは異なる幾何学的配置で配置された仮想スピーカーに対応する複数の仮想チャンネルを備え、
前記第2のマルチチャンネルオーディオデータをレンダリングすることは、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想ラウドスピーカーチャンネルに対してパンニングを実行することをさらに備える、
請求項30に記載の方法。 - パンニングを実行することは、前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想チャンネルに対してベクトルベース振幅パンニングを実行することを備える、請求項31に記載の方法。
- 前記複数の仮想チャンネルの各々は、対応する異なる定義された空間領域に関連付けられる、請求項32に記載の方法。
- 前記異なる定義された空間領域は、オーディオフォーマット仕様およびオーディオフォーマット規格のうちの1つまたは複数で定義される、請求項33に記載の方法。
- 第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号し、複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行し、前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングするように構成された1つまたは複数のプロセッサを備える
オーディオ復号デバイス。 - 前記1つまたは複数のプロセッサは、前記ビットストリームのターゲットビットレートを決定するようにさらに構成され、
前記1つまたは複数のプロセッサは、前記ターゲットビットレートに基づいて、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対してパラメトリックチャンネル間オーディオ復号を実行するように構成される、
請求項35に記載のオーディオ復号デバイス。 - 前記1つまたは複数のプロセッサは、前記ターゲットビットレートがしきい値ビットレートを下回ると決定し、前記ターゲットビットレートが前記しきい値ビットレートを下回ると決定したことに応答して、前記第1のマルチチャンネルオーディオデータを生成するために、前記ビットストリームに対して前記パラメトリックチャンネル間オーディオ復号を実行するように構成される、請求項36に記載のオーディオ復号デバイス。
- 前記しきい値ビットレートは24−2キロビット毎秒(Kbps)に等しい、請求項37に記載のオーディオ復号デバイス。
- 前記1つまたは複数のプロセッサは、前記逆レンダリングプロセスを実行するときに、前記複数の球面調和係数を生成するために、23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行するように構成される、請求項35に記載のオーディオ復号デバイス。
- 前記1つまたは複数のプロセッサは、前記逆レンダリングプロセスを実行するときに、前記複数の球面調和係数を生成するために、高密度T設計で配置された23個のスピーカーに対応する前記第1のマルチチャンネルオーディオデータの23個のチャンネルに対して前記逆レンダリングプロセスを実行するように構成される、請求項35に記載のオーディオ復号デバイス。
- 前記1つまたは複数のプロセッサは、変換された複数の球面調和係数を生成するために、前記複数の球面調和係数を周波数領域から時間領域に変換するように構成され、
前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記変換された複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータをレンダリングするように構成される、
請求項35に記載のオーディオ復号デバイス。 - 前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記複数の球面調和係数に基づいて、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記複数のチャンネルを有する前記第2のマルチチャンネルオーディオデータを生成するために、前記複数の球面調和係数に対して変換を実行するように構成される、請求項35に記載のオーディオ復号デバイス。
- 前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルは、前記ローカルスピーカー幾何学的配置とは異なる幾何学的配置で配置された仮想スピーカーに対応する複数の仮想チャンネルを備え、
前記1つまたは複数のプロセッサは、前記第2のマルチチャンネルオーディオデータをレンダリングするときに、前記ローカルスピーカー幾何学的配置で配置された前記スピーカーに対応する前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想ラウドスピーカーチャンネルに対してパンニングを実行するように構成される、
請求項42に記載のオーディオ復号デバイス。 - 前記1つまたは複数のプロセッサは、パンニングを実行するときに、前記第2のマルチチャンネルオーディオデータの前記複数のチャンネルを生成するために、前記複数の仮想チャンネルに対してベクトルベース振幅パンニングを実行するように構成される、請求項43に記載のオーディオ復号デバイス。
- 前記複数の仮想チャンネルの各々は、対応する異なる定義された空間領域に関連付けられる、請求項44に記載のオーディオ復号デバイス。
- 前記異なる定義された空間領域は、オーディオフォーマット仕様およびオーディオフォーマット規格のうちの1つまたは複数で定義される、請求項45に記載のオーディオ復号デバイス。
- 第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号するための手段と、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行するための手段と、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングするための手段と
を備えるオーディオ復号デバイス。 - 実行されると、オーディオ復号デバイスの1つまたは複数のプロセッサに、
第1のスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第1のマルチチャンネルオーディオデータを生成するために、ビットストリームを復号させ、
複数の球面調和係数を生成するために、前記生成されたマルチチャンネルオーディオデータに対して逆レンダリングプロセスを実行させ、
前記複数の球面調和係数に基づいて、ローカルスピーカー幾何学的配置で配置されたスピーカーに対応する複数のチャンネルを有する第2のマルチチャンネルオーディオデータをレンダリングさせる、
命令を記憶した非一時的コンピュータ可読記憶媒体。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361828132P | 2013-05-28 | 2013-05-28 | |
US61/828,132 | 2013-05-28 | ||
US14/288,219 US9412385B2 (en) | 2013-05-28 | 2014-05-27 | Performing spatial masking with respect to spherical harmonic coefficients |
US14/288,219 | 2014-05-27 | ||
PCT/US2014/039860 WO2014194001A1 (en) | 2013-05-28 | 2014-05-28 | Performing spatial masking with respect to spherical harmonic coefficients |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016524726A true JP2016524726A (ja) | 2016-08-18 |
Family
ID=51985122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016516797A Ceased JP2016524726A (ja) | 2013-05-28 | 2014-05-28 | 球面調和係数に対して空間マスキングを実行すること |
Country Status (6)
Country | Link |
---|---|
US (1) | US9412385B2 (ja) |
EP (1) | EP3005357B1 (ja) |
JP (1) | JP2016524726A (ja) |
KR (1) | KR20160012215A (ja) |
CN (1) | CN105247612B (ja) |
WO (1) | WO2014194001A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020171049A1 (ja) * | 2019-02-19 | 2020-08-27 | 公立大学法人秋田県立大学 | 音響信号符号化方法、音響信号復号化方法、プログラム、符号化装置、音響システム、及び復号化装置 |
Families Citing this family (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8483853B1 (en) | 2006-09-12 | 2013-07-09 | Sonos, Inc. | Controlling and manipulating groupings in a multi-zone media system |
US9202509B2 (en) | 2006-09-12 | 2015-12-01 | Sonos, Inc. | Controlling and grouping in a multi-zone media system |
US8788080B1 (en) | 2006-09-12 | 2014-07-22 | Sonos, Inc. | Multi-channel pairing in a media system |
US8923997B2 (en) | 2010-10-13 | 2014-12-30 | Sonos, Inc | Method and apparatus for adjusting a speaker system |
US11265652B2 (en) | 2011-01-25 | 2022-03-01 | Sonos, Inc. | Playback device pairing |
US11429343B2 (en) | 2011-01-25 | 2022-08-30 | Sonos, Inc. | Stereo playback configuration and control |
US8938312B2 (en) | 2011-04-18 | 2015-01-20 | Sonos, Inc. | Smart line-in processing |
US9042556B2 (en) | 2011-07-19 | 2015-05-26 | Sonos, Inc | Shaping sound responsive to speaker orientation |
US8811630B2 (en) | 2011-12-21 | 2014-08-19 | Sonos, Inc. | Systems, methods, and apparatus to filter audio |
US9084058B2 (en) | 2011-12-29 | 2015-07-14 | Sonos, Inc. | Sound field calibration using listener localization |
US9729115B2 (en) | 2012-04-27 | 2017-08-08 | Sonos, Inc. | Intelligently increasing the sound level of player |
US9524098B2 (en) | 2012-05-08 | 2016-12-20 | Sonos, Inc. | Methods and systems for subwoofer calibration |
USD721352S1 (en) | 2012-06-19 | 2015-01-20 | Sonos, Inc. | Playback device |
US9668049B2 (en) | 2012-06-28 | 2017-05-30 | Sonos, Inc. | Playback device calibration user interfaces |
US9219460B2 (en) | 2014-03-17 | 2015-12-22 | Sonos, Inc. | Audio settings based on environment |
US9690271B2 (en) | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration |
US9690539B2 (en) | 2012-06-28 | 2017-06-27 | Sonos, Inc. | Speaker calibration user interface |
US9106192B2 (en) | 2012-06-28 | 2015-08-11 | Sonos, Inc. | System and method for device playback calibration |
US9706323B2 (en) | 2014-09-09 | 2017-07-11 | Sonos, Inc. | Playback device calibration |
US9288603B2 (en) | 2012-07-15 | 2016-03-15 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for backward-compatible audio coding |
US9473870B2 (en) * | 2012-07-16 | 2016-10-18 | Qualcomm Incorporated | Loudspeaker position compensation with 3D-audio hierarchical coding |
US8930005B2 (en) | 2012-08-07 | 2015-01-06 | Sonos, Inc. | Acoustic signatures in a playback system |
US8965033B2 (en) | 2012-08-31 | 2015-02-24 | Sonos, Inc. | Acoustic optimization |
US9008330B2 (en) | 2012-09-28 | 2015-04-14 | Sonos, Inc. | Crossover frequency adjustments for audio speakers |
USD721061S1 (en) | 2013-02-25 | 2015-01-13 | Sonos, Inc. | Playback device |
US9226087B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US9226073B2 (en) | 2014-02-06 | 2015-12-29 | Sonos, Inc. | Audio output balancing during synchronized playback |
US9264839B2 (en) | 2014-03-17 | 2016-02-16 | Sonos, Inc. | Playback device configuration based on proximity detection |
CN104934034B (zh) * | 2014-03-19 | 2016-11-16 | 华为技术有限公司 | 用于信号处理的方法和装置 |
US9367283B2 (en) | 2014-07-22 | 2016-06-14 | Sonos, Inc. | Audio settings |
USD883956S1 (en) | 2014-08-13 | 2020-05-12 | Sonos, Inc. | Playback device |
US9910634B2 (en) | 2014-09-09 | 2018-03-06 | Sonos, Inc. | Microphone calibration |
US10127006B2 (en) | 2014-09-09 | 2018-11-13 | Sonos, Inc. | Facilitating calibration of an audio playback device |
US9891881B2 (en) | 2014-09-09 | 2018-02-13 | Sonos, Inc. | Audio processing algorithm database |
US9952825B2 (en) | 2014-09-09 | 2018-04-24 | Sonos, Inc. | Audio processing algorithms |
US9973851B2 (en) | 2014-12-01 | 2018-05-15 | Sonos, Inc. | Multi-channel playback of audio content |
US10664224B2 (en) | 2015-04-24 | 2020-05-26 | Sonos, Inc. | Speaker calibration user interface |
WO2016172593A1 (en) | 2015-04-24 | 2016-10-27 | Sonos, Inc. | Playback device calibration user interfaces |
USD886765S1 (en) | 2017-03-13 | 2020-06-09 | Sonos, Inc. | Media playback device |
USD906278S1 (en) | 2015-04-25 | 2020-12-29 | Sonos, Inc. | Media player device |
USD768602S1 (en) | 2015-04-25 | 2016-10-11 | Sonos, Inc. | Playback device |
US20170085972A1 (en) | 2015-09-17 | 2017-03-23 | Sonos, Inc. | Media Player and Media Player Design |
USD920278S1 (en) | 2017-03-13 | 2021-05-25 | Sonos, Inc. | Media playback device with lights |
US10248376B2 (en) | 2015-06-11 | 2019-04-02 | Sonos, Inc. | Multiple groupings in a playback system |
US10091506B2 (en) * | 2015-06-11 | 2018-10-02 | Sony Corporation | Data-charge phase data compression architecture |
US9729118B2 (en) | 2015-07-24 | 2017-08-08 | Sonos, Inc. | Loudness matching |
US9538305B2 (en) | 2015-07-28 | 2017-01-03 | Sonos, Inc. | Calibration error conditions |
US9736610B2 (en) | 2015-08-21 | 2017-08-15 | Sonos, Inc. | Manipulation of playback device response using signal processing |
US9712912B2 (en) | 2015-08-21 | 2017-07-18 | Sonos, Inc. | Manipulation of playback device response using an acoustic filter |
JP6437695B2 (ja) | 2015-09-17 | 2018-12-12 | ソノズ インコーポレイテッド | オーディオ再生デバイスのキャリブレーションを容易にする方法 |
US9693165B2 (en) | 2015-09-17 | 2017-06-27 | Sonos, Inc. | Validation of audio calibration using multi-dimensional motion check |
US9743207B1 (en) | 2016-01-18 | 2017-08-22 | Sonos, Inc. | Calibration using multiple recording devices |
US10003899B2 (en) | 2016-01-25 | 2018-06-19 | Sonos, Inc. | Calibration with particular locations |
US11106423B2 (en) | 2016-01-25 | 2021-08-31 | Sonos, Inc. | Evaluating calibration of a playback device |
US9886234B2 (en) | 2016-01-28 | 2018-02-06 | Sonos, Inc. | Systems and methods of distributing audio to one or more playback devices |
US9864574B2 (en) | 2016-04-01 | 2018-01-09 | Sonos, Inc. | Playback device calibration based on representation spectral characteristics |
US9860662B2 (en) | 2016-04-01 | 2018-01-02 | Sonos, Inc. | Updating playback device configuration information based on calibration data |
US9763018B1 (en) | 2016-04-12 | 2017-09-12 | Sonos, Inc. | Calibration of audio playback devices |
CN109219847B (zh) * | 2016-06-01 | 2023-07-25 | 杜比国际公司 | 将多声道音频内容转换成基于对象的音频内容的方法及用于处理具有空间位置的音频内容的方法 |
US9860670B1 (en) | 2016-07-15 | 2018-01-02 | Sonos, Inc. | Spectral correction using spatial calibration |
US9794710B1 (en) | 2016-07-15 | 2017-10-17 | Sonos, Inc. | Spatial audio correction |
US10372406B2 (en) | 2016-07-22 | 2019-08-06 | Sonos, Inc. | Calibration interface |
US10459684B2 (en) | 2016-08-05 | 2019-10-29 | Sonos, Inc. | Calibration of a playback device based on an estimated frequency response |
CN107731238B (zh) * | 2016-08-10 | 2021-07-16 | 华为技术有限公司 | 多声道信号的编码方法和编码器 |
USD827671S1 (en) | 2016-09-30 | 2018-09-04 | Sonos, Inc. | Media playback device |
USD851057S1 (en) | 2016-09-30 | 2019-06-11 | Sonos, Inc. | Speaker grill with graduated hole sizing over a transition area for a media device |
US10412473B2 (en) | 2016-09-30 | 2019-09-10 | Sonos, Inc. | Speaker grill with graduated hole sizing over a transition area for a media device |
US10712997B2 (en) | 2016-10-17 | 2020-07-14 | Sonos, Inc. | Room association based on name |
EP3777245A1 (en) | 2018-04-11 | 2021-02-17 | Dolby International AB | Methods, apparatus and systems for a pre-rendered signal for audio rendering |
BR112020016912A2 (pt) * | 2018-04-16 | 2020-12-15 | Dolby Laboratories Licensing Corporation | Métodos, aparelhos e sistemas para codificação e decodificação de fontes de som direcionais |
US11133891B2 (en) | 2018-06-29 | 2021-09-28 | Khalifa University of Science and Technology | Systems and methods for self-synchronized communications |
US10951596B2 (en) * | 2018-07-27 | 2021-03-16 | Khalifa University of Science and Technology | Method for secure device-to-device communication using multilayered cyphers |
US11206484B2 (en) | 2018-08-28 | 2021-12-21 | Sonos, Inc. | Passive speaker authentication |
US10299061B1 (en) | 2018-08-28 | 2019-05-21 | Sonos, Inc. | Playback device calibration |
US11968268B2 (en) | 2019-07-30 | 2024-04-23 | Dolby Laboratories Licensing Corporation | Coordination of audio devices |
US10734965B1 (en) | 2019-08-12 | 2020-08-04 | Sonos, Inc. | Audio calibration of a portable playback device |
CN113593585A (zh) * | 2020-04-30 | 2021-11-02 | 华为技术有限公司 | 音频信号的比特分配方法和装置 |
US11521623B2 (en) | 2021-01-11 | 2022-12-06 | Bank Of America Corporation | System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording |
CN117041856A (zh) * | 2021-03-05 | 2023-11-10 | 华为技术有限公司 | Hoa系数的获取方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133366A (ja) * | 2010-12-21 | 2012-07-12 | Thomson Licensing | 二次元または三次元音場のアンビソニックス表現の一連のフレームをエンコードおよびデコードする方法および装置 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7110941B2 (en) * | 2002-03-28 | 2006-09-19 | Microsoft Corporation | System and method for embedded audio coding with implicit auditory masking |
KR100636144B1 (ko) * | 2004-06-04 | 2006-10-18 | 삼성전자주식회사 | 오디오 신호 부호화/복호화 장치 및 방법 |
JP2005352396A (ja) * | 2004-06-14 | 2005-12-22 | Matsushita Electric Ind Co Ltd | 音響信号符号化装置および音響信号復号装置 |
DE102005010057A1 (de) * | 2005-03-04 | 2006-09-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms |
WO2009067741A1 (en) | 2007-11-27 | 2009-06-04 | Acouity Pty Ltd | Bandwidth compression of parametric soundfield representations for transmission and storage |
US8219409B2 (en) * | 2008-03-31 | 2012-07-10 | Ecole Polytechnique Federale De Lausanne | Audio wave field encoding |
EP2450880A1 (en) * | 2010-11-05 | 2012-05-09 | Thomson Licensing | Data structure for Higher Order Ambisonics audio data |
TWI505262B (zh) * | 2012-05-15 | 2015-10-21 | Dolby Int Ab | 具多重子流之多通道音頻信號的有效編碼與解碼 |
KR101726205B1 (ko) * | 2012-11-07 | 2017-04-12 | 돌비 인터네셔널 에이비 | 감소된 복잡성 변환기 snr 계산 |
US9736609B2 (en) * | 2013-02-07 | 2017-08-15 | Qualcomm Incorporated | Determining renderers for spherical harmonic coefficients |
US9959875B2 (en) * | 2013-03-01 | 2018-05-01 | Qualcomm Incorporated | Specifying spherical harmonic and/or higher order ambisonics coefficients in bitstreams |
EP2800401A1 (en) * | 2013-04-29 | 2014-11-05 | Thomson Licensing | Method and Apparatus for compressing and decompressing a Higher Order Ambisonics representation |
-
2014
- 2014-05-27 US US14/288,219 patent/US9412385B2/en active Active
- 2014-05-28 EP EP14733456.9A patent/EP3005357B1/en active Active
- 2014-05-28 KR KR1020157036513A patent/KR20160012215A/ko not_active Application Discontinuation
- 2014-05-28 CN CN201480030439.7A patent/CN105247612B/zh not_active Expired - Fee Related
- 2014-05-28 JP JP2016516797A patent/JP2016524726A/ja not_active Ceased
- 2014-05-28 WO PCT/US2014/039860 patent/WO2014194001A1/en active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012133366A (ja) * | 2010-12-21 | 2012-07-12 | Thomson Licensing | 二次元または三次元音場のアンビソニックス表現の一連のフレームをエンコードおよびデコードする方法および装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020171049A1 (ja) * | 2019-02-19 | 2020-08-27 | 公立大学法人秋田県立大学 | 音響信号符号化方法、音響信号復号化方法、プログラム、符号化装置、音響システム、及び復号化装置 |
JPWO2020171049A1 (ja) * | 2019-02-19 | 2021-11-25 | 公立大学法人秋田県立大学 | 音響信号符号化方法、音響信号復号化方法、プログラム、符号化装置、音響システム、及び復号化装置 |
JP7232546B2 (ja) | 2019-02-19 | 2023-03-03 | 公立大学法人秋田県立大学 | 音響信号符号化方法、音響信号復号化方法、プログラム、符号化装置、音響システム、及び復号化装置 |
Also Published As
Publication number | Publication date |
---|---|
US9412385B2 (en) | 2016-08-09 |
CN105247612B (zh) | 2018-12-18 |
EP3005357B1 (en) | 2019-10-23 |
US20140355768A1 (en) | 2014-12-04 |
EP3005357A1 (en) | 2016-04-13 |
CN105247612A (zh) | 2016-01-13 |
KR20160012215A (ko) | 2016-02-02 |
WO2014194001A1 (en) | 2014-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9412385B2 (en) | Performing spatial masking with respect to spherical harmonic coefficients | |
US11664035B2 (en) | Spatial transformation of ambisonic audio data | |
JP6449455B2 (ja) | 高次アンビソニック(hoa)バックグラウンドチャネル間の相関の低減 | |
RU2661775C2 (ru) | Передача сигнальной информации рендеринга аудио в битовом потоке | |
US9875745B2 (en) | Normalization of ambient higher order ambisonic audio data | |
US10412522B2 (en) | Inserting audio channels into descriptions of soundfields | |
US9984693B2 (en) | Signaling channels for scalable coding of higher order ambisonic audio data | |
JP2016510905A (ja) | ビットストリームにおける球面調和係数および/または高次アンビソニックス係数の指定 | |
US10075802B1 (en) | Bitrate allocation for higher order ambisonic audio data | |
US9466302B2 (en) | Coding of spherical harmonic coefficients | |
US11062713B2 (en) | Spatially formatted enhanced audio data for backward compatible audio bitstreams |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180510 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180515 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180626 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A045 | Written measure of dismissal of application [lapsed due to lack of payment] |
Free format text: JAPANESE INTERMEDIATE CODE: A045 Effective date: 20190326 |