JP6676801B2 - マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス - Google Patents

マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス Download PDF

Info

Publication number
JP6676801B2
JP6676801B2 JP2019038692A JP2019038692A JP6676801B2 JP 6676801 B2 JP6676801 B2 JP 6676801B2 JP 2019038692 A JP2019038692 A JP 2019038692A JP 2019038692 A JP2019038692 A JP 2019038692A JP 6676801 B2 JP6676801 B2 JP 6676801B2
Authority
JP
Japan
Prior art keywords
audio
bitstream
matrix
rendering
speaker feeds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019038692A
Other languages
English (en)
Other versions
JP2019126070A (ja
Inventor
ディパンジャン・セン
マーティン・ジェームス・モレル
ニルス・ガンザー・ペーターズ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2019126070A publication Critical patent/JP2019126070A/ja
Application granted granted Critical
Publication of JP6676801B2 publication Critical patent/JP6676801B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/308Electronic adaptation dependent on speaker or headphone connection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Description

[0001]本出願は、2013年2月8日に出願された米国仮出願第61/762,758号の便益を主張する。
[0002]本開示は、音声コーディングに関し、より詳しくは、コーディングされた音声データを指定するビットストリームに関する。
[0003]音声コンテンツの作成の間、音響技師は、音声コンテンツを再現するために使用されるスピーカーの目標構成に合わせて音声コンテンツを調整しようとして特定のレンダラーを使用して音声コンテンツをレンダリングすることもある。言い換えれば、音響技師は、音声コンテンツをレンダリングし、目標とされる構成に配置されたスピーカーを使用してレンダリングされた音声コンテンツを再生することもある。音響技師は次いで、音声コンテンツの様々な態様をリミックスし、リミックスされた音声コンテンツをレンダリングし、目標とされる構成に配置されたスピーカーを使用してレンダリングされ、リミックスされた音声コンテンツをふたたび再生することもある。音響技師は、ある芸術的意図が音声コンテンツによって提供されるまで、このように繰り返すこともある。このようにして、音響技師は、ある芸術的意図を提供するまたはさもなければ再生中にある音場を提供する音声コンテンツを作成することもある(たとえば、音声コンテンツと一緒に上映される映像コンテンツと合わせるために)。
[0004]一般に、音声データを表すビットストリームで音声レンダリング情報を指定するための技法が、述べられる。言い換えれば、本技法は、音声コンテンツ作成中に使用される音声レンダリング情報を再生デバイスに信号伝達するための方法を提供することができ、その再生デバイスは次いで、音声コンテンツをレンダリングするために音声レンダリング情報を使用することができる。このようにレンダリング情報を提供することは、再生デバイスが、音響技師によって意図されたように音声コンテンツをレンダリングし、それによって芸術的意図がリスナーによって潜在的に理解されるように、音声コンテンツの適切な再生を潜在的に確実にすることを可能にする。言い換えれば、音響技師によってレンダリング中に使用されるレンダリング情報は、本開示で述べられる技法に従って提供され、その結果音声再生デバイスは、音響技師によって意図されたように音声コンテンツをレンダリングするためにレンダリング情報を利用することができ、それによって、この音声レンダリング情報を提供しないシステムと比較して、音声コンテンツの作成中と再生中の両方でのより一貫した体験を確実にする。
[0005]一態様では、マルチチャンネル音声コンテンツを表すビットストリームを生成する方法であって、本方法は、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定することを備える。
[0006]別の態様では、マルチチャンネル音声コンテンツを表すビットストリームを生成するように構成されるデバイスであって、本デバイスは、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定するように構成される1つまたは複数のプロセッサを備える。
[0007]別の態様では、マルチチャンネル音声コンテンツを表すビットストリームを生成するように構成されるデバイスであって、本デバイスは、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定するための手段と、音声レンダリング情報を記憶するための手段とを備える。
[0008]別の態様では、非一時的コンピュータ可読記憶媒体は、実行されるとき、1つまたは複数のプロセッサに、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定させる命令をその上に記憶している。
[0009]別の態様では、ビットストリームからマルチチャンネル音声コンテンツをレンダリングする方法であって、本方法は、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定することと、音声レンダリング情報に基づいて複数のスピーカーフィード(speaker feed)をレンダリングすることとを備える。
[0010]別の態様では、ビットストリームからマルチチャンネル音声コンテンツをレンダリングするように構成されるデバイスであって、本デバイスは、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定し、音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングするように構成される1つまたは複数のプロセッサを備える。
[0011]別の態様では、ビットストリームからマルチチャンネル音声コンテンツをレンダリングするように構成されるデバイスであって、本デバイスは、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定するための手段と、音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングするための手段とを備える。
[0012]別の態様では、非一時的コンピュータ可読記憶媒体は、実行されるとき、1つまたは複数のプロセッサに、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定させ、音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングする命令をその上に記憶している。
[0013]本技法の1つまたは複数の態様の詳細は、付随する図面および以下の説明で明らかにされる。これらの技法の他の特徴、目的、および利点は、説明および図面、ならびに特許請求の範囲から明らかとなる。
[0014]様々な次数および階数の球面調和基底関数を例示する図。 様々な次数および階数の球面調和基底関数を例示する図。 様々な次数および階数の球面調和基底関数を例示する図。 [0015]本開示で述べられる技法の様々な態様を実施することができるシステムを例示する図。 [0016]本開示で述べられる技法の様々な態様を実施することができるシステムを例示する図。 [0017]本開示で述べられる技法の様々な態様を行うことができる別のシステム50を例示するブロック図。 [0018]本開示で述べられる技法の様々な態様を行うことができる別のシステム60を例示するブロック図。 [0019]本開示で述べられる技法に従って形成されるビットストリーム31Aを例示する図。 本開示で述べられる技法に従って形成されるビットストリーム31Bを例示する図。 本開示で述べられる技法に従って形成されるビットストリーム31Cを例示する図。 本開示で述べられる技法に従って形成されるビットストリーム31Dを例示する図。 [0020]本開示で述べられる技法の様々な態様を行う際の、図4〜図8Dの例で示されるシステム20、30、50および60の1つなどのシステムの動作例を示すフローチャート。
[0021]サラウンド音響の発展は、今日では娯楽のための多くの出力フォーマットを利用可能にしている。そのようなサラウンド音響フォーマットの例は、一般的な5.1フォーマット(それは、次の6つのチャンネル、フロントレフト(FL)、フロントライト(FR)、センターまたはフロントセンター、バックレフトまたはサラウンドレフト、バックライトまたはサラウンドライト、および低周波効果(LFE)を含む)、成長中の7.1フォーマット、および来たる22.2フォーマット(たとえば、超高精細テレビジョン標準規格で使用するための)を含む。さらなる例は、球面調和アレイのためのフォーマットを含む。
[0022]将来のMPEG符号化器への入力は、オプションとして3つの可能性があるフォーマット、(i)従来のチャンネルベースの音声、それは、事前に指定された位置でのラウドスピーカーを通じて再生されることを意図されている、(ii)オブジェクトベースの音声、それは、それらの位置座標(他の情報の中で)を含有する関連メタデータを有する単一の音声オブジェクトのための離散パルスコード変調(PCM)データを含む、および(iii)情景ベースの音声、それは、球面調和基底関数の係数(また「球面調和係数」またはSHCとも呼ばれる)を使用して音場を表すことを含む、の1つである。
[0023]市場には様々な「サラウンド音響」フォーマットがある。それらは、たとえば5.1ホームシアターシステム(それは、ステレオを越えてリビングルームに入り込むという観点から最も成功している)からNHK(ニッポン ホーソー キョウカイまたは日本放送協会)によって開発された22.2システムに及ぶ。コンテンツ制作者(たとえば、ハリウッドスタジオ)は、一度に映画のためのサウンドトラックを作成したいと思い、各スピーカー構成のためにサウンドトラックをリミックスする努力を費やしたくないと思う。最近、標準化委員会は、標準化されたビットストリームへの符号化と、スピーカーの幾何学的配置およびレンダラーの位置での音響条件に適合可能で、非依存の後続の復号とを提供するための方法を考えている。
[0024]コンテンツ制作者にそのような柔軟性を提供するために、要素の階層的なセットが、音場を表すために使用されてもよい。要素の階層的なセットは、より低く順序付けられた要素の基本セットが、モデル化された音場の完全な表現を提供するように、その中の要素が順序付けられる要素のセットを指してもよい。セットが、より高次の要素を含むように拡張されると、表現は、より詳細なものになる。
[0025]要素の階層的なセットの一例は、球面調和係数(SHC)のセットである。次の式は、SHCを使用する音場の記述または表現を示す。
Figure 0006676801
この式は、音場の任意の点{rr、θr、φr}における圧力piが、SHC
Figure 0006676801
によって一意的に表され得ることを示す。ここで、
Figure 0006676801
であり、cは、音速(約343m/s)であり、{rr、θr、φr}は、基準点(または観測点)であり、Jn(・)は、次数nの球ベッセル関数であり、
Figure 0006676801
は、次数nおよび階数mの球面調和基底関数である。角括弧中の項は、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、またはウェーブレット変換などの、様々な時間・周波数変換によって近似され得る信号の周波数領域表現(すなわち、S{ω、rr、θr、φr})であることが、認識され得る。階層的なセットの他の例は、ウェーブレット変換係数のセット、および多重分解能基底関数の係数の他のセットを含む。
[0026]図1は、ゼロ次球面調和基底関数10と、一次球面調和基底関数12A〜12Cと、二次球面調和基底関数14A〜14Eとを例示する図である。次数は、行16A〜16Cとして示される、表の行によって識別され、行16Aは、ゼロ次を指し、行16Bは、一次を指し、行16Cは、二次を指す。階数は、列18A〜18Eとして示される、表の列によって識別され、列18Aは、ゼロ階を指し、列18Bは、一階を指し、列18Cは、負の一階を指し、列18Dは、二階を指し、列18Eは、負の二階を指す。ゼロ次球面調和基底関数10に対応するSHCは、音場のエネルギーを指定すると考えられてもよく、一方残りのより高次の球面調和基底関数(たとえば、球面調和関数12A〜12Cおよび14A〜14E)に対応するSHCは、そのエネルギーの方向を指定してもよい。
[0027]図2は、ゼロ次(n=0)から四次(n=4)までの球面調和基底関数を例示する図である。図に見られるように、各次数について、図示されるがしかし例示目的を容易にするために図2の例では明確に気付かれない階数mの拡張がある。
[0028]図3は、ゼロ次(n=0)から四次(n=4)までの球面調和基底関数を例示する別の図である。図3では、球面調和基底関数は、次数と階数の両方が示されて三次元座標空間で示される。
[0029]いずれにしても、SHC
Figure 0006676801
は、様々なマイクロフォンアレイ構成によって物理的に取得され得る(たとえば、記録され得る)か、または別法として、それらは、音場のチャンネルベースのまたはオブジェクトベースの記述から導出され得る。前者は、符号化器への情景ベースの音声入力を表す。たとえば、1+24(25、したがって四次)係数を含む四次表現が、使用されてもよい。
[0030]これらのSHCがどのようにオブジェクトベースの記述から導出され得るかを例示するために、次の式を考える。個々の音声オブジェクトに対応する音場についての係数
Figure 0006676801
は、
Figure 0006676801
として表されてもよく、ただしiは、
Figure 0006676801
であり、
Figure 0006676801
は、次数nの球ハンケル関数(第二種の)であり、{rs、θs、φs}は、オブジェクトの位置である。周波数の関数としてのソースエネルギーg(ω)を知ること(たとえば、PCMストリームに高速フーリエ変換を行うなどの、時間・周波数解析技法を使用して)は、我々が各PCMオブジェクトとその位置とをSHC
Figure 0006676801
に転換することを可能にする。さらに、各オブジェクトについての
Figure 0006676801
係数は加法的であることが、示され得る(上記は、線形直交分解であるので)。このようにして、多数のPCMオブジェクトが、
Figure 0006676801
係数によって表され得る(たとえば、個々のオブジェクトについての係数ベクトルの和として)。本質的に、これらの係数は、音場についての情報(3D座標の関数としての圧力)を含有し、上記は、観測点{rr、θr、φr}の近くでの、個々のオブジェクトから音場全体の表現への変換を表す。残りの図は、オブジェクトベースおよびSHCベースの音声コーディングという文脈において以下で述べられる。
[0031]図4は、音声データを表すビットストリームでレンダリング情報を信号伝達するために本開示で述べられる技法を行うことができるシステム20を例示するブロック図である。図4の例で示されるように、システム20は、コンテンツ制作者22とコンテンツ消費者24とを含む。コンテンツ制作者22は、コンテンツ消費者24などのコンテンツ消費者による消費のためのマルチチャンネル音声コンテンツを生成することができる映画スタジオまたは他のエンティティを表してもよい。しばしば、このコンテンツ制作者は、映像コンテンツと併せて音声コンテンツを生成する。コンテンツ消費者24は、マルチチャンネル音声コンテンツを再生する能力がある音声再生システムの任意の形を指してもよい音声再生システム32を所有するまたはそれにアクセスできる個人を表す。図4の例では、コンテンツ消費者24は、音声再生システム32を含む。
[0032]コンテンツ制作者22は、音声レンダラー28と音声編集システム30とを含む。音声レンダラー26は、スピーカーフィード(それはまた、「ラウドスピーカーフィード」、「スピーカー信号」、または「ラウドスピーカー信号」と呼ばれることもある)をレンダリングするまたはさもなければ生成する音声処理ユニットを表してもよい。各スピーカーフィードは、マルチチャンネル音声システムの特定のチャンネルについて音を再現するスピーカーフィードに対応してもよい。図4の例では、レンダラー38は、5.1、7.1または22.2サラウンド音響スピーカーシステムでの5、7または22個のスピーカーの各々についてスピーカーフィードを生成する、従来の5.1、7.1または22.2サラウンド音響フォーマットについてスピーカーフィードをレンダリングしてもよい。別法として、レンダラー28は、上で論じられたソース球面調和係数の特性を所与として、任意の数のスピーカーを有する任意のスピーカー構成についてソース球面調和係数からスピーカーフィードをレンダリングするように構成されてもよい。レンダラー28は、このように、スピーカーフィード29として図4で示される、いくつかのスピーカーフィードを生成することができる。
[0033]コンテンツ制作者22は、編集プロセスの間、高忠実度を有さないまたは納得のいくサラウンド音響体験を提供しない音場の態様を識別しようとしてスピーカーフィードに耳を傾けながら、スピーカーフィードを生成するために球面調和係数27(「SHC27」)をレンダリングしてもよい。コンテンツ制作者22は次いで、ソース球面調和係数を編集してもよい(しばしば間接的に、ソース球面調和係数が上で述べられたように導出され得る、異なるオブジェクトの操作を通じて)。コンテンツ制作者22は、球面調和係数27を編集するために音声編集システム30を用いてもよい。音声編集システム30は、音声データを編集し、1つまたは複数のソース球面調和係数としてこの音声データを出力する能力がある任意のシステムを表す。
[0034]編集プロセスが、完了すると、コンテンツ制作者22は、球面調和係数27に基づいてビットストリーム31を生成してもよい。すなわち、コンテンツ制作者22は、ビットストリーム生成デバイス36を含み、それは、ビットストリーム31を生成する能力がある任意のデバイスを表してもよい。場合によっては、ビットストリーム生成デバイス36は、球面調和係数27を帯域幅圧縮し(一例として、エントロピー符号化を通じて)、ビットストリーム31を形成するために認められたフォーマットで球面調和係数27のエントロピー符号化バージョンを配置する符号化器を表してもよい。他の場合には、ビットストリーム生成デバイス36は、一例としてマルチチャンネル音声コンテンツまたはその派生物を圧縮するために従来の音声サラウンド音響符号化プロセスのそれらに似たプロセスを使用して、マルチチャンネル音声コンテンツ29を符号化する音声符号化器(おそらく、MPEGサラウンド、またはその派生物などの、既知の音声コーディング標準で準拠するもの)を表してもよい。圧縮されたマルチチャンネル音声コンテンツ29は次いで、コンテンツ29を帯域幅圧縮するためにエントロピー符号化されまたはある他の方法でコーディングされ、ビットストリーム31を形成するために合意したフォーマットに従って配置されてもよい。ビットストリーム31を形成するために直接圧縮されようと、レンダリングされ、次いでビットストリーム31を形成するために圧縮されようと、コンテンツ制作者22は、コンテンツ消費者24にビットストリーム31を送信することができる。
[0035]図4ではコンテンツ消費者24に直接送信されるとして示されるが、コンテンツ制作者22は、コンテンツ制作者22とコンテンツ消費者24との間に位置付けられる中間デバイスにビットストリーム31を出力してもよい。この中間デバイスは、このビットストリームを要求することもあるコンテンツ消費者24への後の配送のためにビットストリーム31を記憶することができる。中間デバイスは、ファイルサーバー、ウェブサーバー、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、モバイルフォン、スマートフォン、または音声復号器による後の取出しのためにビットストリーム31を記憶する能力がある任意の他のデバイスを備えてもよい。別法として、コンテンツ制作者22は、コンパクトディスク、デジタルビデオディスク、高精細ビデオディスクまたはその大部分がコンピュータによって読み出される能力があり、したがってコンピュータ可読記憶媒体と呼ばれることもある他の記憶媒体などの、記憶媒体にビットストリーム31を記憶してもよい。この文脈において、送信チャンネルは、これらの媒体に記憶されたコンテンツがそれによって送信される、それらのチャンネルを指してもよい(小売店と他の店ベースの配送機構とを含んでもよい)。いずれにしても、本開示の技法はしたがって、この点において図4の例に限定されるべきでない。
[0036]図4の例でさらに示されるように、コンテンツ消費者24は、音声再生システム32を含む。音声再生システム32は、マルチチャンネル音声データを再生する能力がある任意の音声再生システムを表してもよい。音声再生システム32は、いくつかの異なるレンダラー34を含んでもよい。レンダラー34は、異なる形のレンダリングをそれぞれ提供してもよく、ただし異なる形のレンダリングは、ベクトルベースの振幅パニング(VBAP)を行う様々な方法の1つもしくは複数、距離ベースの振幅パニング(DBAP)を行う様々な方法の1つもしくは複数、単純なパニングを行う様々な方法の1つもしくは複数、近接場補償(NFC)フィルタリングを行う様々な方法の1つもしくは複数および/または波動場合成を行う様々な方法の1つもしくは複数を含んでもよい。
[0037]音声再生システム32はさらに、抽出デバイス38を含んでもよい。抽出デバイス38は、一般にビットストリーム生成デバイス36のそれに対して相反的なこともあるプロセスを通じて球面調和係数27’(「SHC27’」、それは、球面調和係数27の変更形または複製を表すこともある)を抽出する能力がある任意のデバイスを表してもよい。いずれにしても、音声再生システム32は、球面調和係数27’を受け取ることができる。音声再生システム32は次いで、レンダラー34の1つを選択してもよく、それは次いで、いくつかのスピーカーフィード35(例示目的を容易にするために図4の例では示されない、音声再生システム32に電気的にまたはおそらくワイヤレスで結合されるラウドスピーカーの数に対応する)を生成するために球面調和係数27’をレンダリングする。
[0038]典型的には、音声再生システム32は、音声レンダラー34のいずれか1つを選択してもよく、ビットストリーム31が受け取られるソース(数例を提供するために、DVDプレーヤー、ブルーレイ(登録商標)プレーヤー、スマートフォン、タブレットコンピュータ、ゲーム機、およびテレビ受像機などの)に応じて音声レンダラー34の1つまたは複数を選択するように構成されてもよい。音声レンダラー34のいずれか1つが、選択されてもよいが、しばしばコンテンツを制作するときに使用された音声レンダラーは、コンテンツが、音声レンダラーのこの1つ、すなわち図4の例では音声レンダラー28を使用してコンテンツ制作者22によって制作されたという事実に起因して、レンダリングのより良い(おそらく最良の)形を提供する。同じまたは少なくとも近い(レンダリングの形の観点から)、音声レンダラー34の1つを選択することは、音場のより良い表現を提供することができ、コンテンツ消費者24による良いサラウンド音響体験をもたらすことができる。
[0039]本開示で述べられる技法に従って、ビットストリーム生成デバイス36は、音声レンダリング情報39(「音声レンダリングインフォ39」)を含むためにビットストリーム31を生成してもよい。音声レンダリング情報39は、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラー、すなわち図4の例では音声レンダラー28を識別する信号値を含んでもよい。場合によっては、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含む。
[0040]場合によっては、信号値は、ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む。場合によっては、インデックスが、使用されるとき、信号値はさらに、ビットストリームに含まれるマトリックスの行の数を規定する2つ以上のビットと、ビットストリームに含まれるマトリックスの列の数を規定する2つ以上のビットとを含む。この情報を使用し、二次元マトリックスの各係数が典型的には、32ビット浮動小数点数によって規定されると仮定すると、マトリックスのビットの観点からのサイズは、行の数、列の数、およびマトリックスの各係数を規定する浮動小数点数のサイズ、すなわちこの例では32ビットの関数として計算され得る。
[0041]場合によっては、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する。レンダリングアルゴリズムは、ビットストリーム生成デバイス36と抽出デバイス38の両方に知られているマトリックスを含んでもよい。すなわち、レンダリングアルゴリズムは、パニング(たとえば、VBAP、DBAPもしくは単純なパニング)またはNFCフィルタリングなどの、他のレンダリングステップに加えてマトリックスの適用を含んでもよい。場合によっては、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含む。この場合もやはり、ビットストリーム生成デバイス36と抽出デバイス38の両方は、インデックスが複数のマトリックスの特定の1つを一意的に識別することができるように、複数のマトリックスと複数のマトリックスの次数とを示す情報で構成されてもよい。別法として、ビットストリーム生成デバイス36は、インデックスが複数のマトリックスの特定の1つを一意的に識別することができるように、複数のマトリックスおよび/または複数のマトリックスの次数を規定するビットストリーム31でのデータを指定してもよい。
[0042]場合によっては、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む。この場合もやはり、ビットストリーム生成デバイス36と抽出デバイス38の両方は、インデックスが複数のマトリックスの特定の1つを一意的に識別することができるように、複数のレンダリングアルゴリズムと複数のレンダリングアルゴリズムの次数とを示す情報で構成されてもよい。別法として、ビットストリーム生成デバイス36は、インデックスが複数のマトリックスの特定の1つを一意的に識別することができるように、複数のマトリックスおよび/または複数のマトリックスの次数を規定するビットストリーム31でのデータを指定してもよい。
[0043]場合によっては、ビットストリーム生成デバイス36は、ビットストリームで音声フレームごとに音声レンダリング情報39を指定する。他の場合には、ビットストリーム生成デバイス36は、ビットストリームで一回音声レンダリング情報39を指定する。
[0044]抽出デバイス38は次いで、ビットストリームで指定される音声レンダリング情報39を決定してもよい。音声レンダリング情報39に含まれる信号値に基づいて、音声再生システム32は、音声レンダリング情報39に基づいて複数のスピーカーフィード35をレンダリングしてもよい。上で述べられたように、信号値は、場合によっては、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含んでもよい。この場合、音声再生システム32は、そのマトリックスで音声レンダラー34の1つを構成することができ、そのマトリックスに基づいてスピーカーフィード35をレンダリングするために音声レンダラー34のこの1つを使用する。
[0045]場合によっては、信号値は、ビットストリームが、球面調和係数27’をスピーカーフィード35にレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む。抽出デバイス38は、インデックスに応答してビットストリームからマトリックスを解析してもよく、そうすると音声再生システム32は、解析されたマトリックスで音声レンダラー34の1つを構成し、スピーカーフィード35をレンダリングするためにレンダラー34のこの1つを呼び出してもよい。信号値が、ビットストリームに含まれるマトリックスの行の数を規定する2つ以上のビットと、ビットストリームに含まれるマトリックスの列の数を規定する2つ以上のビットとを含むとき、抽出デバイス38は、インデックスに応答し、上で述べられたように行の数を規定する2つ以上のビットおよび列の数を規定する2つ以上のビットに基づいてビットストリームからマトリックスを解析してもよい。
[0046]場合によっては、信号値は、球面調和係数27’をスピーカーフィード35にレンダリングするために使用されるレンダリングアルゴリズムを指定する。これらの場合、音声レンダラー34のいくつかまたはすべては、これらのレンダリングアルゴリズムを行ってもよい。音声再生デバイス32は次いで、球面調和係数27’からスピーカーフィード35をレンダリングするために、指定されたレンダリングアルゴリズム、たとえば音声レンダラー34の1つを利用してもよい。
[0047]信号値が、球面調和係数27’をスピーカーフィード35にレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含むとき、音声レンダラー34のいくつかまたはすべては、この複数のマトリックスを表してもよい。それゆえに、音声再生システム32は、インデックスと関連する音声レンダラー34の1つを使用して球面調和係数27’からスピーカーフィード35をレンダリングすることができる。
[0048]信号値が、球面調和係数27’をスピーカーフィード35にレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含むとき、音声レンダラー34のいくつかまたはすべては、これらのレンダリングアルゴリズムを表してもよい。それゆえに、音声再生システム32は、インデックスと関連する音声レンダラー34の1つを使用して球面調和係数27’からスピーカーフィード35をレンダリングすることができる。
[0049]この音声レンダリング情報がビットストリームで指定される頻度に応じて、抽出デバイス38は、音声フレームごとにまたは一回音声レンダリング情報39を決定してもよい。
[0050]このように音声レンダリング情報39を指定することによって、本技法は、コンテンツ制作者22がマルチチャンネル音声コンテンツ35を再現しようと意図した仕方に従って、マルチチャンネル音声コンテンツ35のより良い再現を潜在的にもたらすことができる。結果として、本技法は、より没入できるサラウンド音響またはマルチチャンネル音声体験を提供することができる。
[0051]ビットストリームで信号伝達される(またはさもなければ指定される)として述べられるが、音声レンダリング情報39は、ビットストリームから分離したメタデータとして、または言い換えれば、ビットストリームから分離したサイド情報(side information)として指定されてもよい。ビットストリーム生成デバイス36は、本開示で述べられる技法を支援しないそれらの抽出デバイスとのビットストリーム互換性を維持する(それによってそれらの抽出デバイスによる解析の成功を可能にする)ように、ビットストリーム31から分離したこの音声レンダリング情報39を生成してもよい。それに応じて、ビットストリームで指定されるとして述べられるが、本技法は、ビットストリーム31から分離した音声レンダリング情報39を指定するための他の方法を可能にすることもある。
[0052]その上、ビットストリーム31でまたはビットストリーム31から分離したメタデータもしくはサイド情報で信号伝達されるまたはさもなければ指定されるとして述べられるが、本技法は、ビットストリーム生成デバイス36が、ビットストリーム31での音声レンダリング情報39の一部分とビットストリーム31から分離したメタデータとしての音声レンダリング情報39の一部分とを指定することを可能にすることもある。たとえば、ビットストリーム生成デバイス36は、ビットストリーム31でマトリックスを識別するインデックスを指定してもよく、ただし識別されたマトリックスを含む複数のマトリックスを指定する表は、ビットストリームから分離したメタデータとして指定されてもよい。音声再生システム32は次いで、インデックスの形でのビットストリーム31およびビットストリーム31から分離して指定されたメタデータから音声レンダリング情報39を決定してもよい。音声再生システム32は、場合によっては、事前に構成されたまたは構成されるサーバー(音声再生システム32の製造業者または標準化団体によって提供される可能性が最も高い)から表と任意の他のメタデータとをダウンロードするまたはさもなければ取り出すように構成されてもよい。
[0053]言い換えれば、上で述べられたように、より高次のアンビソニックス(Ambisonics)(HOA)は、空間フーリエ変換に基づいて音場の指向性情報を記述するための方法を表すことができる。典型的には、アンビソニックス次数Nがより高いほど、空間分解能はより高く、球面調和(SH)係数の数(N+1)^2はより大きく、データを送信し、記憶するために必要とされる帯域幅はより大きい。
[0054]この記述の潜在的利点は、大部分の任意のラウドスピーカー設定(たとえば、5.1、7.1、22.2・・・)でこの音場を再現する可能性である。音場記述からM個のラウドスピーカー信号への転換は、(N+1)2個の入力およびM個の出力を有する静的レンダリングマトリックスを介して行われてもよい。その結果、あらゆるラウドスピーカー設定は、専用のレンダリングマトリックスを必要とすることもある。所望のラウドスピーカー設定についてレンダリングマトリックスを計算するためのいくつかのアルゴリズムが、存在することもあり、それらは、ガーゾン(Gerzon)基準などの、ある客観的尺度または主観的尺度について最適化されることもある。不規則なラウドスピーカー設定については、アルゴリズムは、凸最適化などの、反復数値最適化手法に起因して複雑になることもある。待ち時間なしに不規則なラウドスピーカー配置についてレンダリングマトリックスを計算するためには、利用できる十分な計算リソースを有することが、有益なこともある。不規則なラウドスピーカー設定は、建築的制約および美的好みに起因して家庭のリビングルーム環境でよく見られることもある。したがって、最良の音場再現については、そのような状況について最適化されたレンダリングマトリックスが、音場の再現をより正確に可能にすることもあるという点で好まれることもある。
[0055]音声復号器は通常、多くの計算リソースを必要としないので、そのデバイスは、消費者が手軽に使える時間で不規則なレンダリングマトリックスを計算することができないこともある。本開示で述べられる技法の様々な態様は、次のようなクラウドベースの計算手法を使用のために提供することができる。
1.音声復号器は、サーバーにラウドスピーカー座標を(および場合によっては、また校正マイクロフォンで得られるSPL測定結果も)インターネット接続を介して送ることができる。
2.クラウドベースのサーバーは、レンダリングマトリックスを(および、消費者が後でこれらの異なるバージョンから選ぶことができるように、おそらく少数の異なるバージョンを)計算することができる。
3.サーバーは次いで、インターネット接続を介して音声復号器にレンダリングマトリックスを(または異なるバージョンを)送り返すことができる。
[0056]この手法は、規則的なスピーカー構成または幾何学的配置について通常設計されるレンダリングマトリックスと比較して、より最適な音声再現もまた容易にしながら、製造業者が音声復号器の製造コストを低く保つことを可能にすることもある(強力なプロセッサが、これらの不規則なレンダリングマトリックスを計算するために必要とされないこともあるので)。レンダリングマトリックスを計算するためのアルゴリズムはまた、音声復号器が出荷された後に最適化されてもよく、ハードウェア改訂またはリコールさえものコストを潜在的に低減する。本技法はまた、場合によっては、将来の製品開発にとって有益なこともある消費者製品の異なるラウドスピーカー設定に関する多くの情報を収集することもできる。
[0057]図5は、本開示で述べられる技法の他の態様を行うことができる別のシステム30を例示するブロック図である。システム20から分離したシステムとして示されるが、システム20とシステム30の両方は、単一システム内に統合されてもよくまたはさもなければ単一システムによって行われてもよい。上で述べられた図4の例では、本技法は、球面調和係数という文脈において述べられた。しかしながら、本技法は、1つまたは複数の音声オブジェクトとして音場をとらえる表現を含む、音場の任意の表現に関して同様に行われてもよい。音声オブジェクトの例は、パルスコード変調(PCM)音声オブジェクトを含んでもよい。それゆえに、本技法が、球面調和係数27および27’の代わりに音声オブジェクト41および41’に関して行われてもよいということを除いて、システム30は、システム20に似たシステムを表す。
[0058]この文脈において、音声レンダリング情報39は、場合によっては、音声オブジェクト41をスピーカーフィード29にレンダリングするために使用されるレンダリングアルゴリズム、すなわち図5の例では音声レンダラー29によって用いられるものを指定してもよい。他の場合には、音声レンダリング情報39は、音声オブジェクト41をスピーカーフィード29にレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックス、すなわち図5の例では音声レンダラー28と関連するものを規定する2つ以上のビットを含む。
[0059]音声レンダリング情報39が、音声オブジェクト39’を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定するとき、音声レンダラー34のいくつかまたはすべては、異なるレンダリングアルゴリズムを表してもよくまたはさもなければ行ってもよい。音声再生システム32は次いで、音声レンダラー34の1つを使用して音声オブジェクト39’からスピーカーフィード35をレンダリングしてもよい。
[0060]音声レンダリング情報39が、音声オブジェクト39をスピーカーフィード35にレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む場合には、音声レンダラー34のいくつかまたはすべては、異なるレンダリングアルゴリズムを表してもよくまたはさもなければ行ってもよい。音声再生システム32は次いで、インデックスと関連する音声レンダラー34の1つを使用して音声オブジェクト39’からスピーカーフィード35をレンダリングしてもよい。
[0061]二次元マトリックスを備えるとして上で述べられるが、本技法は、任意の次元のマトリックスに関して実施されてもよい。場合によっては、マトリックスは、実係数を有するだけであってもよい。他の場合には、マトリックスは、複素係数を含んでもよく、ただし虚数成分は、追加の次元を表してもよくまたは導入してもよい。複素係数を有するマトリックスは、いくつかの文脈ではフィルタと呼ばれることもある。
[0062]次の事項は、前述の技法を要約するための1つの方法である。オブジェクトまたはより高次のアンビソニックス(HoA)ベースの3D/2D音場再構築に関しては、含まれるレンダラーがあってもよい。レンダラーについて2つの用途があってもよい。第1の用途は、局所的音響景観での音場再構築を最適化するために局所的条件(ラウドスピーカーの数および幾何学的配置などの)を考慮するためであってもよい。第2の用途は、たとえば音響芸術家がコンテンツの芸術的意図を提供することができるように、コンテンツ制作時にレンダラーを彼/彼女に提供することであってもよい。取り組まれる1つの潜在的な問題は、コンテンツを制作するためにどのレンダラーが使用されたかについての情報を音声コンテンツと一緒に送信することである。
[0063]本開示で述べられる技法は、(i)レンダラー(典型的なHoA実施形態では、これは、サイズN×Mのマトリックスであり、ただしNは、ラウドスピーカーの数であり、Mは、HoA係数の数である)の送信または(ii)周知であるレンダラーの表へのインデックスの送信の1つまたは複数を提供することができる。
[0064]この場合もやはり、ビットストリームで信号伝達される(またはさもなければ指定される)として述べられるが、音声レンダリング情報39は、ビットストリームから分離したメタデータとしてまたは言い換えれば、ビットストリームから分離したサイド情報として指定されてもよい。ビットストリーム生成デバイス36は、本開示で述べられる技法を支援しないそれらの抽出デバイスとのビットストリーム互換性を維持する(それによってそれらの抽出デバイスによる解析の成功を可能にする)ように、ビットストリーム31から分離したこの音声レンダリング情報39を生成してもよい。それに応じて、ビットストリームで指定されるとして述べられるが、本技法は、ビットストリーム31から分離した音声レンダリング情報39を指定するための他の方法を可能にすることもある。
[0065]その上、ビットストリーム31でまたはビットストリーム31から分離したメタデータもしくはサイド情報で信号伝達されるまたはさもなければ指定されるとして述べられるが、本技法は、ビットストリーム生成デバイス36が、ビットストリーム31での音声レンダリング情報39の一部分とビットストリーム31から分離したメタデータとしての音声レンダリング情報39の一部分とを指定することを可能にすることもある。たとえば、ビットストリーム生成デバイス36は、ビットストリーム31でのマトリックスを識別するインデックスを指定してもよく、ただし識別されたマトリックスを含む複数のマトリックスを指定する表は、ビットストリームから分離したメタデータとして指定されてもよい。音声再生システム32は次いで、インデックスの形でのビットストリーム31およびビットストリーム31から分離して指定されるメタデータから音声レンダリング情報39を決定してもよい。音声再生システム32は、場合によっては、事前に構成されたまたは構成されるサーバー(音声再生システム32の製造業者または標準化団体によって提供される可能性が最も高い)から表と任意の他のメタデータとをダウンロードするまたはさもなければ取り出すように構成されてもよい。
[0066]図6は、本開示で述べられる技法の様々な態様を行うことができる別のシステム50を例示するブロック図である。システム20およびシステム30から分離したシステムとして示されるが、システム20、30および50の様々な態様は、単一システム内に統合されてもよくまたはさもなければ単一システムによって行われてもよい。システム50が、音声オブジェクト41に似た音声オブジェクトおよびSHC27に似たSHCの1つまたは複数を表してもよい音声コンテンツ51に関して動作してもよいということを除いて、システム50は、システム20および30と同様であってもよい。加えて、システム50は、図4および図5の例に関して上で述べられたようにビットストリーム31で音声レンダリング情報39を信号伝達しなくてもよいが、しかし代わりにビットストリーム31から分離したメタデータ53としてこの音声レンダリング情報39を信号伝達してもよい。
[0067]図7は、本開示で述べられる技法の様々な態様を行うことができる別のシステム60を例示するブロック図である。システム20、30および50から分離したシステムとして示されるが、システム20、30、50および60の様々な態様は、単一システム内に統合されてもよくまたはさもなければ単一システムによって行われてもよい。システム60が、図4および図5の例に関して上で述べられたようにビットストリーム31で音声レンダリング情報39の一部分を信号伝達してもよく、ビットストリーム31から分離したメタデータ53としてこの音声レンダリング情報39の一部分を信号伝達してもよいということを除いて、システム60は、システム50と同様であってもよい。いくつかの例では、ビットストリーム生成デバイス36は、メタデータ53を出力してもよく、それは次いで、サーバーまたは他のデバイスにアップロードされてもよい。音声再生システム32は次いで、このメタデータ53をダウンロードするまたはさもなければ取り出してもよく、それは次いで、抽出デバイス38によってビットストリーム31から抽出される音声レンダリング情報を増強するために使用される。
[0068]図8A〜図8Dは、本開示で述べられる技法に従って形成されるビットストリーム31A〜31Dを例示する図である。図8Aの例では、ビットストリーム31Aは、上で図4、図5および図8で示されるビットストリーム31の一例を表してもよい。ビットストリーム31Aは、信号値54を規定する1つまたは複数のビットを含む音声レンダリング情報39Aを含む。この信号値54は、以下で述べられる種類の情報の任意の組合せを表してもよい。ビットストリーム31Aはまた、音声コンテンツ51の一例を表してもよい音声コンテンツ58も含む。
[0069]図8Bの例では、ビットストリーム31Bは、ビットストリーム31Aと同様であってもよく、ただし信号値54は、インデックス54Aと、信号伝達されるマトリックスの行サイズ54Bを規定する1つまたは複数のビットと、信号伝達されるマトリックスの列サイズ54Cを規定する1つまたは複数のビットと、マトリックス係数54Dとを備える。インデックス54Aは、2から5ビットを使用して規定されてもよく、一方行サイズ54Bおよび列サイズ54Cの各々は、2から16ビットを使用して規定されてもよい。
[0070]抽出デバイス38は、インデックス54Aを抽出し、マトリックスがビットストリーム31Bに含まれることをインデックスが信号伝達するかどうかを決定してもよい(ただし、0000または1111などの、あるインデックス値は、マトリックスがビットストリーム31Bで明確に指定されることを信号伝達してもよい)。図8Bの例では、ビットストリーム31Bは、マトリックスがビットストリーム31Bで明確に指定されることを信号伝達するインデックス54Aを含む。結果として、抽出デバイス38は、行サイズ54Bと列サイズ54Cとを抽出することができる。抽出デバイス38は、行サイズ54Bと、列サイズ54Cと、各マトリックス係数の信号伝達される(図8Aで図示されず)または暗黙のビットサイズとの関数としてマトリックス係数を表す、解析すべきビット数を計算するように構成されてもよい。これらの決定されたビット数を使用して、抽出デバイス38は、マトリックス係数54Dを抽出してもよく、音声再生デバイス24は、上で述べられたように音声レンダラー34の1つを構成するために、そのマトリックス係数54Dを使用してもよい。ビットストリーム31Bで一回音声レンダリング情報39Bを信号伝達するとして示されるが、音声レンダリング情報39Bは、ビットストリーム31Bで複数回または分離した帯域外チャンネルで少なくとも部分的にまたは完全に(場合によってはオプションのデータとして)信号伝達されてもよい。
[0071]図8Cの例では、ビットストリーム31Cは、上で図4、図5および図8で示されるビットストリーム31の一例を表してもよい。ビットストリーム31Cは、この例ではアルゴリズムインデックス54Eを指定する信号値54を含む音声レンダリング情報39Cを含む。ビットストリーム31Cはまた、音声コンテンツ58も含む。アルゴリズムインデックス54Eは、上で述べられたように、2から5ビットを使用して規定されてもよく、ただしこのアルゴリズムインデックス54Eは、音声コンテンツ58をレンダリングするときに使用されるべきレンダリングアルゴリズムを識別することができる。
[0072]抽出デバイス38は、アルゴリズムインデックス50Eを抽出し、マトリックスがビットストリーム31Cに含まれることをアルゴリズムインデックス54Eが信号伝達するかどうかを決定してもよい(ただし0000または1111などの、あるインデックス値は、マトリックスがビットストリーム31Cで明確に指定されることを信号伝達してもよい)。図8Cの例では、ビットストリーム31Cは、マトリックスがビットストリーム31Cで明確に指定されないことを信号伝達するアルゴリズムインデックス54Eを含む。結果として、抽出デバイス38は、アルゴリズムインデックス54Eを音声再生デバイスに転送し、それは、対応する1つ(可能な場合は)のレンダリングアルゴリズム(それは、図4〜図8の例ではレンダラー34として示される)を選択する。図8Cの例では、ビットストリーム31Cで一回音声レンダリング情報39Cを信号伝達するとして示されるが、音声レンダリング情報39Cは、ビットストリーム31Cで複数回または分離した帯域外チャンネルで少なくとも部分的にもしくは完全に(場合によってはオプションのデータとして)信号伝達されてもよい。
[0073]図8Dの例では、ビットストリーム31Cは、上で図4、図5および図8で示されるビットストリーム31の一例を表してもよい。ビットストリーム31Dは、この例ではマトリックスインデックス54Fを指定する信号値54を含む音声レンダリング情報39Dを含む。ビットストリーム31Dはまた、音声コンテンツ58も含む。マトリックスインデックス54Fは、上で述べられたように、2から5ビットを使用して規定されてもよく、ただしこのマトリックスインデックス54Fは、音声コンテンツ58をレンダリングするときに使用されるべきレンダリングアルゴリズムを識別することができる。
[0074]抽出デバイス38は、マトリックスインデックス50Fを抽出し、マトリックスがビットストリーム31Dに含まれることをマトリックスインデックス54Fが信号伝達するかどうかを決定してもよい(ただし0000または1111などの、あるインデックス値は、マトリックスがビットストリーム31Cで明確に指定されることを信号伝達してもよい)。図8Dの例では、ビットストリーム31Dは、マトリックスがビットストリーム31Dで明確に指定されないことを信号伝達するマトリックスインデックス54Fを含む。結果として、抽出デバイス38は、マトリックスインデックス54Fを音声再生デバイスに転送し、それは、対応する1つ(可能な場合は)のレンダラー34を選択する。図8Dの例では、ビットストリーム31Dで一回音声レンダリング情報39Dを信号伝達するとして示されるが、音声レンダリング情報39Dは、ビットストリーム31Dで複数回または分離した帯域外チャンネルで少なくとも部分的にもしくは完全に(場合によってはオプションのデータとして)信号伝達されてもよい。
[0075]図9は、本開示で述べられる技法の様々な態様を行う際の、図4〜図8Dの例で示されるシステム20、30、50および60の1つなどのシステムの動作例を示すフローチャートである。システム20に関して以下で述べられるが、図9に関して論じられる技法はまた、システム30、50および60のいずれか1つによって実施されてもよい。
[0076]上で論じられたように、コンテンツ制作者22は、獲得されたまたは生成された音声コンテンツ(それは、図4の例ではSHC27として示される)を制作するまたは編集するために音声編集システム30を用いてもよい。コンテンツ制作者22は次いで、上でより詳細に論じられたように、生成されたマルチチャンネルスピーカーフィード29へと音声レンダラー28を使用してSHC27をレンダリングしてもよい(70)。コンテンツ制作者22は次いで、音声再生システムを使用してこれらのスピーカーフィード29を再生し、一例として所望の芸術的意図を獲得するために、さらなる調整または編集が必要とされるかどうかを決定してもよい(72)。さらなる調整が、望まれるときは(「イエス」72)、コンテンツ制作者22は、SHC27をリミックスし(74)、SHC27をレンダリングし(70)、さらなる調整が必要かどうかを決定してもよい(72)。さらなる調整が、望まれないときは(「ノー」72)、ビットストリーム生成デバイス36は、音声コンテンツを表すビットストリーム31を生成してもよい(76)。ビットストリーム生成デバイス36はまた、上でより詳細に述べられたように、ビットストリーム31で音声レンダリング情報39を生成し、指定してもよい(78)。
[0077]コンテンツ消費者24は次いで、ビットストリーム31と音声レンダリング情報39とを得ることができる(80)。一例として、抽出デバイス38は次いで、ビットストリーム31から音声コンテンツ(それは、図4の例ではSHC27’として示される)と音声レンダリング情報39とを抽出してもよい。音声再生システム32は次いで、上で述べられたように音声レンダリング情報39に基づいてSHC27’をレンダリングし(82)、レンダリングされた音声コンテンツを再生することができる(84)。
[0078]本開示で述べられる技法はしたがって、第1の例として、マルチチャンネル音声コンテンツを表すビットストリームを生成するデバイスが音声レンダリング情報を指定することを可能にすることもある。デバイスは、この第1の例では、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定するための手段を含む。
[0079]第1の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含む、第1の例のデバイス。
[0080]第2の例では、第1の例のデバイスであって、信号値は、ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む、第1の例のデバイス。
[0081]第2の例のデバイスであって、音声レンダリング情報はさらに、ビットストリームに含まれるマトリックスの行の数を規定する2つ以上のビットと、ビットストリームに含まれるマトリックスの列の数を規定する2つ以上のビットとを含む、第2の例のデバイス。
[0082]第1の例のデバイスであって、信号値は、音声オブジェクトを複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する、第1の例のデバイス。
[0083]第1の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する、第1の例のデバイス。
[0084]第1の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含む、第1の例のデバイス。
[0085]第1の例のデバイスであって、信号値は、音声オブジェクトを複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む、第1の例のデバイス。
[0086]第1の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む、第1の例のデバイス。
[0087]第1の例のデバイスであって、音声レンダリング情報を指定するための手段は、ビットストリームで音声フレームごとに音声レンダリング情報を指定するための手段を備える、第1の例のデバイス。
[0088]第1の例のデバイスであって、音声レンダリング情報を指定するための手段は、ビットストリームで一回音声レンダリング情報を指定するための手段を備える、第1の例のデバイス。
[0089]第3の例では、実行されるとき、1つまたは複数のプロセッサにビットストリームで音声レンダリング状を指定させる命令をその上に記憶した非一時的コンピュータ可読記憶媒体であって、音声レンダリング情報は、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する、非一時的コンピュータ可読記憶媒体。
[0090]第4の例では、ビットストリームからマルチチャンネル音声コンテンツをレンダリングするためのデバイスであって、本デバイスは、マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定するための手段と、ビットストリームで指定される音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングするための手段とを備える、デバイス。
[0091]第4の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含み、複数のスピーカーフィードをレンダリングするための手段は、マトリックスに基づいて複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0092]第5の例では、第4の例のデバイスであって、信号値は、ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含み、デバイスはさらに、インデックスに応答してビットストリームからマトリックスを解析するための手段を備え、複数のスピーカーフィードをレンダリングするための手段は、解析されたマトリックスに基づいて複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0093]第5の例のデバイスであって、信号値はさらに、ビットストリームに含まれるマトリックスの行の数を規定する2つ以上のビットと、ビットストリームに含まれるマトリックスの列の数を規定する2つ以上のビットとを含み、ビットストリームからマトリックスを解析するための手段は、インデックスに応答し、行の数を規定する2つ以上のビットおよび列の数を規定する2つ以上のビットに基づいてビットストリームからマトリックスを解析するための手段を備える、第5の例のデバイス。
[0094]第4の例のデバイスであって、信号値は、音声オブジェクトを複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定し、複数のスピーカーフィードをレンダリングするための手段は、指定されたレンダリングアルゴリズムを使用して音声オブジェクトから複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0095]第4の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定し、複数のスピーカーフィードをレンダリングするための手段は、指定されたレンダリングアルゴリズムを使用して球面調和係数から複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0096]第4の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含み、複数のスピーカーフィードをレンダリングするための手段は、インデックスと関連する複数のマトリックスの1つを使用して球面調和係数から複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0097]第4の例のデバイスであって、信号値は、音声オブジェクトを複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含み、複数のスピーカーフィードをレンダリングするための手段は、インデックスと関連する複数のレンダリングアルゴリズムの1つを使用して音声オブジェクトから複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0098]第4の例のデバイスであって、信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含み、複数のスピーカーフィードをレンダリングするための手段は、インデックスと関連する複数のレンダリングアルゴリズムの1つを使用して球面調和係数から複数のスピーカーフィードをレンダリングするための手段を備える、第4の例のデバイス。
[0099]第4の例のデバイスであって、音声レンダリング情報を決定するための手段は、ビットストリームから音声フレームごとに音声レンダリング情報を決定するための手段を含む、第4の例のデバイス。
[0100]第4の例のデバイスであって、音声レンダリング情報手段を決定するための手段は、ビットストリームから一回音声レンダリング情報を決定することを含む、第4の例のデバイス。
[0101]第6の例では、実行されるとき、1つまたは複数のプロセッサにマルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定させ、ビットストリームで指定された音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングさせる命令をその上に記憶した非一時的コンピュータ可読記憶媒体。
[0102]例に応じて、本明細書で述べられる方法のいずれかのあるアクトまたはイベントは、異なる順序で行われてもよく、加えられ、併合され、または完全に除外されてもよい(たとえば、すべての述べられたアクトまたはイベントが、本方法の実施に必要であるとは限らない)ということが、理解されるべきである。その上、ある例では、アクトまたはイベントは、たとえば連続的によりもむしろ、マルチスレッド処理、割り込み処理、または複数プロセッサを通じて同時に行われてもよい。加えて、本開示のある態様は、明確にするために単一のデバイス、モジュールまたはユニットによって行われるとして述べられるが、本開示の技法は、デバイス、ユニットまたはモジュールの組合せによって行われてもよいことが、理解されるべきである。
[0103]1つまたは複数の例では、述べられる機能は、ハードウェアまたはハードウェアおよびソフトウェア(それは、ファームウェアを含んでもよい)の組合せで実施されてもよい。もしソフトウェアで実施されるならば、機能は、非一時的コンピュータ可読媒体上にあり、ハードウェアベースの処理ユニットによって実行される1つまたは複数の命令またはコードとして記憶されまたは送信されてもよい。コンピュータ可読媒体は、コンピュータ可読記憶媒体を含んでもよく、それは、データ記憶媒体などの有形媒体、またはたとえば通信プロトコルに従って1つの場所から別の場所へのコンピュータプログラムの転送を容易にする任意の媒体を含む通信媒体に対応する。
[0104]このようにして、コンピュータ可読媒体は一般に、(1)非一時的である有形コンピュータ可読記憶媒体または(2)信号もしくは搬送波などの通信媒体に対応することもある。データ記憶媒体は、本開示で述べられる技法の実施のための命令、コードおよび/またはデータ構造を取り出すために1つもしくは複数のコンピュータまたは1つもしくは複数のプロセッサによってアクセスされ得る任意の利用可能な媒体であってもよい。コンピュータプログラム製品が、コンピュータ可読媒体を含むこともある。
[0105]例としてであって、限定でなく、そのようなコンピュータ可読記憶媒体は、RAM、ROM、EEPROM(登録商標)、CD−ROMもしくは他の光ディスク記憶装置、磁気ディスク記憶装置もしくは他の磁気記憶デバイス、フラッシュメモリ、または命令もしくはデータ構造の形で所望のプログラムコードを記憶するために使用され、コンピュータによってアクセスされ得る任意の他の媒体を備えることができる。また、任意の接続も、コンピュータ可読媒体と適切に呼ばれる。たとえば、もし命令が、同軸ケーブル、光ファイバーケーブル、ツイストペア、デジタル加入者回線(DSL)、または赤外線、無線、およびマイクロ波などのワイヤレス技術を使用してウェブサイト、サーバー、または他のリモートソースから送信されるならば、そのとき同軸ケーブル、光ファイバーケーブル、ツイストペア、DSL、または赤外線、無線、およびマイクロ波などのワイヤレス技術は、媒体の定義に含まれる。
[0106]しかしながら、コンピュータ可読記憶媒体およびデータ記憶媒体は、接続、搬送波、信号、または他の一時的媒体を含まないが、しかし代わりに非一時的有形記憶媒体に向けられることが、理解されるべきである。ディスク(disk)およびディスク(disc)は、本明細書で使用される場合、コンパクトディスク(disc)(CD)、レーザーディスク(登録商標)(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フロッピー(登録商標)ディスク(disk)およびブルーレイディスク(disc)を含み、ただしディスク(disk)は通常、磁気的にデータを再現し、一方ディスク(disc)は、レーザーで光学的にデータを再現する。上記の組合せもまた、コンピュータ可読媒体の範囲内に含まれるべきである。
[0107]命令は、1つまたは複数のデジタルシグナルプロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルロジックアレイ(FPGA)、または他の等価な集積されたもしくはディスクリートのロジック回路などの、1つまたは複数のプロセッサによって実行されてもよい。それに応じて、「プロセッサ」という用語は、本明細書で使用される場合、前述の構造または本明細書で述べられる技法の実施に適した任意の他の構造のいずれかを指してもよい。加えて、いくつかの態様では、本明細書で述べられる機能性は、符号化および復号のために構成される、または複合コーデックに組み込まれる、専用ハードウェアおよび/またはソフトウェアモジュール内で提供されてもよい。また、本技法は、1つまたは複数の回路またはロジック要素で完全に実施されることもあり得る。
[0108]本開示の技法は、ワイヤレスハンドセット、集積回路(IC)またはICのセット(たとえば、チップセット)を含む、多種多様なデバイスまたは装置で実施されてもよい。様々なコンポーネント、モジュール、またはユニットは、開示される技法を行うように構成されるデバイスの機能的態様を強調するために本開示で述べられるが、しかし必ずしも異なるハードウェアユニットによる実現を必要とするとは限らない。むしろ、上で述べられたように、様々なユニットは、適切なソフトウェアおよび/またはファームウェアと併せて、上で述べられたような1つまたは複数のプロセッサを含む、コーデックハードウェアユニットで組み合わされてもよくまたは相互運用ハードウェアユニットの集合によって提供されてもよい。
[0109]本技法の様々な実施形態が、述べられた。これらの実施形態および他の実施形態は、次の請求項の範囲内である。
以下に本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1] マルチチャンネル音声コンテンツを表すビットストリームを生成する方法であって、前記方法は、
前記マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定することを備える、方法。
[C2] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含む、C1に記載の方法。
[C3] 前記信号値は、前記ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む、C1に記載の方法。
[C4] 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含む、C3に記載の方法。
[C5] 前記信号値は、音声オブジェクトまたは球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する、C1に記載の方法。
[C6] 前記信号値は、音声オブジェクトまたは球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含む、C1に記載の方法。
[C7] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む、C1に記載の方法。
[C8] 前記音声レンダリング情報を指定することは、前記ビットストリームで音声フレームごとに、前記ビットストリームで一回または前記ビットストリームから分離したメタデータから前記音声レンダリング情報を指定することを含む、C1に記載の方法。
[C9] マルチチャンネル音声コンテンツを表すビットストリームを生成するように構成されるデバイスであって、前記デバイスは、
前記マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を指定するように構成される1つまたは複数のプロセッサを備える、デバイス。
[C10] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含む、C9に記載のデバイス。
[C11] 前記信号値は、前記ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む、C9に記載のデバイス。
[C12] 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含む、C11に記載のデバイス。
[C13] 前記信号値は、音声オブジェクトまたは球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する、C9に記載のデバイス。
[C14] 前記信号値は、音声オブジェクトまたは球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上ビットを含む、C9に記載のデバイス。
[C15] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上ビットを含む、C9に記載のデバイス。
[C16] ビットストリームからマルチチャンネル音声コンテンツをレンダリングする方法であって、前記方法は、
前記マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定することと、
前記音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングすることとを備える、方法。
[C17] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含み、
前記複数のスピーカーフィードをレンダリングすることは、前記信号値に含まれる前記マトリックスに基づいて前記複数のスピーカーフィードをレンダリングすることを備える、C16に記載の方法。
[C18] 前記信号値は、前記ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含み、
前記方法はさらに、前記インデックスに応答して前記ビットストリームから前記マトリックスを解析することを備え、
前記複数のスピーカーフィードをレンダリングすることは、前記解析されたマトリックスに基づいて前記複数のスピーカーフィードをレンダリングすることを備える、C16に記載の方法。
[C19] 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含み、
前記ビットストリームから前記マトリックスを解析することは、前記インデックスに応答し、行の数を規定する前記2つ以上のビットおよび列の数を規定する前記2つ以上のビットに基づいて前記ビットストリームから前記マトリックスを解析することを備える、C18に記載の方法。
[C20] 前記信号値は、音声オブジェクトまたは球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定し、
前記複数のスピーカーフィードをレンダリングすることは、前記指定されたレンダリングアルゴリズムを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C16に記載の方法。
[C21] 前記信号値は、音声オブジェクトまたは球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含み、
前記複数のスピーカーフィードをレンダリングすることは、前記インデックスと関連する前記複数のマトリックスの前記1つを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C16に記載の方法。
[C22] 前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含み、
前記複数のスピーカーフィードをレンダリングすることは、前記インデックスと関連する前記複数のレンダリングアルゴリズムの前記1つを使用して前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C16に記載の方法。
[C23] 前記音声レンダリング情報を決定することは、前記ビットストリームから音声フレームごとに、前記ビットストリームから一回または前記ビットストリームから分離したメタデータから前記音声レンダリング情報を決定することを含む、C16に記載の方法。
[C24] ビットストリームからマルチチャンネル音声コンテンツをレンダリングするように構成されるデバイスであって、前記デバイスは、
前記マルチチャンネル音声コンテンツを生成するときに使用される音声レンダラーを識別する信号値を含む音声レンダリング情報を決定し、前記音声レンダリング情報に基づいて複数のスピーカーフィードをレンダリングするように構成される1つまたは複数のプロセッサを備える、デバイス。
[C25] 前記信号値は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含み、
前記1つまたは複数のプロセッサはさらに、前記複数のスピーカーフィードをレンダリングするとき、前記信号値に含まれる前記マトリックスに基づいて前記複数のスピーカーフィードをレンダリングするように構成される、C24に記載のデバイス。
[C26] 前記信号値は、前記ビットストリームが、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを含むことを示すインデックスを規定する2つ以上のビットを含み、
前記1つまたは複数のプロセッサはさらに、前記インデックスに応答して前記ビットストリームから前記マトリックスを解析するように構成され、
前記1つまたは複数のプロセッサはさらに、前記複数のスピーカーフィードをレンダリングするとき、前記複数のスピーカーフィードをレンダリングするように構成され、前記解析されたマトリックスに基づいて前記複数のスピーカーフィードをレンダリングすることを備える、C24に記載のデバイス。
[C27] 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含み、
前記1つまたは複数のプロセッサはさらに、前記ビットストリームから前記マトリックスを解析するとき、前記インデックスに応答し、行の数を規定する前記2つ以上のビットおよび列の数を規定する前記2つ以上のビットに基づいて前記ビットストリームから前記マトリックスを解析するように構成される、C26に記載のデバイス。
[C28] 前記信号値は、音声オブジェクトまたは球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定し、
前記1つまたは複数のプロセッサはさらに、前記複数のスピーカーフィードをレンダリングするとき、前記複数のスピーカーフィードをレンダリングするように構成され、前記指定されたレンダリングアルゴリズムを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C24に記載のデバイス。
[C29] 前記信号値は、音声オブジェクトまたは球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される複数のマトリックスの1つと関連するインデックスを規定する2つ以上のビットを含み、
前記1つまたは複数のプロセッサはさらに、前記複数のスピーカーフィードをレンダリングするとき、前記複数のスピーカーフィードをレンダリングするように構成され、前記インデックスと関連する前記複数のマトリックスの前記1つを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C24に記載のデバイス。
[C30] 前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含み、
前記1つまたは複数のプロセッサはさらに、前記複数のスピーカーフィードをレンダリングするとき、前記複数のスピーカーフィードをレンダリングするように構成され、前記インデックスと関連する前記複数のレンダリングアルゴリズムの前記1つを使用して前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、C24に記載のデバイス。

Claims (34)

  1. マルチチャンネル音声コンテンツを表すビットストリームを生成する方法であって、前記方法は、
    声符号化器の1つまたは複数のプロセッサによって、前記ビットストリームにおいて前記マルチチャンネル音声コンテンツを生成するときに使用されるべき音声レンダラーを識別する信号値を含む音声レンダリング情報を指定することを備え、ここにおいて、前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを規定する複数のマトリックス係数を含む、方法。
  2. 前記信号値は、前記ビットストリームが、前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む、請求項1に記載の方法。
  3. 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含む、請求項2に記載の方法。
  4. 音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する第2の信号値を指定することをさらに備える、請求項1に記載の方法。
  5. 前記信号値はさらに、音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される、複数のマトリックスのうちの前記マトリックスと関連するインデックスを規定する2つ以上のビットを含む、請求項1に記載の方法。
  6. 前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む第2の信号値を指定することをさらに備える、請求項1に記載の方法。
  7. 前記音声レンダリング情報を指定することは、前記ビットストリームで音声フレームごとに、前記ビットストリームで一回、または前記ビットストリームから分離したメタデータから、前記音声レンダリング情報を指定することを含む、請求項1に記載の方法。
  8. マルチチャンネル音声コンテンツを表すビットストリームを生成するように構成されるデバイスであって、前記デバイスは、
    前記ビットストリームにおいて、前記マルチチャンネル音声コンテンツを生成するときに使用されるべき音声レンダラーを識別する信号値を含む音声レンダリング情報を指定するように構成される1つまたは複数のプロセッサを含む音声符号化器と、ここにおいて、前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードにレンダリングするために使用されるマトリックスを規定する複数のマトリックス係数を含み、
    前記1つまたは複数のプロセッサに結合され、前記音声レンダリング情報を記憶するように構成されたメモリと
    備える、デバイス。
  9. 前記信号値はさらに、前記ビットストリームが、前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを含むことを示すインデックスを規定する2つ以上のビットを含む、請求項8に記載のデバイス。
  10. 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含む、請求項9に記載のデバイス。
  11. 前記1つまたは複数のプロセッサはさらに、音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する第2の信号値を指定するように構成される、請求項8に記載のデバイス。
  12. 前記信号値は、音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される、複数のマトリックスのうちの前記マトリックスと関連するインデックスを規定する2つ以上のビットを含む、請求項8に記載のデバイス。
  13. 前記1つまたは複数のプロセッサはさらに、前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む第2の信号値を指定するように構成される、請求項8に記載のデバイス。
  14. ビットストリームからマルチチャンネル音声コンテンツをレンダリングする方法であって、前記方法は、
    前記ビットストリームから、前記マルチチャンネル音声コンテンツを生成するときに使用されるべき音声レンダラーを識別する信号値を含む音声レンダリング情報を決定することと、ここにおいて、前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードの形で前記マルチチャンネル音声コンテンツにレンダリングするために使用されるマトリックスを規定する複数のマトリックス係数を含み、
    前記球面調和係数からおよび前記音声レンダリング情報に基づいて、前記複数のスピーカーフィードの形で前記マルチチャンネル音声コンテンツをレンダリングすることと
    を備える、方法。
  15. 前記複数のスピーカーフィードをレンダリングすることは、前記マトリックスに基づいて前記複数のスピーカーフィードをレンダリングすることを備える、請求項14に記載の方法。
  16. 前記信号値は、前記ビットストリームが、前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを含むことを示すインデックスを規定する2つ以上のビットを含み、
    前記方法はさらに、前記インデックスに応答して前記ビットストリームから前記マトリックスを解析することを備え、
    前記複数のスピーカーフィードをレンダリングすることは、前記解析されたマトリックスに基づいて前記複数のスピーカーフィードをレンダリングすることを備える、請求項14に記載の方法。
  17. 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含み、
    前記ビットストリームから前記マトリックスを解析することは、前記インデックスに応答し、行の数を規定する前記2つ以上のビットおよび列の数を規定する前記2つ以上のビットに基づいて、前記ビットストリームから前記マトリックスを解析することを備える、請求項16に記載の方法。
  18. 音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する第2の信号値を指定するための手段をさらに備え、
    ここにおいて、前記複数のスピーカーフィードをレンダリングすることは、前記指定されたレンダリングアルゴリズムを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、請求項14に記載の方法。
  19. 前記信号値は、音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される、複数のマトリックスのうちの前記マトリックスと関連するインデックスを規定する2つ以上のビットを含み、
    前記複数のスピーカーフィードをレンダリングすることは、前記インデックスと関連する、前記複数のマトリックスのうちの前記マトリックスを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、請求項14に記載の方法。
  20. 球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む第2の信号値を指定することをさらに備え、
    ここにおいて、前記複数のスピーカーフィードをレンダリングすることは、前記インデックスと関連する前記複数のレンダリングアルゴリズムの前記1つを使用して前記球面調和係数から前記複数のスピーカーフィードをレンダリングすることを備える、請求項14に記載の方法。
  21. 前記音声レンダリング情報を決定することは、前記ビットストリームから音声フレームごとに、前記ビットストリームから一回、または前記ビットストリームから分離したメタデータから、前記音声レンダリング情報を決定することを含む、請求項14に記載の方法。
  22. ビットストリームからマルチチャンネル音声コンテンツをレンダリングするように構成されるデバイスであって、前記デバイスは、
    前記ビットストリームから、前記マルチチャンネル音声コンテンツを生成するときに使用されるべき音声レンダラーを識別する信号値を含む音声レンダリング情報を決定することと、ここにおいて、前記音声レンダリング情報は、球面調和係数を複数のスピーカーフィードの形で前記マルチチャンネル音声コンテンツにレンダリングするために使用されるマトリックスを規定する複数のマトリックス係数を含み、
    前記球面調和係数からおよび前記音声レンダリング情報に基づいて、前記複数のスピーカーフィードとして前記マルチチャンネル音声コンテンツをレンダリングすることと
    を行うように構成される1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサに結合され、前記複数のスピーカーフィードを記憶するように構成されたメモリと
    を備える、デバイス。
  23. 前記1つまたは複数のプロセッサは、前記マトリックスに基づいて前記複数のスピーカーフィードをレンダリングするように構成される、請求項22に記載のデバイス。
  24. 前記信号値は、前記ビットストリームが、前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを含むことを示すインデックスを規定する2つ以上のビットを含み、
    前記1つまたは複数のプロセッサはさらに、前記インデックスに応答して前記ビットストリームから前記マトリックスを解析するように構成され、
    前記1つまたは複数のプロセッサは、前記解析されたマトリックスに基づいて前記複数のスピーカーフィードをレンダリングするように構成される、請求項22に記載のデバイス。
  25. 前記信号値はさらに、前記ビットストリームに含まれる前記マトリックスの行の数を規定する2つ以上のビットと、前記ビットストリームに含まれる前記マトリックスの列の数を規定する2つ以上のビットとを含み、
    前記1つまたは複数のプロセッサは、前記インデックスに応答し、行の数を規定する前記2つ以上のビットおよび列の数を規定する前記2つ以上のビットに基づいて、前記ビットストリームから前記マトリックスを解析するように構成される、請求項24に記載のデバイス。
  26. 前記1つまたは複数のプロセッサはさらに、音声オブジェクトまたは球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用されるレンダリングアルゴリズムを指定する第2の信号値を指定するように構成され、
    前記1つまたは複数のプロセッサは、前記指定されたレンダリングアルゴリズムを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングするように構成される、請求項22に記載のデバイス。
  27. 前記信号値は、音声オブジェクトまたは前記球面調和係数を前記複数のスピーカーフィードにレンダリングするために使用される、複数のマトリックスのうちの前記マトリックスと関連するインデックスを規定する2つ以上のビットを含み、
    前記1つまたは複数のプロセッサは、前記インデックスと関連する前記複数のマトリックスの前記1つを使用して前記音声オブジェクトまたは前記球面調和係数から前記複数のスピーカーフィードをレンダリングするように構成される、請求項22に記載のデバイス。
  28. 前記1つまたは複数のプロセッサはさらに、球面調和係数を複数のスピーカーフィードにレンダリングするために使用される複数のレンダリングアルゴリズムの1つと関連するインデックスを規定する2つ以上のビットを含む第2の信号値を指定するように構成され、
    前記1つまたは複数のプロセッサは、前記インデックスと関連する前記複数のレンダリングアルゴリズムの前記1つを使用して前記球面調和係数から前記複数のスピーカーフィードをレンダリングするように構成される、請求項22に記載のデバイス。
  29. 前記複数のマトリックス係数は、前記球面調和係数を、不規則なスピーカーの幾何学的配置において配置されたスピーカーに対応する前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを規定する、請求項8に記載のデバイス。
  30. 前記複数のマトリックス係数は、前記球面調和係数を、規則的であるが、標準化されていないスピーカーの幾何学的配置において配置されたスピーカーに対応する前記複数のスピーカーフィードにレンダリングするために使用される前記マトリックスを規定する、請求項22に記載のデバイス。
  31. 1つまたは複数のマイクロフォンによって、前記球面調和係数を表す音声データをとらえることをさらに備える、請求項1に記載の方法。
  32. 前記1つまたは複数のプロセッサに結合され、前記球面調和係数を表す音声データをとらえるように構成された1つまたは複数のマイクロフォンをさらに備える、請求項8に記載のデバイス。
  33. 1つまたは複数のラウドスピーカーによって、および前記複数のスピーカーフィードに基づいて、前記球面調和係数によって表される音場を再現することをさらに備える、請求項14に記載の方法。
  34. 前記1つまたは複数のプロセッサに結合され、前記複数のスピーカーフィードに基づいて、前記球面調和係数によって表される音場を再現するように構成された1つまたは複数のラウドスピーカーをさらに備える、請求項22に記載のデバイス。
JP2019038692A 2013-02-08 2019-03-04 マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス Active JP6676801B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361762758P 2013-02-08 2013-02-08
US61/762,758 2013-02-08
US14/174,769 US10178489B2 (en) 2013-02-08 2014-02-06 Signaling audio rendering information in a bitstream
US14/174,769 2014-02-06

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015557122A Division JP2016510435A (ja) 2013-02-08 2014-02-07 ビットストリームで音声レンダリング情報を信号伝達すること

Publications (2)

Publication Number Publication Date
JP2019126070A JP2019126070A (ja) 2019-07-25
JP6676801B2 true JP6676801B2 (ja) 2020-04-08

Family

ID=51297441

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015557122A Pending JP2016510435A (ja) 2013-02-08 2014-02-07 ビットストリームで音声レンダリング情報を信号伝達すること
JP2019038692A Active JP6676801B2 (ja) 2013-02-08 2019-03-04 マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015557122A Pending JP2016510435A (ja) 2013-02-08 2014-02-07 ビットストリームで音声レンダリング情報を信号伝達すること

Country Status (15)

Country Link
US (1) US10178489B2 (ja)
EP (2) EP2954521B1 (ja)
JP (2) JP2016510435A (ja)
KR (2) KR20150115873A (ja)
CN (1) CN104981869B (ja)
AU (1) AU2014214786B2 (ja)
CA (1) CA2896807C (ja)
IL (1) IL239748B (ja)
MY (1) MY186004A (ja)
PH (1) PH12015501587A1 (ja)
RU (1) RU2661775C2 (ja)
SG (1) SG11201505048YA (ja)
UA (1) UA118342C2 (ja)
WO (1) WO2014124261A1 (ja)
ZA (1) ZA201506576B (ja)

Families Citing this family (91)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US8923997B2 (en) 2010-10-13 2014-12-30 Sonos, Inc Method and apparatus for adjusting a speaker system
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
US8938312B2 (en) 2011-04-18 2015-01-20 Sonos, Inc. Smart line-in processing
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
US8811630B2 (en) 2011-12-21 2014-08-19 Sonos, Inc. Systems, methods, and apparatus to filter audio
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9729115B2 (en) 2012-04-27 2017-08-08 Sonos, Inc. Intelligently increasing the sound level of player
US9524098B2 (en) 2012-05-08 2016-12-20 Sonos, Inc. Methods and systems for subwoofer calibration
USD721352S1 (en) 2012-06-19 2015-01-20 Sonos, Inc. Playback device
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9668049B2 (en) 2012-06-28 2017-05-30 Sonos, Inc. Playback device calibration user interfaces
US8930005B2 (en) 2012-08-07 2015-01-06 Sonos, Inc. Acoustic signatures in a playback system
US8965033B2 (en) 2012-08-31 2015-02-24 Sonos, Inc. Acoustic optimization
US9008330B2 (en) 2012-09-28 2015-04-14 Sonos, Inc. Crossover frequency adjustments for audio speakers
US9883310B2 (en) * 2013-02-08 2018-01-30 Qualcomm Incorporated Obtaining symmetry information for higher order ambisonic audio renderers
US9609452B2 (en) 2013-02-08 2017-03-28 Qualcomm Incorporated Obtaining sparseness information for higher order ambisonic audio renderers
USD721061S1 (en) 2013-02-25 2015-01-13 Sonos, Inc. Playback device
WO2014175591A1 (ko) * 2013-04-27 2014-10-30 인텔렉추얼디스커버리 주식회사 오디오 신호처리 방법
US9466305B2 (en) 2013-05-29 2016-10-11 Qualcomm Incorporated Performing positional analysis to code spherical harmonic coefficients
US11146903B2 (en) 2013-05-29 2021-10-12 Qualcomm Incorporated Compression of decomposed representations of a sound field
US9922656B2 (en) 2014-01-30 2018-03-20 Qualcomm Incorporated Transitioning of ambient higher-order ambisonic coefficients
US9502045B2 (en) 2014-01-30 2016-11-22 Qualcomm Incorporated Coding independent frames of ambient higher-order ambisonic coefficients
US9226073B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9226087B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9620137B2 (en) 2014-05-16 2017-04-11 Qualcomm Incorporated Determining between scalar and vector quantization in higher order ambisonic coefficients
US10770087B2 (en) 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
US9852737B2 (en) 2014-05-16 2017-12-26 Qualcomm Incorporated Coding vectors decomposed from higher-order ambisonics audio signals
US9367283B2 (en) 2014-07-22 2016-06-14 Sonos, Inc. Audio settings
USD883956S1 (en) 2014-08-13 2020-05-12 Sonos, Inc. Playback device
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US9747910B2 (en) 2014-09-26 2017-08-29 Qualcomm Incorporated Switching between predictive and non-predictive quantization techniques in a higher order ambisonics (HOA) framework
US9973851B2 (en) 2014-12-01 2018-05-15 Sonos, Inc. Multi-channel playback of audio content
US10176813B2 (en) * 2015-04-17 2019-01-08 Dolby Laboratories Licensing Corporation Audio encoding and rendering with discontinuity compensation
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
USD920278S1 (en) 2017-03-13 2021-05-25 Sonos, Inc. Media playback device with lights
USD886765S1 (en) 2017-03-13 2020-06-09 Sonos, Inc. Media playback device
USD768602S1 (en) 2015-04-25 2016-10-11 Sonos, Inc. Playback device
USD906278S1 (en) 2015-04-25 2020-12-29 Sonos, Inc. Media player device
US20170085972A1 (en) 2015-09-17 2017-03-23 Sonos, Inc. Media Player and Media Player Design
US10248376B2 (en) 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
US9729118B2 (en) 2015-07-24 2017-08-08 Sonos, Inc. Loudness matching
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
US9712912B2 (en) 2015-08-21 2017-07-18 Sonos, Inc. Manipulation of playback device response using an acoustic filter
US9736610B2 (en) 2015-08-21 2017-08-15 Sonos, Inc. Manipulation of playback device response using signal processing
WO2017049169A1 (en) 2015-09-17 2017-03-23 Sonos, Inc. Facilitating calibration of an audio playback device
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
US10249312B2 (en) 2015-10-08 2019-04-02 Qualcomm Incorporated Quantization of spatial vectors
US9961467B2 (en) * 2015-10-08 2018-05-01 Qualcomm Incorporated Conversion from channel-based audio to HOA
US9961475B2 (en) * 2015-10-08 2018-05-01 Qualcomm Incorporated Conversion from object-based audio to HOA
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US9886234B2 (en) 2016-01-28 2018-02-06 Sonos, Inc. Systems and methods of distributing audio to one or more playback devices
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
US10074012B2 (en) 2016-06-17 2018-09-11 Dolby Laboratories Licensing Corporation Sound and video object tracking
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
US10089063B2 (en) 2016-08-10 2018-10-02 Qualcomm Incorporated Multimedia device for processing spatialized audio based on movement
USD851057S1 (en) 2016-09-30 2019-06-11 Sonos, Inc. Speaker grill with graduated hole sizing over a transition area for a media device
US10412473B2 (en) 2016-09-30 2019-09-10 Sonos, Inc. Speaker grill with graduated hole sizing over a transition area for a media device
USD827671S1 (en) 2016-09-30 2018-09-04 Sonos, Inc. Media playback device
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
WO2019023853A1 (zh) * 2017-07-31 2019-02-07 华为技术有限公司 一种音频处理方法以及音频处理设备
GB2572419A (en) 2018-03-29 2019-10-02 Nokia Technologies Oy Spatial sound rendering
EP3776543B1 (en) * 2018-04-11 2022-08-31 Dolby International AB 6dof audio rendering
US10999693B2 (en) * 2018-06-25 2021-05-04 Qualcomm Incorporated Rendering different portions of audio data using different renderers
SG11202007629UA (en) * 2018-07-02 2020-09-29 Dolby Laboratories Licensing Corp Methods and devices for encoding and/or decoding immersive audio signals
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
CN114080822B (zh) * 2019-06-20 2023-11-03 杜比实验室特许公司 S扬声器上m声道输入的渲染
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
CN110620986B (zh) * 2019-09-24 2020-12-15 深圳市东微智能科技股份有限公司 音频处理算法的调度方法、装置、音频处理器和存储介质
TWI750565B (zh) * 2020-01-15 2021-12-21 原相科技股份有限公司 真無線多聲道揚聲裝置及其多音源發聲之方法
US11521623B2 (en) 2021-01-11 2022-12-06 Bank Of America Corporation System and method for single-speaker identification in a multi-speaker environment on a low-frequency audio recording

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6931370B1 (en) * 1999-11-02 2005-08-16 Digital Theater Systems, Inc. System and method for providing interactive audio in a multi-channel audio environment
US7830921B2 (en) * 2005-07-11 2010-11-09 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signal
GB0619825D0 (en) 2006-10-06 2006-11-15 Craven Peter G Microphone array
ES2452348T3 (es) 2007-04-26 2014-04-01 Dolby International Ab Aparato y procedimiento para sintetizar una señal de salida
EP2374123B1 (fr) 2008-12-15 2019-04-10 Orange Codage perfectionne de signaux audionumeriques multicanaux
GB0906269D0 (en) 2009-04-09 2009-05-20 Ntnu Technology Transfer As Optimal modal beamformer for sensor arrays
KR101283783B1 (ko) * 2009-06-23 2013-07-08 한국전자통신연구원 고품질 다채널 오디오 부호화 및 복호화 장치
PT2483887T (pt) 2009-09-29 2017-10-23 Dolby Int Ab Descodificador de sinal de áudio mpeg-saoc, método para fornecer uma representação de sinal de mistura ascendente usando descodificação mpeg-saoc e programa de comutador usando um valor comum de parâmetros de correlação inter-objetos dependente de tempo/frequência
WO2011041834A1 (en) * 2009-10-07 2011-04-14 The University Of Sydney Reconstruction of a recorded sound field
BR112012014856B1 (pt) 2009-12-16 2022-10-18 Dolby International Ab Método para fundir conjuntos de fonte de parâmetros de sbr a conjuntos-alvo de parâmetros de sbr, meio de armazenamento não transitório e unidade de fusão de parâmetros de sbr
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
EP2451196A1 (en) 2010-11-05 2012-05-09 Thomson Licensing Method and apparatus for generating and for decoding sound field data including ambisonics sound field data of an order higher than three
EP2469741A1 (en) 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
US9754595B2 (en) * 2011-06-09 2017-09-05 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding 3-dimensional audio signal
EP2541547A1 (en) 2011-06-30 2013-01-02 Thomson Licensing Method and apparatus for changing the relative positions of sound objects contained within a higher-order ambisonics representation
CN105792086B (zh) 2011-07-01 2019-02-15 杜比实验室特许公司 用于自适应音频信号产生、编码和呈现的系统和方法
US9641951B2 (en) * 2011-08-10 2017-05-02 The Johns Hopkins University System and method for fast binaural rendering of complex acoustic scenes
CN104584588B (zh) 2012-07-16 2017-03-29 杜比国际公司 用于渲染音频声场表示以供音频回放的方法和设备
US9761229B2 (en) * 2012-07-20 2017-09-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for audio object clustering
US9832584B2 (en) 2013-01-16 2017-11-28 Dolby Laboratories Licensing Corporation Method for measuring HOA loudness level and device for measuring HOA loudness level
US9883310B2 (en) 2013-02-08 2018-01-30 Qualcomm Incorporated Obtaining symmetry information for higher order ambisonic audio renderers
US9609452B2 (en) 2013-02-08 2017-03-28 Qualcomm Incorporated Obtaining sparseness information for higher order ambisonic audio renderers
US11146903B2 (en) 2013-05-29 2021-10-12 Qualcomm Incorporated Compression of decomposed representations of a sound field
US9922656B2 (en) 2014-01-30 2018-03-20 Qualcomm Incorporated Transitioning of ambient higher-order ambisonic coefficients

Also Published As

Publication number Publication date
UA118342C2 (uk) 2019-01-10
RU2661775C2 (ru) 2018-07-19
KR102182761B1 (ko) 2020-11-25
PH12015501587B1 (en) 2015-10-05
AU2014214786A1 (en) 2015-07-23
CN104981869A (zh) 2015-10-14
MY186004A (en) 2021-06-14
SG11201505048YA (en) 2015-08-28
EP2954521B1 (en) 2020-12-02
CA2896807A1 (en) 2014-08-14
ZA201506576B (en) 2020-02-26
CN104981869B (zh) 2019-04-26
JP2016510435A (ja) 2016-04-07
EP2954521A1 (en) 2015-12-16
JP2019126070A (ja) 2019-07-25
IL239748B (en) 2019-01-31
KR20190115124A (ko) 2019-10-10
PH12015501587A1 (en) 2015-10-05
WO2014124261A1 (en) 2014-08-14
US20140226823A1 (en) 2014-08-14
BR112015019049A2 (pt) 2017-07-18
AU2014214786B2 (en) 2019-10-10
IL239748A0 (en) 2015-08-31
US10178489B2 (en) 2019-01-08
EP3839946A1 (en) 2021-06-23
CA2896807C (en) 2021-03-16
KR20150115873A (ko) 2015-10-14
RU2015138139A (ru) 2017-03-21

Similar Documents

Publication Publication Date Title
JP6676801B2 (ja) マルチチャンネル音声コンテンツを表すビットストリームを生成する方法、およびデバイス
US9870778B2 (en) Obtaining sparseness information for higher order ambisonic audio renderers
US9883310B2 (en) Obtaining symmetry information for higher order ambisonic audio renderers
JP6067935B2 (ja) 回転された高次アンビソニックスのバイノーラル化
US20150264483A1 (en) Low frequency rendering of higher-order ambisonic audio data
KR101818877B1 (ko) 고차 앰비소닉 오디오 렌더러들에 대한 희소성 정보의 획득
TW201907391A (zh) 用於高階立體環繞聲之音訊資料之分層中間壓縮
KR101941764B1 (ko) 고차 앰비소닉 오디오 렌더러들에 대한 대칭성 정보의 획득
BR112015019049B1 (pt) Sinalização de informação de criação de áudio em uma sequência de bits

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190403

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190403

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200312

R150 Certificate of patent or registration of utility model

Ref document number: 6676801

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250