JP6812517B2 - パーソナル化されたオーディオへのスマート・アクセス - Google Patents
パーソナル化されたオーディオへのスマート・アクセス Download PDFInfo
- Publication number
- JP6812517B2 JP6812517B2 JP2019148798A JP2019148798A JP6812517B2 JP 6812517 B2 JP6812517 B2 JP 6812517B2 JP 2019148798 A JP2019148798 A JP 2019148798A JP 2019148798 A JP2019148798 A JP 2019148798A JP 6812517 B2 JP6812517 B2 JP 6812517B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- presentation
- channel
- substream
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 85
- 238000009877 rendering Methods 0.000 claims description 48
- 230000005236 sound signal Effects 0.000 claims description 40
- 239000000284 extract Substances 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 20
- 239000000203 mixture Substances 0.000 description 16
- 230000004044 response Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Stereophonic System (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
〔EEE1〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスの第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。
〔EEE2〕
呈示(401)が前記オブジェクト・チャネル・サブストリームエンティティの集合からの一つまたは複数のオブジェクト・チャネル・サブストリームエンティティ(520)を含む、EEE1記載の方法(600)。
〔EEE3〕
前記呈示データが、サブストリーム・エンティティ(520)の異なる集合を含む複数の呈示(401、402、403)を示し、前記サブストリーム・エンティティ(520)の異なる集合は、前記集合のオブジェクト・チャネル・サブストリームエンティティ(520)の異なる組み合わせを含む、EEE1または2記載の方法(600)。
〔EEE4〕
前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割される、EEE1ないし3のうちいずれか一項記載の方法(600)。
〔EEE5〕
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示データ・エンティティ(512)についての識別子を示す、
EEE4記載の方法(600)。
〔EEE6〕
サブストリーム・エンティティ(520)が、オーディオ・コンテンツ(424)についてのコンテンツ・サブエンティティ(521)および関係したメタデータについてのメタデータ・サブエンティティ(522)を含む、EEE1ないし5のうちいずれか一項記載の方法(600)。
〔EEE7〕
・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
EEE1ないし6のうちいずれか一項記載の方法(600)。
〔EEE8〕
・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
EEE1ないし7のうちいずれか一項記載の方法(600)。
〔EEE9〕
呈示(401)が、前記スピーカー・チャネル・サブストリーム・エンティティ(520)をも含む、EEE8記載の方法(600)。
〔EEE10〕
前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、EEE8または9記載の方法(600)。
〔EEE11〕
・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
EEE8ないし10のうちいずれか一項記載の方法(600)。
〔EEE12〕
前記スピーカー・チャネルのベッド(421)が、2.0チャネル、5.1チャネルおよび/または7.1チャネルのうちの一つまたは複数を含む、EEE8ないし11のうちいずれか一項記載の方法(600)。
〔EEE13〕
前記オブジェクト・チャネル(424)の集合が複数のオブジェクト・チャネル(424)を含む、EEE1ないし12のうちいずれか一項記載の方法(600)。
〔EEE14〕
オブジェクト・チャネル(424)が、呈示環境のスピーカー(36)の組み合わせによって呈示されるものである、EEE1ないし13のうちいずれか一項記載の方法(600)。
〔EEE15〕
オブジェクト・チャネル(424)の前記オブジェクト関係メタデータ(434、444)が、前記呈示環境内でそこからそのオブジェクト・チャネル(424)がレンダリングされるべき位置を示す、EEE14記載の方法(600)。
〔EEE16〕
・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
EEE14または15記載の方法(600)。
〔EEE17〕
前記ビットストリーム(500)がAC-4ビットストリームである、EEE1ないし16のうちいずれか一項記載の方法(600)。
〔EEE18〕
前記オーディオ信号の集合が捕捉されたオーディオ・コンテンツを示す、EEE1ないし17のうちいずれか一項記載の方法(600)。
〔EEE19〕
・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
EEE1ないし18のうちいずれか一項記載の方法(600)。
〔EEE20〕
・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示す、
EEE1ないし19のうちいずれか一項記載の方法(600)。
〔EEE21〕
前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、EEE20記載の方法(600)。
〔EEE22〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)であって、
・当該ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル・フレームの第一の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示データをもつ呈示セクション(510)を含み;
・前記呈示データは、前記オブジェクト・ベース・オーディオ・プログラムの少なくとも一つの呈示(401)を示し;
・呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、
ビットストリーム。
〔EEE23〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含む、
EEE22記載のビットストリーム。
〔EEE24〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。
〔EEE25〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
EEE24記載の方法。
〔EEE26〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。
〔EEE27〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
〔態様1〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。
〔態様2〕
前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割され、
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示データ・エンティティ(512)についての識別子を示す、
態様1記載の方法(600)。
〔態様3〕
・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
態様1または2記載の方法(600)。
〔態様4〕
・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
態様1ないし3のうちいずれか一項記載の方法(600)。
〔態様5〕
前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、態様4記載の方法(600)。
〔態様6〕
・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
態様4または5記載の方法(600)。
〔態様7〕
・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
態様1ないし6のうちいずれか一項記載の方法(600)。
〔態様8〕
・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
態様1ないし7のうちいずれか一項記載の方法(600)。
〔態様9〕
・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示し、
当該方法が、前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、
態様1ないし8のうちいずれか一項記載の方法(600)。
〔態様10〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)であって、
・当該ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル・フレームの第一の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示データをもつ呈示セクション(510)を含み;
・前記呈示データは、前記オブジェクト・ベース・オーディオ・プログラムの少なくとも一つの呈示(401)を示し;
・呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、
ビットストリーム。
〔態様11〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含む、
態様10記載のビットストリーム。
〔態様12〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。
〔態様13〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
態様12記載の方法。
〔態様14〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。
〔態様15〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
Claims (3)
- エンコードされたビットストリームからオーディオ・プログラムをレンダリングする方法であって、前記エンコードされたビットストリームは、オーディオ・プログラム・フレームの対応するシーケンスのためのコンテナのシーケンスを含み、各コンテナは、オーディオ・プログラム・フレームについて、呈示データおよび複数のサブストリーム・エンティティを含み、各サブストリーム・エンティティはオブジェクト・チャネル・オーディオ・データおよびメタデータを含み、当該方法は:
前記エンコードされたビットストリームのオーディオ・プログラム・フレームのコンテナから前記呈示データを抽出する段階であって、前記呈示データは前記オーディオ・プログラムの呈示を示し、前記呈示データは、レンダリングされるべき前記オーディオ・プログラムのために使われるべきサブストリーム・エンティティの集合を示す、段階と;
前記呈示データに基づいて、前記サブストリーム・エンティティの集合に対応するメタデータおよびオブジェクト・チャネル・オーディオ・データをレンダリングする段階とを含み、
前記サブストリーム・エンティティにおける前記メタデータはそこから対応するオブジェクト・チャネル・オーディオ・データがレンダリングされるべき呈示環境内の位置を示し;前記オブジェクト・チャネル・オーディオ・データはオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示す、
方法。 - エンコードされたビットストリームからオーディオ・プログラムをレンダリングするシステムであって、前記エンコードされたビットストリームは、オーディオ・プログラム・フレームの対応するシーケンスのためのコンテナのシーケンスを含み、各コンテナは、オーディオ・プログラム・フレームについて、呈示データおよび複数のサブストリーム・エンティティを含み、各サブストリーム・エンティティはオブジェクト・チャネル・オーディオ・データおよびメタデータを含み、当該システムは:
前記エンコードされたビットストリームのオーディオ・プログラム・フレームのコンテナから前記呈示データを抽出するプロセッサであって、前記呈示データは前記オーディオ・プログラムの呈示を示し、前記呈示データは、レンダリングされるべき前記オーディオ・プログラムのために使われるべきサブストリーム・エンティティの集合を示す、プロセッサと;
前記呈示データに基づいて、前記サブストリーム・エンティティの集合に対応するメタデータおよびオブジェクト・チャネル・オーディオ・データをレンダリングするレンダラーとを有しており、
前記メタデータはそこから対応するオブジェクト・チャネル・オーディオ・データがレンダリングされるべき呈示環境内の位置を示し;前記オブジェクト・チャネル・オーディオ・データはオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示す、
システム。 - コンピュータに請求項1記載の方法を実行させるためのコンピュータ・プログラムを記憶している非一時的なコンピュータ可読記憶媒体。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14187631.8 | 2014-10-03 | ||
EP14187631 | 2014-10-03 | ||
US201562146468P | 2015-04-13 | 2015-04-13 | |
US62/146,468 | 2015-04-13 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120581A Division JP6574027B2 (ja) | 2014-10-03 | 2018-06-26 | パーソナル化されたオーディオへのスマート・アクセス |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208407A Division JP7213861B2 (ja) | 2014-10-03 | 2020-12-16 | パーソナル化されたオーディオへのスマート・アクセス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019207435A JP2019207435A (ja) | 2019-12-05 |
JP6812517B2 true JP6812517B2 (ja) | 2021-01-13 |
Family
ID=68767807
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148798A Active JP6812517B2 (ja) | 2014-10-03 | 2019-08-14 | パーソナル化されたオーディオへのスマート・アクセス |
JP2020208407A Active JP7213861B2 (ja) | 2014-10-03 | 2020-12-16 | パーソナル化されたオーディオへのスマート・アクセス |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208407A Active JP7213861B2 (ja) | 2014-10-03 | 2020-12-16 | パーソナル化されたオーディオへのスマート・アクセス |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6812517B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021064949A (ja) * | 2014-10-03 | 2021-04-22 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315396B2 (en) * | 2008-07-17 | 2012-11-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating audio output signals using object based metadata |
EP2727383B1 (en) * | 2011-07-01 | 2021-04-28 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
JP6186435B2 (ja) * | 2012-08-07 | 2017-08-23 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ゲームオーディオコンテンツを示すオブジェクトベースオーディオの符号化及びレンダリング |
TWM487509U (zh) * | 2013-06-19 | 2014-10-01 | 杜比實驗室特許公司 | 音訊處理設備及電子裝置 |
JP6812517B2 (ja) | 2014-10-03 | 2021-01-13 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
-
2019
- 2019-08-14 JP JP2019148798A patent/JP6812517B2/ja active Active
-
2020
- 2020-12-16 JP JP2020208407A patent/JP7213861B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021064949A (ja) * | 2014-10-03 | 2021-04-22 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
JP7213861B2 (ja) | 2014-10-03 | 2023-01-27 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
Also Published As
Publication number | Publication date |
---|---|
JP2019207435A (ja) | 2019-12-05 |
JP7213861B2 (ja) | 2023-01-27 |
JP2021064949A (ja) | 2021-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11081118B2 (en) | Methods and systems for interactive rendering of object based audio | |
JP7411125B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス | |
JP6812517B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6812517 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |