JP7213861B2 - パーソナル化されたオーディオへのスマート・アクセス - Google Patents
パーソナル化されたオーディオへのスマート・アクセス Download PDFInfo
- Publication number
- JP7213861B2 JP7213861B2 JP2020208407A JP2020208407A JP7213861B2 JP 7213861 B2 JP7213861 B2 JP 7213861B2 JP 2020208407 A JP2020208407 A JP 2020208407A JP 2020208407 A JP2020208407 A JP 2020208407A JP 7213861 B2 JP7213861 B2 JP 7213861B2
- Authority
- JP
- Japan
- Prior art keywords
- audio
- presentation
- channel
- audio program
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Signal Processing For Digital Recording And Reproducing (AREA)
- Stereophonic System (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
〔EEE1〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスの第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。
〔EEE2〕
呈示(401)が前記オブジェクト・チャネル・サブストリームエンティティの集合からの一つまたは複数のオブジェクト・チャネル・サブストリームエンティティ(520)を含む、EEE1記載の方法(600)。
〔EEE3〕
前記呈示データが、サブストリーム・エンティティ(520)の異なる集合を含む複数の呈示(401、402、403)を示し、前記サブストリーム・エンティティ(520)の異なる集合は、前記集合のオブジェクト・チャネル・サブストリームエンティティ(520)の異なる組み合わせを含む、EEE1または2記載の方法(600)。
〔EEE4〕
前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割される、EEE1ないし3のうちいずれか一項記載の方法(600)。
〔EEE5〕
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示データ・エンティティ(512)についての識別子を示す、
EEE4記載の方法(600)。
〔EEE6〕
サブストリーム・エンティティ(520)が、オーディオ・コンテンツ(424)についてのコンテンツ・サブエンティティ(521)および関係したメタデータについてのメタデータ・サブエンティティ(522)を含む、EEE1ないし5のうちいずれか一項記載の方法(600)。
〔EEE7〕
・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
EEE1ないし6のうちいずれか一項記載の方法(600)。
〔EEE8〕
・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
EEE1ないし7のうちいずれか一項記載の方法(600)。
〔EEE9〕
呈示(401)が、前記スピーカー・チャネル・サブストリーム・エンティティ(520)をも含む、EEE8記載の方法(600)。
〔EEE10〕
前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、EEE8または9記載の方法(600)。
〔EEE11〕
・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
EEE8ないし10のうちいずれか一項記載の方法(600)。
〔EEE12〕
前記スピーカー・チャネルのベッド(421)が、2.0チャネル、5.1チャネルおよび/または7.1チャネルのうちの一つまたは複数を含む、EEE8ないし11のうちいずれか一項記載の方法(600)。
〔EEE13〕
前記オブジェクト・チャネル(424)の集合が複数のオブジェクト・チャネル(424)を含む、EEE1ないし12のうちいずれか一項記載の方法(600)。
〔EEE14〕
オブジェクト・チャネル(424)が、呈示環境のスピーカー(36)の組み合わせによって呈示されるものである、EEE1ないし13のうちいずれか一項記載の方法(600)。
〔EEE15〕
オブジェクト・チャネル(424)の前記オブジェクト関係メタデータ(434、444)が、前記呈示環境内でそこからそのオブジェクト・チャネル(424)がレンダリングされるべき位置を示す、EEE14記載の方法(600)。
〔EEE16〕
・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
EEE14または15記載の方法(600)。
〔EEE17〕
前記ビットストリーム(500)がAC-4ビットストリームである、EEE1ないし16のうちいずれか一項記載の方法(600)。
〔EEE18〕
前記オーディオ信号の集合が捕捉されたオーディオ・コンテンツを示す、EEE1ないし17のうちいずれか一項記載の方法(600)。
〔EEE19〕
・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
EEE1ないし18のうちいずれか一項記載の方法(600)。
〔EEE20〕
・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示す、
EEE1ないし19のうちいずれか一項記載の方法(600)。
〔EEE21〕
前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、EEE20記載の方法(600)。
〔EEE22〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)であって、
・当該ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル・フレームの第一の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示データをもつ呈示セクション(510)を含み;
・前記呈示データは、前記オブジェクト・ベース・オーディオ・プログラムの少なくとも一つの呈示(401)を示し;
・呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、
ビットストリーム。
〔EEE23〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含む、
EEE22記載のビットストリーム。
〔EEE24〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。
〔EEE25〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
EEE24記載の方法。
〔EEE26〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。
〔EEE27〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
〔態様1〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。
〔態様2〕
前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割され、
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示データ・エンティティ(512)についての識別子を示す、
態様1記載の方法(600)。
〔態様3〕
・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
態様1または2記載の方法(600)。
〔態様4〕
・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
態様1ないし3のうちいずれか一項記載の方法(600)。
〔態様5〕
前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、態様4記載の方法(600)。
〔態様6〕
・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
態様4または5記載の方法(600)。
〔態様7〕
・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
態様1ないし6のうちいずれか一項記載の方法(600)。
〔態様8〕
・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
態様1ないし7のうちいずれか一項記載の方法(600)。
〔態様9〕
・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示し、
当該方法が、前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、
態様1ないし8のうちいずれか一項記載の方法(600)。
〔態様10〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)であって、
・当該ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル・フレームの第一の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示データをもつ呈示セクション(510)を含み;
・前記呈示データは、前記オブジェクト・ベース・オーディオ・プログラムの少なくとも一つの呈示(401)を示し;
・呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、
ビットストリーム。
〔態様11〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含む、
態様10記載のビットストリーム。
〔態様12〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。
〔態様13〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
態様12記載の方法。
〔態様14〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。
〔態様15〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
Claims (9)
- エンコードされたビットストリームからオーディオ・プログラムをレンダリングする方法であって:
前記エンコードされたビットストリームを受領する段階であって、前記エンコードされたビットストリームは、オーディオ・プログラム・フレームのシーケンスを含み、オーディオ・フレームの前記シーケンスの各オーディオ・フレームは、複数のサブストリームのそれぞれについてのオーディオ・データおよびメタデータを含み、また前記複数のサブストリームからの少なくとも一つのサブストリーム混合を示す呈示データを含む、段階と;
前記エンコードされたビットストリームから前記オーディオ・プログラムの前記呈示データを抽出する段階と;
前記少なくとも一つのサブストリーム混合のうちの一つのサブストリーム混合に対応するメタデータおよびオブジェクト・チャネル・オーディオ・データを決定する段階と;
前記呈示データ、前記オブジェクト・チャネル・オーディオ・データおよび前記メタデータに基づいて、前記オーディオ・プログラムをレンダリングする段階とを含み、
前記メタデータは前記オブジェクト・チャネル・オーディオ・データがレンダリングされるべき呈示環境内の位置を示し;前記オブジェクト・チャネル・オーディオ・データは前記オーディオ・プログラムのオーディオ・コンテンツを示す、
方法。 - 前記少なくとも一つのサブストリーム混合のうちの前記一つのサブストリーム混合はユーザー・インターフェースを介して選択されたものである、請求項1に記載の方法。
- 前記オブジェクト・チャネル・オーディオ・データは、前記ユーザー・インターフェースを介してさらに選択されたものである、請求項2に記載の方法。
- 前記少なくとも一つのサブストリーム混合のうちの前記一つのサブストリーム混合は、前記呈示データに関係する少なくとも一つの規則に基づいて決定されたものである、請求項1に記載の方法。
- 請求項1に記載の方法をコンピュータに実行させるためのコンピュータ・プログラムが記憶されている非一時的なコンピュータ可読記憶媒体。
- エンコードされたビットストリームからオーディオ・プログラムをレンダリングするシステムであって:
前記エンコードされたビットストリームを受領する受領器であって、前記エンコードされたビットストリームは、オーディオ・プログラム・フレームのシーケンスを含み、オーディオ・フレームの前記シーケンスの各オーディオ・フレームは、複数のサブストリームのそれぞれについてのオーディオ・データおよびメタデータを含み、また前記複数のサブストリームからの少なくとも一つのサブストリーム混合を示す呈示データを含む、受領器と;
前記エンコードされたビットストリームから前記オーディオ・プログラムの前記呈示データを抽出する第一の処理器と;
前記少なくとも一つのサブストリーム混合に対応するメタデータおよびオブジェクト・チャネル・オーディオ・データを決定する第二の処理器と;
前記呈示データ、前記オブジェクト・チャネル・オーディオ・データおよび前記メタデータに基づいて、前記オーディオ・プログラムをレンダリングするレンダラーとを含み、
前記メタデータは前記オブジェクト・チャネル・オーディオ・データがレンダリングされるべき呈示環境内の位置を示し;前記オブジェクト・チャネル・オーディオ・データは前記オーディオ・プログラムのオーディオ・コンテンツを示す、
システム。 - 前記少なくとも一つのサブストリーム混合のうちの前記一つのサブストリーム混合はユーザー・インターフェースを介して選択されたものである、請求項6に記載のシステム。
- 前記オブジェクト・チャネル・オーディオ・データは、前記ユーザー・インターフェースを介してさらに選択されたものである、請求項7に記載のシステム。
- 前記少なくとも一つのサブストリーム混合のうちの前記一つのサブストリーム混合は、前記呈示データに関係する少なくとも一つの規則に基づいて決定されたものである、請求項6に記載のシステム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023004919A JP7411125B2 (ja) | 2014-10-03 | 2023-01-17 | パーソナル化されたオーディオへのスマート・アクセス |
JP2023216398A JP2024038032A (ja) | 2014-10-03 | 2023-12-22 | パーソナル化されたオーディオへのスマート・アクセス |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14187631 | 2014-10-03 | ||
EP14187631.8 | 2014-10-03 | ||
US201562146468P | 2015-04-13 | 2015-04-13 | |
US62/146,468 | 2015-04-13 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148798A Division JP6812517B2 (ja) | 2014-10-03 | 2019-08-14 | パーソナル化されたオーディオへのスマート・アクセス |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023004919A Division JP7411125B2 (ja) | 2014-10-03 | 2023-01-17 | パーソナル化されたオーディオへのスマート・アクセス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021064949A JP2021064949A (ja) | 2021-04-22 |
JP7213861B2 true JP7213861B2 (ja) | 2023-01-27 |
Family
ID=68767807
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148798A Active JP6812517B2 (ja) | 2014-10-03 | 2019-08-14 | パーソナル化されたオーディオへのスマート・アクセス |
JP2020208407A Active JP7213861B2 (ja) | 2014-10-03 | 2020-12-16 | パーソナル化されたオーディオへのスマート・アクセス |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019148798A Active JP6812517B2 (ja) | 2014-10-03 | 2019-08-14 | パーソナル化されたオーディオへのスマート・アクセス |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6812517B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6812517B2 (ja) * | 2014-10-03 | 2021-01-13 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011528200A (ja) | 2008-07-17 | 2011-11-10 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | オブジェクトベースのメタデータを用いてオーディオ出力信号を生成するための装置および方法 |
WO2013006338A2 (en) | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
JP3186472U (ja) | 2013-06-19 | 2013-10-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 番組情報メタデータを用いたオーディオデコーダ |
WO2014025752A1 (en) | 2012-08-07 | 2014-02-13 | Dolby Laboratories Licensing Corporation | Encoding and rendering of object based audio indicative of game audio content |
JP6812517B2 (ja) | 2014-10-03 | 2021-01-13 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
-
2019
- 2019-08-14 JP JP2019148798A patent/JP6812517B2/ja active Active
-
2020
- 2020-12-16 JP JP2020208407A patent/JP7213861B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011528200A (ja) | 2008-07-17 | 2011-11-10 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | オブジェクトベースのメタデータを用いてオーディオ出力信号を生成するための装置および方法 |
WO2013006338A2 (en) | 2011-07-01 | 2013-01-10 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
WO2014025752A1 (en) | 2012-08-07 | 2014-02-13 | Dolby Laboratories Licensing Corporation | Encoding and rendering of object based audio indicative of game audio content |
JP3186472U (ja) | 2013-06-19 | 2013-10-10 | ドルビー ラボラトリーズ ライセンシング コーポレイション | 番組情報メタデータを用いたオーディオデコーダ |
JP6812517B2 (ja) | 2014-10-03 | 2021-01-13 | ドルビー・インターナショナル・アーベー | パーソナル化されたオーディオへのスマート・アクセス |
Also Published As
Publication number | Publication date |
---|---|
JP2021064949A (ja) | 2021-04-22 |
JP2019207435A (ja) | 2019-12-05 |
JP6812517B2 (ja) | 2021-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11727945B2 (en) | Methods and systems for interactive rendering of object based audio | |
JP7411125B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス | |
JP7213861B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220208 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220502 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7213861 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |