JP6412259B2 - パーソナル化されたオーディオへのスマート・アクセス - Google Patents
パーソナル化されたオーディオへのスマート・アクセス Download PDFInfo
- Publication number
- JP6412259B2 JP6412259B2 JP2017517236A JP2017517236A JP6412259B2 JP 6412259 B2 JP6412259 B2 JP 6412259B2 JP 2017517236 A JP2017517236 A JP 2017517236A JP 2017517236 A JP2017517236 A JP 2017517236A JP 6412259 B2 JP6412259 B2 JP 6412259B2
- Authority
- JP
- Japan
- Prior art keywords
- channel
- presentation
- substream
- audio program
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 85
- 238000009877 rendering Methods 0.000 claims description 45
- 230000005236 sound signal Effects 0.000 claims description 45
- 230000009466 transformation Effects 0.000 claims description 2
- 239000000203 mixture Substances 0.000 description 21
- 238000012545 processing Methods 0.000 description 21
- 230000004044 response Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000002156 mixing Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007935 neutral effect Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000011664 signaling Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/018—Audio watermarking, i.e. embedding inaudible data in the audio signal
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/102—Programmed access in sequence to addressed parts of tracks of operating record carriers
- G11B27/105—Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
- G11B27/32—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
- G11B27/327—Table of contents
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/34—Indicating arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/308—Electronic adaptation dependent on speaker or headphone connection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/01—Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/03—Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Stereophonic System (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
Description
〔EEE1〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスの第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。
〔EEE2〕
呈示(401)が前記オブジェクト・チャネル・サブストリームエンティティの集合からの一つまたは複数のオブジェクト・チャネル・サブストリームエンティティ(520)を含む、EEE1記載の方法(600)。
〔EEE3〕
前記呈示データが、サブストリーム・エンティティ(520)の異なる集合を含む複数の呈示(401、402、403)を示し、前記サブストリーム・エンティティ(520)の異なる集合は、前記集合のオブジェクト・チャネル・サブストリームエンティティ(520)の異なる組み合わせを含む、EEE1または2記載の方法(600)。
〔EEE4〕
前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割される、EEE1ないし3のうちいずれか一項記載の方法(600)。
〔EEE5〕
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示データ・エンティティ(512)についての識別子を示す、
EEE4記載の方法(600)。
〔EEE6〕
サブストリーム・エンティティ(520)が、オーディオ・コンテンツ(424)についてのコンテンツ・サブエンティティ(521)および関係したメタデータについてのメタデータ・サブエンティティ(522)を含む、EEE1ないし5のうちいずれか一項記載の方法(600)。
〔EEE7〕
・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
EEE1ないし6のうちいずれか一項記載の方法(600)。
〔EEE8〕
・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
EEE1ないし7のうちいずれか一項記載の方法(600)。
〔EEE9〕
呈示(401)が、前記スピーカー・チャネル・サブストリーム・エンティティ(520)をも含む、EEE8記載の方法(600)。
〔EEE10〕
前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、EEE8または9記載の方法(600)。
〔EEE11〕
・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
EEE8ないし10のうちいずれか一項記載の方法(600)。
〔EEE12〕
前記スピーカー・チャネルのベッド(421)が、2.0チャネル、5.1チャネルおよび/または7.1チャネルのうちの一つまたは複数を含む、EEE8ないし11のうちいずれか一項記載の方法(600)。
〔EEE13〕
前記オブジェクト・チャネル(424)の集合が複数のオブジェクト・チャネル(424)を含む、EEE1ないし12のうちいずれか一項記載の方法(600)。
〔EEE14〕
オブジェクト・チャネル(424)が、呈示環境のスピーカー(36)の組み合わせによって呈示されるものである、EEE1ないし13のうちいずれか一項記載の方法(600)。
〔EEE15〕
オブジェクト・チャネル(424)の前記オブジェクト関係メタデータ(434、444)が、前記呈示環境内でそこからそのオブジェクト・チャネル(424)がレンダリングされるべき位置を示す、EEE14記載の方法(600)。
〔EEE16〕
・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
EEE14または15記載の方法(600)。
〔EEE17〕
前記ビットストリーム(500)がAC-4ビットストリームである、EEE1ないし16のうちいずれか一項記載の方法(600)。
〔EEE18〕
前記オーディオ信号の集合が捕捉されたオーディオ・コンテンツを示す、EEE1ないし17のうちいずれか一項記載の方法(600)。
〔EEE19〕
・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
EEE1ないし18のうちいずれか一項記載の方法(600)。
〔EEE20〕
・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示す、
EEE1ないし19のうちいずれか一項記載の方法(600)。
〔EEE21〕
前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、EEE20記載の方法(600)。
〔EEE22〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)であって、
・当該ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル・フレームの第一の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示データをもつ呈示セクション(510)を含み;
・前記呈示データは、前記オブジェクト・ベース・オーディオ・プログラムの少なくとも一つの呈示(401)を示し;
・呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、
ビットストリーム。
〔EEE23〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含む、
EEE22記載のビットストリーム。
〔EEE24〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。
〔EEE25〕
・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
EEE24記載の方法。
〔EEE26〕
オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含む、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。
〔EEE27〕
オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムの複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
Claims (13)
- オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成する方法(600)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該方法(600)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階(601)であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を提供する段階(602)であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階(603)と;
・呈示データを前記呈示セクション(510)に挿入する段階(604)であって、前記呈示データは、少なくとも一つの呈示(401)を示し;呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを含む、
方法。 - 前記呈示データが異なる呈示(401、402、403)についての異なる呈示データ・エンティティ(512)にセグメント分割され、
TOCデータと称される目次データを前記呈示セクション(510)に挿入する段階をさらに含み、前記TOCデータは、
・前記呈示セクション(510)内の前記異なる呈示データ・エンティティ(512)の位置;および/または
・前記呈示セクション(510)内に含まれる前記異なる呈示(401、402、403)についての識別子を示す、
請求項1記載の方法(600)。 - ・対応するチャネル・フレームについてのメタデータ・フレームがメタデータの複数の異なる変形(434、444)を含み;
・呈示(401)が、メタデータのどの変形(434)が前記対応するチャネル・フレームをレンダリングするために使われるべきかを示す、
請求項1または2記載の方法(600)。 - ・前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示すスピーカー・チャネルのベッド(421)を決定する段階であって、前記スピーカー・チャネルのベッド(421)はスピーカー・チャネル・フレームのシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムの前記第一のオーディオ・プログラム・フレームは前記スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含む、段階と;
・前記第一のスピーカー・チャネル・フレームを前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のスピーカー・チャネル・サブストリーム・エンティティ(520)に挿入する段階とをさらに含む、
請求項1ないし3のうちいずれか一項記載の方法(600)。 - 前記スピーカー・チャネルのベッド(421)が呈示環境の一つまたは複数のスピーカーによってそれぞれ呈示されるべき一つまたは複数のスピーカー・チャネルを含む、請求項4記載の方法(600)。
- ・当該方法(600)がさらに、前記スピーカー・チャネルのベッド(421)についてのスピーカー関係メタデータ(431、441)を提供することを含み;
・前記スピーカー関係メタデータ(431、441)はスピーカー関係メタデータ・フレームのシーケンスを含み;
・前記スピーカー関係メタデータ・フレームのシーケンスからのある第一のスピーカー関係メタデータ・フレームが前記スピーカー・チャネル・サブストリーム・エンティティ(520)に挿入される、
請求項4または5記載の方法(600)。 - ・前記オブジェクト・チャネル(424)の位置が時間変化する;
・前記オブジェクト・チャネル(424)をレンダリングするためのスピーカー(36)の組み合わせが、前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する;および/または
・前記スピーカー(36)の組み合わせのスピーカー(36)のパンが前記オブジェクト・チャネル(424)の前記オブジェクト・チャネル・フレームのシーケンスに沿って変化する、
請求項1ないし6のうちいずれか一項記載の方法(600)。 - ・呈示(401)がターゲット装置構成についてのターゲット装置構成データを含み;
・前記ターゲット装置構成データは、前記ターゲット装置構成で前記呈示(401)をレンダリングするために使われるべき、前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合および/またはメタデータの変形(434)を示す、
請求項1ないし7のうちいずれか一項記載の方法(600)。 - ・前記複数のサブストリームの一つ、二つまたは三つ以上がサブストリーム・グループを形成し;
・呈示(401)が前記サブストリーム・グループを示し、
当該方法が、前記複数のサブストリームの前記一つ、二つまたは三つ以上を同定するためのデータを前記呈示セクション(510)のサブストリーム・グループ・エンティティに挿入する段階をさらに含み、前記サブストリーム・グループ・エンティティは前記サブストリーム・グループを定義するためのデータを含む、
請求項1ないし8のうちいずれか一項記載の方法(600)。 - オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成する方法であって、
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該方法は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを含む、
方法。 - ・前記第一のオーディオ・プログラム・フレームが、スピーカー・チャネルのベッド(421)の第一のスピーカー・チャネル・フレームを含み;
・前記スピーカー・チャネルのベッド(421)は、前記オーディオ信号の集合のうちの一つまたは複数のオーディオ信号のオーディオ・コンテンツを示し;
・前記複数のサブストリーム・エンティティ(520)は、前記第一のスピーカー・チャネル・フレームについてスピーカー・チャネル・サブストリーム・エンティティ(520)を含み、
・当該方法がさらに、前記呈示データに基づいて、前記第一のスピーカー・チャネル・フレームを、前記第一のコンテナ(501)の前記スピーカー・チャネル・サブストリーム・エンティティ(520)から抽出する段階を含む、
請求項10記載の方法。 - オブジェクト・ベース・オーディオ・プログラムを示すビットストリーム(500)を生成するシステム(3)であって、前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;前記第一のコンテナ(501)はさらに呈示セクション(510)を含み;当該システム(3)は、
・オーディオ信号の集合のうち少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示すオブジェクト・チャネル(424)の集合を決定する段階であって、前記オブジェクト・チャネル(424)の集合はオブジェクト・チャネル・フレームの集合のシーケンスを含む、段階と;
・前記オブジェクト・チャネル(424)の集合のためのオブジェクト関係メタデータ(434、444)の集合を決定する段階であって、前記オブジェクト関係メタデータ(434、444)の集合はオブジェクト関係メタデータ・フレームの集合のシーケンスを含み;前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み、オブジェクト・チャネルは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネルの前記オブジェクト関係メタデータはそこからそのオブジェクト・チャネルがレンダリングされるべき前記呈示環境内の位置を示す、段階と;
・前記オブジェクト・チャネル・フレームの第一の集合および前記オブジェクト関係メタデータ・フレームの第一の集合を、前記第一のコンテナ(501)の前記複数のサブストリーム・エンティティ(520)のオブジェクト・チャネル・サブストリーム・エンティティ(520)のそれぞれの集合に挿入する段階と;
・呈示データを前記呈示セクション(510)に挿入する段階であって、前記呈示データは、少なくとも一つの呈示(401)を示し;前記少なくとも一つの呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階とを実行するよう構成されている、
システム。 - オブジェクト・ベース・オーディオ・プログラムを含むビットストリーム(500)からパーソナル化されたオーディオ・プログラムを生成するシステム(7)であって、前記オブジェクト・ベース・オーディオ・プログラムは複数のサブストリームを含み;
・前記ビットストリーム(500)は、前記オブジェクト・ベース・オーディオ・プログラムのオーディオ・プログラム・フレームの対応するシーケンスのためのコンテナ(501)のシーケンスを含み;
・前記コンテナ(501)のシーケンスのある第一のコンテナ(501)は、前記オブジェクト・ベース・オーディオ・プログラムのある第一のオーディオ・プログラム・フレームを含み;
・前記第一のオーディオ・プログラム・フレームは、オブジェクト・チャネル(424)の集合のオブジェクト・チャネル・フレームの第一の集合と、オブジェクト関係メタデータ・フレームの対応する第一の集合とを含み;
オブジェクト・チャネル・フレームは呈示環境のスピーカーの組み合わせによって呈示されるものであり、オブジェクト・チャネル・フレームの前記オブジェクト関係メタデータ・フレームはそこからそのオブジェクト・チャネル・フレームがレンダリングされるべき前記呈示環境内の位置を示し;
・前記オブジェクト・チャネル(424)の集合はオーディオ信号の集合のうちの少なくともいくつかのオーディオ信号のオーディオ・コンテンツを示し;
・前記第一のコンテナ(501)は、それぞれ前記複数のサブストリーム(411、412、413、414)についての複数のサブストリーム・エンティティ(520)を含み;サブストリーム・エンティティは対応するサブストリームのフレームに関係するデータを含み;
・前記複数のサブストリーム・エンティティ(520)は、それぞれ前記オブジェクト・チャネル・フレームの第一の集合についてのオブジェクト・チャネル・サブストリーム・エンティティ(520)の集合を含み;
・前記第一のコンテナ(501)はさらに、呈示セクション(510)を含み;
当該システム(7)は、
・前記呈示セクション(510)から呈示データを抽出する段階であって、前記呈示データは前記パーソナル化されたオーディオ・プログラムのための呈示(401)を示し、前記呈示(401)は、同時に呈示されるべき前記複数のサブストリーム・エンティティ(520)からのサブストリーム・エンティティ(520)の集合を含む、段階と;
・前記呈示データに基づいて、一つまたは複数のオブジェクト・チャネル・フレームおよび対応する一つまたは複数のオブジェクト関係メタデータ・フレームを、前記第一のコンテナ(501)の前記オブジェクト・チャネル・サブストリーム・エンティティ(520)の集合から抽出する段階とを実行するよう構成されている、
システム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP14187631 | 2014-10-03 | ||
EP14187631.8 | 2014-10-03 | ||
US201562146468P | 2015-04-13 | 2015-04-13 | |
US62/146,468 | 2015-04-13 | ||
PCT/EP2015/072667 WO2016050900A1 (en) | 2014-10-03 | 2015-10-01 | Smart access to personalized audio |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120581A Division JP6574027B2 (ja) | 2014-10-03 | 2018-06-26 | パーソナル化されたオーディオへのスマート・アクセス |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018502411A JP2018502411A (ja) | 2018-01-25 |
JP6412259B2 true JP6412259B2 (ja) | 2018-10-24 |
Family
ID=52347070
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017517236A Active JP6412259B2 (ja) | 2014-10-03 | 2015-10-01 | パーソナル化されたオーディオへのスマート・アクセス |
JP2018120581A Active JP6574027B2 (ja) | 2014-10-03 | 2018-06-26 | パーソナル化されたオーディオへのスマート・アクセス |
JP2023004919A Active JP7411125B2 (ja) | 2014-10-03 | 2023-01-17 | パーソナル化されたオーディオへのスマート・アクセス |
JP2023216398A Pending JP2024038032A (ja) | 2014-10-03 | 2023-12-22 | パーソナル化されたオーディオへのスマート・アクセス |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018120581A Active JP6574027B2 (ja) | 2014-10-03 | 2018-06-26 | パーソナル化されたオーディオへのスマート・アクセス |
JP2023004919A Active JP7411125B2 (ja) | 2014-10-03 | 2023-01-17 | パーソナル化されたオーディオへのスマート・アクセス |
JP2023216398A Pending JP2024038032A (ja) | 2014-10-03 | 2023-12-22 | パーソナル化されたオーディオへのスマート・アクセス |
Country Status (5)
Country | Link |
---|---|
US (5) | US10089991B2 (ja) |
EP (3) | EP4216217A1 (ja) |
JP (4) | JP6412259B2 (ja) |
CN (3) | CN110164483B (ja) |
WO (1) | WO2016050900A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110164483B (zh) * | 2014-10-03 | 2021-03-02 | 杜比国际公司 | 渲染音频节目的方法和系统 |
US10015612B2 (en) * | 2016-05-25 | 2018-07-03 | Dolby Laboratories Licensing Corporation | Measurement, verification and correction of time alignment of multiple audio channels and associated metadata |
US10535355B2 (en) * | 2016-11-18 | 2020-01-14 | Microsoft Technology Licensing, Llc | Frame coding for spatial audio data |
GB2568274A (en) * | 2017-11-10 | 2019-05-15 | Nokia Technologies Oy | Audio stream dependency information |
WO2023075706A2 (en) * | 2021-11-01 | 2023-05-04 | Garena Online Private Limited | Method of using scriptable objects to insert audio features into a program |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3186472B2 (ja) | 1994-10-04 | 2001-07-11 | キヤノン株式会社 | ファクシミリ装置およびその記録紙選択方法 |
US6112170A (en) * | 1998-06-26 | 2000-08-29 | Lsi Logic Corporation | Method for decompressing linear PCM and AC3 encoded audio gain value |
DE60006953T2 (de) * | 1999-04-07 | 2004-10-28 | Dolby Laboratories Licensing Corp., San Francisco | Matrizierung für die verlustfreie kodierung und dekodierung von mehrkanaligen audiosignalen |
EP2023514B1 (en) | 1999-07-14 | 2013-09-11 | Panasonic Corporation | Apparatus for providing information, information receiver and storage medium |
US6813281B1 (en) * | 1999-08-17 | 2004-11-02 | Samsung Electronics Co., Ltd. | Method of assigning audio channel identification, method for selecting audio channel using the same, and optical recording and reproducing apparatus suitable therefor |
US7231268B1 (en) * | 1999-08-17 | 2007-06-12 | Samsung Electronics Co., Ltd. | Method of assigning audio channel identification, method for selecting audio channel using the same, and optical recording and reproducing apparatus suitable therefor |
EP1107108A1 (en) | 1999-12-09 | 2001-06-13 | Hewlett-Packard Company, A Delaware Corporation | System and method for managing the configuration of hierarchically networked data processing devices |
SE0104346L (sv) | 2001-12-21 | 2003-06-22 | Akzo Nobel Nv | Process för kontinuerlig kvartärnering av tertiära aminer med en alkylhalid |
US7130528B2 (en) * | 2002-03-01 | 2006-10-31 | Thomson Licensing | Audio data deletion and silencing during trick mode replay |
KR100493896B1 (ko) | 2003-04-18 | 2005-06-10 | 삼성전자주식회사 | 디지털 콘텐트 메타데이터 변환 방법 및 장치, 그리고이를 이용한 네트워크 시스템 |
CN1942931A (zh) | 2004-04-21 | 2007-04-04 | 杜比实验室特许公司 | 通过树型分层数据结构的有序横向结构描述比特流语法的音频比特流格式 |
US7624021B2 (en) * | 2004-07-02 | 2009-11-24 | Apple Inc. | Universal container for audio data |
US8270439B2 (en) * | 2005-07-08 | 2012-09-18 | Activevideo Networks, Inc. | Video game system using pre-encoded digital audio mixing |
US9123350B2 (en) | 2005-12-14 | 2015-09-01 | Panasonic Intellectual Property Management Co., Ltd. | Method and system for extracting audio features from an encoded bitstream for audio classification |
US7692562B1 (en) | 2006-10-18 | 2010-04-06 | Hewlett-Packard Development Company, L.P. | System and method for representing digital media |
KR20080073925A (ko) * | 2007-02-07 | 2008-08-12 | 삼성전자주식회사 | 파라메트릭 부호화된 오디오 신호를 복호화하는 방법 및장치 |
AU2008215232B2 (en) | 2007-02-14 | 2010-02-25 | Lg Electronics Inc. | Methods and apparatuses for encoding and decoding object-based audio signals |
CN101542596B (zh) * | 2007-02-14 | 2016-05-18 | Lg电子株式会社 | 用于编码和解码基于对象的音频信号的方法和装置 |
EP2083585B1 (en) | 2008-01-23 | 2010-09-15 | LG Electronics Inc. | A method and an apparatus for processing an audio signal |
JP4539754B2 (ja) * | 2008-04-11 | 2010-09-08 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
EP2111062B1 (en) | 2008-04-16 | 2014-11-12 | LG Electronics Inc. | A method and an apparatus for processing an audio signal |
KR20090110244A (ko) | 2008-04-17 | 2009-10-21 | 삼성전자주식회사 | 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치 |
KR101596504B1 (ko) | 2008-04-23 | 2016-02-23 | 한국전자통신연구원 | 객체기반 오디오 컨텐츠의 생성/재생 방법 및 객체기반 오디오 서비스를 위한 파일 포맷 구조를 가진 데이터를 기록한 컴퓨터 판독 가능 기록 매체 |
EP2146522A1 (en) * | 2008-07-17 | 2010-01-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating audio output signals using object based metadata |
US8798776B2 (en) | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
US7733247B1 (en) | 2008-11-18 | 2010-06-08 | International Business Machines Corporation | Method and system for efficient data transmission with server side de-duplication |
JP5645951B2 (ja) | 2009-11-20 | 2014-12-24 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | ダウンミックス信号表現に基づくアップミックス信号を提供する装置、マルチチャネルオーディオ信号を表しているビットストリームを提供する装置、方法、コンピュータプログラム、および線形結合パラメータを使用してマルチチャネルオーディオ信号を表しているビットストリーム |
US20150348558A1 (en) * | 2010-12-03 | 2015-12-03 | Dolby Laboratories Licensing Corporation | Audio Bitstreams with Supplementary Data and Encoding and Decoding of Such Bitstreams |
WO2012138594A1 (en) * | 2011-04-08 | 2012-10-11 | Dolby Laboratories Licensing Corporation | Automatic configuration of metadata for use in mixing audio programs from two encoded bitstreams |
TWI476761B (zh) * | 2011-04-08 | 2015-03-11 | Dolby Lab Licensing Corp | 用以產生可由實施不同解碼協定之解碼器所解碼的統一位元流之音頻編碼方法及系統 |
US9179236B2 (en) * | 2011-07-01 | 2015-11-03 | Dolby Laboratories Licensing Corporation | System and method for adaptive audio signal generation, coding and rendering |
RU2564681C2 (ru) * | 2011-07-01 | 2015-10-10 | Долби Лабораторис Лайсэнзин Корпорейшн | Способы и системы синхронизации и переключения для системы адаптивного звука |
TWI505262B (zh) * | 2012-05-15 | 2015-10-21 | Dolby Int Ab | 具多重子流之多通道音頻信號的有效編碼與解碼 |
CN104520924B (zh) * | 2012-08-07 | 2017-06-23 | 杜比实验室特许公司 | 指示游戏音频内容的基于对象的音频的编码和呈现 |
RU2665873C1 (ru) | 2013-01-21 | 2018-09-04 | Долби Лэборетериз Лайсенсинг Корпорейшн | Оптимизация громкости и динамического диапазона через различные устройства воспроизведения |
TWI530941B (zh) * | 2013-04-03 | 2016-04-21 | 杜比實驗室特許公司 | 用於基於物件音頻之互動成像的方法與系統 |
TWM487509U (zh) * | 2013-06-19 | 2014-10-01 | 杜比實驗室特許公司 | 音訊處理設備及電子裝置 |
US10153204B2 (en) * | 2014-06-04 | 2018-12-11 | Flir Systems, Inc. | Wafer level packaging of reduced-height infrared detectors |
CN110164483B (zh) * | 2014-10-03 | 2021-03-02 | 杜比国际公司 | 渲染音频节目的方法和系统 |
-
2015
- 2015-10-01 CN CN201910622236.1A patent/CN110164483B/zh active Active
- 2015-10-01 WO PCT/EP2015/072667 patent/WO2016050900A1/en active Application Filing
- 2015-10-01 CN CN201910622219.8A patent/CN110364190B/zh active Active
- 2015-10-01 EP EP23161124.5A patent/EP4216217A1/en active Pending
- 2015-10-01 EP EP15771166.4A patent/EP3201923B1/en active Active
- 2015-10-01 CN CN201580053322.5A patent/CN106796809B/zh active Active
- 2015-10-01 JP JP2017517236A patent/JP6412259B2/ja active Active
- 2015-10-01 EP EP20195679.4A patent/EP3786955B1/en active Active
- 2015-10-01 US US15/516,509 patent/US10089991B2/en active Active
-
2018
- 2018-06-26 JP JP2018120581A patent/JP6574027B2/ja active Active
- 2018-10-02 US US16/149,557 patent/US10650833B2/en active Active
-
2020
- 2020-05-12 US US15/930,292 patent/US11437048B2/en active Active
-
2022
- 2022-09-06 US US17/903,906 patent/US11948585B2/en active Active
-
2023
- 2023-01-17 JP JP2023004919A patent/JP7411125B2/ja active Active
- 2023-12-22 JP JP2023216398A patent/JP2024038032A/ja active Pending
-
2024
- 2024-03-14 US US18/605,745 patent/US20240304194A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
EP4216217A1 (en) | 2023-07-26 |
EP3201923B1 (en) | 2020-09-30 |
JP6574027B2 (ja) | 2019-09-11 |
US10650833B2 (en) | 2020-05-12 |
JP7411125B2 (ja) | 2024-01-10 |
US20200342884A1 (en) | 2020-10-29 |
US11437048B2 (en) | 2022-09-06 |
EP3786955B1 (en) | 2023-04-12 |
US11948585B2 (en) | 2024-04-02 |
JP2018502411A (ja) | 2018-01-25 |
CN110364190A (zh) | 2019-10-22 |
CN106796809A (zh) | 2017-05-31 |
US10089991B2 (en) | 2018-10-02 |
JP2024038032A (ja) | 2024-03-19 |
EP3786955A1 (en) | 2021-03-03 |
CN110364190B (zh) | 2021-03-12 |
EP3201923A1 (en) | 2017-08-09 |
US20220415332A1 (en) | 2022-12-29 |
JP2023052432A (ja) | 2023-04-11 |
WO2016050900A1 (en) | 2016-04-07 |
CN110164483B (zh) | 2021-03-02 |
CN110164483A (zh) | 2019-08-23 |
JP2018185882A (ja) | 2018-11-22 |
US20170243590A1 (en) | 2017-08-24 |
US20190035411A1 (en) | 2019-01-31 |
CN106796809B (zh) | 2019-08-09 |
US20240304194A1 (en) | 2024-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11081118B2 (en) | Methods and systems for interactive rendering of object based audio | |
JP6574027B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス | |
JP7213861B2 (ja) | パーソナル化されたオーディオへのスマート・アクセス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180202 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180626 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180704 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180927 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6412259 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |