JP7226335B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents
情報処理装置、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP7226335B2 JP7226335B2 JP2019562790A JP2019562790A JP7226335B2 JP 7226335 B2 JP7226335 B2 JP 7226335B2 JP 2019562790 A JP2019562790 A JP 2019562790A JP 2019562790 A JP2019562790 A JP 2019562790A JP 7226335 B2 JP7226335 B2 JP 7226335B2
- Authority
- JP
- Japan
- Prior art keywords
- file
- audio
- audio data
- priority
- metadata
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/262—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
- H04N21/26258—Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists for generating a list of items to be played back in a given order, e.g. playlist, or scheduling item distribution according to such list
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/167—Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F13/00—Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
- G10K15/02—Synthesis of acoustic waves
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/173—Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/02—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
- H04H60/07—Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information characterised by processes or methods for the generation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L65/00—Network arrangements, protocols or services for supporting real-time applications in data packet communication
- H04L65/60—Network streaming of media packets
- H04L65/70—Media network packetisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/233—Processing of audio elementary streams
- H04N21/2335—Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
- H04N21/4621—Controlling the complexity of the content stream or additional data, e.g. lowering the resolution or bit-rate of the video stream for a mobile client with a small screen
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/482—End-user interface for program selection
- H04N21/4825—End-user interface for program selection using a list of items to be played back in a given order, e.g. playlists
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/85406—Content authoring involving a specific file format, e.g. MP4 format
Description
- Dynamic Adaptive Streaming over HTTP)である(例えば、非特許文献1参照)。
1.背景
2.構成例
3.優先度に基づくファイル生成例
4.優先度情報のシグナリング例
5.ビットレート情報のシグナリング例
6.ディスクリプション情報のシグナリング例
7.クライアント200の処理例
8.ハードウェア構成例
まず、本開示の背景について説明する。
上記では、本開示の背景について説明した。続いて、図6~図8を参照して、本開示の一実施形態に係る情報処理システムの構成例について説明する。
まず、図6を参照して、本実施形態に係る情報処理システムのシステム構成例について説明する。
上記では、本実施形態に係る情報処理システムのシステム構成例について説明した。続いて、図7を参照して、サーバ100の機能構成例について説明する。
上記では、サーバ100の機能構成例について説明した。続いて、図8を参照して、クライアント200の機能構成例について説明する。
上記では、クライアント200の機能構成例について説明した。続いて、優先度に基づくオーディオファイルの生成例について説明する。
上記では、優先度に基づくオーディオファイルの生成例について説明した。続いて、優先度情報のシグナリング例について説明する。
まず、優先度が時間の経過に伴って変化しない場合のシグナリング例について説明する。
は、当該MPDファイルに基づいて各オーディオファイルの優先度を把握することができる。
id=”o1” objectAcquisitionPriority
=”2”>」、「<AdaptationSet id=”o2” objectAcquisitionPriority =”1”>」と記載してもよい。
上記では、優先度が時間の経過に伴って変化しない場合のシグナリング例について説明した。続いて、優先度が時間の経過に伴って変化する場合のシグナリング例について説明する。
MPEG-H 3D AudioでのメタデータファイルのISOBMFFを説明する前に、まず、既存のファイルフォーマットについて説明する。MPEG-H 3D Audioでは、オブジェクトオーディオデータとオブジェクトメタデータをオーディオファイルに格納する方法が規定されている。例えば、図15の15Aに示すように、オブジェクトオーディオデータ1、オブジェクトオーディオデータ2、オブジェクトメタデータ1+2が格納されるオーディオファイル1、および、オブジェクトオーディオデータ3、オブジェクトメタデータ3が格納されるオーディオファイル2が存在する場合について考える。
上記では、MPEG-H 3D AudioでのオーディオファイルのISOBMFFについて説明した。続いて、図17を参照して、MPEG-H 3D AudioでのメタデータファイルのISOBMFF(実施例1)について説明する。より具体的には、図15の15Aに示した、オブジェクトオーディオデータ1~オブジェクトオーディオデータ3に対応するオブジェクトメタデータ1+2+3が格納される、MPEG-H 3D AudioでのメタデータファイルのISOBMFFについて説明する。また、MPEG-H 3D Audioにおいては、RAW方式とMHAS方式という2種類の格納方式が存在するところ、以下では、まず、RAW方式について説明する。
streamに関連するConfigurationが除かれることで、オブジェクトメタデータのみが含まれていることを示すことが可能である。
続いて、図19を参照して、MPEG-H 3D AudioでのメタデータファイルのISOBMFF(実施例2)のRAW方式について説明する。
上記では、MPEG-H 3D AudioのISOBMFFについて説明した。続いて、AAC 3D AudioのISOBMFFについて説明する。
3D AudioでのメタデータファイルのISOBMFFを説明する前に、まず、既存のファイルフォーマットについて説明する。AAC 3D Audioでは、複数のオーディオファイルをシグナリングする方法は規定されていないため、本開示にて新たに規定する。
3D Audioと同様にstreamIDを用いてオーディオファイル間の関係を示すことが可能となる。
上記では、AAC 3D AudioでのオーディオファイルのISOBMFFについて説明した。続いて、図22を参照して、AAC 3D AudioでのメタデータファイルのISOBMFF(実施例3)について説明する。換言すると、図15の15Aに示した、オブジェクトオーディオデータ1~オブジェクトオーディオデータ3に対応するオブジェクトメタデータ1+2+3が格納される、AAC 3D AudioでのメタデータファイルのISOBMFFについて説明する。
続いて、図23を参照して、AAC 3D AudioでのメタデータファイルのISOBMFF(実施例4)について説明する。
続いて、オーディオファイルとメタデータファイルの対応付け例について説明する。本開示は、MPDファイルを用いてオーディオファイルとメタデータファイルの対応付けを実現する。ここで、MPDファイルに関する規定においては、オーディオファイルのシグナリング方法は規定されているが、メタデータファイルのシグナリング方法は規定されていない。そこで、本開示にて、MPDファイルにおけるメタデータファイルのシグナリング方法を規定する。
当該実施例は、Preselection elementにPropertyを追加し、メタデータファイルの取得を容易にする方法である。図25を参照して、当該実施例について詳細に説明する。
当該実施例は、上記の実施例1に対して、オーディオファイルのstreamIDを示す方法を追加したものである。より具体的には、図26に示すように、各オーディオファイルを含むAdaptationSetで、「SupplementalProperty
schemeIdUri=“urn:mpeg:dash:objectAudio:objectMetadataStreamID”value=“**”」(図中の符号12)が追加される。valueは、オーディオファイルのstreamIDを示す。
当該実施例は、上記の実施例2に対して、オーディオファイルとメタデータファイルの対応付けの無駄を省略したものである。メタデータファイルを含むAdaptationSetと、各オーディオファイルを含むAdaptationSetとの対応付けを行うassociationIdを、AdaptationSetのattributeとして設定可能とする。より具体的には、図27に示すように、オーディオファイルのAdaptationSetを示すassociationId(図中の符号13)を、メタデータファイルを含むAdaptationSetのattributeとして設定可能とする。これによって、オーディオファイルとメタデータファイルの対応付けに関する記載の無駄が削減される。なお、その他の内容については、図26に示したMPDファイルと同一であるため説明を省略する。
当該実施例は、PreselectionにメタデータファイルのAdaptationSet等をシグナリングする方法である。より具体的には、図28に示すように、「SupplementalProperty
schemeIdUri=“urn:mpeg:dash:objectAudio:objectMetadataFileAndStreamID” value=“metadataASid,num_streamID,streamID1,audioASid1,streamID2,audioASid2,…,streamIDk,audioASidk”」(図中の符号14)が追加される。
当該実施例は、実施例4におけるnum_streamID、streamIDk、audioASidkをメタデータァイルのAdaptationSetでシグナリングするものである。より具体的には、図29に示すように、メタデータァイルのAdaptationSetに「SupplementalProperty
schemeIdUri=“urn:mpeg:dash:objectAudio:objectMetadataStreamID” value= “num_streamID,streamIDk,audioASidk”」(図中の符号15)が追加される。なお、その他の内容については、図28に示したMPDファイルと同一であるため説明を省略する。
上記では、優先度情報のシグナリング例について説明した。続いて、ビットレート情報のシグナリング例について説明する。より具体的には、1つのオーディオファイルに複数のオブジェクトオーディオデータが格納される場合について、それぞれのオブジェクトオーディオデータのビットレート情報をMPDファイルで示す方法の例について説明する。
まず、ビットレートが時間の経過に伴って変化しない場合のシグナリング例について説明する。
当該実施例は、オーディオファイルに格納される複数のオブジェクトオーディオデータのビットレートが互いに等しい場合にのみ使用可能なビットレート情報のシグナリング例である。
schemeIdUri=”urn:mpeg:dash:objectAudio:objectNumber” value=“**”」(図中の符号16)が追加される。valueは、オーディオファイルに格納されているオブジェクトオーディオデータ数を示す。これによって、クライアント200のMPDファイル処理部212は、オーディオファイル全体のビットレート(図中の「bitrate=“192000”」)をオブジェクトオーディオデータ数で除算して得られる値を、各オブジェクトオーディオデータのビットレートとして算出することができる。なお、図30および以降で説明するMPDファイルの内容は適宜省略されている。
当該実施例は、オーディオファイルに格納される複数のオブジェクトオーディオデータのビットレートが互いに異なる場合であっても使用可能なビットレート情報のシグナリング例である。
当該実施例は、オーディオファイルに格納される複数のオブジェクトオーディオデータのビットレートが互いに異なる場合であっても使用可能なビットレート情報のシグナリング例である。
schemeIdUri=”urn:mpeg:dash:objectAudio:objectBitrateRatio”value=“ratio1,ratio2,…,ratiok”」(図中の符号18)が追加される。valueは、オーディオファイルに格納されている各オブジェクトオーディオデータのビットレートの比を、オブジェクトオーディオデータの格納順に示すものである。図32の例では、valueは、オブジェクトオーディオデータ1~オブジェクトオーディオデータ3のビットレートの比が「2:2:1」であることを示している。
当該実施例は、上記の実施例1および実施例2を組み合せたビットレート情報のシグナリング例である。
schemeIdUri=”urn:mpeg:dash:objectAudio:objectNumberBitrate”value=“number,bitrate1,bitrate2,…,bitratek”」(図中の符号19)が追加される。valueにおけるnumberは、オーディオファイルに格納されているオブジェクトオーディオデータ数を示し、bitratekは、各オブジェクトオーディオデータのビットレートを、オブジェクトオーディオデータの格納順に示す。
続いて、ビットレートが時間の経過に伴って変化する場合のシグナリング例について説明する。ここでは、ビットレートが優先度に応じて時間の経過と共に変化する場合のシグナリング例について説明する。
当該実施例は、オーディオファイルに格納されるオブジェクトオーディオデータのビットレートが時間の経過に伴って変化することだけを示すシグナリング例である。
当該実施例は、オーディオファイルに格納されるオブジェクトオーディオデータのビットレートが優先度に応じて決まることを示すことで、オブジェクトオーディオデータのビットレートが時間の経過に伴って変化することを示すシグナリング例である。
当該実施例は、オーディオファイルに格納されるオブジェクトオーディオデータのビットレートの比が優先度に応じて決まることを示すことで、オブジェクトオーディオデータのビットレートが時間の経過に伴って変化することを示すシグナリング例である。
value=“ratio1, ratio2,…,ratiok”」(図中の符号22)が追加される。valueは、優先度の高い順に並べられたオブジェクトオーディオデータのビットレートの比を示す。
当該実施例は、ビットレートをオーディオファイルへの格納順で示す方法と、ビットレートを優先度の高い順で示す方法とを切り替えることができるシグナリング例である。
schemeIdUri=“urn:mpeg:dash:objectAudio:objectBitrate” value=“flag,bitrate1,bitrate2,…,bitratek”」(図中の符号23)が追加される。valueにおけるflagは、ビットレートがオーディオファイルへの格納順で並んでいるのか、優先度の高い順で並んでいるのかを示す。例えば、flagが0であることは、ビットレートがオーディオファイルへの格納順で並んでいることを示し、flagが1であることは、ビットレートが優先度の高い順で並んでいることを示す。また、valueにおけるbitratekは、各オブジェクトオーディオデータのビットレートを示す。
上記では、ビットレート情報のシグナリング例について説明した。続いて、ディスクリプション情報のシグナリング例について説明する。
schemeIdUri=“urn:mpeg:dash:objectAudio:objectDescription”value=“description1,description2,…,descriptionk”」(図中の符号24)が追加される。valueは、オブジェクトオーディオデータのディスクリプション情報を、オブジェクトオーディオデータの格納順に示すものである。例えば、valueには、39Bに示すように、「“メインボーカル,コーラス,バンド”」が格納される。
上記では、ディスクリプション情報のシグナリング例について説明した。続いて、クライアント200の処理例について説明する。
まず、図40を参照して、優先度が時間の経過に伴って変化しない場合のクライアント200の処理例について説明する。図40は、優先度が時間の経過に伴って変化しない場合において、クライアント200がオーディオコンテンツの再生に用いるオーディオファイルを取得するまでの処理例を示すフローチャートである。
続いて、図42を参照して、優先度が時間の経過に伴って変化する場合のクライアント200の処理例について説明する。図42は、優先度が時間の経過に伴って変化する場合において、クライアント200がオーディオコンテンツの再生に用いるオーディオファイルを取得するまでの処理例を示すフローチャートである。
上記では、クライアント200の処理例について説明した。続いて、図44を参照して、サーバ100またはクライアント200のハードウェア構成例について説明する。
Memory)902と、RAM(Random Access Memory)903と、ホストバス904と、ブリッジ905と、外部バス906と、インタフェース907と、入力装置908と、出力装置909と、ストレージ装置(HDD)910と、ドライブ911と、通信装置912とを備える。
(1)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを送信する送信部を備える、
送信装置。
(2)
前記ストリームデータは、MPEG-DASH(Dynamic Adaptive
Streaming over Http)によって規定されたデータである、
前記(1)に記載の送信装置。
(3)
前記優先度に基づいて1または2以上の前記オブジェクトオーディオデータをオーディオファイルに含めることで前記ストリームデータを生成する処理部をさらに備える、
前記(1)または(2)に記載の送信装置。
(4)
前記処理部は、前記優先度に基づいて前記オーディオファイル単位で別の優先度を設定する、
前記(3)に記載の送信装置。
(5)
前記処理部は、前記ストリームデータについてのMPDファイル、または、前記オブジェクトオーディオデータに対応するオブジェクトメタデータを含むメタデータファイルのいずれかに前記優先度に関する情報を含める、
前記(3)または(4)に記載の送信装置。
(6)
前記優先度が時間の経過に伴って変化しない場合、前記処理部は、前記MPDファイルに前記優先度に関する情報を含める、
前記(5)に記載の送信装置。
(7)
前記処理部は、前記MPDファイルのアダプテーションセット(AdaptationSet)に前記優先度に関する情報を含める、
前記(6)に記載の送信装置。
(8)
前記優先度が時間の経過に伴って変化する場合、前記処理部は、前記メタデータファイルに前記優先度に関する情報を含める、
前記(5)に記載の送信装置。
(9)
前記処理部は、前記MPDファイルを用いて前記メタデータファイルと前記オーディオファイルを対応付ける、
前記(8)に記載の送信装置。
(10)
前記処理部は、前記オブジェクトオーディオデータのビットレートに関する情報を前記MPDファイルに含める、
前記(5)から(9)のいずれか1項に記載の送信装置。
(11)
前記処理部は、前記ビットレートに関する情報を、前記オブジェクトオーディオデータごとに前記MPDファイルに含める、
前記(10)に記載の送信装置。
(12)
前記処理部は、前記ビットレートに関する情報を、前記優先度ごとに前記MPDファイルに含める、
前記(10)に記載の送信装置。
(13)
前記処理部は、前記ビットレートに関する情報を、前記オブジェクトオーディオデータごとに前記MPDファイルに含めるか、前記優先度ごとに前記MPDファイルに含めるかを示すflagを前記MPDファイルに含める、
前記(11)または(12)に記載の送信装置。
(14)
前記処理部は、前記オブジェクトオーディオデータのディスクリプション情報を前記MPDファイルに含める、
前記(5)から(13)のいずれか1項に記載の送信装置。
(15)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを送信することを有する、
コンピュータにより実行される送信方法。
(16)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを送信すること、
をコンピュータに実現させるためのプログラム。
(17)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを受信する受信部を備える、
受信装置。
(18)
前記ストリームデータは、MPEG-DASH(Dynamic Adaptive
Streaming over Http)によって規定されたデータである、
前記(17)に記載の受信装置。
(19)
前記ストリームデータについてのMPDファイル、または、前記オブジェクトオーディオデータに対応するオブジェクトメタデータを含むメタデータファイルのいずれかに含まれる前記優先度に関する情報に基づいて前記ストリームデータの受信処理を行う処理部をさらに備える、
前記(17)または(18)に記載の受信装置。
(20)
前記優先度が時間の経過に伴って変化しない場合、前記処理部は、前記MPDファイルに含まれる前記優先度に関する情報に基づいて前記ストリームデータの受信処理を行う、
前記(19)に記載の受信装置。
(21)
前記優先度が時間の経過に伴って変化する場合、前記処理部は、前記メタデータファイルに含まれる前記優先度に関する情報に基づいて前記ストリームデータの受信処理を行う、
前記(19)に記載の受信装置。
(22)
前記処理部は、前記MPDファイルに含まれる、前記オブジェクトオーディオデータのビットレートに関する情報に基づいて前記ストリームデータの選択および前記受信処理を行う、
前記(19)から(21)のいずれか1項に記載の受信装置。
(23)
前記処理部は、前記MPDファイルに含まれる、前記オブジェクトオーディオデータのディスクリプション情報に基づいて前記ストリームデータの選択および前記受信処理を行う、
前記(19)から(22)のいずれか1項に記載の受信装置。
(24)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを受信することを有する、
コンピュータにより実行される受信方法。
(25)
オブジェクトオーディオデータ単位で優先度が設定されたストリームデータを受信すること、
をコンピュータに実現させるためのプログラム。
(1)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルを生成する処理部を備える、
情報処理装置。
(2)
前記メタデータファイルは、複数の前記オーディオファイルのそれぞれに含まれるオブジェクトメタデータを含む、
前記(1)に記載の情報処理装置。
(3)
前記メタデータファイルは、前記オブジェクトオーディオデータ単位で設定された優先度に関する情報を含む、
前記(1)または(2)に記載の情報処理装置。
(4)
前記メタデータファイルおよび前記オーディオファイルは、MP4(ISO/IEC Part 12 ISO Base Media File Format)によって規定されたファイルである、
前記(1)から(3)のいずれか1項に記載の情報処理装置。
(5)
前記処理部は、前記メタデータファイルを生成する際、前記メタデータファイルが対応する前記オーディオファイルの特定に用いられる情報を前記MP4におけるMovie Boxに含める、
前記(4)に記載の情報処理装置。
(6)
前記処理部は、前記メタデータファイルが対応する前記オーディオファイルの特定に用いられる情報を前記Movie BoxにおけるSample Description Boxに含める、
前記(5)に記載の情報処理装置。
(7)
前記処理部は、前記メタデータファイルが対応する前記オーディオファイルの特定に用いられる情報を前記Sample Description BoxにおけるSample Entryに含める、
前記(6)に記載の情報処理装置。
(8)
前記オーディオファイルの特定に用いられる情報は、streamIDを含み、
前記メタデータファイルに含まれる前記オブジェクトメタデータは、前記streamIDによって前記オーディオファイルと対応付けられる、
前記(5)から(7)のいずれか1項に記載の情報処理装置。
(9)
前記オブジェクトメタデータおよび前記オブジェクトオーディオデータは、MPEG-H 3D AudioまたはAAC 3D Audioによって規定されたデータである、
前記(1)から(8)のいずれか1項に記載の情報処理装置。
(10)
前記オブジェクトメタデータおよび前記オブジェクトオーディオデータが前記AAC 3D Audioによって規定されたデータである場合、
前記処理部は、前記オーディオファイルを生成する際、前記オーディオファイルを含む複数のオーディオファイル間の対応関係を示す情報をMP4におけるMovie Boxに含める、
前記(9)に記載の情報処理装置。
(11)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルを生成することを有する、
コンピュータにより実行される情報処理方法。
(12)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルを生成すること、
をコンピュータに実現させるためのプログラム。
(13)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルに対する受信処理を行う処理部を備える、
情報処理装置。
(14)
前記メタデータファイルは、複数の前記オーディオファイルのそれぞれに含まれるオブジェクトメタデータを含む、
前記(13)に記載の情報処理装置。
(15)
前記メタデータファイルは、前記オブジェクトオーディオデータ単位で設定された優先度に関する情報を含む、
前記(13)または(14)に記載の情報処理装置。
(16)
前記メタデータファイルおよび前記オーディオファイルは、MP4(ISO/IEC Part 12 ISO Base Media File Format)によって規定されたファイルである、
前記(13)から(15)のいずれか1項に記載の情報処理装置。
(17)
前記処理部は、前記メタデータファイルに対する受信処理の際、前記MP4におけるMovie Boxに含まれる情報を用いて前記メタデータファイルが対応する前記オーディオファイルを特定する、
前記(16)に記載の情報処理装置。
(18)
前記処理部は、前記Movie BoxにおけるSample Description Boxに含まれる情報を用いて前記メタデータファイルが対応する前記オーディオファイルを特定する、
前記(17)に記載の情報処理装置。
(19)
前記処理部は、前記Sample Description BoxにおけるSample Entryに含まれる情報を用いて前記メタデータファイルが対応する前記オーディオファイルを特定する、
前記(18)に記載の情報処理装置。
(20)
前記メタデータファイルに含まれる前記オブジェクトメタデータは、streamIDによって前記オーディオファイルと対応付けられる、
前記(17)から19のいずれか1項に記載の情報処理装置。
(21)
前記オブジェクトメタデータおよび前記オブジェクトオーディオデータは、MPEG-H 3D AudioまたはAAC 3D Audioによって規定されたデータである、
前記(13)から(20)のいずれか1項に記載の情報処理装置。
(22)
前記オブジェクトメタデータおよび前記オブジェクトオーディオデータが前記AAC 3D Audioによって規定されたデータである場合、
前記処理部は、前記オーディオファイルに対する受信処理の際、MP4におけるMovie Boxに含まれる情報を用いて前記オーディオファイルを含む複数のオーディオファイル間の対応関係を認識する、
前記(21)に記載の情報処理装置。
(23)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルに対する受信処理を行うことを有する、
コンピュータにより実行される情報処理方法。
(24)
オブジェクトオーディオデータとオブジェクトメタデータを含むオーディオファイル、および、前記オブジェクトオーディオデータを含まず前記オブジェクトメタデータを含むメタデータファイルに対する受信処理を行うこと、
をコンピュータに実現させるためのプログラム。
(1)
取得されたオブジェクトオーディオデータごとに優先度を設定し、
前記優先度に基づいて、1または2以上の前記オブジェクトオーディオデータから、生成されるセグメントファイルに含める前記オブジェクトオーディオデータを決定し、
前記優先度に基づいて、生成された前記セグメントファイルに対し設定する新たな優先度を優先度情報として生成する処理部を備える、
情報処理装置。
(2)
前記処理部は、更に、前記オブジェクトオーディオデータに対応する符号化されたオブジェクトメタデータを有するメタデータファイルを生成し、
前記オブジェクトメタデータには前記優先度情報が含まれる、
前記(1)に記載の情報処理装置。
(3)
前記優先度情報が時間の経過に伴って変化しない場合、前記処理部は、更に、前記セグメントファイルについてのMPDファイルを生成し、前記MPDファイルに前記優先度情報を含める、
前記(1)に記載の情報処理装置。
(4)
前記処理部は、前記MPDファイルのアダプテーションセット(AdaptationSet)に前記優先度情報を含める、
前記(3)に記載の情報処理装置。
(5)
前記優先度情報が時間の経過に伴って変化する場合、前記処理部は、更に、前記セグメントファイル及び前記メタデータファイルについてのMPDファイルを生成する、
前記(2)に記載の情報処理装置。
(6)
前記処理部は、前記オブジェクトオーディオデータのビットレートに関する情報を、前記オブジェクトオーディオデータごとに前記MPDファイルに含める、
前記(4)または(5)に記載の情報処理装置。
(7)
前記処理部は、前記セグメントファイルの特定に用いられる情報を、前記メタデータファイルのMovie BoxのSample Description Boxに格納する、
前記(2)に記載の情報処理装置。
(8)
前記処理部は、前記セグメントファイルの特定に用いられる情報を、前記Sample Description BoxにおけるSample Entryに格納する
前記(7)に記載の情報処理装置。
(9)
前記セグメントファイルの特定に用いられる情報には、前記セグメントファイルをユニークに識別するためのstreamIDが含まれる
前記(8)に記載の情報処理装置。
(10)
取得されたオブジェクトオーディオデータごとに優先度が設定されたストリームデータを情報処理することを有する、
コンピュータにより実行される情報処理方法。
(11)
取得されたオブジェクトオーディオデータごとに優先度が設定されたストリームデータを情報処理すること、
をコンピュータに実現させるためのプログラム。
110 処理部
111 データ取得部
112 符号化処理部
113 セグメントファイル生成部
114 MPDファイル生成部
120 制御部
130 通信部
140 記憶部
200 クライアント
210 処理部
211 MPDファイル取得部
212 MPDファイル処理部
213 セグメントファイル選択部
214 セグメントファイル取得部
215 復号処理部
216 合成処理部
220 制御部
230 通信部
240 記憶部
300 インターネット
Claims (11)
- 取得されたオブジェクトオーディオデータごとに優先度を設定し、
前記優先度に基づいて、1または2以上の前記オブジェクトオーディオデータから、生成されるセグメントファイルに含める前記オブジェクトオーディオデータを決定し、
前記優先度に基づいて、生成された前記セグメントファイルに対し設定する新たな優先度を優先度情報として生成する処理部を備える、
情報処理装置。 - 前記処理部は、更に、前記オブジェクトオーディオデータに対応する符号化されたオブジェクトメタデータを有するメタデータファイルを生成し、
前記オブジェクトメタデータには前記優先度情報が含まれる、
請求項1に記載の情報処理装置。 - 前記優先度情報が時間の経過に伴って変化しない場合、前記処理部は、更に、前記セグメントファイルについてのMPDファイルを生成し、前記MPDファイルに前記優先度情報を含める、
請求項1に記載の情報処理装置。 - 前記処理部は、前記MPDファイルのアダプテーションセット(AdaptationSet)に前記優先度情報を含める、
請求項3に記載の情報処理装置。 - 前記優先度情報が時間の経過に伴って変化する場合、前記処理部は、更に、前記セグメントファイル及び前記メタデータファイルについてのMPDファイルを生成する、
請求項2に記載の情報処理装置。 - 前記処理部は、前記オブジェクトオーディオデータのビットレートに関する情報を、前記オブジェクトオーディオデータごとに前記MPDファイルに含める、
請求項4または5に記載の情報処理装置。 - 前記処理部は、前記セグメントファイルの特定に用いられる情報を、前記メタデータファイルのMovie BoxのSample Description Boxに格納する、
請求項2に記載の情報処理装置。 - 前記処理部は、前記セグメントファイルの特定に用いられる情報を、前記Sample Description BoxにおけるSample Entryに格納する
請求項7に記載の情報処理装置。 - 前記セグメントファイルの特定に用いられる情報には、前記セグメントファイルをユニークに識別するためのstreamIDが含まれる
請求項8に記載の情報処理装置。 - 取得されたオブジェクトオーディオデータごとに設定された優先度に基づいて1または2以上の前記オブジェクトオーディオデータから決定された前記オブジェクトオーディオデータを含めて生成されるセグメントファイルに対して、前記優先度に基づき新たな優先度が設定されたストリームデータを情報処理することを有する、
コンピュータにより実行される情報処理方法。 - 取得されたオブジェクトオーディオデータごとに設定された優先度に基づいて1または2以上の前記オブジェクトオーディオデータから決定された前記オブジェクトオーディオデータを含めて生成されるセグメントファイルに対して、前記優先度に基づき新たな優先度が設定されたストリームデータを情報処理すること、
をコンピュータに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023018720A JP2023053131A (ja) | 2017-12-28 | 2023-02-09 | 情報処理装置および情報処理方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017253805 | 2017-12-28 | ||
JP2017253805 | 2017-12-28 | ||
PCT/JP2018/039286 WO2019130763A1 (ja) | 2017-12-28 | 2018-10-23 | 情報処理装置、情報処理方法およびプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023018720A Division JP2023053131A (ja) | 2017-12-28 | 2023-02-09 | 情報処理装置および情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019130763A1 JPWO2019130763A1 (ja) | 2020-12-17 |
JP7226335B2 true JP7226335B2 (ja) | 2023-02-21 |
Family
ID=67063395
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019562790A Active JP7226335B2 (ja) | 2017-12-28 | 2018-10-23 | 情報処理装置、情報処理方法およびプログラム |
JP2023018720A Pending JP2023053131A (ja) | 2017-12-28 | 2023-02-09 | 情報処理装置および情報処理方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023018720A Pending JP2023053131A (ja) | 2017-12-28 | 2023-02-09 | 情報処理装置および情報処理方法 |
Country Status (9)
Country | Link |
---|---|
US (1) | US20200321015A1 (ja) |
EP (1) | EP3734594A4 (ja) |
JP (2) | JP7226335B2 (ja) |
KR (1) | KR20200101349A (ja) |
CN (1) | CN111512634A (ja) |
BR (1) | BR112020012494A2 (ja) |
RU (1) | RU2020120328A (ja) |
TW (1) | TW201939960A (ja) |
WO (1) | WO2019130763A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2554877B (en) * | 2016-10-10 | 2021-03-31 | Canon Kk | Methods, devices, and computer programs for improving rendering display during streaming of timed media data |
CN111510756A (zh) * | 2019-01-30 | 2020-08-07 | 上海哔哩哔哩科技有限公司 | 音视频的切换方法、装置、计算机设备及可读存储介质 |
EP4062649A2 (en) * | 2019-11-20 | 2022-09-28 | Dolby International AB | Methods and devices for personalizing audio content |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014007603A (ja) | 2012-06-25 | 2014-01-16 | Panasonic Corp | コンテンツ再生装置、コンテンツ再生システム、及びコンテンツ再生方法 |
WO2015182491A1 (ja) | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2016010090A (ja) | 2014-06-26 | 2016-01-18 | ソニー株式会社 | 復号装置および方法、並びにプログラム |
JP2017507365A (ja) | 2014-03-06 | 2017-03-16 | ディーティーエス・インコーポレイテッドDTS,Inc. | 複数のオブジェクトオーディオのポスト符号化ビットレート低減 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7526427B2 (en) * | 2001-03-06 | 2009-04-28 | Ati Technologies, Inc. | System and method for reception, processing and transmission of digital audio stream |
DE10339498B4 (de) * | 2003-07-21 | 2006-04-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audiodateiformatumwandlung |
US8204359B2 (en) * | 2007-03-20 | 2012-06-19 | At&T Intellectual Property I, L.P. | Systems and methods of providing modified media content |
JP5726874B2 (ja) * | 2009-08-14 | 2015-06-03 | ディーティーエス・エルエルシーDts Llc | オブジェクト指向オーディオストリーミングシステム |
EP2525587B1 (en) * | 2011-05-17 | 2017-07-05 | Alcatel Lucent | Method for streaming video content, node in a network for monitoring video content streaming |
US9445136B2 (en) * | 2011-09-21 | 2016-09-13 | Qualcomm Incorporated | Signaling characteristics of segments for network streaming of media data |
US20130254611A1 (en) * | 2012-03-23 | 2013-09-26 | Qualcomm Incorporated | Recovering data in multimedia file segments |
JP6181650B2 (ja) * | 2012-07-02 | 2017-08-16 | サターン ライセンシング エルエルシーSaturn Licensing LLC | 送信装置、送信方法およびネットワーク装置 |
CN105900174B (zh) * | 2014-01-14 | 2019-07-30 | 索尼公司 | 信息处理设备、信息记录介质、信息处理系统、信息处理方法及计算机可读存储介质 |
EP3151242B1 (en) * | 2014-05-30 | 2020-01-15 | Sony Corporation | Information processor and information processing method |
WO2016076569A1 (ko) * | 2014-11-12 | 2016-05-19 | 엘지전자 주식회사 | 방송 신호 송신 장치, 방송 신호 수신 장치, 방송 신호 송신 방법, 및 방송 신호 수신 방법 |
US10269387B2 (en) * | 2015-09-30 | 2019-04-23 | Apple Inc. | Audio authoring and compositing |
-
2018
- 2018-10-23 US US16/955,990 patent/US20200321015A1/en not_active Abandoned
- 2018-10-23 BR BR112020012494-0A patent/BR112020012494A2/pt not_active IP Right Cessation
- 2018-10-23 RU RU2020120328A patent/RU2020120328A/ru unknown
- 2018-10-23 EP EP18893921.9A patent/EP3734594A4/en not_active Withdrawn
- 2018-10-23 WO PCT/JP2018/039286 patent/WO2019130763A1/ja unknown
- 2018-10-23 JP JP2019562790A patent/JP7226335B2/ja active Active
- 2018-10-23 KR KR1020207016943A patent/KR20200101349A/ko not_active Application Discontinuation
- 2018-10-23 CN CN201880082582.9A patent/CN111512634A/zh not_active Withdrawn
- 2018-12-18 TW TW107145623A patent/TW201939960A/zh unknown
-
2023
- 2023-02-09 JP JP2023018720A patent/JP2023053131A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014007603A (ja) | 2012-06-25 | 2014-01-16 | Panasonic Corp | コンテンツ再生装置、コンテンツ再生システム、及びコンテンツ再生方法 |
JP2017507365A (ja) | 2014-03-06 | 2017-03-16 | ディーティーエス・インコーポレイテッドDTS,Inc. | 複数のオブジェクトオーディオのポスト符号化ビットレート低減 |
WO2015182491A1 (ja) | 2014-05-30 | 2015-12-03 | ソニー株式会社 | 情報処理装置および情報処理方法 |
JP2016010090A (ja) | 2014-06-26 | 2016-01-18 | ソニー株式会社 | 復号装置および方法、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
BR112020012494A2 (pt) | 2020-11-24 |
JP2023053131A (ja) | 2023-04-12 |
EP3734594A4 (en) | 2020-11-11 |
EP3734594A1 (en) | 2020-11-04 |
KR20200101349A (ko) | 2020-08-27 |
WO2019130763A1 (ja) | 2019-07-04 |
JPWO2019130763A1 (ja) | 2020-12-17 |
RU2020120328A3 (ja) | 2021-12-20 |
TW201939960A (zh) | 2019-10-01 |
RU2020120328A (ru) | 2021-12-20 |
CN111512634A (zh) | 2020-08-07 |
US20200321015A1 (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023053131A (ja) | 情報処理装置および情報処理方法 | |
KR100868475B1 (ko) | 객체기반 오디오 서비스를 위한 다중객체 오디오 콘텐츠파일의 생성, 편집 및 재생 방법과, 오디오 프리셋 생성방법 | |
CN104253999B (zh) | 用于发送内容的设备和方法 | |
US7844661B2 (en) | Composition of local media playback with remotely generated user interface | |
US7500175B2 (en) | Aspects of media content rendering | |
US20140052770A1 (en) | System and method for managing media content using a dynamic playlist | |
KR20040005919A (ko) | 프리젠테이션의 재생 속도 실시간 제어 | |
JP5652642B2 (ja) | データ生成装置およびデータ生成方法、データ処理装置およびデータ処理方法 | |
JP2009543201A (ja) | ローカル・ユーザ・インターフェースの、リモートで生成されたユーザ・インターフェースおよびメディアとの組合せ構成 | |
JP7396267B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2021065605A1 (ja) | 情報処理装置および情報処理方法 | |
WO2021002338A1 (ja) | 情報処理装置、情報処理方法、再生処理装置及び再生処理方法 | |
WO2019216001A1 (ja) | 受信装置、送信装置、受信方法、送信方法、およびプログラム | |
WO2019187434A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2021065277A1 (ja) | 情報処理装置、再生処理装置及び情報処理方法 | |
US20220239994A1 (en) | Information processing apparatus, information processing method, reproduction processing apparatus, and reproduction processing method | |
JPWO2014171385A1 (ja) | サーバ装置、コンテンツ提供方法及びコンピュータプログラム | |
CN101395910A (zh) | 用于记录对媒体内容的编辑的方法和系统 | |
JP2019121037A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11967153B2 (en) | Information processing apparatus, reproduction processing apparatus, and information processing method | |
JP2016040919A (ja) | 情報処理装置、情報処理方法およびプログラム | |
KR100940212B1 (ko) | 적응화된 콘텐츠 제공방법 및 적응화된 콘텐츠 제공 시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220930 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7226335 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |